Nvidia vs ATI - битва продолжается v7

Продолжаем обсуждение этой вечной темы.
Просьба не писать утверждения вроде "Nvidia рулит и все!", лишенные всякого смысла и здравой логики, такие посты будут удаляться. Свое мнение обосновываем.
Предыдущая тема

Комментарии: 443
Тема закрыта. Публикация новых комментариев отключена.

Отец скажи пожалуйста почему везде обсирают 8800gts
Спасибо

0

Detector
Везде понятие не совсем определенное, ссылку давай, а там посмотрим.
8800GTS высокопроизводительная карта, выделяющаяся на фоне конкурента в лице 2900XT как минимум более низким тепловыделением и энергопотреблением.

0

Я понял спасибо просто я уже жалею о покупке надо было
2900хт брать наверное.

0

обычно обсирают те кто неможет купить )
сидят на 6200LE или что похуже и обсирают.
сам 8800 про взял.

0

ilov, Вот тут то ты и проиграл во многом, еще было бы ничего если ты хотя бы взял 8800 GTS А то pro Хе-хе
ржу нимагу

0

Где это вы видели 8800 Pro я вообще первый раз о такой слышу. Дайте ссылку где её видели.

0

Читаем свежее тестирование Radeon HD 2900XT 1Gb, как одиночной, так и в Crossfire-связке. Естественно, результаты HD 2900XT 512, 8800GTS/GTX/Ultra прилагаются. Что расстраивает, тесты проводились при старых дровах ATI Catalyst 7.7, также 8800GTX имела повышенные относительно номинала частоты. Я не фанат ATI, просто уточняю ради справедливости.

0

народ подскажите кто нидь, стоит ли менять GF8800 на Radeon HD2900XTX 1Gb DDR4...

0

Какую GF8800? Если 8800GTS, то я бы махнул. Если 8800GTX/Ultra, то разумеется нет.
P.S. А где ты XTX откопал?

0

Если деньги некуда девать-то ДА,а я бы НЕТ!!!

0

Нвидиа заточенны под игры,радик больше для работы...Хотя сам почему-то взял радик Х1950Про хотя хотел 8600ГТ...

0

Видео карта (пусть и прошлого) хай-энд класса для работы, такого я ище не слышал...

0

Нвидиа заточенны под игры,радик больше для работы
Что за бред?

0

Тест в дх10:

Athlon64 X2 6000+, 2х2900XT (Crossfire), OCZ DDR2 PC2-5400 AM2 Special 4GB Dual Channel:
FPS: 28,6
Max FPS: 39,9
Min FPS: 19,3

C2Q Q6600, 8800Ultra (одиночная), 3Gb
тот же тест с теми же настройками:
FPS: 47,6
Max FPS: 79,0
Min FPS: 25,7

Ещё есть вопросы типа "что лучше: одна Ультра за 18039руб. или два Радика по 12287 (цены взяты из прайса санрайза и олди, обе карты есть в наличии на данный момент) и БП хз на сколько Ватт (ультра легко держится на 580 честных Ваттах, которых для двух Радиков недостаточно)"?
Разницу (в данном случае 6535 руб только с видюх) можно пустить на проц (Q6600 - 7341 руб., 6000+ - 4685руб), и ещё останется 2500+ руб. Но это только сравнение двух данных систем...

0

Нвидиа на одних и тех же настройках с аналогичными картами с радиком побольше выдаст ФПС...

0

Тест PT Boats Knights of the Sea DX10 Benchmark не использует Crossfire вообще

С одной картой
FPS: 29,1
Max FPS: 40,7
Min FPS: 18,1

0

Alexandr82, ну тогда ничего не имею против.
Просто странно, что новейший дх10 тест не поддерживает такие технологии...

0

Я-фанат radeon.Поэтому гефорс, а особенно 8800 - в топку.Вечно у меня гефорсы глючили и грелись.

0

ATI больше нет, есть AMD. О чём можно спорить? Ведь для AMD конкуренция с Нвидией - не главная, а то и вообще не задача.

0

Я-фанат radeon.Поэтому гефорс, а особенно 8800 - в топку.Вечно у меня гефорсы глючили и грелись.

А HD 2900 разве не греется и не глючит? :D


Ведь для AMD конкуренция с Нвидией - не главная, а то и вообще не задача.

Уже не главная задача. В данный момент им надо пытаться выжить на рынке...

0

Я-фанат radeon...
После этих слов можно уже ничего не говорить... Предвзятые, однобокие и недалёкие выводы нас не интересуют.

а особенно 8800 - в топку.Вечно у меня гефорсы глючили и грелись
Интересно, сколько у тебя было Жерафов 8800 серии или ты исходишь из того - что недоступно то и не вкусно? Твоя устаревшая 1950хт явно круче.
Передавай привет отделу усторевшего железа...


твои слова: "меня что-то с видюхой (radeon x1950xt 256метров sapphire).Глючит со всеми дровами,а в гарантийке отказали."
БИНГО!!!

БА! продолжаем: "а на моей машине амд40001024ати1950ХТ 256мв этот тест вообще еле ползал -
1115 кадров в секунду в дефолтных настройках.Что с моим компом?"

У вашего компа стоит криворукая прокладка между монитором и креслом, которая занимается тем, что мешает работе всей системе и постит глупые коменты на форумах.

зы. Я не удевлюсь если у тебя вилка за обедом перестанет работать...

0

Интересные подробности http://overclockers.ru/hardnews/27028.shtml. Для меня как для фаната ATI&AMD это хорошая новость, но возникает другой вопрос, неужели 2950ХТ будет мощнее чем 2900ХТ ведь в первой больше только частота и всё.

0

Лучше бы объявили, сколько текстурников в этом RV670.

0

Полностью с тобой согласен и я очень хочу чтобы их было побольше.

0

Есть информация или это просто мнение?

0

Alexandr82
А источники этой информации есть?
Если это правда, то хреново.

0

Если бы был смысл ставить больше, то давно бы уже поставили. Да и RV670 будет облегченной версией R600, смысла туда накручивать дополнительные текстурники нет.

0

Карты ATI страдают не от количества текстурников, а от слабой поддержки со стороны разработчиков игр.

0

Конечному пользователю от этого не легче =)

0

X1950 Pro с 12 текстурниками умудряется порвать 7900GS с 20 текстурниками.

0

Если говорить о 2900XT то там вообще всего 4 текстурных блока, только не вполне обычных.

0

Да, господа, на словах вы ловить умеете профессионально...Кстати дело оказалось не в видеокарте:
после теста на другой тачке всё оказалось в норме.И что, Allfa, по-вашему не старье?Наверное 4 гефорса
8800 в quad-sli.Ну если у вас несколько лишних килобаксов карман прожигают, то я вас поздравляю.

0

Смотрим очередные тесты GeForce 8xxx и HD 2xxx на THG.ru, версии драйверов Forceware 162.22 и Catalyst 7.9.
Тесты включают в себя Bioshok, Lost Planet, World in Conflict, Company of Heroes.

0

Смотрим очередные тесты
Судя по тестам 8600 не так уж плохо себя чувствует как хотелось некоторым поклонникам 1950. ; )
Стоит обратить внимание на то что карты AMD в некоторых тестах ваще не пашут... Вобщем nVidia на высоте по всем фронтам.

0

Там тесты ещё на старых дровах, были бы 163.71
Былобы лучше

Скро 3ДМарк 07 или 08 выйдет там посмотрим
Говорят он будет ДХ10 онли

0

Тестил я как то (3DMark05), Sapphire 1950XT 512 mb 256 bit и Galaxy 8600 GTS 256 mb 128 bit, результаты у радеона 10500 попугаев, у жирафа 11200, вывод зачем платить больше за радеон, когда жираф стоит дешевле, + поддержка DX10 + не шумит в отличии от радеона и дрова чаще обновляються. Так что вот так.

0

Судя по тестам 8600 не так уж плохо себя чувствует как хотелось некоторым поклонникам 1950.
Что-то я не заметил играбельный fps у 8600GTS при 1280х1024. Только в Биошоке кол-во кадров в секунду чуть превысило 30.

Gurevi4
Вывод - не нужно смотреть на бенчмарки.

0

Отец Викториус
Вывод - Nvidia в любом случае лидер на рынке.

0

Gurevi4
В верхнем ценовом сегменте - не спорю. Я просто утверждаю, что X1950XT лучше, чем 8600GTS.

0

Что-то я не заметил играбельный fps у 8600GTS при 1280х1024. Только в Биошоке кол-во кадров в секунду чуть превысило 30.
Заметь, что там максимальные настройки. На средних пойдёт нормально, в конце статьи об этом сказанно.

Я просто утверждаю, что X1950XT лучше, чем 8600GTS.
Ну и зря! : )

0

Цитата из одной новости с оверклокеров:
Как сообщает сайт Nordic Hardware со ссылкой на полученную от партнёров NVIDIA информацию, преемник G80 будет обладать гораздо более высоким быстродействием, оцениваемым в три терафлопса. Предполагается, что представляющий собой связку из двух RV670 на одной плате продукт по имени R680 будет обладать быстродействием порядка одного терафлопса. Таким образом, GeForce 9800 GTX (название примерное) сможет превзойти конкурента в три раза, если речь, конечно, идёт об одиночной видеокарте.
ХАХАХАХАХАХА!!!!!!!!!!Чё то мне это с трудом верится=)

0

Allfa
Ну и зря! : )
Ни одного весомого аргумента в пользу 8600 я так и не услышал.
- меньше греется и шумит? Ищите X1950XT с альтернативным охлаждением, работают тихо и эффективно.
- меньше энергопотребление? Качественный 450-ваттник можно купить за 1000 руб, потянет X1950XT + процессор Core 2 Duo в хорошем разгоне.
- поддерживает DX10 и SM 4.0? Да пусть поддерживает, я не против. Лишь в единичных случаях мощности 8600 хватает, чтобы выдать 30 fps при разрешении 1280x1024 в DX10-приложениях. Можно, конечно, надеяться, что когда-нибудь DX10 перестанет быть привилегией обладателей high-end видеокарт, но учитывая криворукость разработчиков игр - врядли, по крайней мере в ближайшем будущем.
Заметь, что там максимальные настройки. На средних пойдёт нормально, в конце статьи об этом сказанно.
Средние настройки и включенный DX10? Звучит смешно.

0

Ни одного весомого аргумента в пользу 8600 я так и не услышал.
Главное - хотеть.

- меньше греется и шумит? Ищите X1950XT с альтернативным охлаждением, работают тихо и эффективно.
На крайняк сами сделайте.... А что сразу тяму не хватило нормально сделать? Надо ещё и поискать и пое...я? : (

- меньше энергопотребление? Качественный 450-ваттник
Жрать она меньше не станет.

Лишь в единичных случаях мощности 8600 хватает, чтобы выдать 30 fps при разрешении 1280x1024 DX10-приложениях
Это при максимальных настройках в плохо оптемезированной среде (игры делались под 9 директ). Игры будут расчитываться так чтобы идти не только на топовых продуктах. А 1950 с какой частотой кадров работает? Больше 0 кадров выдать сможет? Тут неоспоримое преймущество у 8600.

врядли, по крайней мере в ближайшем будущем.
Уже сегодня можно использовать 8600 ДХ10 играх.

Средние настройки и включенный DX10? Звучит смешно.
Смешно будет когда запустишь 1950 под 10 директ. Средние настройки не сильно отлечяются от максимальных как 9 от 10 ДХ.

ты забыл сказать про кревые драйвера у ати.

Все эти разговоры имеют мало оснований до выхода настоящих игр под 10 директ. Крайзис например. Так что подождём пару неделек а там посмотрим какая разница. Кроме того у 8600 есть явные плюсы которые со временем станут актуальней, а у 1950 только минусы которые будут тянуть её всё ниже и ниже.

зы Как ваще у тебя получается сравнивать эти карты в 10 директе ведь 1950 ваще там не пашет... даже если 8600 идёт не совсем гладко это в любом случае больше в 4 500 000 000 раз чем ничего. и даже больше : )
8600 в Биошоке выдаёт 40-45 кадров в МАКСИМАЛЬНЫХ настройках с 8хАнизотропией в разрешении 1024х768. - этого достаточно. (даже настройки можно по проще поставить)

0

А я бы не стал жертвовать 256-битной шиной памяти, 48конвеерами и 512 мегабайтами видеопамяти ради пресловутого dx10, который на мой взгляд не дает ощутимой разницы в картинке.Кстати sapphirex1950XT мне удалось разогнать до частот 700 2100 - и это без поднятия напряжения.Разгонный потенциал, как-никак.

0

Allfa
Жрать она меньше не станет.
Я не понимаю - тебе за свет платить не хочется?
Игры будут расчитываться так чтобы идти не только на топовых продуктах.
Очень надеюсь, но с трудом в это верю.
Средние настройки не сильно отлечяются от максимальных как 9 от 10 ДХ.
Как раз-таки DX10 в его нынешнем состоянии не дает практически никакого визуального эффекта в том же Bioshok или Lost Planet по сравнению с DX9.
ты забыл сказать про кревые драйвера у ати.
Обоснуй, почему они кревые и я обязательно об этом вспомню.
а у 1950 только минусы которые будут тянуть её всё ниже и ниже.
Ну, разумеется. А безоговорочное преимeщество в DX9 - это так, незначительный плюсик.
Как ваще у тебя получается сравнивать эти карты в 10 директе ведь 1950 ваще там не пашет...
Где это я проводил тестирование этих карт в DX10? =)
даже если 8600 идёт не совсем гладко это в любом случае больше в 4 500 000 000 раз чем ничего.
Комфортная игра на X1950XT в DX9 или 10 кадров в секунду на 8600 в DX10 - что же выбрать?
8600 в Биошоке выдаёт 40-45 кадров в МАКСИМАЛЬНЫХ настройках с 8хАнизотропией в разрешении 1024х768.
В 1024х768 мало кто играет. Если взять самое популярное разрешение для игр, 1280х1024, то Radeon X1950 также позволит играть с максимальными настройками качества. Тем более Bioshok отлично оптимизирован, что редкость в наше время.
Разницы же между DX9 и DX10, как я уже писал, практически не заметно.

0

Я не понимаю - тебе за свет платить не хочется?
Сам не хочу и другим не советую (у нас свет дороже стоит)

Как раз-таки DX10 в его нынешнем состоянии не дает практически никакого визуального эффекта в том же Bioshok или Lost Planet по сравнению с DX9.
Ну это ещё не 10 директ. Осталось две недели...

0

Crysis тоже будет не полноценной DX10 игрой, раз будет поддерживать DX9

0

Вот и посмотрим какая разница будет и как себя покажет 8600 и 1950.

0

8600 скорее всего никак себя не покажет

0

8600 скорее всего никак себя не покажет
Скорей всего.... Сейчас можно претпологать всё что придёт в голову. Даже бред всякий лепить... ведь проверить не получиться. И поэтому делать какие либо предположения до того как будут реальные результаты - по ментьшей мере недальновидно и легкомысленно. Если кто себя и не покажет так это наверно 1950, там показывать нечем, паказывалка устарела.

Комфортная игра на X1950XT в DX9 или 10 кадров в секунду на 8600 в DX10 - что же выбрать?

Комфортная игра на 8600 в 3 Квейке или 1,5 кадра в секунду 1950 в СAD приложении с 2 мегаполиками - что же выбрать?

Уменя появляются сомнения в адекватности автора.

...или вот: На лыжах с горки или на порше в балоте без бензина- что тлучше? продолжать или понятно? : )))

0

Альфа, твоя 8600 реально стремнее чем x1950xt это я тебе точно говорю, так как я играл и на первой и на второй!!!

0

Комфортная игра на 8600 в 3 Квейке
Ты бы ещё сравнил 8600 в 1 кваке.



P.S.
Ты любитель старых игр, что тестишь видеокарты по таким играм.А может сравнишь 8800GTX в Gothic, а 2900ХТ в марке6 и будешь утверждать что 8800 в миллионы раз лучше 2900 потому что показывает больше фпс.

0

это я тебе точно говорю, так как я играл и на первой и на второй
DiMan-781_ не могу с тобой спорить. Твои аргументы убедительней наглядны, а главное подкреплены не только пустым заявлением, но и основательно обоснованы. нечего добавить.

Ты бы ещё сравнил 8600 в 1 кваке.
...читай внимательно... я там ещё лыжи с поршем сравнивал. )

Ты любитель старых игр, что тестишь видеокарты по таким играм.
впринципе, это старая тема про лыжи... Ты прочитал комент не потрудившись прочитать предыдущие коменты (или читал невнимательно). Речь как раз и идёт о том, что нечего сравнивать разные вещи в разных условиях. Почему, если запускать 1950 в 9 директе , а 8600 в 10 результаты можно сравнивать? Давайте сравнивать в одном режиме обе?

Разницы же между DX9 и DX10, как я уже писал, практически не заметно.
Посмотри разницу в крайзис http://fd.reborn.ru/?a=filetype&q=&b=1&c=1&d=31886&f=2302
Учитывая, что в 9 директе в сетевых "встречах" будет отсутствовать динамическая смена дня и ночи, и возможность разрушать некоторые обьекты становится грустно. Возможно, что некоторые эфекты снимут с 9 версии в угоду производительности.

и вот ещё http://fd.reborn.ru/?a=filetype&q=&b=1&c=1&d=31886&f=2303

0

Речь как раз и идёт о том, что нечего сравнивать разные вещи в разных условиях. Почему, если запускать 1950 в 9 директе , а 8600 в 10 результаты можно сравнивать? Давайте сравнивать в одном режиме обе?
Есть смысл посмотреть, можно ли играть на 8600GTS с включенным DX10 в разрешении 1280х1024 (максимальные настройки качества без AF и AA). Если да, то 8600 предпочтительный выбор для Crysis. Если же нет, нужно сравнивать 8600GTS и X1950XT в DX9, и отнюдь не ясно, какой фактор окажется решающим: более высокая мощь X1950XT в целом или оптимизация Crysis под видеокарты Nvidia.

0

какой фактор окажется решающим: более высокая мощь X1950XT в целом или оптимизация Crysis под видеокарты Nvidia.
Какието однобокие факторы всё время получаются. можно ведь было и так написать:
какой фактор окажется решающим: Более высокая продвинутость 8600, её универсальность и хорошая поддержка продукта или полная криворукасть Ati и полнейшая безперспективность 1950?

0

более высокая мощь X1950XT в целом
Какая там мощь?! Это что, литературный перевод с албанского сайта?! Эти карты сопоставимы по производительности, можно легко найти тесты где 1950 сливает тесты 8600..., а ты тут про мощь какую-то говоришь. Эта "мощь" существует только в взбудораженном мозгу непримеримых фанатов АТИ.

в целом
Где, где?! В каком это "целом"?! В том который "директ 9", ну это уже давно не "целое"! Причём усиленно-худеющее не "целое".
Ваше "целое" это вчерашний день, которым интересуются антиквары. Для тех кто преобретает новое железо, смотреть во "вчерашний день" можно только из садомазохистких соображений.

0

можно легко найти тесты где 1950 сливает тесты 8600..
Кинь ссылки посмотрим.

0

Более высокая продвинутость
Чудесная фраза
её универсальность и хорошая поддержка продукта
Хорошая поддержка какого продукта? Ты уже видел тесты финальной версии Crysis? Если говорить про нынешние DX10 игры и бенчмарки, то в них поддержка... выражаясь твоим языком, плохая.
Эти карты сопоставимы по производительности, можно легко найти тесты где 1950 сливает тесты 8600...
Сама фраза легко найти подразумевает, что эти тесты нужно еще поискать. Я же давал ссылку на тестирование сайта overclockers.ru, где X1950XT лидировала с заметным отрывом в подавляющем большинстве игровых приложений.
Ваше "целое" это вчерашний день, которым интересуются антиквары.
Я, наверное, давненько не был в магазинах с играми. Уверен, что все прилавки завалены игрушками с DX10, а на вопрос "Есть ли что-нибудь на DX9" продавцы ехидно смеются.
Для тех кто преобретает новое железо, смотреть во "вчерашний день" можно только из садомазохистких соображений.
А что мы тут GeForce 8400 не обсуждаем? Поддержка DX10, SM4.0, а следовательно совместимость со всеми играми будущего. Отличная карта, согласись?
____________
Не матерись.
Powerfull

0

Более высокая продвинутость
Чудесная фраза
Отец полностью с тобой согласен.

0

Подведём итог) Алльфа, ты просто помещался на нвидиа, а особенно на 8600, тебе все говорят что x1950xt на много более производительна нежели твоя 8600 в 9 директе!!! Ты не обращаешь внимания ни на слова тех кто пользовался этими видюхами ни на факты которые тебе приводят!!!

0

Я сомневаюсь в выражении "на много более производительна" а поддержка 10 директа и "намного" меньшей стоимости выдвегает, на мой взгляд, 8600 на первое место.
..не спеши с итогами )

А что мы тут GeForce 8400 не обсуждаем? Поддержка DX10, SM4.0, а следовательно совместимость со всеми играми будущего. Отличная карта, согласись?
8600 взята как самый игровой минимум, офисные варианты, естественно, не рассматриваются. Я понимаю, что на максимальных настройках, в 10 директе не поиграешь, но оптимизация игры позволит увидеть взаимодействия и эфекты не доступные в 9, хоть и не в высоком качестве, но будут. Когда берёшь карту то стоит задуматься о будущих проектах, карту берёшь на год - полтора и не из самых дешёвых, по-этому перспективу надо остовлять быть. (по русскому- 3)

0

8600 при ровных руках выбивает 7 тыс попугаев в 3д марке6 что достаточно для игры в биошок на максе с DX10, World in conflict на 1024-768 все на макс +DX10 эффекты а также этой видюхи должно хватить для игры в крайсис на чуть выше средних требованиях но еще раз повторюсь что тока с разогнаной 8600!!! при этом разницы после разгона между gt и gts нету
хз... пока у меня небыло ни одной игры где бы я скинул настройки до неприемли

Отец Викториус
Сама фраза легко найти подразумевает, что эти тесты нужно еще поискать. Я же давал ссылку на тестирование сайта overclockers.ru, где X1950XT лидировала с заметным отрывом в подавляющем большинстве игровых приложений.

Мля да хоть ты уже не опускайся до ....!!!
8600gt стоит меньше 100$ в то время как 1950XT 200$ при том после разгона разница 5-15% в пользу последней!!
давай уже сравним 4400ti с 8800 ultra че тут мелочится..... сравнили видюхи с двухкратной ценовой разницей давай терь эти сравним!

0

Мы тут 8600GTS обсуждали. Я не спорю, что 8600GT неплохой выбор для оверклокера, с учетом сильно опустившейся в последнее время цены. В то же время, Radeon 2600XT и X1950GT также никто не отменял, хотя в этом случае однозначного лидера выявить сложно.

8600 при ровных руках выбивает 7 тыс попугаев в 3д марке6 что достаточно для игры в биошок на максе с DX10, World in conflict на 1024-768 все на макс +DX10 эффекты
По результатам 3D Mark оказывается можно делать выводы, достаточно видеокарты или нет для конкретных игр?

0

Отец Викториус
Мы тут 8600GTS обсуждали. Я не спорю, что 8600GT неплохой выбор для оверклокера, с учетом сильно опустившейся в последнее время цены. В то же время, Radeon 2600XT и X1950GT также никто не отменял, хотя в этом случае однозначного лидера выявить сложно.

тут половина постов просто с 8600 без букв

По результатам 3D Mark оказывается можно делать выводы, достаточно видеокарты или нет для конкретных игр?

для 8600gt 3д марк6 вполне уместен ибо разбежки в пропорции с играми не очень велики ~5-10%

3)Мля да хоть ты уже не опускайся до ....!!! -------> это че круто типо? или тут ругатся мона тока модератором?? :
Более высокая продвинутость
Охуительная фраза

0

тут половина постов просто с 8600 без букв
Влом писать, но все началось с обсуждения 8600GTS.
для 8600gt 3д марк6 вполне уместен ибо разбежки в пропорции с играми не очень велики ~5-10%
Вау, ты по результатам 3DM научился составлять пропорции с играми? Так не томи душу, расскажи подробнее пользователям об этом открытии. А то вдруг уже не стоит тестировать видеокарты в играх. Прогнать 3Д марк, составить пропорции и определить производительность в каждом приложении.
или тут ругатся мона тока модератором??
Да
Более высокая продвинутость
Охуительная фраза

А я не спорю, фраза прикольная.

0

Отец Викториус
судя по реакции долго те разжовывать придется..... хз......хз.......в падлу.....дадумывай сам
2)или тут ругатся мона тока модератором??
Да


наглость фраера погубит.....

А я не спорю, фраза прикольная

да ну ты что, эт фраза не прикольная а Охуительная фраза
=))

0

chikstillo
дадумывай сам
Уважаемый, да я даже представить не могу, как там можно какие-то пропорции составить. Так что уж потрудись объяснить =)

0

Отец Викториус
не реально тут ты с самого начало не понял к чему я клоню и спор будет оч длинным...... лутше забей не надо зaceрать топик....

0

не реально тут ты с самого начало не понял к чему я клоню
Я-то все понимаю, это ты написал бред про 3D Mark и пропорции к играм.
лутше забей не надо зaceрать топик....
Да ради бога.

0
pix.PlayGround.ru
pix.PlayGround.ru

мля надо будет всеже растолковать на днях че я хотел а то получается че ты тут великий танк и некто те не перечит....
хехе походу мне быть первым=)

0

хехе походу мне быть первым=)
После меня : )

0

Весь топик спорите, да млин года через 3-4 года умрет АТИ и будут ее вспоминать как они конкурировали с Nvidia, если оценить мировой рынок, то nVidia безусловно лидирует, впадлу просто пихать ссылки на различных тестеров и специалистов (Tom's Hardware Guide, Ferra и.т.д.) что по тестам идет борьба между ATI и nVidia, где то друг друга опережают, но в целом ATI остается позади, что касается Crysis всем известно что игра разрабатывалась при поддержки инженеров из Intel и nVidia, так что уже известно под что игра будет оптимизирована.

0

Если умрет ATI, то в первую очередь пострадают сама nVidia и любители продукции nVidia.

0

nVidia сразу начнут трясти антимонопольные органы. А конечные покупатели будут выть от заоблачных цен. Какой-нибудь Low-End будет стоит 500$.

0

Alexandr82
Согласен. Пусть сами там решают кому умирать, кому нет.

0

Народ, а скажите пожалуйста. nVidia 9800 выйдет в первом квартале 2008? И сколько примерно она будет стоит (мож конечно это и глупый вопрос, но мож кто знает)?

0

Ну где-то долларей 600.Это моё мнение.

0

Самая быстрая видеокарта на выходящем чипе RV670 XT будет стоить меньше, чем GeForce 8800 GT. Уже известно, что RV670 XT на частоте 825 МГц будет медленнее, чем GeForce 8800 GT (ядро которого работает на частоте 600 МГц). Однако ATI просто снизит цены на конечные видеокарты, чтобы таким образом новые Radeon оставались привлекательными.

ATI уже сделали подобное с Radeon HD 2600 XT/PRO и Radeon HD 2400 XT/PRO, что смогло повлиять на снижение уровня продаж видеокарт NVIDIA. Поэтому, ATI повторит подобный шаг и на этот раз. Точные цены еще не известны, но ATI может легко снизить цены на $30, а то и на $50. Как известно, RV670 XT медленнее, чем GeForce 8800 GT на 8-10%.

Radeon HD 38x0 (RV670 XT) может продаваться по цене ниже, чем €199, что принесет для NVIDIA некоторые проблемы.
Официально Radeon HD 38x0 должны появиться 15 ноября и именно тогда станут известны окончательные цены на них.

Вот это я понимаю демократические цены и дай бог чтобы они такими и остались, тогда нвидиа придётся ещё сложнее в борьбе против ATI&AMD.Новость взята с radeon.ru

0

Для тех, кто не видел - тесты 8800GT в долгожданном Crysis. Отставание от 8800GTX составляет всего 3-4 fps, в то время как 8800GTS 320/640Mb остаются далеко позади.
Кстати, кто там говорил, что 8600/HD 2600 проявят себя в DX10-играх во всей красе? Что-то даже скромных 30 fps при средних настройках качества я не заметил. HD 2900XT также сливает 8800GTS при активации DX10.

0

Итак, новое тестирование современных карт в DX10. В принципе, ничего нового. 8800GTX по-прежнему впереди планеты всей, HD 2900 с очень большим трудом составляет конкуренцию 8800GTS, а 8600 и HD 2600 это жалкие обрезки, не способные обеспечить комфортный фрейм-рейт в режиме DX10. Жаль, нет результатов 8800GT - вот, кто показал бы настоящий класс.

0

8800 GTX лучшая и GT никоим образом ее не обойдет.

0

8800 GTX лучшая и GT никоим образом ее не обойдет.
Что-то с трудом вериться.

0

Не беспокойся не обойдет
http://www.ixbt.com/video3/g92-part3.shtml

0

8800 GTX лучшая и GT никоим образом ее не обойдет.
8800GTX лишь немного быстрее, а 8800GT является просто идеальным продуктом по цене/производительности. 8800GTS и HD 2900 теперь нахер никому не нужны. Да и 8800GTX, разумеется тоже. Или ты готов переплатить 7 тыс. руб за несколько fps? Сомневаюсь. Хотя владельцам 8800GTX все-таки волноваться не о чем, ведь эта карта шустрее новинки. А вот тем, кто совсем недавно приобрел 8800GTS или 2900XT/Pro... Я бы повесился =)

0

Отец Викториус у меня 2x8800 (SLi) так что она лучшая! :))

Ничего не имею против GT, наоборот, советую всем но никоим образом не жалею вложенные деньги в свои карты.

0

Они сейчас в дефиците даже за границей, а у нас появяться наверное уже в декабре.

0

хм... недошло первое сообщение.

8800gt Уже как вторую неделю благополучно продаеться в японии по средней цене в 7500р.

0

В обзоре на IXBT говорят что 8800GT горячая карточка и система охлаждения у нее шумная.

nVidia опять махинациями занимается с оптимизациями
http://nvworld.ru/news/07_11_2007.html#07_11_2007-05

0

За месяц до выхода GeForce 8800 GT компания NVIDIA попросила своих партнеров отправить полученные образцы видеокарт для необходимого температурного анализа. Чем это было вызвано до сих пор оставалось неясным.

Оказывается, причиной этому стало заявленное компанией ATi превосходство ее будущего чипа RV670 над G92 на 10 % по данным 3DMark06. NVIDIA решила воспользоваться большим разгонным потенциалом своего 65 нм чипа, увеличив стандартные частоты, но для этого нужно было убедиться в надежности системы охлаждения.

Сравнивая ранние результаты тестирования GeForce 8800 GT, опубликованные некоторыми партнерами NVIDIA, и производительность современной видеокарты, можно увидеть разницу в 20 %. Однако, увеличение производительности 8800 GT сыграло с компанией злую шутку — новый продукт, предназначенный для среднего сегмента рынка, иногда опережает даже 8800 GTX, цена которой выше более чем в 2 раза. Это изменение полностью нарушило соотношение сил внутри семейства видеокарт GeForce 8.

Также нужно учитывать то, что увеличение частоты всегда отрицательно сказывается на проценте выхода годных чипов. Возможно, этим частично объясняются проблемы с поставками GeForce 8800 GT.

0

Вывод:
Не стоит ожидать хорошего разгона от 8800GT, учитывая что она уже разогнана производителем. Учитывая что у ATI HD 3870 более тонкий техпроцесс и то, что даже 2900Pro показывает чудеса разгона

стоит ожидать большие чудеса разгона от ATI Radeon HD 3870. Карта не так сильно отстает от 8800GT

0

Лично меня обрадовал неожиданно большой прирост производительности от Crossfire жалко нету SLI.
AMD&ATI RRRUUULLLEEEZZZ!!!!!!! Ждём феномы и RV670.

0

А насколько сильней опередит вцене ?

0

Ну 8800GT будет у нас стоять где-то в районе 8-9т., а 3870 6-7т.

0

Вот ещё сравнение качества картинки в Crysis:http://www.alexblog.ru/archives/68 .Взгляните на скринтшотах с 16AF и 4AA у GTX пошли глюки, а вот 2900ХТ всё нормально

0

Да только в демо Crysis скорость 8800GT всреднем на 14% выше чем HD3870

0

Только вы не учитываете что 7% прироста производительности nVidia получила за счет нечестного рендеринга водной поверхности и теней в Crysis, что повлияло на качество. Плюс ATI еще не выпускала драйвера под Crysis. Плюс у 3870 должен быть хороший разгонный потенциал. Плюс у 3870 поддержка DX10.1. Плюс 3870 будет меньше грется. Плюс у 3870 будет более тихая система охлаждения. Плюс у 3870 будет аппаротное декодирование видео многих современных форматов.

0

AlexGL123
Скоро должны появиться тесты не в демо, а в полной версии т.к. они уже по всем торрентам пошли.Вот тогда и посмотрим и кстати не забывай что 3870 дешевле 8800GT, они и тише, холоднее.Причём сегодня прочитал в какой-то новости что 3870 под нагрузкой не грелся более 50 градусов, а посмотри тест GT на ixbt.com у них гигабитовская GT со стандартной системой охлаждения грелась по ядру до 90градусов, так что придётся тратиться ещё и на новую систему охлаждения.Так что считай от преимущества GT почти ничего и не осталось, причём оно и не такое заметное.

0

Romeo666
Я против ATI не чего неимею,у меня самого ATI1600XT просто впоследнее время ATI уступает NVIDIA . Ну а насчет новых продуктов будем решать .

0

Ну а насчет новых продуктов будем решать
Причём осталось ждать совсем немного=)

0

у меня видяха Geforce 7900gtx год назад брал и до сих пор доволен,тянен опчти все новые игры на максималках.ЧТо же касается DX10 думаю пройдет не меньше года прежде чем выйдет много интересных игр которые будут поддерживать только DX10 без поддержки DX9.это произойдет не раньше чем появятся доступные по цене low-end/middle решения с Dx10.Производители игр тоже не дураки,зачем выпускать игры в котоыре сможет поигратьм еньшинство геймеров,и соответственно,терять свои деньги? Так что я могу жить спокойно

0

Совершенно согласен, вин ХР еше долго будет ставить палки в колеса висты, если бы не ДХ10 то и вовсе виста не окупила бы затрат на разработку еще долго.
А свой кошелек всегда ближе, производители игр это всегда помнят, а если и забудут то нароные корсары найдут способ запустить и ДХ10е приложения под ХР.
Так было с Хало2 для ПС, так будет и с Хало3, а майкрасовт пусть считает убытки=)

0

Потянет...потянет... На МИНИМАЛЬНЫХ настройках....

Ты еще радик 2400Про 1Гб ддр2 возми....вот игрухи полетят-то...

Для игр выбирай из этих - диаграмма с быстродействием (правда только в одной игре - S.T.A.L.K.E.R.)

0

/8500GT очень слабая карта/

это еще мягко сказано

0

это еще мягко сказано

Нормально сказано...

[]D.[].[]V[].[]D.
Какая у тебя система...И сколько денег на видео...?

0

За меньшие деньги можно купить 1950 ПРО, которая значительно производительней 8500ГТ. Эта карта попросту убыточна и ее продажи работают лишь на пиаре несведущих мас.

0

За меньшие деньги можно купить 1950 ПРО, которая значительно производительней 8500ГТ.

какая ересь......

0

Ты хочешь сказать что 1950про слабее 8500ГТ?

0

ну конечно Х1950про круче раз в десять=)

0

У нас цены на про - в зависимости от производителя карта стоит от 130 до 160 у.е. а 8500ГТ 90-130.
Таким образом можно найти 1950 про дешевле чем 8500ГТ или практически за те же деньги.

0

а какие сайты хороши для сверки видюх или по ценам если захочешь посмотреть?

0

Вот обясните мне простому человеку, как можно на оюычный ЖК монитор 19' с максимальным разрешением в 1248х1024 выствалять разрешения в 1600Х..... и выше, а при этом разрешении разница в ФПС у всех видеокрт не такая уж и разительная, особено меня рут люди орущие что 80 ФПС им лучше чем 50, и готовые выложить лишние 3-4К рубликов, очевидно в школе они не учили что человек не компьютер, а глаз не сверскорстная камера и свыше 24 ФПС нам увидеть не дано, главное чтоб ниже не опускался. (взгляд на проблему простого человека)
Кстати есть еще не просто суперигровые компы потребляющие по 1.5 КВт(названия коих я даж и не знаю) а еще есть офисные машины, и просто домашний комп.
Конечно 8800 хорош на экране, но думаю 8600 продано поболее.

0

В тестах которых указал Отец Викториус видно что Radeon HD 2900XT быстрее чем 8800GTS но не во всём.

0

Ati 1650pro или GF8500gt что лучше? ответы типа обе дрянь непринимаюца :)

0

Вот и я за нее... денег не так много, на ютубе видел много видео где 8500gt на неплохих настройках тянет современные игры, а с ати видео нету, но вроде у нее и 3dmarkов значительно больше и средний фпс в играх тоже(инфо с сайта nix.ru) такчто... Хотел мнение народа узнать, а то может это лагучая дарянь :) если 8800gt не успеет подешеветь до НГ, то беру это. По тем видео с 8500gt ее пока должно мне хватить...

0

ss_hOle
Про ютуб прикольнуло =)
Ты печатные тесты бы почитал. Не так красиво, но объективно)

0

:D И печатные читал вроде 1650pro в лидерах, просто опять таки мало таковых...
З.Ы. А с ютубом то ведь все вполне логично :D

0

извените если оффтоп, но какую видяху лучше взять - Nvidia 8800gt или Radeon HD 3870
чтобы не менять лишний раз блок питания (350W) или менять но за недорого ?

0

8800ГТ...
Менять полюбому... (Блок питания ATX FSP 450W=1106р - в санрайсе)

0

Джордж Буш средний

1950про или ГТ с 512мб памяти

0

Появилась информация что GeForce 9600GT не будет поддерживать DX10.1

0

До июля-августа долеекккоооо...
Еще столько разной дэзы появится...

0

Где нашёл?
http://www.overclockers.ru/hardnews/27854.shtml

До июля-августа долеекккоооо...
Ну вообще-то 9600GT будет анонсирована в феврале

0

Ну вообще-то 9600GT будет анонсирована в феврале
Разве... Это 9800 в Фврале, а 9600 летом...
Я на THG.RU кажется читал...

0

GF 9600GT должна появиться раньше чем 9800, даже на PG по этому поводу писали) Что то мутит Nvidia с DX10.1 видимо не желает использовать программируемый АА, реализуемый ATI

0

Durer

GF 9600GT должна появиться раньше чем 9800
Впрочем, анонс GeForce 9600 GTS должен состояться лишь летом 2008 года, - цитата вот от сюда...

0

Новость старая. Вас не смутило то, что уже бенчмарки есть? Значит карта готова. А 9800 наверно будет двухчиповой.

0

Вот цитата с Оверов:

На страницах сайта Hard OCP также появилась информация о дальнейших планах NVIDIA на ближайшее полугодие:

GeForce 9800 GX2 заменит собой GeForce 8800 Ultra в феврале-марте;

На смену GeForce 8800 GTX в феврале-марте придёт некое графическое решение GeForce 9800 GTX, которое сможет работать в режиме 3-Way SLI;

В марте-апреле выйдет видеокарта GeForce 9800 GT – информации о её характеристиках нет;

GeForce 8800 GS будет иметь ограниченный тираж – не более 100 000 экземпляров на весь мир;

GeForce 9600 GT заменит собой GeForce 8600 GTS, предлагая почти вдвое более высокое быстродействие по цене от $169. Жизненный цикл GeForce 9600 GT простирается как минимум до конца 2008 года.


Как видите, сроки выхода 9600 даже не упоминаются, потому что лето далеко.

Побаку на бенчмарки...
К тому-же кто там, как и что тестировал - это еще к гадалке надо обратиться...

0

Жизненный цикл GeForce 9600 GT простирается как минимум до конца 2008 года.
Смысл фразы не понимаете? Это значит замены 9600GT не будет до конца 2008 года.

0

Там к стати написано, что 9800 GX2 будет основана на двух G92, что подтверждает отсутсвие поддержки DX10.1. Логично предположить, что 9800GT/GTX будут основаны на одном чипе G92.

0

Ну так развивай мысль...
Значит 9600 - отполовиненый Г92 -> она неможет набрать 80% очей в марке от результата 8800 -> все это тестирование БУМАЖНОЕ, и призвано убить продажи 3850...

0

Почему обязательно ополовиненный, это может быть тот же 8800GS

0

для нее в характеристиках везде указывают 64 конвеера...

0

Опять появились слухи что Intel купит nVidia

0
pix.PlayGround.ru
pix.PlayGround.ru

када уже интел купит себе ядерную бомбу и бахнется на ней

0

Сейчас, наверное, ни одна игра не адаптирована под двухядерные видеокарты. Может быть так, что будет работать лишь одно ядро d9e, а второе отдыхать? Как в своё время вели себя первые двухядерные процы...
К тому же, если в ней не будет поддержки DX10.1, nVidia - банкрот.
Какие-то нерадостные предсказания... Будем надеяться и ждать лучшего.

0

N.Forcer
Не двухъядерные, а двухчиповые (подобие SLI). Адаптация нужна драйверу, а не игре
То что 9600GT не поддерживается DX10.1 пока что слух, есь сайты кот. утверждают обратное

0

Адаптация нужна драйверу, а не игре
И игре в том числе

0

Появилась информация что nVidia вообще не собирается поддерживать DX10.1
http://www.fudzilla.com/index.php?option=com_content&task=view&id=5081&Itemid=1
Мое мнение - потому что новой архитектуры у nVidia не будет в этом году. Разве что перейдут на новый техпроцесс, увеличат частоты и возможно число внутренних блоков.

0

Пора тему закрывать, AMD так не родило ответа на более чем годовую 8800, а тогда зачем н-видио вобще выпускать новую архитектуру, когда можно еще год почевать на лаврах лидеров а после в случае угрозы выкинуть новый продукт, хотя складывается ощущение что AMD существует только как (конкурент интела чтоб антимонопольчики не заштрафавали интела за его цены пока он снимает сливки с прдаж, ведь очень позно както и отстало реагирует AMD на сегодняшнее состояние на рынке)

0

http://www.ferra.ru/online/video/75318/page-3/ смотрим на производительность HD 2900XT & HD 3850 в сравнении с GF 8800 U Ну и чем не ответ?
На процессорном фронте дела у АМД тоже не так плохи, их новые Phenom, за счет высокой совместимости с существующими мат. платами найдут своего покупателя среди обладателей сокета АМ2, коих немалое число

0

Кто Александра забанил?)
Сам бы хотел знать какой нехороший человек меня забанил за ссылку на прохождение игры. Ничего я еще с Powerfull поговорю про это. Он то уж разберется кто не прав.

0

К стати Викториус удали пожалуйста ссылку DKP от 7.11.07 07:32, а то она всю страницу растягивает. Читать не возможно в Firefox.

0

ATI однозначно рулит ;) За неё потомушто камп покупал с такой, у друзей всех ATI ни у одного нет Nvidia да и некоторые игры не поддерживают Nvidia/GeForce

0

peaceman 333 Как смайлик сделал?

З.Ы. Викториус плиз не удаляй пост, мне просто интерестно!

0

Загрузи смайлик в галерею, там будет код для размещения на форумах...

0

Crystal Deamond aka Dr._WEB
Можешь просто вставить адрес картинки с помощью этого тега:
< img src="Полный адрес картинки" > (без пробелов)

0

К стати появились первые данные о цене двухчиповых решений:
9800GX2 - 600-700$
3870 X2 - 400-450$

0

Отличня новость...
Если ничего не изменится, АМД получит неплохую прибыль...

0

Alexandr82
Как я и думал... Там где нужна мощь, драйвера пока не оптимизированы, а прирост есть там где и одиночная карта неплохо справляется...

0

Crystal Deamond aka Dr._WEB
Думаю то что все твои друзья повально увлекаются ATI не является фактом того что они рулят.... Я тебе со стопроцентной уверенностью говорю, что пока в этом мире рулит экономика. А ЭКОНОМИКА гласит:
1) Nvidia - лидер в области графики (как минимум по продажам), и в 5-ку лучших компьютерных корпораций тоже входит...
2) Большинство игродевелоперов отдает предпочтение Nvidia.... EA гамезз, Valve (котрые недавно сделали подарок владельцам всего что является Нвидия) и т.д.
3) Возможно АТI иногда и делает неплохие карты, НО своих конкурентов пока не догоняет((
В общем будущие перспективы АТИ разве что в производстве недоргих Графчипов для ноутбуков средней ценовой категории...

P.S. Ну а если опуститься в "бытовуху"....то я сам пока вполне спокойно играю в Биошок на вышке со своим 8600GT (на ноуте стоит HD2600 но его я в расчет не беру)... знакомые гамающие на эквивалентных ATI 2600 и т.д. невольно матеряться по поводу производительности и гамают в Биошок на средняках....

0

Хай,по поводу "о цене двухчиповых решений:" ещё инфа :
"Первые двухчиповые ATI Radeon HD 3870 X2 уже начали появляться на виртуальных полках интернет-магазинов. Пока еще в виде предзаказа, но все же. До выхода перспективной новинки остаются считанные дни, все крупные компьютерные ресурсы уже подготовили свои обзоры. Первые тесты новой видеокарты весьма впечатляют – Radeon HD 3870 X2 удалось обойти одиночную GeForce 8800 Ultra! При этом цена по предзаказу на сайте Salland составляет целых $600 (в пересчете для рынка США). Будем надеяться, что цены быстро стабилизируют."

Цитата с сайта Игромании.

Вот оно,свершилось,ATI наконец-то догнала NVidia по производительности!Да и цена примерно такая-же,как и конкурента.

P.S: raygarh
"своих конкурентов пока не догоняет"
У ATI только один конкурент и все знают кто это!ATI и NVidia делают только основу,а производят видеокарты уже сторонние компании,такие как Saphire у ATI и Palit у NVidia.Нет,конечно,есть производители видюх второго эшелона(я уже даже не помню,что это за компании),но кто-нибудь за последний год о них что-нибудь слышал?
По поводу Биошока - у меня кореш на 2600 Pro на максимале гамает без лагов.

0

2 raygarh
1) nVidia лидер на рынке с давних пор и отвоевать у нее солидную долю рынка сразу сложно.
2) Смешной подарок сделала Valve для nVidia - расширенная демоверсия Portal, в то время как например к 2900XT идут в подарок полные версии - Portal, Team Fortess 2 и HL2 Ep2.
3) ATI первая ввела SM2.0, на что nVidia ответила жалкой не конкурентоспособной серией GeForceFX. Поколение X19xx сделало 79xx. В последних поколениях nVidia по скорости немного впереди, но зато ATI смогла внедрить более тонкий техпроцесс и поддержку DX10.1. nVidia с момента выхода первых 8800 не смогла представить ничего нового, только обновленные версии старых моделей. Достойного конкурента Radeon HD 3850 512МБ у nVidia нет. GeForce 8800GT 256МБ показывает ужасную производительность со сглаживанием и анизотропией.

0

Alexandr82
Смешной подарок сделала Valve для nVidia - расширенная демоверсия Portal, в то время как например к 2900XT идут в подарок полные версии - Portal, Team Fortess 2 и HL2 Ep2.
Тут наверно о другом говорится... А именно о том что Valve перешла "под крыло" nVidia, и теперь будет в первую очередь оптимизировать свои игры под карты nVidia на которых сидит около 70% польсователей (по опросам Steam).

0

2 Alexandr82
3) ATI первая ввела SM2.0, на что nVidia ответила жалкой не конкурентоспособной серией GeForceFX. Поколение X19xx сделало 79xx. В последних поколениях nVidia по скорости немного впереди, но зато ATI смогла внедрить более тонкий техпроцесс и поддержку DX10.1. nVidia с момента выхода первых 8800 не смогла представить ничего нового, только обновленные версии старых моделей. Достойного конкурента Radeon HD 3850 512МБ у nVidia нет. GeForce 8800GT 256МБ показывает ужасную производительность со сглаживанием и анизотропией.

Во-первых - игровая общественность, давно сказала: Игры с Директом 10.1 выйдут не скоро....
Во-вторых - посмотри на политику компаний:
Nvidia увидев что их видеокарты по видимому не могут в полной мере потянуть требовательные игры, вроде Крисиса, тихо и спокойно решили довести свой DirectX 10 до нужной кондиции.
В это время в офисе комапнии АТИ начинают кипеть мозги.... и докипелись до сомнительного 3850... который в момент появления настоящих 10.1 игр, скорее всего будет плясать на уровне ATI2400 (сейчас)
ЗАЧЕМ ATI бежит впереди поезда, мне не понятно...

2) Смешной подарок сделала Valve для nVidia - расширенная демоверсия Portal, в то время как например к 2900XT идут в подарок полные версии - Portal, Team Fortess 2 и HL2 Ep2.

Большинство игростроительных компаний, сотрудничают именно с Нвидиа.... и в in-титрах их игр появляется заставка именно этой компании....

P.S. Можешь банальгно запускать игры на своем компе - я думаю по-большей части ты будешь слышать тихий шепот: "Nvidia-a!")))

0

Снова 2 Alexandr82
Тем более посмотри на результы тестов: ATI в нормальных играх дает CRASH
Зачем покупая видяху за приличные деньги (имею ввиду АТИ 2400 - 2600), бегать в крайсисе на средняках? В то время как Нвидиа той же ценовой категории позволяет себе намного больше....

2) Смешной подарок сделала Valve для nVidia - расширенная демоверсия Portal, в то время как например к 2900XT идут в подарок полные версии - Portal, Team Fortess 2 и HL2 Ep2.
Обрати внимание на нюансь: владельцы ATI 2900XT - все владельцы всего что есть NVIDIA....

Я ведь не пытаюсь защищать Nvidia.... просто поражаюсь откровенно бестолковой политике их единственных конкурентов в лице ATI((((

0

в in-титрах их игр появляется заставка именно этой компании....
А знаешь это начинает раздражать, агрессивный маркетинг не делает чести любой компании среди мало-мальски мыслящих людей. Ты перечисляешь преимущества Нвидии, а заметь, все они сводятся к огромному капиталу, позволяющему "партнерствовать" с многими девелоперами, и не слова не говоришь о собственно аппаратных изысканиях компании, а они весма не оригинальны, в них мало новаторства. АМД чаще старается применять нестандартные решения

0

raygarh
Пара вопросов.
"Зачем покупая видяху за приличные деньги (имею ввиду АТИ 2400 - 2600)"
У вас они дорого стоят?У нас 2600 Pro стоит 2300 руб.;2600 XT - 4000 руб.
Nvidia за такие деньги (4000 руб) может предложить разве что отстойную 8500.

Второй вопрос :
"Обрати внимание на нюансь: владельцы ATI 2900XT - все владельцы всего что есть NVIDIA..."
Можешь пояснить смысл этой фразы?

И напоследок.Это не у ATI бестолковая политика,а у AMD.До их слияния ATI почти не уступала своиму конкуренту,а кое-где даже превосходила.Думаю - если бы не покупка ATI, то уже сейчас мы видели бы Radeon'ы по мощности не уступающие 8800 GTX,при этом тысячи на 3 дешевле.

0

Несмотря на то, что двухпроцессорные карты NVIDIA GeForce 9800 GX2 должны появиться на рынке лишь в середине февраля, на китайском ресурсе Chiphell уже опубликовали результаты их тестов в современных играх.

Среди соперников 9800 GX2 были SLI-конфигурации из двух 8800 GTS 512MB и 8800 GT, а также однопроцессорные ускорители GeForce 8800 Ultra/GTX и AMD Radeon HD 3870.

Результаты тестов выглядят следующим образом:

Bioshock (1920x1200 без антиалиасинга и анизотропной фильтрации, кадров в секунду):

* 9800 GX2: 96
* 8800 GTS 512 SLI: 115
* 8800 GT SLI: 111
* 8800 Ultra: 86
* 8800 GTX: 77
* HD 3870: 70

Crysis (1920x1200 без антиалиасинга и анизотропной фильтрации, кадров в секунду):

* 9800 GX2: 37
* 8800 GTS 512 SLI: 39
* 8800 GT SLI: 37
* 8800 Ultra: 26
* 8800 GTX: 24
* HD 3870: 19

HL2: Episode 2(1920x1200, 4xAA 16xАФ):

* 9800 GX2: 82
* 8800 GTS 512 SLI: 97
* 8800 GT SLI: 90
* 8800 Ultra: 72
* 8800 GTX: 69
* HD 3870: 46

World in Conflict(1920x1200 4xAA 16xАФ):

* 9800 GX2: 29
* 8800 GTS 512 SLI: 35
* 8800 GT SLI: 32
* 8800 Ultra: 32
* 8800 GTX: 28
* HD 3870 : 18

Если усреднить результаты тестов, то выходит, что GeForce 9800 GX2 на 15% медленнее двух 8800 GTS в SLI и на 10% - 8800 GT SLI. Примерно такое же превосходство имеет не вышедшая пока на рынок карта над «старичками» в лице 8800 Ultra и GTX, соответственно. AMD Radeon HD 3870 и вовсе показал примерно в полтора раза более низкие результаты.


Если производительность 9800 GX2 действительно будет такой, то в 1,5 раза более дешевый 3870 X2 будет нарасхват.

0

как же это 8800 GTS 512MB(Г92) в SLI показали результат выше по сути того же SLI в виде 9800 GX2(по идее тот же Г92 только обновленной ревизии)? 9800 GX2 имеет поддержку SLI в себе или требует для этого чипсета с этой технологией?

насчет соперничества с 3870 X2, то 9800 GX2 имеет менее удачный дизайн по сравнению с конкурентом, будут сложности с установкой альтернативной системы охлаждения.HD 3870X2 быстрее Ультры на 25-30%,т.е как минимум равная 9800 GX2 по имеющимся тестам.

то в 1,5 раза более дешевый 3870 X2 будет нарасхват. самый дешевый товар при должном спросе может приевратиться в самый дорогой, это печально

0

Durer
GX2 не значит - SLI! Это значит 2 ядра,каждое со своей частотой(или общей большой частотой,поделённой на 2 - не знаю).А в SLI задействована ещё и вторая частота памяти,сама память,а также конвееры второй видеокарты.

P.S: Неужели в этот раз Nvidia лажанулась?!Неужели наконец-то радеон сделает жирафа?!По моему,всё ведёт именно к этому.

0

Теперь еще анонс 9800GX2 задерживается до марта

0

Uitzraor
я конечно не инжинер Нвидии, но предполагаю(инфы мало), что координальных отличий от GF 7950X2 у GF9800GX2 в плане конструкции не будет. А на предшественнике организация была такова чип-коммутатор ставился на PCB и занимался только вопросом распределения линий шины PCI Express между двумя графическими процессорами, а синхронизация GPU осуществляется при помощи интерфейса MIO, как в традиционных тандемах Nvidia SLI. Родство со SLI, более чем очевидно, не нужно придираться к словам

0

Durer
Так-так,я открываю для себя новые подробности.Расскажи поподробнее,что такое интерфейс MIO и PCB(желательно с расшифровкой аббревиатуры)?Там оказывается отдельный третий чип стоит?Никогда не слышал!Но насколько я знаю,толи синхронизация ядер первое время была неахти - потом дровами правилась,толи первое время время игр на такую технологию расчитанных, было мало.Короче,пахала она не в полную мощность.
"но предполагаю(инфы мало), что координальных отличий от GF 7950X2 у GF9800GX2 в плане конструкции не будет"
Я конечно больше по радионам,но тоже так прдполагаю :) .Если бы Нвидиа смастерила какую-то прнципиально новую технологию связки двух ядер,то шуму было бы очень много.

P.S:прошу мой пост не удалять!

0

Вот ещё инфа о Radeon HD 3870 X2 и небольшое сравнение с HD 2900:

"Сравнение двух графических процессоров позволяет судить о том, насколько стремительными шагами продвигается прогресс — ведь их разделяет совсем непродолжительный период времени. Освоение более тонких норм техпроцесса позволило уменьшить площадь кристалла почти вдвое при сопоставимом количестве логических элементов. Кристалл ATI Radeon HD 2900, изготовленный по нормам 80 нм, имеет площадь 400 мм2, на которой поместилось 700 млн. транзисторов. Кристалл ATI Radeon HD 3800 изготовлен по нормам 55 нм. На площади 192 мм2 здесь размещено 666 млн. транзисторов.

Как известно, на плате ATI Radeon HD 3870 X2 находится два графических процессора. По имеющейся информации, на референсной плате ATI Radeon HD 3870 X2 будет установлен 1 ГБ памяти GDDR3, работающей на частоте 2 ГГц и связанной с процессорами 256-разрядными шинами. Изделие будет рассчитано на подключение к шине PCI Express 2.0, взаимодействие с которой возложено на специальную микросхему-мост. Правда, похоже, в этой роли будет использоваться не PEX6347, как ожидалось, а PEX8548. На приведенной схеме, мост находится в центре платы, между двумя процессорами. Возле каждого процессора можно обнаружить по четыре чипа памяти.

Переход от PCI Express 1.1 к PCI Express 2.0 обеспечивает заметный прирост производительности — порядка 20-30%, в зависимости от приложения и разрешения экрана.

Новая плата существенно экономнее расходует электроэнергию, когда нагрузка носит характер «Light Gaming» («легкая игра»). Если при большой загрузке мощность, потребляемая платами ATI Radeon HD 3870 X2 и ATI Radeon HD 2900, примерно равна 200 Вт, то в случае Light Gaming плата ATI Radeon HD 3870 X2 потребляет 110 Вт, тогда как потребление ATI Radeon HD 2900 не снижается. При работе с офисными приложениями и другими программами, не загружающими, как следует, возможности GPU, обе платы потребляют менее 80 Вт. Небольшой перевес при этом наблюдается на стороне ATI Radeon HD 2900.

Среди технологий, нашедших применение в новом продукте, названы ATI PowerPlay, Avivo HD и CrossFire X. Известно, что плата поддерживает Direct X 10.1, Shader Model 4.1 и OpenGL 2.0. Более детальную и достоверную информацию о новинке AMD и результаты тестов производительности мы узнаем позже, когда изделие будет представлено официально.

Про 9800GX2 нашёл только вот:
Объем памяти 1 Гбайт
Два PCBs
Два 65нм процессора
256 потоковых процессоров

Лажает,однако, Nvidia.

0

А с выходом новой серии 8800 GTX подешевеет?

0

Нет, ее просто снимут с производства

0

Uitzraor
чем тебе чип-коммутатор не понравился?, для особых педантов можно назвать его мост-коммутатор, можно и просто коммутатор, суть ведь не изменится.
не видел говоришь? Взгляни http://www.overclockers.ru/images/lab/2006/06/12/08gf7950gx2_bridge_gpu_bg.jpg (на снимке мост-коммутатор и GPU)
Провоцировать меня некчему

0

Durer
Да ты меня неправильно понял - я ж написал "Расскажи поподробнее,что такое интерфейс MIO и PCB".Мне интересно про видюшки всё и поэтому я попросил тебя расписать,что это такое,т.к про двучиповые решения я мало что знаю.Я тебя даже не думал провоцировать :)

0

Появился обзор 3870 X2
http://www.ixbt.com/video3/rv670-3-part1.shtml

0

Вот ещё хороший обзор 3870x2
http://www.3dnews.ru/video/radeon_hd_3870_x2/

Результаты тестов очень огорчили...


З.ы. Странно. В тесте на IXBT радеон быстрее ультры практически везде, а на 3dnews ситуация противоположная.... Кто врёт?...
Если 3800 x2 действительно хотябы на уровне ультры то я его думаю купитть так как по инфе с 3днюс с 1 февраля по спец предложению в Эльдорадо она будет стоитиь всего 14999

0

M Schumacher
Странно. В тесте на IXBT радеон быстрее ультры практически везде, а на 3dnews ситуация противоположная.... Кто врёт?...
Наверное никто... Просто разные условия тестирования, разные системы, разные драйвера и разные тестеры (и руки у тестеров тоже разные)...

Если 3800 x2 действительно хотябы на уровне ультры то я его думаю купитть
Решать конечно тебе, но... Карта при работе задействует КросФайр... Тоесть в играх без поддержки "Кроса" она будет работать на скорости обычной 3870... + с разгоном у нее проблемы кой кокие возникают...

0

Не следует забывать и тот факт, что в пике 3870*2 потребляет за 400W. Можно погреть старые кости о системник :)

0

pres777
Не следует забывать и тот факт, что в пике 3870*3 потребляет за 400W
Откуда дровишки?
Всмысле инфа такая дикая?

0

да и что за тандем такой "3870*3"одна HD 3870X2 и одна HD3870 что ли?,но эта система только в перспективе АМД намечается, и то более 400Вт не наберет

0

В этом обзоре тестов в играх побольше
http://www.thg.ru/graphic/ati_radeon_hd_3870_x2/index.html

0

Да на THG отличный обзор. Правда лучшеб протестили ещё и на 1280х1024. Всё таки это самое распространённое разрешение. Мало кто играет на 30" Мониках..

Странно получается у radeon'ов реальная производительность выше чем у Ультры . У 3870x2 вообще более 1 терафлопа!!! что в 2раза больше чем у ультры. Вот тока куда эта производительность девается ??
И вообще давно заметил: почему у Радеонов такие маленькие частоты шейдерного блока? Ведь по остальным параметрам Радеоны лучше - и память у 3870 выше и ГПУ тоже частоты выше, 320 и 640! ( для x2 )Универсальных блоков. И только текстурных блоков меньше и частота . Значит смею предположить что низкая производ. в играх как раз из-за этого.. Почему они не увиличивают частоту? И количество блоков

0

M Schumacher
Почему они не увиличивают частоту? И количество блоков
Я масяц назад по этому поводу тут слюной брызгал...
Третье поколение уже на одни и те-же грабли...

0

Alexandr82
В этом обзоре тестов в играх побольше
www.thg.ru/graphic/ati_radeon_hd_3870_x2/index.html

Это ты о чем?

0

почему у Радеонов такие маленькие частоты шейдерного блока?
потому что этих самых блоков у Радеонов больше. Если уж и есть претензии к количеству, то наверное к ТЕКСТУРНЫМ блокам(их 4 укрупненных)?

0

3870*3 была опечатка. Дровишки скину позже...

Упссс... сорри, ошибочка вышла... за 400W - энергопотребление всей системы.

0

pres777
Упссс... сорри, ошибочка вышла... за 400W - энергопотребление всей системы.
Чё за система такая?
И чё ты по ней равняешся? У всех разные компики...
Вот энергопотребление из теста на THG.RU (ссылка выше) - http://www.thg.ru/graphic/ati_radeon_hd_3870_x2/images/image007.png

0

В любом случае карта слишком дорогая, не смотря на результаты тестов. Да и далеко не все игры поддерживают ее. Так что карта - "извращение" от ATI имхо :)

0

pres777
карта слишком дорогая
8800Ультра по дороже будет... А производительность меньше...
Так что у нее будут потребители.
Да и далеко не все игры поддерживают ее
Это вопрос драйверов... Точилки (программеры) точят... И выточат рано или поздно (в зависимости от крутости игры)...

0

В Латвии цены, зла нехватает 8800ультра+блок питания и таво450+60=510Ls .. 1Ls=0.60$

0

у меня 8800gts 512Mb киньте тесты где с разрешением 1280:1024 пожалуйста!!!!!!!!!!

0

хачу.хачу. хачу hd3870 pci 512 mb все будет афигенно. неприменно все будет афигенно

0

koljambia
3850 512 с альтернативным охлаждением и с заводским разгоном хуже 3870 на 1-4% а стоит на 100$ дешевле

0

http://www.ixbt.com/video3/i0108-video.shtml
Ну вот. Набери в яндексе свою видюху и получишь несколько ссылок на тесты

0

Legend: Легенда о Таргоне етуите какую видюху купить в пределах 70 Ls для такои конфы
Atlon 3800+ 2,41 Ghz 2gb ram ddr400 ?
цену тоже напишите в какои валюте всёравно лучше конешно в латах

0

упс чото там я нето написал в начале
вы поняли мои вопрс?

0

ПалкОвник
под эту сумму подходит 1950pro 512mb

0

она хорошая?
а разве 8600 512 ддр3 не лучше?

0

Появилась информация что будущий чип nVidia - GT200 будет иметь TDP (thermal design power) порядка 250W. Это даже больше чем у 2900XT. Карта nVidia станет самой горячей.

0
0

nVidia оправдывается перед аналитиками после выхода 3870 X2, пытаясь представить новинку ATI в плохом свете. Кто умеет на английском читать
http://www.theinquirer.net/gb/inquirer/news/2008/01/30/nvidia-tries-snow-financial

0

ATI неплохо меньше чем за год развернулась. Сначала DX10, потом 55 нн и DX10.1, а теперь еще и двухчиповые. nVidia ни до такого техпроцесса не добралась, ни архитектуру с поддерожкой DX10.1 не сделала, ни новых двухчиповых видеокарт. У ATI явно прогресс быстрее идет.

0

Говорят 9800GX2 оснастят 2ГБ памяти. Сколько же она стоить будет?!!!
http://www.3dnews.ru/news/geforce_9800gx2_osnastyat_2_gb_pamyati/

0

Всем привед. Хочу узнать у тех кто из Москвы,сколько у вас стоит видюха 8800GT. Заходил на сайты санрайса,там она 8-9 к стоит,а на олди.ру 7100 руб. Не може же быть такая огромная разница в цене!!! Просто есть возможность заказать из Москвы. В моем городе будет на 2000 дороже

0

Говорят 9800GX2 оснастят 2ГБ памяти. Сколько же она стоить будет?!!
теряюсь в догадках-зачем ей столько, это больше чем на проф. картах.

0

app06
Дело в том что официальная рекомендованная стоимость 8800gt всего 250$ / И во многих странах её так и продают. Сам лично видел на одном иннострранном крупном сайте . То есть продавцу для того чтобы получить выгоду достаточно продавать по цене 250$ .А у нас же они наживаются на Нас! И поэтому некоторые не так сильно борзеют и продают по 330% . А другие совсем наглеют и продают по 400-430$/
А в олди она то стоит в районе 7000 вот только их в наличии нет уже месяц если не больше.

0

Пивет всем!!!! скажите пожалуйста!!! хочу взять nVidia 8800GTS хватит ли для неё 430 ватного блока????

0

и ещё хотел что бы посоветовали какой бренд взять???? хочу 320метров памяти и денег у меня 12000! брать буду в "КЕЙ"

0

galillfany
Зачем тебе устаревший g80?? Бери 8800GT 512mb - она быстрее и стоит 9-10т. А за 12 ты можешь найти вообще 8800gts 512mb- по мощности как gtx

0

почему??? я только что про 8800 GTS от EVGA на 512 читал!! вроде ничё такая???? ну это ладно!!!! что насчёт блока питания, не подскажешь???

0

M Schumacher
слушай!!! в санрайсе есть 8800 GT на 1024 метра!! от палита! и стоит меньше 10000!!!! как так!!! про неё мало что написано правда!!!

0

galillfany
Назови модель блока.
Про Palit 8800GT 1Гб написано достаточно, очень неплохая карта за свои деньги. Гонится в большинстве случаев не хуже соника (хотя как с памятью повезет) + качественное охлаждение и 3-фазное питание. Однако о целесообразности приобретения карты с таким объемом памяти можно поспорить. В 1280х1024 ты точно прироста не заметишь.

0

Отец Викториус
не знаю какая, он вместе с корпусом был! знаю что 430 ватт! ну конечно вольтаж и амперы !! больше ничего не установлено, кроме звуковой карты Audigy 2 ZS!! хочется конечно 8800, но если что можете посоветуйте другое для моей конфиг!

0

А в обычных Московских магазинах сколько стоит 8800GT?
П.С.
У меня нету больше 8к на видяху,а покупать 8600 (кал) я не хочу (((. Подскажите плиз,что лучше купить.

0

А какое значение имеет объем памяти? Слышал что там от монитора зависит (только не съеште меня,если туплю),если я буду играть на 19 дюймовом мониторе мне хватит 256 мб или лучше взять 512 мб?

0

если говорить конкретно о 3850 то бери только с 512! Лучше powercolor или His iceQ - они разогнаны прилично + хорошое охлаждение. За 7300р лучше не найти.

0

Лучше powercolor или His iceQ
HIS IceQ3 поддерживаю, как обладатель. Отличная карта, в разгоне может обойти 3870 DDR4.

0

Отец Викториус
У тебя эта карта??? До каких частот она разгоняется? И какая температура при этом??

0

M Schumacher
Изначальный разгон у нее 735/1960, максимальные частоты я не искал, а выставил 775/2100, работает стабильно.
Темпа в нагрузке 71С.
Обзоры есть на guru3d.com и ixbt.

0

2 M.Schumacher
А с 256 мб не разогнаные чло ли?

0

app06
Да + на 256MB помойму память более медленная . Ну и 256mb это мало... А разница в цене там 500-800р.
За эти деньги ( В санрайзе 7300р) - лучший выбор. Если 256mb довольно ощутимо слабее чем 3870 то версия с 512mb от powercolor или His практически равны мощности HD3870 (стоимостью более 8500-9000)

0

Отец Викториус
А кстате у тебя на His iceQ можно менять напряжение на ГПУ?> НА одном хорошем сайте читал что при небольшом повышении напруги её можно разогнать более чем 850mhz/2100Mhz - и будет производительность практически 8800gt//

Зы. Пока жду появления в Санрайзе e8200 oem вот думаю что взять - 3850+ разгон или Palit 8800gt ( не Sonic)// Взял бы не думая Палит, еслиб не его отвратительный внешний вид, от которого у меня впечатление что карта через день сломается.. Моник буду брать 22' Samsung 226bw


Сорри за Даблпост

0

А я всё с мощностью блока успокоится не могу=))) во вторник хочу 8800 GT взять.. тут на каком то сайте прочёл что она примерно 250 ватт жрёт(в нагрузке конечно)!!!!!! интересно как это тогда производитель рекомендует блок мощностью от 400 ватт????

0

M Schumacher
А кстате у тебя на His iceQ можно менять напряжение на ГПУ?
Пока этим не занимался
читал что при небольшом повышении напруги её можно разогнать более чем 850mhz/2100Mhz - и будет производительность практически 8800gt
Сомневаюсь, что 8800GT. Падение скорости в качественных режимах никуда не денется.
Пока жду появления в Санрайзе e8200 oem
Е8400 ненамного дороже стоит, а множитель выше. Учитывая разгонный потенциал Wolfdale, может пригодиться.
вот думаю что взять - 3850+ разгон или Palit 8800gt
Если деньги есть, то конечно Palit 8800GT не референс. Ну и + разгон, конечно =)
Не знаю, чем тебя внешний вид не устроил.
Моник буду брать 22' Samsung 226bw
226CW намного дороже у вас?

galillfany
8800GT в нагрузке ест не более 80Вт. 250Вт это, наверное, потребление всей системы.

0

Отец Викториус
Не сказал бы что ненамного. E8200 в санрайзе oem и так будет прилично для меня стоить - порядка 240$ (6тыс) ( Я вообще то расчитывал на проц макс 210..). А E8400 если появится oem то он будет тыс 7 стоить..

В сане 226cw стоит на 900р дороже. Но как я чмиал разница только в большем цветовом охвате и то относительном. Меня больше волнует чтобы В Санрайзе были с матрицами Samsung/ Щас все форумы читаю-смотрю как отличить..

0

Скажите ati Radeon x 1300 можно разогнать?

0

htc
Разогнать можно ВСЁ! Даже мышь... Вопрос в том насколько... Главное чтобы у тебя на видео был датчик температуры, чтобы ты следил за температурой. Попробуй какой-нибуть прогой типа RivaTuner поднять частоту на 5-7% и протестируй. Если всё ок , температура в норме и стабильность есть то можно пробывать дальше..

0

ati Radeon x 1300 Ей даж вольтмод не поможет. Такая видяха
Вот прочти http://www.overclockers.ru/lab/21100.shtml

0

Прочитал недавно в журнале,что 9600 GT будет превосходить на 20-40% Radeon HD3850 и при этом будут стоить от 4500,так может стоит подождать выхода 9600GT?! Когда намечен выход этой видеокарты,кто знает?

0

брешут.
по производительности будет примерно одинаково, а по цене 9600 по дороже будет... по крайней мере в начале продаж...

0

У AMD вышла Radeon HD 3870 x2 1Gb которая быстрее чем GeForce 8800Ultra!

0

Ну и как???
Дрова нормальные?
Расскажи как впечатления и сделай тестик крос против х2!

0

Киньте тесты Nvidia 8800GTS 512Mb в режиме Sli,заранее благодарен!!!

0

Появилась информация что по nVidia собирается ударить Intel. Как известно nVidia не разрешает использовать SLI кроме как на чипсетах nForce. Первый удар по nVidia уже был задержкой необходимой для разработчиков материнских плат информации о новых процессорах Penryn из-за чего большинство плат на nForce 6xx остались без поддержки новых процессоров. Теперь Intel собирается не давать nVidia лицензию на использование разрабатываемой новой шины для процессоров Intel - Common Serial Interface (CSI). Это похоронит разработку чипсетов nVidia и технологию SLI. Даже если nVidia разрешит использовать SLI на чипсетах Intel, чипсетам nVidia все равно конец т.к. на них спрос только из-за технологии SLI.

Как известно Intel ведет свои разработки в области графических решений. Второй причиной такого поведения может быть желание ослабить nVidia перед выходом видеокарт Intel. Если у Intel получится сделать хорошие видеокарты, то nVidia окажется между двух огней. У AMD есть своя платформа и Intel будет своя.

0

Alexandr82
Выход один... Внедрять собственные проци...
Это было-бы идеально с точки зрения конкуренции...

0

Ну судя по новостям с оверов, разработки ведутся...

0

да это не выгодно надо расшираться и нанимать много народу,так что качество видеокарт может испортиться и процов тоже,если они будут!!!!!

0

nVidia не на столько богата, чтобы начать разработку процессоров.

0

Появилась информация о энергопотреблении NVIDIA GeForce 9800 GTX - 168Вт!!! Исходя из этого можно предположить что энергопотребление 9800GX2 будет на уровне 300Вт!!!

0

Потребление Х3870Х2 на уровне 330 Ватт,т.е. одинаково с картой от НВидиа .

0

Энергопотребление Radeon HD 3870 X2 - 196Вт, а у 2900XT - 215Вт.

0

Кто-то выдал тэсты, сравнивающие HD 3870 X2 c 8800 Ultra ! Как-то не по правилам! 3870 - новая карта! Лучше сравнили бы когда выйдет 9800GTX, тогда-то и узнаем!

0

[666] MaxXx
Ультра это лучшее одночиповое решение которое есть на рынке, потому с ней и сравнивают... А 9800GTX еще не вышла, да и смысл сравнивать две виляхи от одного роизводителя... Они 100% будут различаться...

0

Ultra не лучшее решение,оно дорогое ,а лучшее 8800GTS 512МЬ в режиме Sli кстати киньте тесты !!! смотрите выше там написано какие!!

0

Интересный момент, взгляните на ревизию ядра, она такая же как у 8800GTS 512. Если GPU-Z не врет, то слухи о новой ревизии ядра не подтверждаются и перед нами всего лишь разогнанная 8800GTS 512 с поддержкой тройного SLI.

0

Сайт VR-Zone сообщает, что грядущая видеокарта GeForce 9800 GX2 задерживается до 18 марта.

Сама NVIDIA пока не дала каких-либо объяснений, но, по всей видимости, это связано с проблемой драйвера. На текущий момент, GeForce 9800 GX2 набирает около 14 тыс. в 3DMark06, что меньше того результата, который демонстрирует Radeon HD 3870 X2.

0

А я так надеялся в марте приобрести карту 9800 GTX на чипе G 100, надежды не оправдались, единственная надежда осталась на 9800х2.

0

9800GX2 будет на треть дороже, жрать в 1,5 раза больше энергии, а по производительности скорей всего не сильно будет быстрее 3870 X2.

0

ну, и для кого её делают,и кто её купит если она дороже, прожорливее, и с почти одинаковой производительностью как у 3870 X2! тут что то не так, так как до сих пор нету точной инфо о карте!

0

Инфа о 9800GX2 такая:

2 чипа G92, частоты чипов 600/1500/2000МГц, цена 599$. Учитывая что энергопотребление одиночной 9800GTX 168Вт, можно предположить что энергопотребление 9800GX2 с двумя чипами имеющими более низкие частоты будет на уровне 250-300Вт.

0

Киньте тесты Nvidia 8800GTS 512Mb в режиме Sli,заранее благодарен!!!

0

А чё так мало на http://www.overclockers.ru/images/lab/2007/12/11/image002.png там пишут что у 8800GTs как у меня больше чем у 9800GTX!

0

скажите!!! а какая последняя версия драйверов для видеокарт nVidia??? и где их можно скачать??

0

Привет, говорят скоро AMD/ATI HD4ххх выйдут.
Кто чё думает?

0

Да я знаю что лажа, просто интересна.)

0

Артурянчик
Ага тока эта лажа имеет самую быструю видеокарту на сегодняшний день.. А нвидиа химичит с новым поколением , которые и новыми то не являются и по производительности не далеко ушли (если ушли) от 8й серии...

0

А чё за самая быстрая видеокарта? 3870х2 ???

0

Ну это щас,так же 8800ultra была самой быстрой,да и о 9800Gx2 толком ничего не извесно!!!

0

Известно, тож самое что и 8800ГТС 512 ток их 2 и кулер другой))))

0

Купил новый комп.видяху попросил поставить radeon hd3850 256 мб. Включил комп,проверил видяху,написано 512 мб. Начал проверять разными прогами,все показывают что объем памяти 512. Открыл корпус, на видяхе наклейка 256 мб..... Кто нить знает что это за фигня,просто интересно? :-)

0

Те повезло, вот что случилось)

Видеокарту не в ту коробку положили на заводе))

1000 рублей сэкономил =)
Где покупал?

0

app06
Турбо кэш наверное активирован, память из оперативки захватывается

0

Народ как думаете сколько будет стоить 9800GX2 ?

0

Народ думает около 20000 руб.))) или 30000 время покажет.

0

Durer

Какой "турбо кэш" , это обычная видеокарта , не встроенная, это десктоп а не ноутбук, у 3850 нет функции турбо кеш, ппц)))

0
ЗАГРУЗИТЬ ВСЕ КОММЕНТАРИИ