Nvidia vs ATI - битва продолжается v6 {closed}

Комментарии: 401
Тема закрыта. Публикация новых комментариев отключена.

первый нах!

ЗЫ
Знаю, что флуд но поймать такую темку пустующей - редкость - не удержался=))))

0

Братан уже почти неделя прошла а тут по прежнему пусто. По ходу все забили.
По теме. Никто и никогда не сможет решить извечный вопрос NVIDIA или ATI. Пока один из них не откинет радиатор.

0

Вставляю везде мессаже, так как очень срочно нужен ответ
Не видит не одного дисковода!!!! Произошло полсе переустановки мат.платы!! Че делать??? Как драйвер установить??? Или это не драйвер!!!!!!!!!!!
Срочно Плиз!!! HELP !!! Также еще оборудовании в Диспетчере устройств в разделе SCSI и RAID стоит восклицательный знак над IDE-контроллер !!!!!!! Че делать ????? И еще постоянно вылезает надпись об установке какого-то JMicron JMB36X Controller

0

nPower aka Akon
У тебя должна быть дискетка с RAID контроллером. При установке винды вставь её.

0

Где эта дискета??? В комплекте с чем???

0

Сменил Материнскую плату, видеокарту, процессор, оперативку и блок питания, установил драйвера под это дело. Во время работы заметил ранее неизвестные мне разделы (Пуск-Все программы) и подумал, что это просто прикладные ненужные проги, удалил их. После перезагрузки комп больше не видит DVD пирводы, только виртуальные, созданные Алкоголем. Восстановление не сделать, т.к. слишком поздно была сделана первая контрольная точка (после моих действий). Также при каждой загкрузке системы, уже на рабочем столе, вылазит надпись, что надо установить какой-то JMicron JMB36X Controller, видимо тот драйвер, который я удалил. Когда соглашаюсь его установить, выводится адрес с которого он был установлен - диск с операционкой, который я теперь не могу узать ясно по каким причинам. Может где-то можно скачать этот драйвер?? Также в Диспетчере устройств в разделе SCSI и RAID контроллеры стоит восклицательный знак над IDE-контроллер. Вообщем в чем проблема???!!! HELP !! Как мне сделать так, чтобы комп снова видел DVD дисководы???

0

С мамой вместе. При установке в начале нажимаешь F6 и ставишь с неё RAID контроллер.

0

G-Man
Мое предположение о том, что одна из тем про видюхи рано или поздно сдохнет - сбылась (точнее это говорил не я, но ты понял кто=)), как и все что я когда либо серьезно утверждал=))

0

Подожди еще... ))) Вот выйдет R600 начнется : nVidia Forever или ATI Forever ! Ха. Самому смешно

0

Что могу сказать. Купил себе BFG nVidia GeForce 8800GTS 500/1600 640mb GDDR3 320bit. Разогнал ее до 600/1800. Очень доволен. Все игры летят. ))) И могу с гордостью сказать, что у меня второй по скорости одиночный GPU на планете!!!! Эх... Только на два месяца. Там R600...

0

Пачём брал nVidia GeForce 8800GTS а разгонял на штатном охлаждении.
И зачем те R600? Нанеё даже тэстов нет.

0

R600 еще вообще нет. По обещаниям он будет в разы мощнее G80. А карточку взял за 600$, разгонял на штатном (на то это и BFG))

0

Я думаю что Нвидеа берёд деньги не только за мощ но и за имя . Я себе когда покупал комп я хотел Нвидеа но увидел цены и чуть не проглатил язык . А Ати наверное я думаю мощнее. Но всё равно я долго не могу принять решение за чью сторону перейти и всё время покупать . Но люди бывают разные и мнение бывают разные.\

0

Ати я думаю мало или вобще не берёт деньги за имя и пррестиж

0

У ATI акцент на поризводительность, GeForce - прорисовка.

0

nPower aka Akon
Вот имено это толька обещания если и будет мощнее R600 точно невразы атак напару FPS.
технолагически практически не отличаюца R600 от G80.
Пойду на днях вазьму такуюже G80.
Тытак и несказа зачем тебе R600 утебя итак на nVidia GeForce 8800GTS игры все летят.
Сто пудов что R600 многа перироста нидаст.РАЗРАБОТЧИКИ видях от ATI тоже не дураки
карты от nVidia вышли первей а от ATI выйдут поже вот и вешуют лапшу всем типа ихнии карты разорвут G80 на тряпки.

0

Цитата:
Информация о будущем графическом ускорителе ATI с поддержкой DirectX 10, известном под кодовым именем R600, поступает по крупицам и пока до полной картины очень далеко.

Напомним, что по более ранним данным интерфейс обмена данными между чипом и памятью R600 будет 512-битным, что на треть шире, чем у GeForce 8800GTX, топ-модели NVIDIA.

Между тем, китайский ресурс PCPOP сообщает, что тактовая частота GPU составит целых 800 МГц. При этом рабочее напряжение питания составит всего 1,2 В, а энергопотребление - скромные по нынешним меркам 96 Вт (значительно меньше, чем GeForce 8800).

Необходимо отметить, что подход измерения производительности частотой чипа давно утратил смысл применительно к графическим ускорителям, зачастую бюджетные решения имеют более высокую тактовую частоту, нежели более дорогие, оснащенные большим количеством функциональных блоков.

После редизайна платы на R600 будут лишь немногим длиннее, чем X1950 XTX. По количеству транзисторов продукт ATI будет превосходить решение NVIDIA - 720 против 681 млн.
Помимо того, отметим, что данные PCPOP вступают в противоречие с более ранними в части типа используемой памяти. Мы знаем, что ATI уже довольно активно использует GDDR4 в флагманских продуктах. В данном же случае источник говорит о том, что на ускорителях с R600 будет стоять GDDR3.

В любом случае, до выхода новых топовых ускорителей AMD/ATI осталось, вряд ли, больше пары месяцев, и тогда мы сможем установить точно, получило ли семейство GeForce 8800 достойного конкурента.

0

Вот собственно все предполагаемые плюсы и минусы битвы R600 vs G80. Хотя минусов у R600 в этом противостоянии нет. Разве что вместо обещанной GDDR4 будет GDDR3, но это единственное место, где G80 наравне с R600. Также под 8800GTX нужен большой корпус, это все недостатки старого техпроцесса)
Grom shout to deaths
вообще-то наоборот. у ATi акцент на качество картинки, а у nVidia на скорость. Пора бы уже знать.

0

Всё про GeForce 880GTX
----------------------------------------------------------------
NVIDIA GeForce 8800 GTX (G80) 768MB PCIE
• GPU: GeForce 8800 GTX (G80)
• Интерфейс: PCI Express x16
• Частота работы GPU (ROPs/Shaders): 575/1350 МГц (номинал - 575/1350 МГц)
• Частоты работы памяти (физическая (эффективная)): 900 (1800) МГц (номинал - 900 (1800) МГц)
• Ширина шины обмена с памятью: 384 бит
• Число универсальных процессоров: 128
• Число текстурных процессоров: 32
• Число ROPs: 24
• Размеры: 270x100x32 мм (последняя величина - максимальная толщина видеокарты)
• Цвет текстолита: черный
• RAMDAC/TDMS: вынесены в отдельную микросхему
• Выходные гнезда: 2 х DVI (Dual-Link), ТВ-выход
• VIVO: нет
• TV-out: интегрирован в NVIO
• Поддержка многопроцессорной работы: SLI (интегрировано в GPU)
• Карта имеет 768 МБ памяти GDDR3 SDRAM, размещенной в 12-ти микросхе¬мах на лицевой стороне РСВ. Микросхемы памяти Samsung (GDDR3). Время выборки у микросхем памяти 1,1 не, что соответ¬ствует частоте работы 900 (1800) МГц.

Так делаем выоды
Графический процессор NVIDIA G80 и карту NVIDIA GeForce 8800 GTX 768MB можно смело называть очередным королем в трехмерной графике игрового уровня. Все тесты показали, что NVIDIA смогла создать очень мощный ускори¬тель, обладающий наиболее прогрессив¬ными возможностями на сегодняшний день.
Разумеется, его ещё не проверяли в DirectX 10, а ведь именно для грядущего стандарта он и создавался, но эти тесты будут лишь в будущем, ведь пока нет ни таких игр, ни самой MS Windows Vista. Отдельно можно отметить следующие моменты:
• высочайшая производительность, которая требует уже от пользователя увеличивать разрешение (а, может, и менять монитор на другой, с большей диагональю);
• скорость в 3D позволяет везде включать режим HQ и играть с максимальным качеством, не идя ни на какие компромиссы;
• драйверы уже достаточно отлажены и нареканий не имеется;
• ускоритель показал отчетливо все свои достоинства в синтетических тестах, убрав последний недостаток предыдущего поколения в виде малой скорости исполнения динамических ветвлений в шейдерах;
• также новый продукт способен исполнять HDR совместно с АА, что некогда было прерогативой только конкурентов в лице ATI Radeon Х19хх-серии;
• новая анизотропия высокого качества не может не радовать.
Видеокарта снабжена отдельным чипом, в котором сосредоточена интерфейсная логика, можно сказать даже, что вернулись к старой схеме с внешним RAMDAC. Это не приведет к ухудшению качества 2D, а наоборот, даже улучшит его. Впрочем, современные условия диктуют использование цифровых интерфейсов, и влияние аналоговых частей нивелируется.
Теперь о недостатках. Прежде всего, это очень высокое энергопотребление - выше 150 Вт под нагрузкой, а также высокое требование к БП насчет жесткой поддержки тока в 20 А на ли¬ниях 12 В. В целом требуются БП мощностью не менее 450 Вт. Нагрев карты в целом весьма велик, если дополнительно не продувать корпус. Хотя ядро и не перегревается, и кулер не повышает обороты, оставаясь тихим, внешнее охлаждение карты желательно. Размеры озадачивают не меньше - длина в 27 см заставит ряд пользователей подумать о смене корпуса.
Впрочем, это недостатки даже не данного продукта, а всех топовых уско¬рителей. Они все больше потребляют, оказываются все большего размера, перегрев уже стал нормой в этом плане. Словом, перед тем, как тратить $ 500-700 на подобную видеокарту, стоит сна¬чала подумать - влезет ли она в корпус, достаточен ли БП, есть ли продувка в корпусе. И самое главное: вначале обно¬вите процессор хотя бы до уровня AMD Athlon 64 Х2 4200+/Intel Core2 Duo 6600, памяти желательно не менее 2 ГБ, системный чипсет не младше nForce 4 SLI/ i9xx. А потом думайте о таком ускорителе.
В заключении хочется сказать, что тандем GeForce 8800 GTX плюс новая системная плата на базе nForce 680i показал себя очень хорошо, по сути, это на сегодня самое быстрое такое комбинированное решение для супермощного игрового компьютера. Да и излишне объяснять, что системные драйверы и драйверы видеокарты одной компании согласуются и работают совместно как нельзя хорошо.
По результатам исследования iXBT решили присудить награду компании NVIDIA за очень удачный продукт GeForce 8800 GTX в номинации «Оригинальный дизайн».

Вот и гадай теперь что лучше......

0

А унифицированная шейдерная архитектура моего 8800GTS будет работать только с DX10 ?? Тоесть сейчас блоки работают по стандартной схеме драйвера?? Или унифицированная шейдерная архитектура у меня уже работает??

0

Цитата с 3dnews
В то время как новый флагман калифорнийской NVIDIA завоевывает полки магазинов и поселяется в системных блоках энтузиастов, «ответ» ATI/AMD еще пока находится на столах инженеров. Тем не менее, данных факт не уменьшает интереса общественности к R600, а лишь его усиливает. Ведь GeForce 8800 GTX установила новую планку быстродействия, вопрос лишь в том, преодолеет ли ее R600 в своем самом скоростном варианте. Пока знакомые с реальными перспективами флагмана ATI/AMD скованы подпиской о неразглашении, но некоторым британским журналистам удалось выудить из разных источников несколько интересных фактов. Сними мы и познакомимся.

Подводя итог известному факту, что архитектура R600 берет начало от видеочипачипа R500 консоли Xbox, следует отметить, что новинка способна серьезно превзойти его возможности. Инженеры отказались от выделенной скоростной памяти в упаковке чипа, но усилии ядро по всем показателям. Внутренний контроллер памяти имеет 1024-бит интерфейс, что вдвое больше, чем у поколения R520/R580. Внешний интерфейс памяти также удвоился – в R600 он будет в 512-бит конфигурации. Производитель собирается применять как GDDR3, так и GDDR4 память, что позволит добиться ПСП в 115-140,1 Гб/с. Сравните это с показателями GeForce 8800 GTX в 86 Гб/с, которые сегодня выглядят просто шокирующими по сравнению с достижениями предыдущего поколения видеокарт. Предполагается наделять карты объемом памяти в 1 Гб и 2 Гб, последняя цифра найдет применение в профессиональной серии.

R600 будет обладать 16 ROP против 24 ROP у G80. Относительную физическую нехватку этих блоков ATI/AMD компенсирует высокой частотой чипа в 700-800 МГц, что в итоге приведет к сравнимым показателям соперников по этому параметру. Освободившееся в чипе место инженеры решили направить на обработку шейдеров, поэтому хоть R600 и будет способен выдать лишь 16 пикселей за такт, ему будет не важно насколько «сложными» окажутся эти пиксели.

Что касается количества шейдерных блоков, то в R600 их 64 против 128 (8х16) у G80. Тем не менее, NVIDIA применила 128 скалярных блока, а в ATI/AMD реализовали вычисление сложных SIMD инструкции, до 4 операций за такт. В итоге, SIMD блок шейдеров R600 за такт сможет вычислить результат четырех скалярных операций, что может быть эквивалентно наличию 256 скалярных блоков G80. Но это чисто теоретические рассуждения. Специалисты считают, что G80 будет быстрее в более простых приложениях, а R600 обойдет конкурента в играх со сложными шейдерами. Возможно, именно DirectX 10 раскроет весь потенциал сложных блоков R600.

Другие элементы видеокарты также удивляют. Утверждается, что у карт на базе R600 будет самая дорогая PCB в 12 слоев. В ее проектировании, а также при создании кулера, учитывались перспективные требования R680 и R700. Геометрические размеры карт не превысят аналогичный показатель Radeon X1950 XT и GeForce 7900 GTX, то есть она будет короче нового флагмана NVIDIA GeForce 8800 GTX, кулер карты будет выдаваться над PCB. Он будет иметь четыре тепловые трубки, огромное количество меди в качестве материала, турбину на подобии продуктов Artic-Cooling и будет способен отвести до 250 Вт тепловой энергии. Кстати, сообщается, что энергопотребление новинки не превысит 200-220 Вт, а, скорее всего, будет сопоставимо с GeForce 8800 GTX.

Ну что же, приведенная информация звучит довольно заманчиво. Будем надеяться, что анонс R600 действительно состоится в конце января, и ATI/AMD не будет тянуть до последнего дня первого квартала 2007 года.

0

10-й дайрект намечаеться только вместе с вистой, так что придёться\ подождать, что бы увидеть всю мошь 8800

0

Появились тесты R600
http://level505.com/2006/12/30/the-full-ati-r600-test/

0

Хмм...не плохо,это еще если учесть,что Р600 еще ранней ревизии,вообщем в среднем или паритет или приимущество,считаю.что в более сложных режимах,разрыв будет еще быольше

0

The R600 Specs are:

64 4-Way SIMD Unified Shaders, 128 Shader Operations/Cycle

32 TMUs, 16 ROPs

512 bit Memory Controller, full 32 bit per chip connection

GDDR3 at 900 MHz clock speed (January)
GDDR4 at 1.1 GHz clock speed (March, revised edition)

Total bandwidth 115 GB/s on GDDR3
Total bandwidth 140 GB/s on GDDR4

Consumer memory support 1024 MB
DX10 full compatibility with draft DX10.1 vendor-specific cap removal (unified programming)
32FP internal processing
Hardware support for GPU clustering (any 2^n number, not limited to Dual or Quad-GPU)

Hardware DVI-HDCP support (High-Bandwidth Digital Content Protection)
Hardware Quad-DVI output support (Limited to workstation editions)
230W



ОГО, там гиг памяти, на Р600 !!

0

Вот бы ещё дождаться этого R600... да по приемлемым ценам... да лучше бы что-то типа мэйнстрима,а не топовое решение. Когда АТИ наконец-то разродится своим чипом, Нвидиа уже уже успеет снизить цены и подготовить к выходу новые ядра. Так что Ати снова в пролёте :)

0

АТи никогда не была в пролете - она всегда создавала достойную конкуренцию калифорнийцам. Если бы не они 7800GT до сих пор бы стоил бешеные деньги, ни хера не работал, грелся и сгорал бы каждую неделю.

0

Почему нельзя купить Geforce 8800 GTS за 429 $? Вот в Америке можно, а у нас нельзя :((((((((((((((((((((((((((((((((((((((((((((((((((((((((((

0

Akatosh
Логика 7-го ребёнка:
Если бы не было компании АТИ, то 7800 сгорал бы каждую неделю. Как только появилась АТИ, так 7800 испугался, и перестал сгорать.

Gameslove
Потому как наши поставщики потеряли совесть. Давно.
Ладно, подождём, потом ситуация изменится. Дождёмся Висты.

0

GeForce 8800GTS самая дешёвая у нас в Латвии стоит 324.95Ls, это 637 $ :((((((((((((((((((((((((((((((((((((((((((((((((((((((((((((((((((

0

NaPaliHeavenTeam|Syzygy
Да, подождём, надеемся, что цены изменятся, пока приходится ждать Geforce 8600 GT и R600 (где-то за 400 $) :))))))))))

0

О, как вы думаете:
Сколько будет стоить 8600GT (универсальная архитектура с_ка дорога-я... 8800GTS у меня (Псков) стоит 22000 руб., GTX - 26500. А мэйнстримовские видяхи где-то на-половину дешевле топовых (излишне навороченных)... Зна-чит у меня будет где-нить 11000-13000 руб., у вас (Москва) - 8000-10000, ну по-началу) А ??
P.S. она того стоит, и никаких 7900GS, X1950PRO - они уже устарели.
P.P.S. a ATI блин вечно в догоняющих...

0

У меня (Киев) GF 8800GTX стоит стоит не меньше 700$ где ж справедливость так цены поднимать, хотя такую видяху я не потяну куплю когда вийдет 8600GT или GS думаю стоить будет 240 и 180 соотведственно, хотя поживём увидим.

0

Цитата с playground.ru:
«В связи с неполадками, выход R600 переносится на несколько недель вперед, теперь стоит ожидать его в начале марта.»
Если действительно в конце февраля появятся Directx 10 видяхи среднего класса и обновленный хай-энд (GeForce 8600, 8850, 8875...) – придется менять тему:
«ATI - БИТВА ПРОИГРАНА…»

0

С DirectX 10 можно забыть все старые грушки. Единственная игра с полной поддержкой DirectX 10 с шейдерами 4.0 это Кризис. А она на средних компах не потянет.... так что жоп....а-а-а..... =))

0

denisnik
Да эту тему уже давно нужно поменять на "Нвидиа опять зарулила"

Grom shout to deaths

Единственный ,кто не знает, что УЕ3.0 полностью поддерживает Х10, это ты :)

0

Блин сколько можно гонять тут пустые разговоры о том что nVidia зарулила и ATi проиграла битву? Еще ничего не известно об R600 не надо так надсажаться - все равно ничего конкретно еще не известно.

С чего это вдруг Х1950Pro уже устарела???

0

Действительно, неизвестно. И может никогда не будет известно.

0

Нет я говорю про конкретную ситуацию на рынке сейчас и сегодня. Нефиг парить людям мозги - собрался покупать 8800GTS\GTX нечего обсирать другие видюхи тем более целую фирму.

0

Кризис на ПК не будет, тока на Хbox360, в Игромании было сказано.

0

Это в каком номере было сказано???, чё то я такого там не видел!!!

0

Успокойтесь, Кризис на ПК будет. Только на ПК.

0

Вот я тоже где только не читал, везде написано, что крайзис первоначально будет на пк!!!

0

Только на ПК. Ибо приставки просто не потянут такой двиг. Радуемся.

0

GeForce 7600 лучше чем Радик 1650, если да то на сколько, если нет то почему, а то по сайтам рыщу и нефига не врубаюсь?

0

НаПали.....как-там-тебя-дальше.
Я тебе говорю что ты несеш ькакую-то чушь про то что nVidia сейчас рулит. Как же это она рулит? Тем что она выпустила g80 раньше R600 ничего не меняет. Лидерство опять только на бумаге, как было с 7800GTX 512. 8800-серию невозможно достать в городах России кроме Москвы и Питера. Мейнстрим они выпускать не собираются, карты ужасно греются и потребляют питания почти как весь мой комп. На них все жалуются, он дорого стоит. Что же это за лидерство?

0

К тому же драйверов под DirectX 10 нету до сих пор

0

NaPaliHeavenTeam|Syzygy

Akatosh все правильно говорит. Ты не прав. Как можно утверждать такие вещи, когда полноценного выхода видеокарт на DX10 еще по сути не состоялось? Нет ни тестов, ни игр, ни дров под него. А видеокарты дешевле 20 тысяч у них есть? Что, тоже нету? НУ тогда о чем вообще можно говорить?

0

Вот все наезжают на Nvidia
Во первых нвидиа лидер в этой отрасли
Во вторых карта на Р600 будет гораздо дороже, особенно с ддр4
Да и притом как она будет греться на таких частотах
8800 как раз сбалансированное решение(могли быть гораздо дороже)
Так что NVIDIA rulit.

0

2 Uriel Septim
nVidia не такой уж лидер, она просто как всегда поспешила. Сейчас Виста официально еще не вышла, нет драйверов под DirectX 10 и приложений под DirectX 10. А ATI просто не торопится, а доделывает спокойно. Между прочим поддержка DirectX 9 впервые появилась у ATI на Radeon 9700, а потом nVidia выпустила свое провальное поколение GeForce 5900. В поколении 6xxx/7xxx nVidia проигрывает ATI в качестве изображения как в 3D так и при декодировании видео.

R600 не будет дороже. Чип сделан по более тонкому техпроцессу, что снижает себестоимость. DDR4 не такая уж и дорогая. Например X1950 XTX с DDR4 стоит за границей 422$, а 7900 GTX c DDR3 стоит 490$. Наши цены я не беру т.к. у нас цена на X1950 XTX задрана как на новинку.

Греться R600 будет не намного сильнее из-за более тонкого техпроцесса.

0

"Nvidia vs ATI - битва продолжается v6"
Какая-ж это битва. Смотрели "Властелин Колец" - вот там битва. А когда противника (Р600) нет - битва НЕ продолжается. Такое не-соответствие темы содержанию... NaPaliHeavenTeam|Syzygy нужно понять правильно

0

Модератор:
Предлагаю подредактир. тему – убрать «битва продолжается». «Nvidia vs ATI» - просто и хорошо (будет меньше непоняток, споров и, наверно, интереса к теме). А сколько ана-логов: «AMD vs Intel», «STALKER vs Crysis», «Х vs Y», «У vs Й»…

0

Да ладно тебе,ну чё ты придераешься а?Пускай будет битва,мне вообще всё равно!

0

На самом деле, пусть будет всё, как есть, мне например тоже пофиг как она называется(главное понятно про что ветка)!!!

0

"А ATI просто не торопится, а доделывает спокойно. "
:)) Вообще-то так говорят родители про своих детей-даунов... (никого не хотел обидеть, особенно даунов)
"R600 не будет дороже."
Абсолютно согласен. Еще работает поговорка "время-деньги" - опоздал на рынок - снижай цену.

0

Да АТИ ещё начали помогать AMD. Чувствуется там крутая видюха. Ну хотя про R600 результаты стали известны, ну там совсем чу-чуть она отстаёт от 8800. Ктомуже 8800 вышла раньше немного, ATi как всегда запаздали и как всегда неспроста

0

2 Елник
R600 опережает 8800 GTX по тестам
http://level505.com/2006/12/30/the-full-ati-r600-test/

0

2 Akatosh: ну да, только в москве и питере. в нашем мухосранске даже есть, в казани (местные знают где брать).
Leadtek PCIe-16x 640Mb DDR3 GeForce 8800GTS 2xDVI+TV-Out, цена : 23650 руб.
Чтобы купить надо : а) быть супербогатым энтузиастом, скупающим все хайтек новиночки; б) быть психом сумасшедшим; в) ну, и на последок, или быть буржуем.
Вот выйдет 1 Гб видео памяти на борту видюха нвидиевская какая-нибудь, чтобы для любого юзера доступная была, тогда возьмем ;)
А пока, оревуар. но пасаран ;)

0

ATI отдожила выход R600 типа на 2-е недели. ATI не успевает к выходу Висты, т.е. 30 января, поэтому nVidia и кричит, мол битва проиграна и всё такое.... Появиться R600 где-то в конце февраля.

0

Так блин какую видюху брать за 7-7,5 тясяч на PCI-E???!!! Х1950Pro или еще три месяца ждать появления на прилавках облегченной 8800GTS 320Mb??! Апгрейд собираюсь делать уже в конце февраля!!! Только-только кое-как определился как уже кричат, что Х1950Pro нет смысла брать!!!

0

Akatosh
Я же тебе писал, не ведись ты на эти 4 шейдеры, бери X1950!!!

0

DiMan-781
При чем тут блин шейдеры нах? Через полтора месяца почти за те же деньги появится карточка в два раза мощнее этой X1950, да еще и обладающей очень высоким разгонным потенциалом (все читали статью на оверах о разгоне 8800 GTS? - почти 140 мгц по ядру и 400 по памяти, против отсутствия разгона на X1950 Pro).

0

Облегченная версия будет дешевле долларов на 100. Цена 640 Мегабайтной версии в районе 18000р, т.е. облегченная версия будет стоить порядка 15000р что в 2 раза больше 7500р.

Еще Vista официально не вышла, а ты задумываешься о 4-х шейдерах. Игры с поддержкой четвертых шейдеров появятся не раньше лета, а то и к концу года. Даже драйверов под DirectX 10 нету. К лету появятся видеокарты среднего ценового диапазона с поддержкой DirectX 10, тогда и имеет смысл заморачиваться.

0

А смысл брать видюху на пол года, лучше взять 8800 сейчас, которая будет тянуть все игры года 3 , чем сейчас брать X1950Pro, и через пол года заменить её на видюху среднего диапозона.

0

Uriel Septim2
У него не хватит денег на 8800!!!

0

"Цена урезанных 8800 GTS составит $299, что на $100 меньше обычных моделей, именно такова цена 320MB памяти. Урезанная версия, получив новую цену, станет соперником для Radeon X1950 XT 256MB, последним видеокартам придется не сладко, любопытно будет понаблюдать над этим противостоянием, кто одержит верх дешевые 8800 GTS c с поддержкой DX10 или старое поколение."
Playground.ru
Пусть попросит у мамы 500р.

0

Оригинально=))
8100 рубликов против 7000. Я конечно же не собираюсь менять видюху через полгода и даже через год. Так что думаю, если появятся карты 8800 на прилавках в конце февраля за реальные 8 штук тогда может и куплю. Но вообще что-то мне не нравится такая ситуация на рынке. Блин, я заметил, вечно как у меня апгрейд (ой как же давно был последний из них!!!=)) так на рынке переходный период! что за невезуха!

0

За восемь штук точно не появятся, у нас на новинки всегда цены сначала в 1.5 раза дороже

0

В общем я почитал тут и подумал о чем вообще спор, надо факты приводить.
Мы с корешом тоже долго спорили что лутше и я решил что АТИ ,а он выбрал nVidia.
В общем такая ситуация.
Два компа.
1 )Атлон 2х64 3600
гиг Оперы , тайменги памяти 2,5 3 3 7
Видюхи 7600gs-slie-две. 256х256mb

2 )Пень 3,3
гиг Оперы тайменги памяти 3 4 4 8
Видюха х850хт 256mb

Тестили на ФИРЕ на полностью одинаковых настройках

1280х1024 + все что могли включили

1 ) FPS min 17 max 79

2 ) FPS min 28 max 68

Смотрим , сли от нВидео показывают FPS выше чем ати , но при этом ати лутше держит середину, и тормозов в игрушке поменьше.
Причем у АТИ эти пораметры почти не менялись на разрешении
1024х768
1) FPS min 24 max 79

2) FPS min 34 max 68

вот и думай потом " В чем сила брат "
На игровых настройках не помню , это было не так важно.
по моему (1)28-79 против (2) 38-68

Что касается 1900хт она показала
1280х1024 FPS min 42 max 85
1024х768 FPS min 48 max 85
но не буду врать проц помощьнее память DDR2
Игровые 51-85

Все приведенные данные (+-1) так как это было два месяца назад.

В общем что касается меня я ждал бы АТИ

0

1) У X850 XT нет поддержки третьих шейдеров, а на 7600GS есть. А в FEAR вроде используются третьи шейдеры.
2) X850 XT прилично мощнее одиночной 7600GS

0

Alexandr82
Ну насчёт 7600GS понятно, а ты не знаешь x850xt мощнее 7600gt ?

0

Мощнее, только поддержки шейдеров 3.0 нет

X850 XT - 16 конвейеров, 6 вершинных процессоров, шина памяти 256 бит, частоты 520/1080 МГц.
7600 GT - 12 конвейеров, 5 вершинных процессоров, шина памяти 128 бит, частоты 560/1400 МГц.

0

X850 XT не поддерживает третьих шейдеров, но она быстрее и стабильнее работает , а ФИР думаю для теста нормально подходит.
И речь шла о двух 7600gs ? думаю они быстрее чем одна 7600gt

0

вот вам результаты на 3DMark(1024*768)
7600GSx2 DDR3, 256Mb - 6957,
7600GT GDD3, 256Mb - 5698.
Цена:
7600GT - 5657р.
7600GS - 4536р.
Есть смысл брать 2х7600GS? Думаю нет.
А про X850XT вообше молчу....

0

Значит думаете не судьба бужет купить 8800GTS 320Mb за 8 штук в первый месяц начала продаж? даже если хороший магах отыскать? ведь топовый модели продаются уже по рекомендованным ценам

0

В марте или ближе к лету:
GeForce 8600 Ultra -> 64 потоковых процессора, частоты 500/1400 МГц, 256-битная шина, объём памяти 256/512 Мб, рекомендованная цена $179;
GeForce 8600 GT -> 48 потоковых процессоров, частоты 350/1200 МГц, 256-битная шина, объём памяти 128/256 Мб, рекомендованная цена $149;
GeForce 8300 GT -> 32 потоковых процессора, частоты 500/1200 МГц, 128-битная шина, объём памяти 128/256 Мб, рекомендованная цена $89-99;
GeForce 8300 GS -> 24 потоковых процессора, частоты 500/1000 МГц, 128-битная шина, объём памяти 128/256 Мб, рекомендованная цена $69-79.

Overclock.ru

0

Какие из них смогут сраниться с Х1950Pro по мощности?

0

А вообще что-то характеристики у них слабенькие. Я так понял они выйдут после 8800GTS 320?Потому что мне более всех понравился именно он и ценой и характеристикаами. Вопрос в том выйдет ли он одновременно с вышеперечисленными или раньше? желательно в феврале.....

0

С 1950Pro из них никто не сравниться по мощности !!!

0

Графический чип Nvidia G80 может с легкостью превратиться в процессор, он имеет почти все, что нужно CPU. Начинка Geforce 8800 GTX и GTS карт оказывается имеет большое сходство с центральным процессором, это отвечает на вопрос, может ли Nvidia делать процессоры. Конечно сам по себе изначально чип не X86 совместимый, но G80 может с легкостью приручить X86 инструкции, вот такой вот универсальный чип. Техники AMD подтвердили возможность трансформации из GPU в CPU для G80, но для процессора такой чип слишком большой и выделяет много тепла. Однако решение проблем размера должно скоро прийти само собой, ведь по плану идет дальнейшая урезка G80, чтобы делать видеокарты дешевле. И ATI и Nvidia хотят создать объединенный CPU/GPU, Nvidia уже совсем недалеко от создания собственного CPU. Все что остается сделать, это оптимизировать G80 перед передвижением в процессорный сегмент рынка, возможно первые G80 уже в лице CPU появятся уже в этом году.

Ого!! nVidia точно на коне.

0

14.01.07 14:35
Я думаю в этом посте ошибка с хар-ками 8600GT. Слишком маленькая чатота ядра - 300. Даже у 8300GT/GS 500 ! Думаю просто опечтка, у 8600GT тоже 500.
С X1950Pro сможет сравниться 8600GT (8300 нивсчет, в них шина памяти только 128bit), а 8600Ultra обгонит X1950Pro, и основную роль в этом сыграют 64 унифицированных процессора. ИМХО

0

Еще ошибка с ценами этих карт - чисто пиар Nvidia

0

Новые подробности о Geforce 8600:
GeForce 8600 GT -> 64 потоковых процессора, частоты 650/1800 МГц, 128-битная шина, 256 Мб памяти типа GDDR-3;
GeForce 8600 GS -> 64 потоковых процессора, частоты 550/1400 МГц, 128-битная шина, 256 Мб памяти типа GDDR-3.

Семейство GeForce 8600 будет иметь 128-битную шину

Ничего неизвестно про GeForce 8600 Ultra. Теперь приходиться ждать Geforce 8800 GTS 320 Mb, посмотрим на сколько они цену урежут.
Фу блин 128 bit - сейчас это не шина. Какой нафиг адаптер мидллесектора для DX10, если у него шина всего лишь 128bit ! NVIDIA, NVIDIA как вам не стыдно. А ведь начиналось все так хорошо...

0

О! вот уже и GeForce 8600 GS анносировали!))
Но все равно буду 8600Ultra брать летом-так будет ГОРАЗДО дешевле)

0

nPower
>>> а 8600Ultra обгонит X1950Pro, и основную роль в этом сыграют 64 унифицированных процессора. ИМХО
Мне кажется, что 8600Ultra обгонит не только X1950Pro, но еще и помощнее будет, чем более дорогие видео (7900GTX, X19050 XT ИМХО)!!!поддержка DX10 и 64 64 унифицированных процессора, 256 битная шина памяти....-сляни текут...и всего за 200$!!!))))

0

сляни тякуть? нуну. ты серьезно думаешь что за такие деньги ты получишь качественный продукт? По-моему 8600Ultra будет на уровне 7900GS тока с DX10 и никакие унифицированные конвееры здесь роли не сыграют

0

ForSAZ-92
Обьясни, что значит
"...8600Ultra обгонит не только X1950Pro, но еще и помощнее будут менее производительнее 8600Ultra"???

0

Я недавно написал письмо в Nvidia, по поводу Geforce 8600 Ultra 512 Mb 256 bit, будет ли она и будет ли Geforce 8600 иметь только 128 bit шину? Мне ответили, что они не могут дать информацию об Geforce 8600, следовательно, ждём официального релиза, ещё неизвестно, что будет за Geforce 8600 будет в марте. Я думаю, что дают сейчас информацию на компьютерных сайтах о Geforce 8600 вымослом.

0

Обращение к посетителям!
Уважаемые юзеры! Мы с вами находимся на отличном и полезном форуме, где прислушиваются к каждому вашему слову и стараются максимально точно и полезно на него ответить! Но будьте же так добры - пишите правильно! Не всмысле проверяйте каждый пост Вордом, а хотя бы четко и ясно. Ну честное слово мы в последнее время в каждом предложении практически меняем лица, падежи, числа, склонения, рода и другую хрень на произвольные, так сказать. ТО есть мысль оформить как следует не можем!! Пожалуйста, пишите ясн ои понятно.


P.S.
Не показываю ни на кого пальцем, однако стоит мельком пробежаться по самым популярным топикам Железного, как сразу станет ясно, что мои слова не пустой звук...

0

Очередная порция слухов о будущих графических адаптерах AMD/ATI появилась в китайской части Сети. По данным одного из участников форума VR-Zone, AMD/ATI выпустит долгожданный R600 8 или 9 марта. При этом рабочее название сменится - графические адаптеры нового поколения войдут в семейство Radeon X2000. Сам R600 будет выпускаться в двух вариантах: Radeon X2800XTX и Radeon X2800XT.

Для X2800XTX рабочая частота GPU составит 750 МГц, а GDDR4-памяти - 2,2 ГГц. У более медленного X2800XT графический процессор будет работать на частоте 600 МГц, а GDDR3-память - 1,8 ГГц. Radeon X2800XTX будет выпускаться в модификациях с объёмом памяти 1 Гб и 512 Мб. Все адаптеры используют 512-битный интерфейс памяти.

Сообщается также, что AMD/ATI удалось получить рабочий образец GPU (R680?), работающий на частоте 1 ГГц (степпинг A15). Если информация верна, то мы увидим этот чип в графических адаптерах AMD/ATI второй (после R600) волны. Источник предполагает, что устройства на базе этих GPU выйдут в четвёртом квартале этого года (хотя запланированы на третий). Возможное название для этих адаптеров - Radeon X2850.

Источник: VR-Zone

0

У кого какие мнения, что лучше? Стоит ли ждать тот самый R600 или можно брать G80?

0

Конечно стоит ждать R600, тем более уже недолго. У R600 512bit против 384bit у 8800GTX, 700MHZ частота ядра против 575MHZ у 8800GTX, 80нм против 90нм у 8800GTX. Radeon X2800XTX обещает быть гораздо мощнее GeForce 8800GTX. Правда nVidia уже готовит ответ 8900GTX : G81 80нм технология, остальное пока не известно.
Отсюда начинаются мои личные предположения : Правда ведь ATI тоже выпустит Radeon X2900XTX на R680 и Radeon X2950XTX на R680+. Но nVidia ответит каким-нибудь 8950GX2. А дальше DX11 Shader Model 5.0 => Выход долгожданных GeForce 9800GTX на G90 и Radeon X3800XTX на R700. Русские изберают президентом nVidia - Жириновского. Потом выход улучшенных GeForce 9900GTX (1500MHZ - ядро и 5000MHZ -память стандарта GDDR5) на G91 и Radeon X3900XTX ( 1.5 GB - шина и 3 GB памяти) на R780. Потом GeForce 9950GX4 и Radeon X3950XTX на R780+ После этого крах nVidia (финансовый крах), Жириновский становится самым богатым человеком в мире. В это время на рынке видюх появляется моно польная компания Intel-AMD/ATI (Intel покупает AMD/ATI). В итоге выясняется, что Intel подослали Жириновского в nVidia, чтобы тот ее обонкротил. В конце-концов на рынке процессоров и видеокарт остается одна кампания Intel - AMD/ATI. Все вспоминают 2007 год, когда все стоило так дешево... =)

0

После всего этого Бил Гейтс умирает, перед смертью сказав лишь что отдает все свои деньги на создание оружия массового поражения, чтобы уничтожить планету Земля. Он объясняет это тем, что не хочет чтобы мир существовал без Била Гейтса. Но остальные люди хотят жить дальше. Все олигархи мира собирают армию, воссоединяют финансы и пытаются перекупить Ивана Мортыгина - тот кому Бил Гейтс доверил создание оружия. Но этих денег не хватает. Все понимают, что это конец. Все исполняю свои самые сильные последние желания перед смертью (например 13-летний Сережа, только что начавший созревать изнасилует шикарную блондинку, из магазинов все украдут и будут, что называется доживать) => Взрыв, конец.
P.S. Сорри за оффтоп, но не удаляйте плз мою историю.

0

Вообщем бери G80 и не жди R600. Все равно когда выйдет R600, будеш ждать что-нибудь еще

0

И еще такой вопрос Ageia PhysX достойна покупки? Действитьлно она улучшет производительность?

0

Ещё не известно возможно Directx 10.1 будет иметь SM 4.1

0

Gameslove
25.01.07 00:18
Дождись, и все будет ясно. Сейчас те никто точно нескажет. :(

0

Приведу свой пример:
В 2005 году взял комп в кредит там стояла 6600GT.
В конце тогоже года сделал апгрейд на 7800GT.
Весной 2006 сменил на X1900XTX.
Сейчас жду снижение цен на 8800GTX.
В итоге только на видео часть компа я потратил уже около 1500$, не считая апгрейды проца, мамки; добавления памяти - и всё это по-большому счёту делалось и делается ради ИГР и попугаев в марках.
Ещё вроде недавно была статья о том, что 7800GTX 512Mb всё таки преодолел 10000 очей в 3Д Марке 05,
а сейчас это средний результат системы геймера.
История тем временем повторяется - каждое поколение топовых видеокарт независимо nvidia это или ati позволяет играть в игры на макс настройках в пределах этого же поколения!

0

Неизвестно пока будет ли вообще DX 10.1 Сама Microsoft молчит. Скорее всего просто постоянно будут выходить новые версии DX10, как это было и есть с DX9.0C Shader Model 3.0

0

ДА, выход несколько обновленной какой-нить DirectX 10b сильно ухудшит жизнь геймерам. Так как навовведения незначительные, а видюха уже не держит.

0
pix.PlayGround.ru
pix.PlayGround.ru

Эта война бесконечна...

0

Предворительная информация о R600:

The Inq reports that the driver for the R600 appears to indicate there will bet at least four different versions of the card.
"R600" = ati2mtag_R600, PCI\VEN_1002&DEV_9402
"R600 " = ati2mtag_R600, PCI\VEN_1002&DEV_9403
"R600 " = ati2mtag_R600, PCI\VEN_1002&DEV_9400
"R600 " = ati2mtag_R600, PCI\VEN_1002&DEV_9401

DAAMIT is still uncomfortable using any names due the leaking problems and each of these cards has its driver, for secondary display. We don’t know the difference between the cards, yet.

One industry source implied a possible XTX, XT, PRO and GT branding, but we cannot confirm this. This bit puzzles us.

[ati2mtag_R600.GeneralConfigData]
MaximumDeviceMemoryConfiguration=512
MaximumNumberOfDevices=4

There are two possibilities. The first is that each card supports 512MB of memory only and that you can Crossfire up to four cards. The second is that the card has four different memory devices and can address up to 2GB of memory. We still don’t know the answer but will tell you when we do.

"R600 Secondary" = ati2mtag_R600, PCI\VEN_1002&DEV_9421
"R600 Secondary " = ati2mtag_R600, PCI\VEN_1002&DEV_9422
"R600 Secondary " = ati2mtag_R600, PCI\VEN_1002&DEV_9423
"R600 Secondary " = ati2mtag_R600, PCI\VEN_9420

We can expect to see R600, RV610 and RV630 demos @ CeBIT but no performance tests to be revealed there. The R600 launch is slated for end of March it appears now and there are 3 SKUs; XTX, XT and XL. ATi briefly mentioned to their partners a 2nd generation Unified Shader Structure and a new hardware Crossfire for R600 family which can be bridgeless yet faster. We are not sure how does this new HW CF work out yet. The retail card is half an inch longer at 9.5" and the OEM/SI version remains the same at 12". It comes with 512-bit memory bus and 1GB DDR4 at more than 2GHz frequency. Core clock remains a mystery as yet.

В конце марта можно будет преобрести Radeon X2800 XTX, XT и XL. Скорее всего X2800 XL будет 1 Gb(512 Mb) 512 bit, полюбому должен быть быстрее Geforce 8800 GTS 640 Mb :)

http://www.guru3d.com/newsitem.php?id=4946

0

Рекомендованная цена Radeon X2800XTX 1024Мб будет наверно 600-700у.е. В моем городе думаю запросто перевалит за 1000у.е.
Да, и не советую брать сейчас GeForce 8800 GTX 768Мб не дождавшись ответа ATI )

0

X2800XTX зажигает, его все знают. X2800XTX зажигает, играм места не хватает.

0

Новые тесты Geforce 8800 GTS 320 Mb 320 bit:

http://www.ixbt.com/video3/g80-7.shtml

http://www.in4.pl/recenzje.htm?rec_id=388&rectr_str_numer=1

http://www.guru3d.com/article/Videocards/416/ - Производительность видюхи оценоно на мегаотлично.

Хороший подарок геймеру, у которого расширения монитора неболее 1280x1024. :)))))))))))))))))))))))))))) Ещё не знаю какие цены на неё у нас в Латвии.

Ждём ответного удара от R600.

0

* Сводная таблица по продуктам серии AMD R600 (X2800-X2600) выглядит так:
Название / Частота (чип/память) в МГц / Тип памяти / Шина памяти, бит / Объем памяти, Мб / Конвейеры / Чип, нм / Цена, долл.

X2800XTX2 / 750/2200 / GDDR4 / 256 / 512x2 / 96x2 / 80 / 599

X2800XTX / 750/2200 / GDDR4 / 512 / 1024 / 128 / 80 / 599

X2800XTX / 600/1800 / GDDR3 / 512 / 512 / 128 / 80 / 549

X2800XT / 600/1800 / GDDR3 / 512 / 512 / 128 / 80 / 499

X2800XL / 600/1800 / GDDR3 / 512 / 512 / 96 / 80 / 399

X2800GT / 650/1800 / GDDR3 / 256 / 512 / 96 / 80 / 349

X2800GTO / 600/1400 / GDDR3 / 256 / 256 / 96 / 80 / 299

X2600XT / 650/1600 / GDDR3 / 128 / 256 / 64 / 80 / 199

X2600PRO / 550/1400 / GDDR3 / 128 / 256 / 64 / 80 / 149

Следует, конечно, учесть, что окончательные официальные данные по ценам и приведенные спецификации этих продуктов могут быть изменены к моменту выхода готовых продуктов.
P.S. X2300 - для негров :)

0

Новое демо Directx 10 на Win Vista для обладателей GeForce 8-Series:
http://us.download.nvidia.com/downloads/nZone/nvidia/nzd_CascadesSetup.exe

Minimum System Requirements: GeForce 8-Series, Windows Vista, ForceWare Drivers 100.64 or higher, 512MB system memory, 256MB video memory

Зацените, выложите скриншоты :))))))))))))))))))))))))))))))))))))))))))))))

0

> AMD снова откладывает выход R600
"Теперь дата выхода стала не столь конкретной как раньше, а переместилась, по словам представителей компании, на вторую четверть 2007-го года. Довольно печальная новость для людей, ждущих эти карточки, но ничего не поделаешь. Жизнь - жестокая штука. А пока же серия GeForce 8800 будет чувствовать себя царем горы на графическом рынке."

Это-ж надо так тупить (AMD))

0

У 8800 драйвера под Vista кривые, так что на царя горы пока не тянет.

0

denisnik
Они не тупят, ону ждут своего часа.... :) Сейчас те кому надо 8800 купят, а потом выйдут Р600 и большая масса начнёт покупать их.... Чтоб конкуренции не было... И вообще, какая может быть битва???? Обе компании выпускают по-очереди карты, причём NV делает это первой, а потом ATI выпускают свои новые карты (которые сильнее последних НВ.) Они просто по-очереди собирают с людей деньги. Вот с 8800 уже почти собрали, скоро настанет черёд Р600:).. Финансовые отношения Ё МОЁ!!

0

Не, все правильно: GeForce 8800 - Царь Горы.
Дело в том, что серия 8800 не только для DX10-приложений. В DX9 GF8800 нет равных. Купить сейчас топовую карточку 8-й серии - это обеспечить себе отличное качество в современных играх и хороший задел на будущее. Да и Висту доведут до ума (хочется верить))

0

не факт, надо сказать.
они запросто огут кинуть G80 и перейти на какую-нить новую серию 8900 и шлифовать уже ее, а эту просто кинуть. Такое иногда выкидывает Интел, кстати

0

M-095
“а потом выйдут Р600 и большая масса начнёт покупать их....”
- на-врятли, скорее только фаны ATI.
Akatosh
“они запросто огут кинуть G80 и перейти на какую-нить новую серию 8900 и шлифовать уже ее, а эту просто кинуть.”
- шутка :)

0

нет, к сожалению иногда такие вещи происходят на самом высшем уровне.
Большим Боссам с Кучей Бабок все пофигу!

надеюсь такого не произойдет и 8800 серия действительно будет еще держаться на рынке, обрастать новыми усовершенствоаниями в дровах и тд.

0

Драйвера для Висты от ATI тоже не налажены, у меня на X800 GT не работает AERO, и пару игр, ждём Cat 7.3

0

Из Nvidia смотрю только за выходом:
Geforce 8900 GS 512 Mb 256 bit

Из ATI:
Radeon X2900 XL 512 Mb 512 bit
Radeon X2900 GT 512 Mb 256 bit

На данный момент из вышедших смотрю в сторону Geforce 8800 GTS 320 Mb 320 bit :)

0

AERO у тебя наверно не работает из-за того что с такой видюхой Vista низкий рейтинг твоему компу ставит. А может просто ему нужны шейдеры 3.0 или еще какие функции последних видеокарт.

Для некоторых игр под Vista надо ставить февральский билд DirectX 9.0c.

0

нах нужна эта Виста вообще без крутого компа?
сделаете апгрейд, ставьте на здоровье эту висту, апок аче париться?

0

Alexandr82
Для AERO нужна видиокарта с поддержкой Directx 9 (SM 2.0), у меня стоит максимальная оценка использования AERO 5.9, знаю, что у одного на Geforce 5200 работает, там только SM 2.0, а у меня SM 2.0b. Последний DirectX 9.0c у меня уже стоит.



Поменьше картинки вставляй. Форум портится

0

Только что заинсталил Catalyst® Beta Display Driver for Windows Vista RC1 (32 bit) (Sept. 2, 2006) всё работает AERO, даже игра Flatout 2 :)

0

Akatosh
нах нужна эта Виста вообще без крутого компа?

Ей крутой комп не нужен. Вот видеокарту с поддержкой Directx 10, это савсем другое дело.

0

На кой вам 8*** Нвида вы хоть видели висту в глаза, видели как тормозит,ни одна игруха не запускаеться толком. а dx 10 сам кто видал то а. В виста ультимайт dx9 я вот чета другого не нашел . AMD Athlon 64 X2 3800+, 2 гига ддр2 667, ати ха X1900XT и что тормазня сплошная , а при играх doom3, q4, prey все сваливаеться, звук кривой, сетивые карточнки не видит, раное еще по хорошему годик потерьпеть ато и полтора негрех.

0

quake22

Проблема в неналаженности драйверов для видюх как у ATI, так и у Nvidia для Висты.

0

Gameslove
Это тот ясно, там вообще много чего не налажено. ед приятная вешь что удаляеться за 20 минут и нифига не остаеться

0

> NVIDIA дает GeForce 8ххх народу
В апреле на полках магазинов начнут массово появляться видеокарты 8600GTS (G84-400) и 8600GT (G84-300). GeForce 8600GTS и 8600GT будут идти с 256MB GDDR3 памятью с интерфейсом всего в 128-bit. GeForce 8600GTS займет место, принадлежавшее 7950GT и 7900G, в то время как 8600GT придет на смену 7600GT.
8600GTS будет запущена на частоте 700MHz по чипу и 2GHz по памяти. Цена на новинку установится в районе $199-$249. 8600GT, будет иметь спецификацию 600MHz/1.4GHz. Цена на 8600GT составит $149-$169.

Похоже 8600GTS будет вместо 8600Ultra

0

А мне не нужен никакой GeForce 8800GTX!!!!
Купил себе Radeon X1950XTX --- Довольный как слон!!!

0

Ты и есть слон - к концу года подтянутся DX10 игрухи, а ты берешь устаревший хай-энд. Лучше-бы взял X1950PRO - c ней легче потом растаться.

0

нвидиа однозначно, можно просто отдать свой голос без объяснений? и так уже все сказано..)

0

всегда был за Nvidia,и сейчас тоже!

0

Fluffy-Hamster
Я бы на твоем месте взял 8800GTS
Выйдет Crysis - и он у тебя будет летать на DX9
На DX10 игры будут куда красивее!!!

0

Да АТИ лучше, на Нвидеа половина игр, что у меня есть не идут

0

В озорах смотрел, что 1950pro делает 7900GS и 7900GT,
только уступает в нескольких играх.Все говорят,
что вот 7900GS если разогнать то будет супер видяха,
и сделает 1950pro, но если разогнать 1950pro, то
наверное получится суперМЕГА видяха...Но......
Стоит у меня Рalit1950pro512Mb, система: материнка
ASUS nForce4,Sempron2800+(256k)(754)разогнан до 2000Mhz,
Память SuperTalent 1Gb PC3200.Не могу понять почему
тормозит Gotika 3,разрешение1280х1024,даже установки,
средние поставил,играть можно,но подтормаживает
прилично.В Morrowind Oblivion все нормально,но иногда
есть легкие не напрягающие подтормаживания. По идее
с такой картой все должно быть без тормозов.Может я
ошибаюсь, что дело в драйвере Catalist 7.10 ?...
А может купить еще один гиг памяти и отключить
виртуальную память ? А может проц слабый ?
Еще говорили что на матку с энвидиавским чипсетом лучше ставить энвидиавскую видяху...
Люди кто играет в эти игры, кто знает как чего там настроить !
ПОДЕЛИТЕСЬ СВОИМИ ВЫВОДАМИ !!!!!!!
( sport777@mail.ru)

0

Всё же процессор поменять надо, слабоват.

0

А если Athlon Newcasle 3200+(754)(2200)(512k)
поставить?

0

DIAMANTUS
Будет заметно лучше, но для полного счастья разгони его немного.

0

купил core 2 4300 (6000р) и gf8800gts 320mb(10700р) -ничего не разгонял пока, ибо всего хватает.
сем фишер последний тепер на 1600на1200 с мах настройками 70фпс выдает, NWN2 50фпс. КРУТЬ!!!!

0

DIAMANTUS
Если поставишь такой, то будет в самый раз.

0

Athlon Newcasle 3200+(754)(2200)(512k) самото будет да чуть не забыл покапайся на сайте амд у них там под проц коешто типа intel aplication acseleretora есть в наличии, до 10 % моши прибовляет и еще ставь директ последний

0

любители попугаев 3D Mark 2005 5000 баллов и 3D Mark 2006 - 3000 баллов
это на ваш взгляд как

0

да кстати r600 на agp будет я был прав

0

ни фига сссе!
до сих пор бедный agp держится=))
прикольно

0

> Даты выхода Radeon X2900XTX/ X2900XT/X2900XL: ждать совсем недолго
Ресурс TweakTown внес кое-какую ясность в ситуацию с датами релизов. По его данным, первыми на рынке появятся платы Radeon X2900XTX (кодовое имя Dragons Head 2 длина печатной платы около 24 см), оснащенные гигабайтом памяти GDDR4, 2 ГГц с 512-битным доступом к ней.
Монструозный (31,5 см в длину) Radeon X2900XTX Dragons Head также будет доступен в розничной продаже, несмотря на то, что основными его покупателями должны стать OEM-сборщики ПК.
Уже сейчас производство таких карт идёт полным ходом, а начало поставок партнерам - дело нескольких дней.
Выпуск Radeon X2900XT (кодовое имя Cats Eye с уменьшенным вдвое объёмом видеопамяти типа GDDR3 и на 10-15% более низкими частотами) намечен AMD/ATI на 19 апреля.
Для Radeon X2900XL точной даты выхода пока нет, но он также должен состояться в апреле.

0

quake22
C чего-бы это R600 будет на АGP?

> CeBIT: Gecube анонсирует быстрейшую AGP-карту (Radeon X1950XT)
Gecube также обнадежила пользователей AGP своими планами насчет AGP-версий видеокарт нового поколения, поддерживающие DirectX 10, эти карты будут основаны на чипах RV610 и RV630.

А G80 будет на АGP? :)

0

denisnik
если почитаеш новости внимательно то найдеш фразу шишки из амд что новый к600 совместим с темжу переходним мостом что и в 1950про а это зночит что к600 на агп быть
зы я лично тода буду ждать ибо это будет для меня самым деш и простым вариантом так чтоб еще годик поиграться

0

насколько я помню по первым тестам Radeon X2900XTX совсем немного опережал GeForce 8800GTX. Недавно нашел новость:

"Итак, предварительные характеристики новых видеокарт на базе чипа G80 выглядят таким образом:
GeForce 8950 GX2 -> два чипа G80 на одной плате, 2 х 96 потоковых процессоров, 2 х 320-битная шина памяти, 2 х 640 Мб памяти типа GDDR-4, частоты 575/2000 МГц, частота шейдерного домена 1700 МГц, рекомендованная розничная цена $649;
GeForce 8800 Ultra -> 128 потоковых процессоров, 384-битная шина памяти, 768 Мб памяти типа GDDR-4, частоты 650/2200 МГц, частота шейдерного домена 1800 МГц, рекомендованная розничная цена $549.
Заметим, что GeForce 8950 GX2 будет в среднем на 50% быстрее GeForce 8800 GTX, однако и требования к блоку питания будут серьёзными. GeForce 8950 GX2 сможет довольствоваться воздушным кулером, но будут предложены и версии с водяной системой охлаждения.
GeForce 8800 Ultra получит память типа GDDR-4, хотя и GeForce 8950 GX2 тоже претендует на такую возможность. Обе видеокарты будут оснащаться чипом G80 с заметно ускоренным шейдерным доменом - его частоты возрастут с 1200-1350 МГц до 1700-1800 МГц. Очевидно, это и послужит залогом прироста быстродействия GeForce 8800 Ultra на 30% по сравнению с GeForce 8800 GTX, хотя частоты Lumenex Engine и памяти тоже возрастут с 575/1800 МГц до 650/2200 МГц. Доступность видеокарт GeForce 8800 Ultra будет первое время ограничена, из-за чего розничные цены могут быть достаточно высокими. Видеокарты этой модели тоже будут обходиться воздушным охлаждением.
Напомним, что это лишь предварительные данные о характеристиках и ценах новых видеокарт на базе чипа G80, эта информация ещё требует уточнения, но какой-то ориентир у нас уже есть. "

Теперь я думаю радеон в полной попе. X2900XTX опережал 8800GTX максимум на 25%, а 8800ULTRA быстрее 8800GTX на целых 30%, а 8950GX2 так и вообще на 50% !!!!!!!!! К тому же у nVidia уже отработаны драйвера к 8-й серии.

0

Ну еще не все потеряно для ATi, хотя уже полгода назад когда вышел G80 мне все больше начало казаться что Радеон так кажется и не сможет предложить ничего лучше кроме большего объема памяти и несколько сомнительной более лучшей архитектуры так ничего и не предложит. Короче лично для меня это только к лучшему. 8800GTS 320 остался как я понял лучши выбором в категории до 10 тысяч. Кстати кто мне скажет это верхний мейнстрим или нижний hi-end? И как долго будет сохраняться такая ситуация?

0

ре Теперь я думаю радеон в полной попе. X2900XTX опережал 8800GTX максимум на 25%, а 8800ULTRA быстрее 8800GTX на целых 30%, а 8950GX2 так и вообще на 50% !!!!!!!!! К тому же у nVidia уже отработаны драйвера к 8-й серии.

Предварительные тесты, проводившиеся на системе с процессором Core 2 Extreme X6800 и платой на базе Intel 975X в тесте 3DMark06, показали небольшое преимущество Radeon X2900 XTX над GeForce 8800 GTX. В разрешении 1600 х 1200 пикселей результат ускорителя AMD/ATI составил порядка 9700 баллов, в то время, как акселератор NVIDIA набрал примерно 9500 баллов.
как видно разница всего 200 балов в обсалютных цифрах всего 5% нен могу найти но в игровых тестах в нынешних дравах всего на 10 процетов в переди

During the NVIDIA's Ngagement meeting today, they have briefed their partners on the upcoming GeForce 8800 Ultra cards to coincide with ATi R600 in May. NVIDIA is pretty confident that GeForce 8800 Ultra can beat Radeon X2900 XTX. We have revealed before that R600 is just performing pretty close to 8800 GTX on a set of early drivers so we will see how much performance can ATi engineers tweak out of the R600 launch drivers.

INQ has an interesting find today on the water-cooling kit for the upcoming GeForce 8950 GX2, a dual card SLI solution. Indeed, over at VR-Zone, we have heard about the weapon against ATi R600 from NVIDIA, not the GeForce 8800 Ultra but the GeForce 8950 series. However, we are unsure if it is a GX2 or a single card solution yet. Most probably, it is a die shrink of G80 before G90 comes along later this year. The AlphaCool waterblock is able to cool down the all the hot components of the card such as NVIO1 chip, GPU, memory chips and PWM area.

такчто иооожеш пока расслабиться и забить на свои 30% и 50% к тому же у nVidia уже отработаны драйвера к 8-й серии.
у а это уже полная л...а ибо комп с вистой на 5200амд или 6600 с 2 гигами озу работает также как и на хп тока все игры приэтом на хп летают а на висте фиг пока да
приложения в 1 поток пока отстают в процентов на десять кроме того вот например сталкер бета идет врежиме дерект их 9 я просто так и не нашел там библиотех от 10 а у кокого изнас дома виста а чтоб играть дх10 а???нашел там библиотех от 10
через полчаса докач сталкера полного вот и посмотрим есть ли там дх 10
ну и толку от твоей нвиды а?
фу наболело сам ждать реального р600 запарился а инвида раздрожает везде ей такие проценты приписываю просто смех берет

0

получаеться что Р600 выходит мертворожденным ))

0

получается да. А ведь когда-то я думал, что после выхода Radeon X2900XTX 1024mb GDDR4 800/2200 512bit - AMD станет королем 3D. Кстати почему если у Radeon X2900XTX такие мощные хар-ки (в разы мощнее этих у GeForce 8800GTX 768mb GDDR3 575/1800 384bit) - разрыв между ними минимален?? И как вы думаете сможет ли GeForce 8800Ultra 768 GDDR4 650/2200 384bit (таковы ее предварительные хар-ки) взять верх над Radeon X2900XTX (то что GeForce 8950GX2 будет быстрее Radeon X2900XTX я вообще не сомниваюсь) у которого на бумаге чип гораздо мощнее, посмотрите сами : и частоты выше и шина больше и памяти больше?????

0

все опят ати отложили блин вот л а

0

Вот тут новасть таую надыбал
AMD/ATi готовит новый квадроядерный процессор для недорогих ПК
01 апреля 2007, 14:14

Согласно информации, полученной источниками THG.ru на токайской выставке IT-технологий в Словакии, компания AMD/ATi готовит к выпуску новый квадроядерный процессор Sempron QFX 8000+ для Socket AM3, нацеленный на самый бюджетный сегмент рынка. Модель придёт на смену семейству Sempron для Socket AM2, и в розницу будет стоить от $79. Процессор Sempron QFX 6000+ будет работать на реальной частоте 2 ГГц, оснащён кэшем второго уровня 128 Кбайт и третьего уровня 64 Кбайт. Ожидается, что энергопотребление чипа в режиме HLT не превысит 15 Вт, а при полной нагрузке составит порядка 25 Вт. Модель будет поддерживать все современные мультимедийные расширения, а также PowerNow!!! (PowerNow 3) и новый набор инструкций DirectNow, ускоряющий работу процессора в приложениях трёхмерной графики при работе с видеокартами семейства Radeon.

Что касается производительности нового процессора, то в AMD утверждают, что в многозадачных оптимизированных приложениях новый чип покажет результат вдвое превосходящий показатели Intel Core 2 Quad QX6700, и вплотную приблизится к отметке в один терафлоп. Из менее приятных для потребителей новостей стоит отметить, что установить Sempron QFX 8000+ на современные материнские платы технически невозможно, и кроме того, для нового процессора потребуется оптимизированный набор системной логики AMD R790, появление которого ожидается в начале второго квартала текущего года.

В интервью THG.ru, посвящённом выходу новой квадроядерной архитектуры, технический директор AMD в России, странах СНГ и Балтии Николай Радовский отметил: "Решения AMD исторически оказывались высокопроизводительными в наиболее современных приложениях. Выпуская четырёхъядерный процессор для сегменте недорогих и офисных ПК, корпорация поднимает планку производительности доступных массовому потребителю компьютеров до современного уровня, что позволит высокоэффективно исполнять современные мультимедийные приложения, и в свою очередь, самым позитивным образом скажется на становлении Интернета как универсальной транспортной среды для коммуникаций любого типа, в том числе онлайнового HD-телевещания, конференц-связи высокого разрешения и т.д."

0

nPower
Radeon X2900XTX 1024mb GDDR4 800/2200 512bit
GeForce 8800GTX 768mb GDDR3 575/1800 384bit
GeForce 8800Ultra 768 GDDR4 650/2200 384bit
GeForce 8950GX2

у которого на бумаге чип гораздо мощнее, посмотрите сами : и частоты выше и шина больше и памяти больше?????
да на бумаге мошнее, но он слишком долго остаеться на бумаге

Все предварительные тесты проводяться в режимах см2.0 и см3.0 возиможно что производительность тестов и сушествующих движков игр упираеться в собственные внутринние возможности, когда в разрешениях Call Of Juarez, 2560x1600, Windows XP(http://www.ixbt.com/video3/0207i-video.shtml)

PCI-E-ATI RADEON X1950 PRO 256MB GDDR3 1.4ns (580/1400 MHz)
PCI-E-ATI RADEON X1950 PRO 256MB GDDR3 1.2ns (635/1480 MHz)
PCI-E-ATI RADEON X1950 PRO 512MB GDDR3 1.4ns (573/1360 MHz)
PCI-E-ATI RADEON X1900 XT 256MB GDDR3 1.2ns (625/1450 MHz)
PCI-E-ATI RADEON X1900 XT 512MB GDDR3 1.2ns (625/1450 MHz)
PCI-E-ATI RADEON X1900 XTX 512MB GDDR3 1.1ns (650/1550 MHz)
PCI-E-ATI RADEON X1950 XTX 512MB GDDR4 0.9ns (650/2000 MHz)
PCI-E-ATI RADEON X1950 XT 512MB GDDR4 0.9ns (625/1800 MHz)

PCI-E-NVIDIA GeForce 7900 GT 256MB GDDR3 1.4ns (450/1320 MHz)
PCI-E-NVIDIA GeForce 7900 GS 256MB GDDR3 1.4ns (450/1320 MHz)
PCI-E-NVIDIA GeForce 7900 GS 256MB GDDR3 1.4ns (480/1400 MHz)
PCI-E-NVIDIA GeForce 7900 GS 256MB GDDR3 1.4ns (540/1500 MHz)
PCI-E-NVIDIA GeForce 7950 GT 512MB GDDR3 1.4ns (550/1400 MHz)
PCI-E-NVIDIA GeForce 7950 GT 256MB GDDR3 1.4ns (600/1430 MHz)
PCI-E-NVIDIA GeForce 7900 GTX 512MB GDDR3 1.1ns (650/1600 MHz)
PCI-E-NVIDIA GeForce 7950 GX2 2x512MB GDDR3 1.4ns (500/1200 MHz)
PCI-E-NVIDIA GeForce 7950 GX2 SLI 2x2x512MB GDDR3 1.4ns (4x500/1200 MHz)

все выдают от 11 до 16 фпс и только 8800 уходит к минемально преимлимым 23 кадрам

в более гуманном 1280x1024 от 20 до 33 фпс 8800 же сли вообще не оправдывает вот старшиие 8 да уже могут выдать 40 и даже 60 фпс

привсем при этом следует заметить, что кроме 8 семейства видео от нвиды не поддерживает работу работу в режиме ндр при полных аниз и антиэлайзингах и в полно оконном режиме.(http://www.ixbt.com/video3/itogi-video.shtml) здес можно увидеть рез включения данных режимов но вкрации можно сказать что лидеры 2 старшии нвиды и 2 старших ати в 1280x1024 но в 2560x1600 только нвиды

видемо повышение частот не оченьто увиличивае скорость выполнение на сушествующих алгоритмах

шина памяти больше ну и что это тоже есть обьеснение разница для наших игр будет только в тех играх где внешних данных передаеться больше так например халфе 2 (пусть не самая крутая гама) но ей и пропускной способности 7300 пся хпрес 1х хватает ибо движек такой


какие можно сделать вывады и задать вопросы
1 новые движки игр могут просто не использовать весь потенциал железа
например все знают что скорость обработки шейдеров 2 быстрее чем 3 в 1,7 раза , приэтом любой шейдер 3 может быть нарисован 2. Кто знает какие шейдеры в игре рисуються 3 какие 2 , и поче не рисовать 3 вторыми.
2 стои отметить, что даже не самый мошный проц от амд 4000 великолепно ведет себя в сравнеии с грандами интел
3 в действительности еще нет ни одной игры которая работае с шейдерами 4, и не известно могут ли они рисоваться через алгоритмы 3 и 2 теми видео картами которые их не поддерживают, хотя как известно нам обешали что решаться они будут со скоростью 2 или даже быстре в 2 раза.
4 евляються ли конвееры ати унифицированными для расчета и пикс и верт шейд и физиким и как это будет расчит в реальных играх которых тоже нет
5 новая операционка майки пока что слишкам сыра
6 стоит дождаться хотябы кризиса и делать апгрейт или покупать комп осенью

0

Чей-то Бот
8800GTS 320 - это "экономичный hi-end". Заметка про нее:

Игра Company of Heroes наглядно демонстрирует случай значительного падения производительности, когда требуемая приложением видеопамять значительно превышает объем установленной памяти на видеокарту. Как бы быстр не был интерфейс PCI-Express 16x, но и его может не хватить. Допустим, приложение постоянно использует 512 Мб видеопамяти, а на видеокарте всего 256. Давайте прикинем – сколько времени потребуется, чтобы из оперативной памяти перегнать в видеопамять оставшиеся 256 Мб? Мы проведем довольно грубые расчеты, и не будем особо вдаваться в тонкости, это всего лишь прикидки. Пиковая пропускная способность интерфейса PCI Express – 4 Гбайт/с в одну сторону. Значит, потребуется как минимум 62,5 миллисекунды, чтобы по нему передать 256 Мб данных из оперативной в видеопамять. Даже если учитывать только это время передачи, скорость построения следующего кадра после запроса данных не превысит 16 FPS. Еще раз подчеркнем, это всего лишь прикидки, и весьма грубые. В той же Company of Heroes средняя скорость 8800GTS 320 Мб не опускается ниже 40 FPS даже в режиме 1600х1200. По всей видимости, постоянно подгружается далеко не весь «лишний» объем видеоданных, или не такими большими порциями. Но влияние на общую производительность такие задержки все же оказывают весьма ощутимую. Думается, что похожую картину можно ожидать и в других игр, требовательных к объему видеопамяти. И чем больше разница между требуемым и имеющимся объемом видеопамяти, тем глубже будет провал в производительности.

"получаеться что Р600 выходит мертворожденным ))", "получается да"
- давайте дождемся официальной информации )

Radeon X2900 XTX vs GeForce 8800 Ultra - ну вы сравниваете )
Думаю основную массу интересует
2600 XT vs 8600 GTS

0

Сайт VR-Zone протестировал видеокарту GeForce 8600 GTS на повышенных частотах 745 МГц по ядру и 1145 МГц по памяти в сравнении с видеокартой прошлого поколения примерно из того же ценового диапазона — 7900 GT (450/660 МГц).

0

Тесты близки к истине. Наверняка у 8600 GTS будет поддержка HDR+AA и улучшенная AF => выбор не в пользу 7900 GT

0

Из графиков не тот вывод надо делать. Если обратить внимание на разницу частот, то можно заметить что чип 8600GTS слабее и выигрывает только из-за более высоких частот.

Разница в частоте чипа на 65% и в частоте памяти 73,5%, дает прирост всего

для Company of Heroes - 3,3%
для BF2142 - 13,95%
для NWN2 - 20%

Такая разница легко покроется разгоном 7900GT. К стати 8600GTS разогнана. Без разгона наверно и разницы не будет, если 8600GTS вообще не сольет. Короче 8600GTS лажа с поддержкой DirectX 10.

0

Всегда нравился Geforce.Скоро уже 4-ую карту с этой серии поставлю.

0

Alexandr82
"8600GTS лажа с поддержкой DirectX 10"
- согласен

"Без разгона наверно и разницы не будет, если 8600GTS вообще не сольет"
- Ты хочешь за 200у.е. производительность 7900 GTX ?!

0

Знаете Александр ведь прав. Вот нафига нам эти новые технологиии на видюхе, если у нее нет мощности обработать их?

0

128-битная шина памяти дает о себе знать

0

nPower
Откуда инфа что нехватит мощи?
Если и не хватит NVIDIA это не-особо волнует. Она каждый год выдает новый графический процессор топ-класса, обрезает его до среднего и нисшего класса, дальше – новый чип.
На 17 апреля намечен выпуск младших моделей серии 8х00 и 8800 Ultra. И серия GeForce 7 будет выглядеть как сейчас 6-я.
8600GTS видяха для тех у кого сейчас карточка уровня 7600GT.

0

denisnik
8600GTS видяха для тех у кого сейчас карточка уровня 7600GT

Да уж. в 2007 -м году 128 bit шина и "аццкая" производительность - такая что без разгона ее страшно показать. Так как DX 10 под XP не будет - знач. Vista - а это автоматическая потеря десятой доли производительности, что для видеокарты ценой в 200-250 уе очень критично. То есть и про DX 10 можно забыть. Те, у кого сейчас 7600 GT вероятнее выгоднее сменять ее на 8800 GTS 320 mb - благо в цене она быстро падает. Или возьмут вторую 7600 GT для SLI - что тоже воощем-то понятно - запас карточек на старых чипах у nvidia огромен - сливать хоть как-то да надо - а значит цены на предыдущие поколения будут падать - а 8600 GTS будет стоить в районе 300 уе в первое время. (как это пока происходит в той же Австралии).

Пока 8600 GTS уж точно не выглядит как привлекательная покупка. Обзоры и отзывы первых забугорных покупателей меня в этом убеждают еще сильнее. Подождем что предложит AMD - может быть на фоне их решений можно будет что нить сказать.

0

Лично мое мнение - Nvidia просто слегка обленилась. Слишком силен был дауншифт для 8600 серии. Согласитесь - 7600 GT была видеокартой, в номинале свободно работающей на равных с 6800 GT карточкой - это без малого нижний край бывшего hi-end - и стоила 6800 GT в среднем 400 уе. В граммотном разгоне 7600 GT свободно делала и Ultra. В принципе та же ситуация была с карточками 6600 GT, который благодаря не слишком удачной серии FX5*** свободно обставляли все прошлые hi-end модели Nvidia. По логике вещей - 8600 GTS должен в номинале работать ну никак не медленее 7900 GT. На это намекало вообщем то все - и очередной скачок в производительности hi-end сектора (все стандартно - новые 8800 в пару раз быстрее предыдущих 7900), и широкая линейка 8600 карточек (все таки сразу несколько семейств представленно) - и даже предварительные характеристики семейства. Но тем не менее политика у компании очень странная. Когда у верхнего сегмента шина не меньше 320 - на все остальное ставить 128 и меньше... Странно.
И ничего зазорного в получении за 250 уе производительности 7900-7950 GT нет - так было всегда - и никого как-то не обламывало. А смысл тогда покупать новый мейнстрим, если он ничем от старого не отличается?

quake22
AMD - а что? =))

0

G-man
"Когда у верхнего сегмента шина не меньше 320 - на все остальное ставить 128 и меньше... Странно"
- не странно - чтобы уложится в средний класс <250 уе производитель использует вариант с узкой шиной и быстрой памятью, т.к. память со временем дешевеет, а PCB нет. Сложнейший чип с DX10, быстрая память, широкая шина и за 200 уе - это странно.

"Те, у кого сейчас 7600 GT вероятнее выгоднее сменять ее на 8800 GTS 320 mb - благо в цене она быстро падает"
- с 13 шт. до 10 - все-равно многих не устроит.
SLI из 7600 GT тоже не для всех - нужна материнская плата с поддержкой SLI, и блок питания приличный.
Стоить 8600 GTS будет в районе 270 уе. В Австралии сейчас продается не-легально с большой переплатой.

"А смысл тогда покупать новый мейнстрим, если он ничем от старого не отличается?"
- дело вкуса: у 8600 GTS улучшенная анизотропия, HDR+AA, короче фичи, у GeForce 7900 GT бывают непонятные тормоза (фризы).

0

denisnik
Это было бы актуально года два назад. Сегодня 256 bit не такая уж и широкая шина. Это стандарт. Как стало стандартом наличие гигабайта оперативки год назад. Так что все это анахронизмы - чип там не сложнее в производстве, чем все предыдущие. Эволюционирует же все вместе - в том числе и технология производства. Революционность шестой серии карт не мешала им быть гибкими и доступными решениями.

"8600 GTS улучшенная анизотропия, HDR+AA" - гы, включить HDR+AA и играть 8 fps =))) Вещь нужная. На 7300 тоже AA есть =)))

0

Поскольку все видеокарты на базе чипов R600, RV630 и RV610 обладают встроенной поддержкой звука, которая оказывается полезной при работе через интерфейс HDMI, имена видеокарт теперь получили приставку "HD", а от литеры "X" перед цифровым обозначением модели решено было избавиться. Итак, встречайте новые имена:

R600 -> Radeon HD 2900 XTX, Radeon HD 2900 XT;
RV630 -> Radeon HD 2600 XT, Radeon HD 2600 Pro;
RV610 -> Radeon HD 2400 XT, Radeon HD 2400 Pro.

Американские коллеги заявляют, что чип R600 будет иметь 320 потоковых процессоров и 512-битную шину памяти. Предусмотрена поддержка 5.1-канального звука. Видеочип поддерживает 128-битный режим HDR и сглаживание вплоть до 24х АА. Все видеочипы семейства Radeon HD 2xxx обладают возможностью аппаратного ускорения H.264 и VC-1.

Мы уже почти привыкли к мысли о том, что новые видеокарты на базе чипа G80 появятся 17 апреля, дабы затем противостоять продуктам серии Radeon X2900 на базе чипа R600. До сих пор считалось, что ускоренный одночиповый потомок GeForce 8800 GTX получит наименование вида "GeForce 8800 Ultra", а двухчиповое решение будет называться "GeForce 8950 GX2". Между тем, эти названия пока не утверждены, и зарубежные коллеги продолжают делать рокировки в именах и характеристиках нового поколения видеокарт на базе G80.

В частности, сайт DailyTech со ссылкой на новые роадмапы NVIDIA сообщил, что видеокарта GeForce 8800 Ultra выйдет 1 мая и будет иметь рекомендованную цену $999. Хотя по такой цене логичнее было бы продавать двухчиповую видеокарту, ряд источников со ссылкой на представителей NVIDIA сообщил, что GeForce 8800 Ultra будет одночиповым решением. Вполне возможно, что цена порядка $1000 обусловлена наличием большого объёма памяти типа GDDR-4.

Информацию о новой дате анонса и цене GeForce 8800 Ultra подтвердил и сайт OC Workbench. Видеокарта должна выйти 1 мая по цене $999. Точных данных о технических характеристиках этого продукта нет.

Я вот согласен, что выкладывать бабки за мылный пузырь не стоит
тем у кого денежки есть действительно побойдет 8800 GTS 320 mb
тот кто маньяк вылажетпоследние бабки раби старшей 8800

а тех кому хочеться просто и конфортно поиграть в 1024*768 хватит ати1950pro хотя и хт уже приемлем по цене
разница в штуку с 1650xt позволит и обычному игроку получать массу удовольствия

0

н-да, если у радеона и вправду 320 потоковых процессора и сглаживание - до 24x и его рек. цена 499$, то не думаю, что гораздо более слабый по хар-кам 8800Ultra будет стоить 999$. Его никто брать не будет. Хотя кто знает, может в приложениях все будет не так, как на бумаге.

0

Чё за бред??? 8800 Ultra за 1000$, да у ATI самая дорогая карта должна стоить 500$, а тут 8800Ultra которая будет слабее её конкурентов на чипе R600 и стоит 1000$ это на#бка какая-то

0

DeeFo
8800 Ultra - теперь вроде это уже точно будет двухчиповое решение (уже была инфа на иностранных сайтах) - так что цена соотвествует. Потому упадет конечно, как это было с 7950 GX2. Хотя и не факт - оффициально досих пор не утвержденно. Так что ждем. Думаю что 999 за одно ядро - ошибка. Не так уж велик разгонный потенциал GTX и DDR4 что переплачивать так много - тем более что старшие R600 будут по умолчанию с гигом памяти на борту. В самом деле не проще ли тогда будет дотянуть до SLI из 8800 GTX =))

Хотя опять же ценовая политка AMD - может быть обусловлена исключительно желанием как можно более привлекательно выглядеть на фоне конкурента. (я в том смысле что карточки то сами по себе не дешевле чем у конкурентов). AMD нельзя выходить сейчас на рынок с ценами "999". Для них - это конец.

0

Radeon HD 2900 XT будет быстрее 8800 GTX. Его ориентировочная цена 399$!

0

После анонса 8600 цены на 8800 будут снижены:
8800 GTX -> $449;
8800 GTS 640 Мб -> $299;
8800 GTS 320 Мб -> $249.
Причем это реальные карты, а новые Радеоны выглядят мифично, и когда они доберутся до нас, и что у них с дровами…

0

denisnik
Не волнуйся. По таким ценам у нас ты найдешь карточки - дай бог в августе. Наш рынок не отличается гибкой ценовой политикой - это тебе на США. Я просто сам знаю - у нас в некоторых сетях продавцы искусственно завышают цены на новые видяхи 8800. Им нужно склады очистить от g70 - ибо потом уже девать некуда будет. Та же тенденция и везде по России. В Америке то от старого товара на 80% избавляются в рожденственские распродажи - когда цена реально низкая. А у нас распродажи - это написать цену повыше - и прилепить ценник, что дескать, вчера этот товар стоил еще дороже. Поэтому все торговцы и сидят на старом хламе.

0

G-man
"продавцы искусственно завышают цены на новые видяхи 8800. Им нужно склады очистить от g70 - ибо потом уже девать некуда будет"
Ну с новыми Радиками будет тоже самое.
Завышают конечно, но цена соответствует производительности. 8800GTS 640 стоит 15 шт.
т.к. конкурентов у нее нет. Выйдет Radeon HD 2900 – и цены обретут реальность.
Если продавцы хотят очистить склады от g70 – их нужно продавать по 1 шт. иначе придется сливать остатки на свалку. 8800GTS 320 везде сильнее 7900GTХ 512, к-я дороже. С выходом 8600 g70 придет конец.
P.S. а почему написал с маленькой буквы – ты атеист?

0

denisnik
Агностик =) Мы не об этом. Даже с учетом предварительных тестов и корявых дровишек HD 2900 XT свободно конкурирует с 8800 GTX. А стоит 399. Есть вероятность что и за 449 8800 GTX будет никому не нужен.

0

denisnik
С какого источника ты взял эти цены?

0

Да отовсюду - overclockers, 3dnews, ixbt, даже на playground можно найти.

0

> AMD R600, RV6x0: превращение в Radeon HD 2x00
"Очевидно, в свете слухов о превосходстве Radeon HD 2900 XT над старшей картой NVIDIA и при условии соблюдения продавцами рекомендованной ценовой политики, продукт AMD имеет шансы стать бестселлером в секторе Hi-End и спровоцирует снижение цен на продукцию конкурента."
- Не спорю, имеет. И снижение $599 -> $449; $399 -> $299; $299 -> $249 вполне реально. Короче назревает серьезная/интересная битва :)

0

ATi давно уже продалась AMDшникам. Тему нужно переименовать Nvidia против AMD.
Имхо Nvidia всегда рулила и продолжает делать ATi.

0

1920
Насчет того, что nVidia 100% впереди уже есть сомнения - посмотри на тест чуть выше. И заметь, что в сравнении использовался хай-енд от nVidia и 3-я по скорости видюха в новом ряде ATI (по мимо X2900XTX 1024mb есть еще X2900XTX 512mb)

0

Nvidia еще готовит Ультра и GX2 ,так что эти тесты ничего не говорят.

0

все что то готовят, а сейчас буит рулить амд >: -)
хотя мне по барабану кто буит рулить главноечтобы цены были пониже а производительность побольше

0

http://www.bilgiustam.com/?p=125 эта картинка взята от сюда
но чесно говоря я ей не верю

и бо ребята из крайтек написали что демо еще не выходило и за пределы кампании не пускалось(майл разрабов мона найти на сайте ати еще с фар край остался)

0

демо еще не выходило и за пределы кампании не пускалось
Я в Infernal играл еще до официального релиза и в русский сталкер до его появления в продаже. Так что ...

0

Я вот хотел по поводу качества графики возразить, а именно в разнице между Nvidia и ATI(AMD) - я вообще-то считаю, что разница небольшая, на мой взгляд надо просто уметь ее настраивать, а настроек этих очень много и качество картинки от ентого зависит напрямую!! Я обладатель 8800GTS почувствовал большую разницу по сравнению с 7600GT кода настроил ее на полную( особенно в Riva) - сглаживание и HDR на этой карте работает намного лучше! И я просто уверен, что не хуже чем на ATI!

0

Ну если на nVidia настроить качество как на ATI, то производительность заметно пострадает. Сглаживание и HDR на 7600GT вообще вместе не работают.

0

Спецификации референсной карты GeForce 8600 GTS

* Частота ядра 675 МГц
* Частота универсальных процессоров 1450 МГц
* Количество универсальных процессоров 32
* Количество текстурных блоков — 16 (см. синтетику), блоков блендинга — 8
* Эффективная частота памяти 2.0 ГГц (2*1000 МГц)
* Тип памяти GDDR3
* Объем памяти 256 мегабайт
* Пропускная способность памяти 32.0 гигабайта в сек.
* Теоретическая максимальная скорость закраски 5.4 гигапикселя в сек.
* Теоретическая скорость выборки текстур 10.8 гигатекселя в сек.
* Энергопотребление до 71 Вт
* Два DVI-I Dual Link разъема, поддерживается вывод в разрешениях до 2560х1600)
* SLI разъем
* Шина PCI-Express 16х
* TV-Out, HDTV-Out, поддержка HDCP
* Рекомендуемая цена $199-229

Спецификации референсной карты GeForce 8600 GT

* Частота ядра 540 МГц
* Частота универсальных процессоров 1180 МГц
* Количество универсальных процессоров 32
* Количество текстурных блоков — 16 (см. синтетику), блоков блендинга — 8
* Эффективная частота памяти 1.4 ГГц (2*700 МГц)
* Тип памяти GDDR3
* Объем памяти 256 мегабайт
* Пропускная способность памяти 22.4 гигабайта в сек.
* Теоретическая максимальная скорость закраски 4.3 гигапикселя в сек.
* Теоретическая скорость выборки текстур 8.6 гигатекселя в сек.
* Энергопотребление до 43 Вт
* Два DVI-I Dual Link разъема, поддерживается вывод в разрешениях до 2560х1600)
* SLI разъем
* Шина PCI-Express 16х
* TV-Out, HDTV-Out, опциональная поддержка HDCP
* Рекомендуемая цена $149-159

Спецификации референсной карты GeForce 8500 GT

* Частота ядра 450 МГц
* Частота универсальных процессоров 900 МГц
* Количество универсальных процессоров 16
* Количество текстурных блоков — 8, блоков блендинга — 8
* Эффективная частота памяти 800 МГц (2*400 МГц)
* Тип памяти DDR2
* Объем памяти 256/512 мегабайт
* Пропускная способность памяти 12.8 гигабайта в сек.
* Теоретическая максимальная скорость закраски 3.6 гигапикселя в сек.
* Теоретическая скорость выборки текстур 3.6 гигатекселя в сек.
* Энергопотребление до 40 Вт
* Два DVI-I Dual Link разъема, поддерживается вывод в разрешениях до 2560х1600)
* SLI разъем
* Шина PCI-Express 16х
* TV-Out, HDTV-Out, опциональная поддержка HDCP
* Рекомендуемая цена $89-129

0

н-да, как с такими картами юзать сглаживание вместе с HDR и DX10???? ИМХО очень слабые модели...

0

GeForce 8600 GTS получилась слабее X1950 Pro!!!
http://www.ixbt.com/video3/g84-part3.shtml

0

Да что интересно мне знать можно настроить на ATI, а чего на Nvidia нет!? Что там за такие параметры, которые Geforce не тянет а !?И почему такая уверенность!? А насчет серий младше 8800 не удивительно, должен быть и средний класс будующей серии.

0

Alexandr82
Насчет сглаживания и HDR то что на 7600GT не работают совместно я сам знаю, просто я хотел отметить в чем разница между ними, что качество картинки намного лучше стала

0

ННда....посмотрел обзор на хоботе...я серией 8600 интересовался, потому что сам хотел брать такую видяху в новый комп летом, но после этих тестов...ее опережает не только радик 1950 (и это при 2гц памяти), но и в некоторых тестах-радик 1650!!! И это при ожидаемой цене в 250$!!! Особенно ошарашила шина 128бит-не вчерашний-позавчерашний день....

0

GeForce 8600 GTS = 1/4 GeForce 8800 GTХ
Это лоу-энд за 250$. Nvidia реально обнаглела без конкуренции. Реальная цена этой видяхи 150$. Средний класс – это 256 бит шина, 64 универсальных процессора и цена до 250$ и такие видяхи должны появиться.
P.S. На Radeon HD 2600 тоже нечего рассчитывать.

0

Что можно сказать - слабые видюхи(((

0

Я вообще не понимаю, ведь по заявам разрабов серия 8600 должна была заменить серию 7900...но карты 7800-7900 намного мощнее 8600гтс...реально 8600=7600гт

чтож, будем ждать что предложит ати

0

В том-то и дело - производительность та же, а нагрузка должна быть больше... Фиговинько это... От ATI тоже ниче хорошего не намечается - у нижнего и мидл секторов все таже 128bit шина будет =(. Ну куда это годится?! Блин у той и другой кампании только хай-ендовские видюхи как раз для DX10...

0

прогчитайте пост в новастях про кризис и мой комент нехочу здесть повторяться
и сами поймети нам многократно продают теде яйца тока в профель

0

Короче, ждите когда выйдут новые радеоны и возможно GeForce упадут в цене.

0

естественно упадут, как же еще...

0

А прикупил себе 8800 GTX от Foxconn, этазверушка еле еле рычит и при это отлично охлаждается (при полной нагрузке (61 градуц), ненавижу AMD и ATI)!

0

вот оно долгожданное весеннеее

http://www.ixbt.com/news/hard/index.shtml?08/27/51

http://www.ixbt.com/news/hard/index.shtml?08/28/01

все ушел зарабатывать бобло

0

а теперь почитайте:
http://www.overclock.ru/hardnews/25471.shtml
http://www.overclock.ru/hardnews/25472.shtml
HD1900XTX 1024mb сливает почти всем и везде. Получается, что по нормальной цене и с хорошей производительностью у ATI стоит брать только HD2900XT. А ведь права была nVidia, когда говорила, что 1 gb - опасный объем памяти для видюхи...

0

Подскажите, какая видюха лучше под AGP - 7950GT или X1950Pro?

0

Losundrik
вообщето нет читай внимательней Radeon HD 2900 XT зделал GeForce 8800 GTS

но вот что я хотел сказать
смотрим
www.ixbt.com/news/hard/index.shtml?08/27/51
теперь
www.ixbt.com/news/hard/index.shtml?08/28/01

и свеженькую http://www.ixbt.com/news/hard/index.shtml?08/29/09 теперь сравним тестовые компы первых обзоров и этого нового что видим

Тесты проводились на следующей платформе:
Процессор: Intel Core 2 Extreme QX6700
Системная плата: Intel D975XBX2 BadAxe2
Память: 2 x 1 Гб DDR2-800
ОС: Windows XP
Драйвер для Radeon HD 2900 XT - Catalyst 8.361 RC4
Драйвер для GeForce 8800 GTS - ForceWare 158.19

Игра/тест Radeon HD 2900 XT GeForce 8800 GTS
Call of Duty 2 73,5 FPS 56,7 FPS
Company of Heroes 92,1 FPS 90,1 FPS
F.E.A.R. 84,0 FPS 83,3 FPS
Half Life 2: Episode 1 112,0 FPS 57,4/119,2 FPS
Oblivion 47,9 FPS 39,5 FPS
3DMark06 11447 9836

Тестовая система:
AMD/ATI Radeon HD 2900 XT (745 МГц, 800 МГц GDDR3)
AMD/ATI Radeon HD 2900 XTX (750 МГц, 1010 МГц GDDR4)
ATI Catalyst v8.361
NVIDIA GeForce 8800 GTX (650 МГц, 1000 МГц GDDR3)
ASUS P5N32-E SLI (nForce 680i)
Intel Core 2 Extreme QX6800
Corsair XMS2 PC2-8500 (800 МГц, 5-5-5-18, 1T)

Тест/игра Radeon HD 2900 XTX Radeon HD2900 XT GeForce8800 GTX
Company of Heroes 97,1 н/д 128,6
F.E.A.R. 84 79 125
Half Life 2: Episode 1 117,9 118,9 157,1
Elder Scrolls IV: Obli 100,3 101,4 110,5

ннеможет быть такого чтобы на более мошном проце фпс были одинаковы разница должна быть коть в 10 фпс и уж темболее не верю что мидл и топ видеео карты показывают одинакавый результат

что скажите

0

http://www.overclockers.ru/lab/24273.shtml
прочитав вот этот обзор можно канстатировать что пусть считаеться что 2х яд 3800 амд слабее коре и в тестовой машине использовался 1 гиг озу и приэтом все разгонялось средние фпс все равно остаються на уровне 80 для фиир и 90 для гироев

народ похоже двежки упираються соми всебя илии чем еще мона обьеснить то что при мошных компах забугорных тестеров фпс низок или у них руки кривые а

этож можно петеру экономить и не переплачивать

блин хотелось бы увидеть хоть 1 игру дх10 но сшейд 4 может тода смысл будет а

0

quake22
"что скажите"
Да, мягко говоря нас вводят в заблуждение :)
Вот это

будет новым королем 3D графики по-определению

0

Мда,довольно интересные результаты.

0

Короче ATI опять проиграла NVIDIA вот тесты 3Dmark 06 c overclockers

NVIDIA Rulezzzzzzzzz Я всегда был за неё

*GeForce 8800 Ultra (650/2160 МГц) -> примерно 14 000 "попугаев";
* Radeon HD 2900 XTX (800/2200 МГц) -> примерно 13 500 попугаев

0
PlayGround.ru
PlayGround.ru

Вот в играх уступает даже GeForce 8800GTX NVIDIA Просто рвёт на части ATI и её R600

0

как понять: "даже 8800GTX"? Что это слабая видеокарта?

0

http://www23.tomshardware.com там есть прикольная система можно стравнивать между собой многоие комплектующиие по довольно общирнрому списку тестовых програм

0

ПРОЗЬБА ДЕТИШКАМ ОРУЩИМ ТИПА АТИ РУЛЕЗ А нВИДИА "г" или наоборот покинуть данный форум!
ХВАТИТ МУТИТЬ ТУТ БАЛАГАН!

0

Скажите будет ли GeForce 8800GTS 640Mb работать нормально с процессором P4 3Ггц, смогу ли я играть сейчас в игры на максимуме. И смогу ли я играть в Crisis на высоких и макс настройках, или всё же придётся менять процессор???

0

PONM: вряд ли GF 8800GTX оправдана с таким слабым процессором. Если, кончено, тебе кровь из носа не требуется 2560x1600 при максимальном качестве текстур, полной анизотропии и АА в каждой игре.
Процессор может быть сильно задействован в построении теней, например. В предварительной сортировке видимых/невидивых полигонов. Он также активно участвует в физике, AI, игровой механике и т.д. Наивно было бы предполагать, что Крайзис при обещанной технической сложности не будет охоч до гигагерц и ядер ЦП.
Скорее всего, апгрейда ЦП тебе не избежать.

0

ок
Просто денег на всё нет!
хочу сейчас взять 8800GTS 640Mb и блок питания ватт на 500-600
а через пол годика купить проц Core 2 Duo или quad!

как? норм идея?
или есть др. варианты??
сейчас карта стоит 6600GT 128MB

0

Думаю, лучше подождать, пока цены на процессоры немного не упадут. Intel недавно заметно снизил оптовые цены, через некоторое время должны и цены в российской рознице упасть.
В любом случае, торопиться с апгрейдом для Крайзиса нет никакого смысла - игры пока нет и неизвестно, когда будет. P4 3 ГГц - не фонтан, кончено, но игры всё ещё тянет, как ни странно (сам на таком сижу).
Я бы на твоём месте взял бы видюху и БП, раз хочется и есть деньги. Хоть с высоким разрешением, AA/Aniso поиграть можно будет. А процессор брал бы в более благоприятный момент, и когда твой нынешний уже совсем слаб будет.

0

ПРЕДЛОГАЮ ПЕРЕИМИНОВАТЬ ТЕМУ В "nVidia vs AMD битва продолжается" ТАК БУДЕТ ПОЛИТКОРЕКТНЕЕ

0

Я ДУМАЮ ATI Radeon R600 НАДЕРЁТ Nvidia GeForce 8800GTX 768Mb

0

А чо думать то. Тестов уже полно и во всех 2900XT сливает 8800GTX (но выигрывает у GTS)

ЗЫ одна fierra отличилась (и где они берут такую траву ?:))

0

2900XT сливает 8800GTX (но выигрывает у GTS)
что и должна делать при своей стоимости.

0

Напомню на всякий случай для тех кто не в курсе: Radeon HD 2900XT - конкурент GeForce 8800 GTS, но никак не 8800 GTX!
2 MrAl
Подозрения насчет чрезмерного злоупотребления травой автором статьи с www.ferra.ru возникли не только у вас. Выкладываю для всех пару ржачных цытат из упомянутой статьи:

Для сравнения мы выбрали наиболее производительное решение NVIDIA из побывавших в нашей тестовой лаборатории – GeForce 8800GTX... Выбор именно этой видеокарты обоснован тем, что AMD/ATI позиционирует Radeon HD 2900XT не как самый мощный продукт, а как конкурента GeForce 8800GTS.

Уже тут видна железная логика автора. :)

В лёгком режиме 3DMark’05 красноречиво отдаёт предпочтение Radeon HD 2900XT. Однако при включении анизотропной фильтрации и полноэкранного сглаживания GeForce 8800GTX выходит вперёд за счёт 768 МБ памяти, работающей на более высокой частоте, – более широкая шина памяти уже не спасает R600.

Более широкая шина не помогает, а вот более высокая частота работы памяти - могла бы выручить. :) Просто нет слов. О том, что за обработку сглаживания отвечают блоки ROP (которые у R600 в дефиците) автор видимо тоже не знал.

Radeon HD 2900XT произвёл положительное впечатление. Во-первых, видеокарта просто эффектно выглядит и оставляет ощущение мощности.

Вот ещё бы сделали её сантиметров на 20 побольше и нарисовали бы черепа на кожухе кулера - вот тогда бы было ещё большее ощущение мощности! :) Глядишь и 8800 Ultra осталась бы позади.
В общем обзор удался на славу. Интересно было бы почитать ещё статьи этого автора. :)

0

Shader 3.0
Ты забыл упомянуть, что в противники HD 2900XT поставили также X1950Pro. Спрашивается - зачем? Или X1950Pro с недавних пор считается High-End продуктом? Брали бы уж X1950XTX, тогда действительно есть смысл сравнить топовые карты старого и нового поколений.

0

Лично я выбираю....нет не то,что вы подумали...я выбираю GeForce!!!
Shader 3.0 ЖЖОШ!!!!

0

я лутше посмотрю чем закончится битва петухов пк индустрии и к концу лета куплю себе комп ...... как раз к тому времени жераф и радеон подешевеют и даждусь подения цен на интелы а также доступности материнак под DDR3 (которые походу должны будут первое время продоватся с памятью ддр3 из-за дефицита)
и вот тока когда вся эта батва между интелом амд и нвидиай пойдет на спад я начну выбирать в прайсах чё купить а покачто лутше на комп ваще забить........
Лето, озеро, тёлки .... чет непрет меня за компом глумится и наблюдать как дерутся гиганты петушиной арены...

0

В тестах ferra.ru очень странно ведёт себя GeForce 8800GTX в игре F.E.A.R. Лишь ненамного опередил Radeon X1950Pro, который даже в прошлом поколении не является старшим. А новому Радику проиграл аж в два раза, что не лезет ни в какие ворота. Тут явно какой-то глюк, 8800GTX совершенно не показывает своей скорости. На ixbt.com тестеры наверняка бы такую странность заметили, провели бы расследование на предмет причины аномального результата, а автору Ферры на это наплевать. Он что получил, то и пишет.
Это говорит отнюдь не в пользу профессионализма автора.
Shader 3.0: "Интересно было бы почитать ещё статьи этого автора. :)"
Прочитай его предыдущую статью об архитектуре X2900 (ссылка на неё есть в начале статьи с тестами). Чего стоит один только абзац про Displacement Mapping.
Оказывается, вершинные шейдеры и нормалмапы как-то связаны с тем, нужно ли перерисовывать объект в новом кадре. Ещё мы узнаём, что displacement-карты представляют собой "набор координат ключевых вершин объекта, не требующих просчёта объекта с нуля.". Что за бред? Displacement-карта содержит лишь указания сместить точки поверхности, никаких готовых координат там нет и в помине.
"Фактически от разработчика больше не требуется долгой и кропотливой работы над созданием высоко детализированной модели и её анимацией." Ну да, конечно. А откуда Displacement-карта возьмётся, как не из созданной художником высокополигональной модели? И почему не надо проводить работы над анимированием модели, тоже непонятно.
Короче, автор - тот ещё фрукт.

0

Здесь можно посмотреть настоящую производительность 8800ПЕЧ (причем на старых дровах) . То что написино на фиерре - бред.

0

Bullet-Tooth Tony
Это значит у автора такой стиль - пишу незнамо о чем. Тогда никаких притензий к его последней статье. :) Ну а про Displacement он действительно загнул. Я то раньше думал, что эта технология облегчает жизнь железкам, а не разработчикам.
З. Ы. Сейчас с улыбкой вспомнил свою первую простейшую displacement-карту, сделанную в z-brush. Экое чудо получилось мегабайт на 50. :)))

0

фиерра отстойный сайт!
такое чувство что който пипл просто скопировал оверлокерс.ру

0

Несколько оффтоп, конечно, но раз уж зашёл разговор о разных сайтах, делающих тесты компьютерного железа, лично я считаю наиболее профессиональным сайт www.ixbt.com. Всё сделают качественно, испытают всё в разных режимах и с разных сторон, сделают выводы с максимальными техническими подробностями, где и в какой степени влияет кеш, где частота, где количество исполнительных блоков, где ещё что-то.
Прочитав тест на IXBT, смотрю то же самое на www.3dnews.ru. Тоже отличный сайт и грамотные тестеры.
И иногда читаю другие - www.overclockers.ru тот же, например.

0

Ребят хочу сказать пару слов ати и нвидиа ни когда ни прекратят конкурентничать то ати лучше то потом жираф и так будет всегда.

0

На них уже в суд подали за сговор в ценах

0

На них уже в суд подали за сговор в ценах

Кто подал? Жирафовцы

0

На nVidia в суд подали и возможно ATI тоже достанется

0

На nVidia в судподали и возможно ATI тоже достанется
Да, что за люди не понимаю хотя с одной стороный всё это конкуренция и зависть Geforce к ATI.

0

Сколько ни читал новости на тему исков, не могу понять, кто же это на них в суд подёт? Уж не Matrox и S3 ли, случайно, подумывают снова на рынок вылезти? :-)
Если пользователи, то странно, почему они не понимают, что карты среднего сегмента (~$200) вполне тянут современные игры, всем, понимаешь, 8800GTX хочется. Не думаю, что даже если бы она $500, а не $700 стоила, все легко могли бы её себе позволить.

0

Антимонопольные органы против них пойдут

0

Jafarus - озвучьте предмет зависти энвидии к ати ? если примеров нету то просьба оставить свои фанатские домыслы при себе

и на сколько я слышал иск подавали простые люди Хотя их и подозревают в сговоре т.к. если я опять таки верно понял это довольно локально происходит а не по всему миру или скажем стране..

да и как можно в теории энвидии подать иск против ати в том что они между собой договорились и установили схожие цены на СВОЮ продукцию ? бред ...

чушь OFF

0

Народ что лутше на видюхе: 256mb DDR2 64-bit или 256mDRR 128-bit???
ps: плз неговорите что оба варианта фигня!

0

psixvirus
Какая видюха?
Какие частоты в обоих случаях?

0

Второй вариант получше. Это кажется 6600. Шина 64-bit вообще несерьезно.

0

видюха 6200.
на DDR2 64bit 350/533 Mhz, DDR 128bit 350/550MHz вроде так. Вообще мне нужно знать будет ли DDR2 с урезонной шиной работать как DRR 128bit?

0

psixvirus
Если у карты с DDR2 ниже частоты, то как она может работать как DDR 128-bit?

0

Bullet-Tooth Tony & Jafarus и ко

Иски подает антимонопольная служба. В Америке (и на западе вообще) очень сильно развиты механизмы противодействия монополиям и контролю за ними. Такие полномочия в частности есть у подразделений министерства юстиции США - которые правомочны действовать как сами, так и по заявлению потребителей. С учетом того, что в Америке и статья журналиста совершенно свободно может быть принята как заявление в соотв. органы (у нас подобные процедуры тоже есть, но бюрократии больше) - думаю, что поводами так же могли послужить какие-нить аналитические обзоры ситуации на рынке (журналюги же любят раскапывать всякие тайные контракты и соглашения =)) Такие статьи кстати были по моему даже на THG - людей возмущало, то что если раньше абсолютный hi-end видеокарт не выходили за пределы 499 уе, теперь за банальный разгон карточки не гнушаются просить 999 уе. Понятно конечно, что и производство усложнилось, но эволюционирует то все вместе, а не только граф. чипы.

to all
Как вам анонс и эскизы платы на чипе Intel Larrabee? Кто что думает? От проф. решений не далеко и до десткопов (опыт Matrox это подтверждает).

0

Странно почему r600 с памятью DDR4 1 гиг. Может проигрывать 8800. Хотя ни это главное.

0

Потому что мала скорость закраски тексур. Как верно кто-то подметил, вместе с видеокартами на чипах R600 неплохо бы давать впридачу пару коробок с карандашами - чтобы пользователи помогали чипу закрашивать текстуры. Ну и конечно же сказываются проблемы с написанием "прямых" драйверов под такое сложное устройство как видеокарта с такой весьма непростой архитектурой как у R600 (я в дипломе даже для СОМ-порта не решился писать модифицированный драйвер... к счастью). А уж тут то тем более у программистов АТИ проблем навалом.
З. Ы. А вообще эта экономия АТИ на TMU честно говоря уже просто бесит. Скорость закраски у 2900 ХТ - как у моей видеокарты с хорошим разгоном. Это ведь даже не смешно. :(

0

http://www.legitreviews.com/article/507/1/ - Company of Heroes DX10
http://www.legitreviews.com/article/504/1/ - Call of Jourez DX10
http://www.legitreviews.com/article/505/1/ - Lost Planet DX10
Это тесты первых DX10-игр на видеокартах серии HD2900 - от AMD и 8800 - от nVidia, соответственно. Думаю коменты не нужны, пока что 2-1, nVidia впереди. Хотя то была всего лишь демка Call of Jourez и я уверен, что в финальном релизе DX10-версии Call of Jourez nVidia будет выглядеть уверенней, ведь именно карты от nVidia являются технологическим партнером большинства производителей (об этом нам говорит ролик в меню, про Meant to be played). А у кого партнер AMD? У Lionhead и все, по-моему. По этому почти во всех играх будет лидировать nVidia, все разрабы буду из шкуры лезть, но оптимизация их игр под nVidia - первое дело, а с ATI, как получится. Так и в Crysis, не зря разрабы говорят, что основная их цель - оптимизация под серию 8800.

0

nPower
AMD-ATI сотрудничает с Valve (ее сервис Steam в будующем вообще станет неотъемлемой частью драйверов Catalyst, да и игры ее кладет в коробочки к видяхам). Плюс Remedy (Alan Wake), Ubisoft (Rainbow Six - Vegas), вроде бы с Gearbox (Brothers in Arms) все тоже не плохо.

Программа - "Meant to be played" - не более чем пиар Nvidia. В реальности за редкими исключениями (ну типа движка Doom 3) - на производительность видеокарт ATI - это ну никоим образом не влияло. Тут дело только в граммотной оптимизации дров - ибо стандарт у нас пока один - DirectX - и игры делаются под него.

0

nPower: "Думаю коменты не нужны, пока что 2-1, nVidia впереди."
Позволю себе всё-таки прокомментировать: в тестах DX10 CoJ приведены результаты NVidia с несколькими версиями драйверов - и разница в FPS весьма немаленькая. Это говорит о том, что оптимизированность драйверов в новом режиме DX10 очень сильно влияет на производительность. Дрова NVidia сейчас в гораздо более поздней стадии, чем совсем свежие АТИшные (которые только-только из стадии пре-альфа выползли). В тестах Lost Planet, например, говорится, что многое на АТИ там отображается неправильно, что говорит о том, что Каталист под Lost Planet, возможно, вообще ещё не оптимизировали. У NVidia, напоминаю, тоже под Вистой сначала ничего толком не работало.
Более конкретные выводы, полагаю, будет иметь смысл делать месяца через три-четыре.

0

В чем разница между GeForce 8800GTS с 640 Мб и GeForce 8800GTS с 320 Мб? В 3Dmarks 2005 показывает что они одинаковы по производительности. Хотя GeForce 8800GTS с 640 Мб уступает второй на несколько баллов.

0

Stormer
3D Mark 2005 не задействует больше 320 мегабайт памяти, следовательно в нем обе карты равны.
Разница в несколько попугаев может быть обусловлена отличиями в таймингах памяти.
Сравнение карт читай здесь - http://www.overclockers.ru/lab/25052.shtml

0

Видеокарта Asus PCI-E NVidia GeForce 8600GT 8600GT/2DHT 256Mb 128bit DDR3 DVI TV-out Retail 175,88$

Видеокарта Asus PCI-E NVidia GeForce 8600GTS 8600GTS/HTDP 256Mb 128bit DDR3 DVI TV-out Retail 248,85$

Видеокарта Daytona PCI-E ATI Radeon X2900XT 512Mb DDR3 512bit TV-out 2хDVI retail 462,00$

Видеокарта Daytona PCI-E NVIDIA GeForce 8800GTS Sonic 320Mb DDR3 320bit TV-out DVI retail 335,98$

Чуваки заценити карточки. Что скажете про производитель Daytona. У кого лучшая цена-качество в данном случаи.

0

8600-серию пока что вообще сразу отбрасываем, ок? ) Насчет 8800GTS или X2900XT - тут трудно пока сказать. Вторая слишком недавно появилась на рынке и пока не понятно, действительно ли G80 вышел удачнее, чем R600 или просто сказываются сырые драйвера у AMD. Так что тут лучше ИМХО чуток подождать. Хотя все-таки будущие игры типа Crysis и Unreal Tournament 3 будут требовать на высоких настройках с высоким разрешением памяти побольше, чем 320mb, так что урезанного варианта 8800GTS может не хватить. А вообще 8800GTS 320mb - отличная видюха, и цена приемлима (по-моему самый оптимальный варинат). Просто этот X2900XT каким-то неоднозначным получился...

0

Ты прав, НО 320 Мб не хватит для игр , например, года через 3. Технология станет лучше и видеокарты такой будет не хватать. Лучше бы выбрать старшую сестру с 640 Мб. А Radeon уходит на последние места.

0

to Stormer: ну, во-первых, нехватка видеопамяти - не такая уж страшная вещь, как её малюют. При необходимости подкачки данных из-за нехватки локальной памяти производительность, кончено, снижается, но вовсе не автоматически падает ниже плинтуса.
А года через три такой видеокарты по-любому хватать не будет. Не по памяти, а по всем показателям. Следовательно, играть в игры на ней придётся с уменьшенным качеством, так что объём, занимаемый данными в видеопамяти, также уменьшится.
Так что, я считаю, если жаль сто долларов на больший объём памяти, особо мучаться не стоит.

0

Да. Но ты забыл что она под SLI подстроена, те через годика 3 можно купить такую же. Только Чубайсу придется денег больше отдавать за эл. энергию.

0

Stormer
Представь, что пару лет назад ты купил топовую на тот момент 6800 Ultra (PCI-E).
И что, сейчас ты стал бы добавлять вторую карту для увеличения производительности?
Нет, потому что 6800 безнадежно устарела.
То же самое и с 8800GTS. Мощный на данный момент видеоускоритель не протянет 3 года в любом случае и добавление второго такого же ситуацию не изменит.

0

Кстати ведь HD2900XT уже в продаже, а я ее че-то в интеренет-магазинах найти не могу, просто интересно скока за нее просят? )

0

nPower
На прайсах смотри - но там цены от 470 уе - а так в среднем 540-550 уе. (ессно в версии 512 mb)

0

2 nPower http://www.alternate.de/html/builder/proddetail.html?class=graphicscardPCIe&artno=JBXV5R&source=builder%2FlistingFrame&source2=needed
Или вот, за 333евро! http://www.alternate.de/html/builder/proddetail.html?class=graphicscardPCIe&artno=JBXG1R&source=builder%2FlistingFrame&source2=needed

0

о, Alexandr82! =) Я наслышан ты HD2900XT взял? =) Ну как тебе в общем, отпишись )

0

Шум охлаждения, качество картинки (артефакты, если есть), качество анизотропки и сглаживания.

0

и как оно в играх на каких настройках ишраешь? тормозит? какая температура так и принагрузке? + про то что MrAl спрашивал

0

Alexandr82
За какую стоимость брал и какие игры в комплекте? Какой FPS в Directx 10 играх: Lost Planet, Call of Juarez DirectX 10 Benchmark и Company Of Heroes DX10 patch?

0

- Брал за 530$. В комплекте Dungeon Siege и купон на Half-Life 2 Episode Two, Portal, Team Fortress 2.
- На минимальных оборотах куллера почти не слышно, на максимальных - шумновато
- Вачество картинки как всегда на высоте, к анизотропии и сглаживанию не приглядывался. Атифактов под DX9 нет.
- В S.T.A.L.K.E.R. играл при 1280х1024 и максимальном качестве - кадров 60 дает в среднем, но в красную зону не опускается (Fraps). В Oblivion играл при 1280х1024 и максимальном качестве - на FPS не смотрел, но не тормозит. В Tomb Raider Anniversary при 1280x1024 4xAA минимальный FPS примерно 80, а максимальный за 200 переваливает.
- В жару температура в S.T.A.L.K.E.R. доходила до 95 градусов.

Про DX10 позднее отпишу

0

Call of Juarez DX10 Benchmark 1280x1024

High Details

Min: 12,5
Max: 52,3
Avg: 23,4

Balanced Details

Min: 12,3
Max: 56,9
Avg: 25,3

Low Details

Min: 18,2
Max: 75,3
Avg: 40,6

PS: Красиво. Артифактов нет.

0

Lost Planet
Порт с приставки. Кадров 20 выдает. Под DX10 артифакты.

0

Это проблема демо версии, разрабатывавшейся при поддержке Nvidia. На 8800GTS у меня в 2 раза больше. Финалка будет более оптимизирована.

0

Company of Heroes

Особенности DX10
- В местах пересечения с 3D-объектами грани частиц сглаживаются.
- Тысячи дополнительных 'мусорных' объектов.
- Улучшен контроль над сглаживанием.
- Для улучшения альфа-теста прозрачных объектов, таких, как кустарники, применяется техника 'Alpha to coverage'.
- Освещение теперь рассчитывается на пиксельном уровне.
- Более точный расчет света от точечных источников.
- Теперь точечные источники света могут отбрасывать тени.
- 3D трава на ландшафте.
- По умолчанию, чтобы улучшить качество картинки, включена вертикальная синхронизация. Отключить ее можно параметром командной строки '-novsync'.
- Для улучшения качества теней используется техника 'percentage-closest filtering'.

PS: Пойду тестить

0

Ну вобщем красиво и вполне играбельно

0

Crysis: Возможная производительность видеокарт.

ATI/AMD


Nvidia


http://radeon.ru

0

Так чтоже получается 8600гтс брать вообще не стоит? накопил деньжат на долгожданный ап, надеялся на эту карту, а тут такие результаты....:(((

0

Написано же - неофициальные (читай - бред). Небось опять турки отжигают. У них 2900XT как то опережал 8800GTX в два раза.

0

Не такой уж и бред. Один чел проводил тесты в Call of Juarez DX10 Benchmark разогнанной 8800GTX и слабо разогнанного 2900XT. Результаты тут
http://forums.overclockers.ru/viewtopic.php?p=3931860#3931860

0

А вы в курсе что этот самый бенч создан при поддержке AMD, также как Lost Planet demo при поддержке NVIDIA. Пиар все это. Только настоящие DX10 игры все расставят по своим местам.
И я уверен, что это будет даже не Crysis

0

Этот бенч взят с сайта посвещенной игре Crysis www.crysis-online.com, сайт возможно сделан при поддержке Crytek, этот бенч http://www.crysis-online.com/forum/index.php?PHPSESSID=8d187f76b295ddc0b5fdf40f3472ffab&topic=4567.msg74124#msg74124 Этому сайту можно доверять.

0
ЗАГРУЗИТЬ ВСЕ КОММЕНТАРИИ