nVidia vs ATI: переспективы развития: [Closed]

последние поколения ATI = NVidia
предпоследние поколения за ATI

А насчет кривых драйверов то это треп. На nVidia еще поглючнее будет: попробуйте с новыми дровами на FX запустить Medal of Honor.

У меня ATI Radeon 9600 и я вполне доволен, проблем нет.
Ставлю переделку "FORSAGE" с www.HardwareLab.ru + Полезный твикер "ATI Tray Tools" с www.Radeon2.ru
Хотелось бы верить что у АТИ дрова нормальные, но практика показывает обратное. Thief 3 идет нормально только на 4.6, Морровинд вообще глючит по страшному на каталисте выше чем 4.5 (у меня 9600хт). Этих примеров, к несчастью довольно много, за что, в принципе ваятелей драйверов для радеонов нужно подвесить за это самое место :)
У меня Morrowind и Thief 3 ходят нормально на новых дровах. А Thief и на GeForce без новых дров глючил. И я бы сказал что на GeForce глюков побольше. А ATI может раньше и славилась глючными дровами но теперь об этом не скажешь. Да есть, но очень мало что даже не вспомню что у меня глючило в последний раз.
Оба-я пользовалсякарточками обеих фирм-производителей. Поих временам-Идеалы.
Обе фирмы по свойму хороши
но помне лучше моей msi ati radeon x800pro нету(это почти как xt сапфировская)
раньше сидел на fx 5200 и не жаловался пока игрухи типа дума 3 непопёрли
Во-во, у меня счас как раз FX 5200 и DOOM3 тоже бегает при определённых настройках (а чё там в темноте графу высматривать?) и Far Cry(птицы-стрекозы все летают и графа красивая). Поэтому пока не появится какая-нть действительно несусветно тормозная игрулина, карту менять не буду - эта вполне устраивает!!!
Надо просто уметь настраивать свет и тени - пробуйте разные настройки...
to Smith
бери Radeon 9000
4 конвеера, полная поддержка DirectX 8.1
На Атях глюков однозначно меньше, а начиная с Рад9600 против Гф5700 Нивидия и по скорости в жone. Я летом апгрейдился - выбирал между 9800 и 5900 - оставил Радик и сейчас исключительно доволен.
2 Smith

Если шина памяти 128-bit то однозначно ДА. Круче твоей нынешней и очень намного.

4 конвеера, Pixel Shader 1.4, Vertex Shader 1.1 - полный DirectX 8.1. На твоей старой 2 конвеера и поддержка DirectX 7.

Я думаю по скорости будет более чем в 2 раза быстрее
У МЕНЯ GEFORCE FX-6800 ULTRA/А С НАЧАЛО БЫЛА RADEON-9600\ОБЛАДАТЕЛИ КАРТ RADEON МОГУТ ЗАМЕЧАТЬ В МОЩНЫХ ИГРАХ С МАЛЫМ ОСВЕЩЕНИЕМ-------БОЛЬШИЕ ГЛЮКИ(SILENT HILL 3 PRINCE PERSIA
У меня лично в этих играх на 9600 глюков не было
Как то попались мне две карточки Radeon 9600 256 mb и GeForce fx 5700 128 mb. Я их протестировал и GF5700 радеончик сделал не намного но все равно сделал. Напомню, что 9600 - считается эквивалентом 5700. Так что я оставил 5700. Мой выбор GeForce'ы.
Всеми руками за Radeon! Много всякой бредятины читал про радеон что дрова кривые, что глючит все по страшному - вот я вам скажу что все это брехня! Небыло ни одной игры с которой бы испытал проблемы из-за видео карточки, с nvidia этого сказать немогу. Если вы не хотите разбираться не в чем выбирайте nvidia, а если вы крутой геймер и вобще увлекаетесь компьютером совет один - radeon. Т.к. на nvidia игры удут чуточку быстрее без всяких наворотах (антизальтропной фильтрации, сглаживания), но нам то такого не надо! Поэтому выбор один Radeon =)
Те, кто за (не все, но многие) за NVidia, у тех это первая и единственная карта, и голосуют за GeForce, потому что у них не было Radeon! Я тоже вначале считал GeForce лучшей и точно также думал про дрова и софт, и глюки! НО! Когда стал пользоваться продукцией ATI, понял, что NVidia - это просто хороший маркетинг!
у нвидии обсчет шейдеров 2.0 более честный, потому и медленее,
это почти не видно, но только почти.
Только изза этого результаты ниже
с АТИ перешел на Гфорс и доволен.
при каждой новой игре не лазею в инете в поисках св. драйверов (как при АТИ было (это была ж...!))
имею 5900xt(450/850) и не жу-жу!
Офигеть! Я и забыл уже, что эту тему делал, а её тут реально подняли. :o
Кстати я прикупил себе одину из последних видюх от Radeon.
2 simpson
Особенно "честный" в FarCry 1.1 где производительность GeForce FX подняли за счет заметного ухудшения качества. Слава богу 2.0 на 6x00 подправили, а то бы загнулась ваша nVidia. Еще не известно какие там третьи получились.
у мя Радеоны на компе и нубуке стоят
на компе 9800 про на 256 метров
на нубуке мобилити м 6 на 32 метра
с дровами никогда кривостей не было-ставлю новые как тока выходят

з.ы. дум 3 после "спец" дров стал бегать на "всё на полную" и никаких тормозов
Че там за радуга и где на нее посмотреть можно. Требую подробно рассказать.
Киньте скриншот на мыло с радугой, хочу посмотреть
Я писал что нахожусь на стороне нвидив, но теперь это не так. Вчера я сменил palit GFmx400 64mb HA sapphire 9550 128 bit; 128mb. Ati Я с вами.
ЗЫ и еще я прикупиил себе наконец двд ром
Ура
Нельзя утверждать, что лучше - нВидия или АТИ, ЖеФорсы или Радеоны (а не "nVidia против Radeona")!
Все зависит от конкретной видеокарты и конкретной игры.
Во времена ЖФ2мх400 я смутно представлял, что такое АТИ и Радеон, только слышал об их глючности и беспонтовости. Затем ЖФ4мх440 ваще погнался по чипу до 380МГц и полгода не знал печали, дрова переставлял очень редко, т.к. старый ДХ7.0 "не конфликтовал" с новыми играми. Когда захотелось увидеть ДХ8.0 перешел на Радеон 9100 (тот же 8500) - воспоминания исключительно положительные. Я убедился, что Радеон не так дорог, как Титаник, но абсолютно безглючен и проблем с дровами не было и картинка красивая. Потом перешел на 5900ХТ - тут-то и начались пляски дровами. Почти каждую неделю новые дрова, под конкретную игру нужно было подбирать конкретные дрова и, естесственно, самое большое разочарование от шейдеров 2.0 и игры ФарКрай, которую я без матов так и не смог пройти - пляска с дровами и патчами ещё та была (играть можно было, но качество в той или иной мере страдало).
В чем хороша эта видюха - это в разгоне до 5950Ультра и высокой производительности в Дум3 и играх на движке Квейк, Анрыл.
Короче есть свои плюсы и минусы у каждой видюхи.
5900ХТ дешевый, гонимый, крутой во многих играх, но провальный во 2ых шейдерах,
9800Про дорогой, круче в играх со 2ми шейдерами, но этих игр меньшинство.
и т.д.
Незнаю как рание но щас Nvidia поимела радеон ,6800 Ultra тестировал в Doom 3 и Half laif 2(для этой игры лучше подходит Радеон) и вобще в тестах выйграл 6800 Ultra,тестировали с x800XT ,проц и аперативы были одинаковые.
Ati готовит щас отпор но пока неизвестно какой.
Веть когда они выпустят супер видюху которая будет иметь 6800 ultra,Nvidia выпустит уже чип с 4 потдержкой шейдеров.
Кстати в винде longorn будет включен 10 DX и там будет включена потдержка 4 верссии шейдеров.
И что ты там гвоарил Александр ,все можно врубать анизатроп со зглаживанием незнпю как у твоего радеона но мой 6800 ultra справился на ура.
2 GhZero

А теперь посмотри на тесты X850PE
http://www.ixbt.com/video2/r480.shtml
http://www.ixbt.com/video2/r480-tr.shtml

Кто кого поимел?! Разве что в OpenGL и играх с малым использованием PS Radeon слегка проигрывает. Так что в ирах будущего преимущество за ATI. У нее уже 51% рынка, а у NVidia сорок с небольшим. А на счет PS3.0 это еще вопрос. Не уверен что их будут активно использовать в ближайшее время. Ни одной игры нет где бы они использовались.
Главное радеон обходит Nvidia на малых разрешениях,на 1600-1200 6800 гдекф поимел радеон,я лучше сыграею на высоком качестве чем на низком.
Тимболие я имел ввиду в том обошла что их 6800 было соедененных Ati вот в чем проигрывает она ,и еще проблемы с играми какую игру не куплю везде знак Nvidia только во 2 халфе была ати и все а ты гвоариш 51%. Какой там процент,тимболие 3 шейдеры будут в 3 Унреале.
Знак nVidia это всего лишь реклама которой хотят промыть нам мозги. NVidia лучше бы вместо рекламы деньги на разработку тратила, а не выпускала сырые продукты с новыми технологиями. И я посмотрю как ты поиграешь в 1600x1200 в новых играх. Я думаю мощости GeForce 6x00 не будет хватать для игры в Unreal 3 с PS3.0.

А в Far Cry PS3.0 используются для замены PS2.0 и только. Никаких преимуществ кроме скорости не дает (за счет этого новые GeForce догнали Radeon). А на отстойных GeForce FX в Far Cry скорость подняли за счет ухудшения качества картинки.
2 GhZero
Вот ты гришь, мол 6800 обходит радеон (какой? х800?) на 1600*1200.
Все очень не просто. В разных приложениях по-разному ати и нвидиа карты себя ведут! Сколько
раз я это говорил! И если в unreal 2004(1600*1200) у 6800 ~ 80 кадров, а у радеона 78,9, то какая тебе разница! Ты ведь ее (разницу) как не пыжься не почувствуешь! Да и на кой тебе такое разрешение. Меня
вполне устраивает в любой игре 1024*768 + 4х АА. За глаза и за уши хватает, и ресурсов жрет меньше.

P.S. На самом деле я не знаю какие фпс на таком разрешении у 6800\х800. Так, догадываюсь =)
Попрошу Александра82 меня поддержать.
лично я - перешел с Nvidia на ATI. с GeForce Ti4200 на 9800pro. как же я намучился с дровами! ужас. одна игра идет только с такой версией, другая - с другой. на телевизор выводится чёрти что (я фильмы смотрю так) - с искажением цветов, с помехами и размытостью. у меня никогда не было таких проблем с GeForce, несмотря на ту же самую конфигурацию компа и длину провода до телевизора. будет возможность - махну этот radeon на Nvidia не глядя!!!
Страшное будущее 1600x1200 (1024x768)

3D Mark 2005 Game 1
Radeon X850PE - 20 (27,6)
Geforce 6800 Ultra - 15,9 (22,7)

3D Mark 2005 Game 2
Radeon X850PE - 10,9 (15,6)
Geforce 6800 Ultra - 10,2 (14,5)

3D Mark 2005 Game 3
Radeon X850PE - 20,2 (29,4)
Geforce 6800 Ultra - 17,4 (26,5)

PS: А Geforce рулит в OpenGL и приложениях с малым использованием PS2.0. Он слабоват для сложных задач.
Дело вкуса... 1.5 года назад я отдавал предпочтение nVidia (еще не пробовал ATI, да и не было его ни у кого). Сейчас стоит Radeon 9600XT (без разгона) и тормоза (они у каждого есть, у некоторых в голове...) вижу редко. И все же - дело вкуса...
Извечный нерешаемый на сегодняшний день спор.
У каждого производителя есть свои "+" и "-"...
Я лично гоняю на своём стареньком гф3 ти-200 128мб и ощутил реальную не хватку карточки только на фар крае, в остальный играх я не припомню чтоб он меня подводил, щас играю в халфу почти на максималках лагов не ощущаю...
Но и не имею ничего против радионов, хорошие карточки, тоже мощные, "тоже" дорогие... Один хрен за производителями не угонишься, например, сёдня купил ты радика х800 или какой там последний, завтра вышел новый, а потом смотришь какой-нибудь тест и узнаёшь что это хиповая карта, а твоя которую ты приобрёл вчера полна глюков и не доработок, которые хранил в себе производитель и выпустил проагрейженную новую карту..Та же тема и с гф..хз.хз.хз...
C half life 2 облом GE FORCE FX работает в режиме dx 8.1, а на radeone 9600 и выше аппаратно dx 9.0 (VALVE КОЗЛЫ!!!!)
FX самое отстойное поколение карт nVidia, кто за?
Драйвер Forsage не имеет инсталятора и его надо ставить через диспечер устройств. Выбирашь там карту > правой кнопкой > обновить драйвер > и там указываешь папку куда распаковал Forsage.
С халвой 2 уже решена проблема насчет видюхи от NVIDIA там короче патч вышел разрешает 9 директ использовать ,я поставил вроде ништяк все.
Кто говорил что качество на Radeon хуже, тем сюда
http://www.ixbt.com/video/itogi-video/1104/itogi-video-gallery.html

Кто знает куда делся обзор с IXBT где в Far Cry тестировались GeForce FX и было показано за счет чего им удалось догнать Radeon? Не nVidia ли поработала, чтобы свой позор закопать?
ДА знаю я ,не себе ставил та.
Александр,ты дамл ссылку про видюхи качество та,посмотри сплинтер Сел пандора томора,на 6800 и на x850 плюсы в сторону 6800 это видно на глаз.
2 GhZero
На самом деле ето глюки.

2 DeadSteel
www.HardwareLab.ru - Драйвер FORSAGE
www.ati.ru - родной драйвер
www.guru3d.com - драйвер DNA
www.omegadrivers.net - драйвер Omega
Сам подумай.
NVIDIA 6800Ultra 450MHz на ядре
Сырые дрова. Новое ядро.
Что-бы ее догнать пришлось поднять частоту почти до предела.
ATI X850XT 540MHz на ядре
Дрова ATI вылизовала 2 года

Потолок для нынешних карт 600MHz, запас у ATI- 60MHz, у NVIDIA- 150MHz
Потихоньку NVIDIA вылежит драйвера, и в секторе PCI-E, ей не будет равных.
Знаем мы как nVidia дрова лижет. Потом картинка вся замусоленая но зато скорость :).
Только Радик в HL2 вода нормальная да же на 9600 а у Nvidia только на 6xxx. Хотя у меня стоит Nvidia
Надо взять примерно одинаковые карты разных брендов и купить ту, которая дешевле.Так, думаю, сделает каждый не смотря на слюнявые споры.
Ошибки в GeForce 6600 GT

По сообщению сайта Hard tecs 4U в некоторых ревизиях GeForce 6600 GT существуют проблемы. По их информации у ряда видеокарт производителей, таких как XFX, Prolink, Albatron и AOpen наблюдались артефакты при тестировании, об этом сообщили на их форуме.

AOpen подтвердила, что эти артефакты могут проявиться при определённых условиях на некоторых ревизиях NV43. На данный момент корпорация совместно с NVIDIA выясняет причины их вызывающие.

Неизвестно что именно является виной этой проблемы, возможно, это брак партии чипов, а возможно проблема вызвана редизайном печатной платы, которую провели производители видеокарт.
А откуда новость взял? WWW.NVWORLD.RU!!!
2 killerbug
Солидарен с тобой полностью.
Nvidia рулила, рулит и всегда будет рулить!
А радики.... :-(((
Ничего о них хорошего сказать не получается
Кстати, здесь, на этом форуме, промелькнуло хорошее замечание - у кого какая карта, тот ту и хвалит!
Дамы и джентльмены! Давайте жить дружно! Ведь все МЫ - ГЕЙМЕРЫ!
Я недавно видел у друга моровинд на 9800про.Так вот там на воде,.. на ней плавали зигзаго образное подобие волн 8)).
После тщательной настройки видюхи в ее !кривых дровах! волны стали более круглыми ,только в 10 раз больше нормальных а самой воды видно не было она была как воздух.Вобщем забавная вещь.В ут 2004 шейдеры якобы "качественные " и быстрые показывали на текстурах блестящие пятна явно не того размера, в халфе 2 ваще убогость полная, на 9600 у другого друга я заметил некоторое уродство текстур ,да такое что мне глаза резать стало.Как выяснилось он просто не нашел в этом дибильном каталисте обыкновенных настроек качества OpenGL. На старых 2д играх типо алиен шутера глюки тоже имеются. Вобщем Ати меня ни чем не радует, наоборот пугает даже.
ATI - NEVER!!!
2 Fanatic
На 9600 все нормально с Морой. И вообще полный бред несешь. Смотреть скриншоты здесь
http://www.ixbt.com/video/itogi-video/1104/itogi-video-gallery.html

На счет более качественного OpenGL на nVidia чушь

Смотри скриншоты DOOM3
1) обрати внимание на решетку на полу (на nVidia там размытие)
2) обрати внимание на овальные выемки балкона (на Radeon они четче)
2 Alexandr
Посмотри во-о-о-о-о-о-н на тот пиксель в том конце экрана, и на в-о-о-о-о-о-н ту точку.
Странные у тя суждения. Прилип к IXBT почём зря. А у радеонов глюки имеются, это прада
У меня GeForce FX5600, никогда на неё не жаловался и ни когда не подводила, очень надёжная! С дровами всё ок!
Вопрос на засыпку: можно ли скачать обои с изображением видюх (nVidia желательно) nVidia RULEZZ! (Не навиже это слово!!(RULEZ))
А у ATI и не было нового поколения. Так что битва с 6x00 еще впереди.

x300 SE - 9600 se под PCI-E
x300 - 9600 под PCI-E
x600 Pro - 9600 pro под PCI-E
x600 XT - 9600 XT под PCI-E
x700 Pro - 9800 Pro под PCI-E
x700 XT - 9800 XT под PCI-E

А это новинки на старых технологиях под PCI-E: увеличили конвееров, геометрических процессоров.
x800 Pro
x800 XT
x800 XT PE
x850 XT PE

Конешно были мелкие доводки, но это не новое поколение. Да и вообще не много изменилось со времен 9700. Все это были доводки до идеала.

P.S. Это затычки (очень неплохие при этом) до выхода нового поколения, которое скорее всего сильно ударит по ногам nVidia. ;)

ATI не глючит - это ФАКТ
Мой гыфорс 4600 сгорел меньше чем через пол года. Производитель НЕ нонейм, в свое время за нее отдал 400 уюитых энотов. Так какое может быть у меня отношение к НВИДИА? Еще если вспомнить и ценовую политику, то становится плохо. В общем Ати рулез.
Мало ли что у кого сгорело.У моих знакомых такие вещи горели которые даже гореть не могут 8), брак всегда где нибудь да и попадется.
Другое дело когда бракованые чипсеты продолжают использовать в моделях постраее.Так как раз делают очень многие фирмы работающие с АТИ.Например хоть сапфир который дешевле нойнейма стоит :)).
Мне еще кажется что у Ати 9600 самая удачная модель. На ней наверно чипсет нормальный, глюков меньше. Зато шейдеры просто "класс".
У моего друга с 9600 в моревинде вода тоже не глючит зато если ее качество сравнить с любой картой от нвидиа разница сразу будет заметна,
и не в пользу ати.
Комп к нему таскал и на воду глядел? Про оптический обман слышал?
2 Alexandr82
Fanatic всё правильно говорит. В Morr`e вода ужжжжжжас на глюкало-радеонах
Значит у вас глаза кривые. На 9600 все нормально.
А я и не говорил что не нормальная. Я имел ввиду то что не такая как на Нвидиа.
Да и вобще если куплю себе то тока нвидия :
1)глюков никаких не будет
2)если будут значит игра кривая с багами. Помните фаркрай и дум буз патчей?
3)настройка дровов гораздо функциональней чем у ати, да и удобней во много раз тоже.
4)Так как я говорю про настоящий момент времени, по цене и фишкам типо пиксельных и вертексных шейдеров 3.0 и SLI, лучше нвидия.

P.S Особенно по ЦЕНЕ.
GF 6xxx серия сейчас на коне, в предыдущем поколении видеокарт впереди была Ati, что будет дальше одному Богу известно. Но возможности Sli режима дают Nvidia некоторую фору
Режим SLI - это смешно. Чуть-чуть быстрее Radeon X850 PE и при этом денег дохрена за 2 карты платить.

PS3.0
Radeon 9700 выше в 2002 году (весной вроде), а DirectX 9 активно используется лишь в этом году. Так что вот стока времени прошло, и я думаю еще тока ближе к зиме следущего года PS3.0 станут полностью использовать, если не еще позднее. К тому времени все ваши навороченные 6800 станут средним звеном. Так стоит ли за это платить щас кучу бабла.
sli режим дает 75% прирост производительности по сравнению с одной рабочей видеоплатой. Как можно сравнить даже самый продвинутый радеон с мощностью работы двух Gf 6800 gt к примеру
СЛИ - это для профессиональных разработчиков. Обычному геймеру на 6800ГТ бы накопить... ИМХО никто не победит. Рынок поделится 50/50, способствуя тем самым здоровой конкуренции и улучшению жыфорсов и радионов.
Да уж ладно накопить...
Если есть кто может за 600$ может позволить х800xt pe то на 2 6600 gt хватит уж точно.Или на 2 6800 от асус.
А если сравнивать цену на х850pe то думаю ваще комп собрать можно былоб например атлон 64 с оперативой винчакоми всеми делами, без монитора 8)
Нахрен кстати х850 нужна?
Толку то от нее?
Выжатый лимон е-мое.
2 chisik i Fanatic
http://www.ixbt.com/video2/sli-d2.shtml#p27
покажи где тут 75%
Sli режим отлично показывает себя в высоких разрешениях, что в принципе говорит о его высоком потенциале. Тут нужно еще учесть что новый продукт Nvidia еще чересчур сыроват, с ним еще работать и работать. Но за Sli светлое будущее, в этом сомнений нет. Я думаю, что нечто наподобие Sli может появиться и в линейке ATI, иначе канадцам не выдержать конкуренции
2 Alexandr82

Послушай, ты какой-то странный ей богу. Отрицаешь абсолютно любые (иногда справедливые) возражения против ATI.
ATI - хорошие карточки, но по-твоему они абсолютно во всем идеальны! А идеала не бывает! :-)
Лично у меня 5700 Ultra и я доволен. Хотя у друга 9600XT и он тоже доволен.
Обе хорошие карты, на практике разницы ну никакой!
Хотя когда я покупал свою, она стоила чуть дешевле ATIшной, что и предопределило мой выбор.
Александр с пеной у рта восхваляет Ati и даже не хочет признать того,что Nvidia c серией видеоадаптеров 6xxx уже давно на коне и свои передовые позиции не сдаст по крайней мере до появления нового поколения карт канадцев
И вобще почему все кто за АТИ не могут что-нибудь толком про нее расказать.
Я вобще хз какие у нее фишки,а то что она мощная я уже слышал.
А есть у нее что-нибудь по типу CineFX3.0?

Круто на савеловском рынке напокупал наклейки с нвидиа терь расклеиваю везде =)).
Вы будете смеяться но нвидиа тоже сделает кучу новых видюх толи это будет линейка новая 8),или новые 6ххх.
Причем в одно и тоже время с АТИ.
Одно слово канадцам надо будет сделать что то очень крутое.
Хотя известно что выйдет только 1 видюха на чипсете 520 ,когда у нвидиа их будет не меньше 2 на разных чипсетах.
Трудно придется канадцам.
Примечательно то, что ATI выпускает новые драйвера почти каждый месяц, Радеон разгоняется куда лучше чем жифорс, последние чипы немного быстрее. Минус - цена.
Каждый месяц выходят новые игры вот они и делают к ним каждый раз новые дрова чтоб не глючило.8)
И то не всегда получается.
Это у производителей игр руки кривые, а производителям карт выкручиватся приходится. Не тестят нормально, а стараются быстрее выпустить. Глюков больше исправляет патч к игре, чем новые дрова для видео.
Ну не такие уж и кривые. Игра делается не за неделю и даже не за месяц, а иногда и несколько лет (пример всем известные последние игры). Ну ты прикинь, черти начинают делать игру, когда повсюду жефорсы 2 или 3, а под конец идет, ну ты сам знаешь ;).

А я на стороне Радионов, по производительности делают всех, и ни куда от этого ни денешся. А что до плюшек, которые они не поддерживаю типа SLI, или как ее там. То это вопрос времени.
А хрен знает когда настанет время это с фишками от АТИ.
То что она мощнее компенсируется глюками.
Да и то мощнее всегда на максимум 5-10 фпс.
Вечно ему глюки мерещатся. Наркоман наверное.
Хмм.Я не псих и не наркоман.
А вот Даниил ....
Чо за хрен ваще, опухли чтоли?
Вы на своем радеоне нормалной графы не видели поэтому все нормальным и кажется.
Чо ваще практически все кто пишет за нвидиа тот хотя бы мотивирует свои мнения,а кто за АТИ тот только "круто круто" и "мощно мощно" - куча орущих обезьян ,меня это уже бесит ,АТИ из всех мозги выбивает наверное.
>Fanatic. У меня на полочке лежат 2 коробочки....
Одна с FX5200, другая с FX5700Ultra. А в компе RADEON 9600XT.
И этим двум (которые на полочке) я уже давно мыслено приклеил
по ярлычку с надписью "говно"......
А gf 6800 у тебя на полочке нету. А то я бы с огромным удовольствием спас бы тебя от созерцания этого г.
А средним классом уже второй месяц стала 6600.Разьве нет?
Она и стоит дешево если не gt то до 200$.
А 6200 тоже не слабая.Можно извратится и купить две с SLI 8).
Вобщем новая линейка.
Реально на сегодняшний день - лучше всего брать Radeon9800pro (или XT), ну и 9600pro тоже неплохо.
Что касается NVidia - на сегодняшний день ну нет у них нормальных карт по той же цене-качеству.
Все говорят 6600 там, или 6800 - но они дорогие. а на тех же радеонах и так всё (на сегодня) будет идти без проблем!!!! !!!!!!!!!!!!!!!!!Это ФАКТ!!!!!!!!!!!
Не знаю , мне кажется сейчас покупать radeon9800*** просто глупо т к цена как у g6600gt или x800 которые на много быстрее и по рекомендованной цене даже дешевле. Хотя в продаже я их почти не видел(пока) . Radeon9600xt фигня , переходя с geforse2 ti200 я ожидал большего .
Т к меня интересуют AGP карты и по ряду других причин я выбираю однозначно NVIDIA
Мой друг купил sapphire 9800 pro и несказанно рад глюкам и сейчас.За 180$.
А через 2 недели в продаже появились 6600 на pci-e за 140$
Сейчас 6600 на pci-e стоит ваще копейки (для такой видеокарты) 120$
А agp8x 6600 gt стоит 210$, на pci-e 6600 gt - 180$.
Если сравнивать 6600 с 9800 то все тесты показывают что 9800 в большой ....
Ну и что выгодней покупать?
Кстати цены удобно смотреть на www.price.ru
Во первых: Я эти карты брал тогда когда они были крутыми (т.е. давно)
Во вторых: Мне RADEON 9600XT обошёлся в 70$.
В третьих: Если бы я щас брал карту я бы взял GF6800, а скорее всего подождал пока ATI чё-нить толкового не намудрит.
Но как обычно все дела упираются в бабло.
В одном журнале написано что 520 (новый чипсет) от ати купили технологию с PS 3.0 у Nvidia.
Так что я не знаю что у них из этого получится.
---------Fanatic----------
Ты сначала скажи чё у тебя за видюха, а потом и поговорим!!!
Я видел В РАБОТЕ и ту и другую(9800pro и 6600) и одназначно говорю тянет радеончик НА МНОГО ЛУЧШЕ!!!
А тестами только подтираться можно!!!
Интересно, поклонникам Ati хватит когда-нибудь мужества признать , что Nvidia на сегодняшний день гораздо предпочтительние что в среднем, что в высшем ценовом диапазоне, а эти 9600хх, 9700хх, 9800хх-вчерашний день. Nvidia6800xx- лучший выбор, если у вас до хрена бабла,которого уже некуда девать. 6600, если вы,ребята, поскромнее в финансовом плане. Ati места на пьедестале не нашлось.
DJarl твоим утверждением тоже можно, если распечатать
Не знаю но 6600gt лучше чем 9800xt
Главное было бы во что играть а остальное пиложитса.
Надо chisik все- таки признать на бумаге на pci лидер ATI .(x800,x800le,x850…)
У меня есть знакомый, которому если говоришь про видеокарты ATI он говорит: ’Это же Radeon…’ А я с ним согласен.
Ну я прям не знаю.
Тесты тесты....
А чего ваще все усирались ими тогда, видя как АТИ обгоняет пятую серию на 5 фпс?
Особенно 3d mark показывал что у 5950 УЛЬТРЫ меньше очков чем у занюханной 9600.
Или найдется хоть 1 кто скажет что 5950 действительно слабее?
Все прям гордились, на 3d marke больше очков у ATI.
ЧТО все в 3d mark играют?
А стоило мне заговорить что Нвидиа побеждает ,потому что тестить решили предворительно поставив fiхы на бенчмарки и нормальную версию детонатора а не какую-нибудь xx.xx beta, тут же - "нахрена нам эти тесты".
Нет уж пускай будут. Другое дело почему именно мне об этом говорят а не тому кто за АТИ...
Сколько времени прошло, а мало кто еще понял что ATI в заду.
Да и потом никогда она не сделает что то нормально.
Вспоминаю дремучие времена когда созерцал не виданное кол-во глюков на ATI (какойто там) rage.
За это время что то изменилось?
Глюки ,разьве что, прикольней стали 8)) и поразнообразней =))).
Вы все такие умные!!! Куда деваться!!!
NVidia ПРОСТО СУПЕР. ПРОСТО КЛАСС. МОНСТРЫ РЫНКА КОМПЬЮТЕРНЫХ КАРТ.
НО -----------ATI ЛУЧШЕ--------------
P.S. На данный момент у меня стоит GeForceFX5600 256Mb
Скажите-ка у кого из присутствующих стоит 6600 или 6800???
Тока без обмана!!!
Вот я на днях покупаю 6600 gt. Вот у друга который в 50 метрах от меня живет ASUS 6800 Game Edition.
И все у него бегает. И у меня ничуть не хуже бегать через 3 дня будет.

И вот еще маленькая просьба Всем тем кто говорит АТИ лучше:
Хоть напишите почему она лучше, плиз.
Я ее лучших сторон маловато знаю.
2 Stalker
Ты вот про глюки говоришь, а нибось кроме Rage ничего от ATI у тебя не было. А я вот чего скажу: был у меня ATI Rage 128 Fury, так вот он глючил меньше чем GeForce 2MX. А щас у меня 9600 и глюков нет.

PS: так что если говоришь про глюки, то ненадо наговаривать не имея практического знакомства.
Не было у меня rage и слава богу 8).
И я хз какие ты глюки мог видеть на mx.
Карт ATI не было, а про глюки пи...шь. Наверное от бабки на базаре услышал. А на 2MX не сколько видел, сколько вылетало и зависало.
Непонятно откуда появляется инфа о том, что на gf 6800 gt и ультра имеются различные глюки с играми(например с Far cry и Doom3).
Чтобы узнать то что запорожец г..вно.Обязательно его купить и на нем ездить?

Я не в глуши живу: журналы читаю, к друзьям хожу.
Мне этого достаточно чтоб увидеть глюки на радеонах.

И действительно почему такое пренебрежение к 6 серии?
Где и что у нее глючит? А где тормозит?
На моем Leadtek 6800 Ultra никаких глюков с играми не наблюдается. Поэтому и возникает вопрос , откуда берется информация о каких-то глюках с 6ххх серией. Может быть эти слухи идут от Atiшников, которые уже просто обзавидовались тем счастливцам, у которых стоят GF6800xxx.
nVidia всегда были лучше дорогих Radeon.
Во-первых - цена соответствует качеству (большоооооой плюс)
Во-вторых - производительность мультимедиа гораздо выше
3 - греются меньше => меньше шума
4 - по размерам небольшие (видал я тут у другана Радеончик ПРОшный: мало того что дрова еле нашел под нее, так еще и на ладони не помещается и тяжелая от всех этих радиаторов)

А вообще, я думаю, что если у вас Пень 4, то подойдет Радеон, а если у вас АМД, то Джифорс - самое оно.
Геймеры выбирают АМД и Джифорс.
Спасибо за внимание.
ХАХА, вот рассмешил.

Первые три пункта относятся больше к Radeon. А в конце вообше бред полный. Откуда таких челов берут.
А вон на скриншоте моя видюха только производитель АСУС а не гигабит.
клифи би когда анреал то третий выйдет ? :)))
Минусы Gf последней серии большие размеры и сильный нагрев при работе, а в остальном Gf далеко вперди по сравнению с Ati особенно на высоком разрешении, наиболее приятном для геймерского глаза
пацаны а вот х*р вам моржовый ! я на стороне радеона у самого 9600про. Каталист 4.12 проблем нет мня карта устраивает и пока что то покруче U2 Half-Life 2 Doom 3 не выйдет менять не собираюсь . у самого стояла раньше нВидиа мх4 не понравилась мне карта до мх стояла Рива ТНТ 2 ОООЧЕЕЕЕнь хорошая карт для своего времени ! Пацаны уж давайте без споров просто надоело все это ЧТО КРУЧЕ АТИ ИЛИ НВИДИЯ или АМД ИЛИ ИНТЕЛ хотя доказано что ати и нвидиа практически на ровне идут не считая 5 серии ДФ и 9*** радеона все равно они спорят !!! ну выйдет радеон на новом чипе нового поколения и что опять споры начнуться а ??? то же и с корпорациями производителя процессоров доказано что хоть АМД намного шумнее греется быстрее он все таки по производительности превосходит ИНТЕЛ у самого стоит Сампрон до этого был Атлон а до Атлона Дюрон я не жаловался ни с Ривой ни с Дюроном ни с МХ я вообще не люблю спорит но пойти те же за прогрессом то не угнаться =) седня купил 6800 ультра завтра радеон какой нидь Х950 так было будет и останется ! обе фирмы хороши ! так что не к чему устраивать споры скандалы... а как обычно это доводит до драки ! я\ не прав ???? в БОЛЬШЕМ я за Александра82 а в чем то вы и правы ! делаем вывод еще тот что нВидиа НАМНОГО старше АТИ так что перестанем спорить ! кому нравиться радеон пускай берет радеон кому ФХ ДФ пускай берет ДФ ФХ на этом я закончу
2 Alexander82 --- вот тут ты не прав. В этом форуме уже много раз приводили сравнительные характеристики примерно одинаковых видюх и нВидиа была на шаг впереди, так что утрись со своим танком Радеоном. Нефиг людей обсирать без доводов.
А насчет последних строк - не глупость какая то, а факт (проверено лично).
Лучше работает Пень с Радеоном, чем с нВидиа, а АМД - наоборот (смысл ясен?).
К танку подойдут запчасти от танка, а не от Жиулей.
Спасибо за внимание.
не знаю даже что на самом деле круче...!=\ последние серии GF полюбому лучше, но правда цена отпугивает..., сам с radeon'ом 9600 сижу, и вроде бы неплохо, единственное что не пошло - это Хроники Риддика!=(( обыдно=((
У меня Radeon 9600xt и AMD 2500+, пока еще не было ни одной игрушки которая бы не пошла. Все практически летает.
Судя по форумам у nVidia проблем гораздо больше.
Недавно скачал новые "дрова" для дисплея - встали без проблем.
А вот Catalist почему-то устанавливаться отказался.
to morbo82:
а в Риддика играть не пробовал? а то чё-то он у меня запускаться отказывается...!=( правда хз почему, может подскажешь чего!?;)
to AntiPOP
В Риддика принципиально играть не буду -
уж больно фильм лажный .
Александр ты непрошибаемый, блин.
Чо Хочешь сказать что какой то разогнаный Хххх лучше шестой серии?
она тоже fx.И чо?
Терь к каждой приставке придератся будем.?
ATI-задвинутые идустриальные технологии.
У меня стоит сейчас фх5200. Собираюсь его сменить на ...RADEON и только на RADEON (где то 9600Pro/XT). Почему? Да потому что, если верить статье на IXBT.com после бенчмарка 3dmark2005, где РАДЕОНУ9600 ПРО проиграли: FX5950,5900,5700 и еще какие-то,
не помню. Так вот. Там вывод был такой: Nvidia теперь перестала оптимизировать дрова для FX серии, только для 6 серии идет оптимизация.
Отсюда следует, что старые игры на FX5950,5900,5700 будут летать, в то время как новые в ближайшем будущем будут страшно лагать. Чего не скажешь про АТИ. А чт опро нее говорить. ОНА ЛУЧШАЯ! Я ТЕПЕРЬ за АТИ!
6800ультра-Elder Scrols 4-45-55fps и точка!
Вот что я вам скажу, была у меня раньше GeForse 2 mx 400 64mb, карточка в принципе ничего, на средних настройках тянула довольно требовательные к графе игры, и дрова к ней всего один раз за два года поменял. Но было одно существенное НО... видюха глюкала, причем везде по разному, некоторые игры вылетали на рабочий стол, а старый добрый Call of Duty так вообще иногда выдавал мерцающую картинку с разными полосками по экрану, а о том что комп иногда не хотел загружатся и выдавал протяжные пики так это я вообще не говорю. Конечно по одной карточке сложно судить о всей продукции nVidia, но факт остается фактом.
Поставил себе недавно Radeon 9800, пока все вроде нормально, глюков нету, ни с одной игрой еще не возникало проблем. Единственный минус у этой видюхи, так это то , что она прилично нагревается, да и то только при игре в особо требовательные игры.
А плюсами являются ее безшумность и дешевизна , по сравнению с аналогичной продукцией nVidia. И кто это говорил что ATI дороже?
Gf 6800xxx серия еще не до конца раскрылась. Вот увидите, в ближай шее время новые версии дров оптимизации покажут весь реальный потенциал этой серии. Gf 6800xxx - настоящий прорыв на рынке видеокарт. А в средней ценовой нише Gf вообще вне конкуренции.Достойного ответа 6600ххх у Ati пока нет. Не у всех же есть деньги, чтобы покупать всякие там х800ххх
У многих бабла есть только на 440 МХ, так теперь давай голосить что он самый лучший, потому что дешевый.

Gf 6800xxx - В том то и дело что эта карта хорошая в своей нише 150 баксов. А то что на х800/850 нет денег, значит она говен - это бред.

ЗЫ. что за глупые аргументы.
Ещё мона вспомнить фирму 3dfx. Тож неплохие карточки делала... :-)
Я и не говорил что х800 это гавно. Это крутая карта , но за крутые деньги ( хочется вспомнить х800xt pe за 700 с лишним баксов). У многих просто напросто нет денег на такую роскошь. А вот средняя модель Ati x700xxx уступает Gf6600ххх.Об этом везде пишут и это хорошо видно на многих тестах
все заходите на форум http://ruhelp.com/forums/index.php?mforum=runetclub
И пожалуйста региструйтесь !
Просто форум токо недавно был сделал и мы щас собираем народ
А что, не перевелись на земле русской видяхи от Matrox? Кстати, скоро будет какая-то новая видеокарта третьего производителя, названия вот не помню...
Народ хочу в ближайшем будущем приобрести видяху получше. Свои соображения, конечно есть, но как гриться две головы лучше. Выбор мой пал на следующие svga: 6600gt, 9800pro, x700pro. Все карты AGP (6600 и х700 когда агп появятся?) и 128 мб. Прошу высказываться объективно, а не орать не подумав "Ааа! Бери Нвидию, АТИ-ДЕРЬМО!!!". Заранее благодарен.
Из этого выше перечисленного бери 6600ГТ AGP8x или PCI-E.
6600GT по тестам опережает х700про и =х700хт за тобой выбор.
х700 убирают с прилавков.Неудачный проц как признала сама компания.Ее заменит х800 лайт идишен-денег маловато у АТИ.
Скоро выйдет радеон x850 и все... нвидиа будет сосать по полной,если конечно не даст достойный ответ.
Radeon X850 XT PE судя по разным тестам просто убийца.
2 Stalker
Угу, учту, спасибо.
Кстати, когда АТИ обеспечит полную поддержку ПС 3.0 а не куцих 2.1? И когда х700 будут продаваться а АГП варианте?
Люди что лучше ставить-Radeon X800...илиGforce 6800GT 256mb?
Щас у меня Радик 9600.
И вообще сколько стоит 6800GT,я смотрел вроде 420$?
Sandy ты не указал какая модель х800 ,но по любому лучше брать х800,вообще я тебе советую подождать 1-2 месяца до выхода х850,и денег подкопишь,и очень мощную видюху получишь.Radeon X850 XT PE будет стоить 549$,эта самая лучшая из класса х850.
А всеравно радеона будет без потдержки 3 версии шейдеров в х800 их небыло а в 850 модели их небудет и подавно........Вот такие вот дела...
Я удивляюсь, как можно брать видеокарту без будущего? Это я про Ati.В самое ближайшее время разработчики игр станут во всю применять шейдеры 3.0.А что будут делать владельцы карт от Ati?Правильно! Жадно глотать слюньи.И вэтот момент выйдут новые видюхи Ati с поддержкой шейдеров 3.0. И владельцам нынешних карт(даже х800) придется тратить свои кровные на апгрейд, иначе не полeучат они удовольствия от новых игр.А владельцы карт Gf6800xx, 6600, 6200xx будут только злорадно посмеиваться над братьями своими меньшими и видеть всю красоту игр типа Morrowind 4, не нуждаясь ни вкаком апгрейде. Может быть затягивание Ati с выпуском карт споддрежкой шейдеров 3.0- это специальный рыночный ход конем. Простодушные покупатели выкладывают бабки сейчас а потом выложат еще большие за новые карты
To Truman: насчет цены енто ты загнул я думаю не меньше 600$ тем более что это Platinum Edition!!!

To Chisik: опять за "старые бараны" ??? ATI ЛУЧШЕ nVidia!!! Тем более когда речь заходит о топ модели!!!! И на счет The Elder Scroll`s 4: Oblivion - это владельцы долбанных Жфорсов будут облизываться глядя на ВОСТОРЖЕННЫЕ лица и ВОЗГЛАСЫ владельцев ATI Radeon X850XT PE & ATI Radeon 9600XT!!!!!!
На Ati 9600xt ты восторженно увидишь слайд- шоу.А что тоже неплохо, удобно будет делать скрины.Хотя даже их ты не сможешь увидеть во всей красе без шейдеров 3.0.
Ха! Юморист! 9600XT буде покруче всяких там 6600 и тому подобных!!! Да, кстати, ая тя че за видео???
Я отношусь к тем немногим счастливцам у которых стоит Leadtek gf 6800 ultra.Сейчас эту карту днем с огнем не сыщешь. Я покупал в "Олди".Сейчас там даже не числится. И вообще просто интересовался по разным интернет магазинам либо вообще нет , либо отсутствует на складе. Leadtek вообще меня порадовала, совсем молодая команда, а такую карту склепали. Какая у нее система охлаждения!Такую трубищу редко где увидишь. Единственный минус, как и у всех нвидиа этой серии - большие размеры, заслоняющие свободные Pci cлоты.А вообще ни на секунду не пожалел о истраченных 18 штуках.
to chisik
мы же не в пещере живем, в любом магазине сейчас можно прийти со старой железкой, заплатить разницу в цене и уйти с новой, а если говорить так как ты, то зачем ты купил 6800? подождал бы пол года и 7ххх серия может появилась бы
Че могу сказать...хороша видюха!!! Помню была у меня MSI GeForce FX5600TD 128Mb хочу сказать ничего была видюха!!! Даже бету версию DOOM3 тянула (заметь: слайдшоу не было!) Просто почитав о том что 5700 лучше 5900 я перестал уважать GeForce! А так в целом обе фирмы хороши и каждая по-своему! Самое лучшее у nVidia это чипсеты для матерей!!! А ты из-за нее новый блок питания не покупал? А ты воще откуда, раз говоришь что карта у тебя эксклюзивная получается???
Да, блок питания пришлось поменять. Мин для Gf 6800ultra 420вт.А если меньше то глюки и тормоза появляются. Высокое энергопотребление тоже большой минус последней серии ,gf как и высокий нагрев ес..но. У Ati с этим полегче. А вот по поводу эксклюзивности мей видюхи это конечно перебор. Осенью например при наличие бабла можно было спокойно такую купить, чем я и воспользовался, потратив зараб. летом деньги. А сейчас вообще Gf 6800ultra, не Gt, проблемно купить. Не знаю счем это связано, но каталоги магазинов редко пополняются этими моделями.
Мне лучше иметь в моровинде 80 фпс с радеоном без 3.0 шейдеров,чем 30 фпс с Г.-форсом но с шейдерами 3.0,кстати есть такие вещи которые добавляют в игру шейдеры у видюхи которая их не поддерживает.
2 Dimus X:

По поводу того, что 5700 лучше 5900...
Сравни Radeon 9600XT и 9800SE, точно такая же фигня. Так что довод спорный...

А вообще я больше девушками интересуюсь, чем железом. (-:
Чего и вам всем желаю.... (-:
Не скажииииииии! 9600XT и 9800SE (slow edition) практически одинаковые карты, а 5700 и 5900 причем обе не урезанные!!! Кстати, железо и девушки - вещи не совместимые! Просто тема форума не та... а то можно пообсуждать!!!!
Ну никак не может такого быть!!! Ты где инфу такую нашел? Ну-ка ссылочку... Если правда, то и я может уважать перестану NVidia... (-: Вообще, я слышал, что 5700ultra чуть лучше 5900XT, но чтоб не урезанные...
9600XT лучше 9800SE! Поройся на IXBT в архивах, убедишься!

О девушках:
Мне брюнетки нравятся...
Но я не говорю, что все блондинки - ОТСТОЙ (-:
А мне BloodRayne нравится!!!
И всё -же не знаю что с апгрейдом делать-вроде Радик хорошо-МОЩь;А Жирафов почти все игры поддепживают,да ещё и шейдеры 3.0.
Я в замешательстве.
Я за Nvidia GeForce 6800.Самая лучшая видеокарта на данный момент!
Блондинки красивее! Инфу такую я надыбал в Навигаторе за 2003 год! И я не говорю что у nVidia были обе карты урезанные! Как раз наоборот! И были там 5700XT и 5900XT! Такие вот дела!
Что делать,что делать-Radeon-Gforce-Radeon-Gforce........................................
ААААААААААААААААА!!!!!!!!!!!!!!!!!!!!!
Я не могу выбрать!Они все такие хорошие и милые так и хотят из меня 500$ выманить!
Бери обе карты. Будешь вставлять в слот попеременно.
Ты прав SAND - утром-GeForce-Вечером-Radeon.
Теперь другая проблема-где взять 1200$?
КОРОЧЕ GEFORCE ЛУЧШЕ ЭТИХ ДОЛБАННЫХ,ТУПЫХ,НЕДОДЕЛАНЫХ радеонов.Особенно посмеемся над радеоном 7000-самая плохая карточка.
скажите а 9600 128мб сириес нормальная карта
чем она отличается от 9600хт и 9600 про ???????
и ещё скажите как можно видюху разогнать
и как проверить скака на ней бит,мегагерц и т.п. плиззз выручите
Эти карты все на одном чипе и отличаются частотами
**********************************************
9550 - частоты 250/200(400)
9600 - частоты 325/200(400)
9600 pro ez - частоты 400/200(400)
9600 pro - частоты 400/300(600)
9600 xt- частоты 500/300(600) + термодатчик

Разгон
*********************************************
ставишь драйвер Forsage с www.HardwareLab.ru
разгоняешь прогой ATI Tray Tools с www.Radeon2.ru

Скока бит и мегагерц
*************************************
смотришь прогой Everest с www.lavalys.com
to алесандр82
я скачал форсаж
а чё с другими делать,скажи по точнее
Запускаешь exe файл - самораспаковывающийся архив и распаковываешь в какую либо папку. Далее панель управления > система > оборудование > диспечер устройств > видеоадаптеры > выбираешь видеокарту > правой кнопкой обновить драйвер > нет, не в этот раз > установка из указанного места > не выполнять поиск я сам выберу нужный драйвер > установить с диска > обзор > выбираешь папку куда распаковывал > далее выбираешь драйвер > дальше ничего сложного
Alexandr82
Подскажи как разгон спомощью ATI Tray Tools делать.Я устоновил её,немного бегунки подвигал.
у меня радеон 9600 сириес и драйвер каталист версии 4.8 я установил более новый драйвер саталист версии 4.11(не понятно почему он более новый ведь его коэфитент ниже) и почему-то у меня видяха стала не 9600 сириес ,а 9600 атлансис

скажите это хорошо или плохо,может мне переустановить прежний драйвер ????
2 Sendy

Там даже тест на разгон есть Show 3D Render
Find Max GPU - тестирование на разгон ядра
Find Max Mem - тестирование на разгон памяти

Наблюдай тест до зависания, черного экрана или появления белых точек. И запомни при какой частоте они появились, эта частота у будет критической соответсвенно разгонять надо пробовать на частотах до критической. Еще надо потом в играх протестировать. Если появилось что-то странное, то частоты надо уменьшать.

Я свой 9600 разгонял с 325/200(400) до 400/250(500)
Спосибочки Александр82 я усё понял.Будем разгонять![Между прочим я тоже Алексаедр]
Зае..сь чуваки!!!
В августе у Nvidia выйдут видеокарты на новых 3 чипсета nv48 ,47 ,50.
47 будет мощнее чем 48,так как будет иметь принципиально новую архитектуру.Что касается nv50...
Вобщем 4 шейдеры,и 24 конвеера на самых слабых версиях.Это притом что потенциал 6 серии еще не исчерпан.Причем намного не исчерпан...
В отличиии от серии Х у АТИ.
2 fanatic
А это проверенная инфа?
скажите пожалуйста как розгонять видюху программа уже есть tray tools что ещё надо и как вней разгонять кто знает плиз скажите
Драйвер с разблокированным разгоном Forsage (рекомендую), DNA или Omega
Все проверенное. Просто 1 серия 1 раз в год выходит.Значит в августе будет.А 48 будет может в апреле даже.
Чего-то не выходит у меня с разгноном,чуть-чуть повысиш частоту начинаются глюки(особенно в DOOM 3 всё расплывается).Возвращаешь всё по умолчанию-всё равно в DooM расплывчато помогает только переустановка дров.
Кстати о разгоне! Кто-нибудь разгонял 9600хт (500/300(600ддр))? Я свою разогнал до 540/360(720ддр) Дало 10% мощи (проверял 3Дмарком03). Разгонял на Ati tray tools, Catalyst 4.12. А на 4.9ом еле-еле 510/320 вышло.
В дум 3 все расплывчато из-за настроек OpenGL в режим Fast, а надо в Quality. Расплывчатость не результат разгона.
да вот ещё...я ползнуки двигаю вверх(память с 200 да 250,ядро с 325 до 400)нажимаю скан фор артифэктс,жду 1 минутуне глючит выхажу..вхажу обратно но всё как прежде такие же 202 и 324 - соответственно
да ещё как езменить DAC у меня 400 и не меняется....а все кто разгонял у тех как правило на 100 больше тоесть было 400 стало 500.....кто мне поможет разогнать

Alexandr82

DRIVER-666

и др. профи

помогите!
Я конечно ничего против разгона 9600 не имею.Но..
Может для этого обсуждения отдельную тему отвести надо? А то эта как то совсем не подходит.
Каждая видюха по-своему хороша. У меня ATI Radeon 9800 PRO. Мне вполне хватает, не жалуюсь. Глупости всё это, что дрова для ATI "кривые". Если из-за дров игра тормозит и графика стрёмная и т. д., это не значит, что дрова плохие, а игра - говно. Просто, как я считаю, каждой гаме свои дрова. Надо иметь несколько версий дров, и всё будет OK. Nvidia я не буду обсирать, я знаю, что эти видюхи тоже хорошие.
З. Ы.
На вкус и цвет товарищей нет.
Nvidia 6,7,8,9,серии будет править.
В странах для бедных
Значит и в России тоже.
И вот кстати я ж про то и говорю у АТИ для каждой игры надо ставить свои дрова.И fixы к ним.
Гамал и на ГЕ и на Раде - все что выше FX5700 и 9600XT или Pro (также Matrox Parphelia 550) - способно более или менее качественно передавать картинку и играть с комфортом, а спорить что лучше?! Лучше и прогрессивнее чем появление в свое время карточек 3Dfx пока не случалось ;)
2 fanatic
Опять ты сплетни разводишь про глюки ATI, лучше бы про глюки nVidia рассказал. Стыдно небось ;)
Ну вобщем ничего особого не произошло за 10 лет в мире графики.
Разьве только бесполезные фишки появились типо как шейдеры 1.1 1.4 2.0 2.1 2.0+ 3.0.Ну ковееры стали делится на пиксельные с вертексными.
Если смареть на скрины elder of scrolla 4 то еще фотореалестичная графа проглядывается.
А так ничего не изменилось....
Александр знаешь что?..
Я эти глюки просто не видел. И не увижу.
Зато скоро буду бухать по поводу банкротства АТИ.
Слов нет! RADEON FOREVER и ваще тема форума неправильно написана - видно ламер писал! GeForce ОТСТОЙ!!!!!!!!
Сам ты Dimus X отстой.А если нет то докажи почему ATI круто ,а Nvidia отстой.
Или на это ни у кого мозгов не хватает?
А кричать то что ATI - круто ,бесполезно. Это форум здесь оспаривать хотя бы мнение надо, а не как на балагане выкрикивать бесполезные куски фраз.
Драйвера версий 4.3-4.7 не рекомендуются. Возможно мелькание треугольников и в некоторых случаях – зависание программы.
Для карт серии x800 – с Catalist 4.8
На этой версии могут возникать следующие проблемы:
- Темный цвет воды в режиме «Великолепно» (режим Water=0, Water = 1)
Используйте Water = 2 - Нормальны цвет, но работает медленнее.
- Блик на стеклах кабин самолетов будет иногда частично пропадать
при приближении бликующего элемента к краям экрана
- Возможны небольшие дерганья (задержки) во время игры

Вот вам.В каждой игре можно подобное найти.
ХЗ Я братцы не геймер, поэтому скажу со своей колокольни (как все здесь делают). У меня GF MX440, ацтой, но мне хватает потому что я сижу под Линуксом, а на Винду вообще давно забил вместе со всеми играми - ну их нахер! На работе тоже Линух стоит, винда - маздай, не уважаю :)) Раз под Линухом сижу, поэтому мне приемлемее nVidia, т.к. она хоть дрова клепает под Unix-системы в отличие от АТИ (хоть под маздай нормальные сделали бы что-ли), вот так...

а вообще про пустое вы тут трепетесь, типа - кто лучше кто хуже... ХЫ :)) Вы еще тут топик завели бы про камни, типа AMD vs INTEL, вообще будете до конца 2005 года спорить, хоть будет чем занятся :))
скажите а радеон 9600se 128мб и 128 бит нормальная карточка при компе р1600, 256 оперативы....и поддерживает ли она эти шейдеры 3.0 и dx9.0
пожалуйста скажите
Radeon 9600SE 128bit не бывает, тока 64bit. Cоответсвенно 9550 128bit будет быстрее, особенно если разогнать.
2 Fantac, уверенного что ATI очень глючные. Если не знаешь английского то спорить на технические темы с тобой далее не уместно.

ForceWare v66.93

Нерешенные проблемы в Version 66.93
******************************************************************************************
As with every released driver, version 66.93 of the Release 65 driver has open issues and enhancement requests associated with it. What follows is a list of issues that are either not fixed or not implemented in this version. Some problems listed may not have been thoroughly investigated and, in fact, may not be NVIDIA issues. Others will have workaround solutions.
• GeForce 6600/6800 128MB: 3D Mark 2003 demo mode results in an out of memory error at 1600x1200x32 with 4x antialiasing enabled. This is not a bug. The problem occurs because there is not enough memory to run 3DMarkO3 in this mode with a 128MB board.
• Single display modes such as TV only, DFP/LCD only or CRT only provide the best performance and quality from Windows Media Center Edition. Dual display modes such Dualview and nView Clone and Span modes are not recommended.
• When using the trial version of WinDVD 6 from InterVideo.com, you may experience TV or DVD playback problems in Windows Media Center if you change resolutions during video playback. This is most often seen when switching from windowed to full screen mode. This problem does not occur with the latest full OEMversions of WinDVD or with other Windows Media Center qualified DVD decoders.
• GeForce 6800: Code Creatures Benchmark shows screen corruption at 1600x1200x32 with 8x antialiasing enabled. A fix for this will be included in the next driver release.
• GeForce 6600: Artifacts appear in the intro videos and during game play in Tomb Raider: Angel of Darkness at 1600x1200 and with 4x antialiasing enabled. A fix for this will be included in the next driver release.
• GeForce 6600: Minor flickering in Return of Wolfenstein: Enemy Territory when antialiasing is enabled at high resolutions. A fix for this will be included in the next driver release.
• GeForce4 Ti/GeForce 6800: Command and Conquer: Generals has corruption when both antialiasing is enabled in the NVIDIA control panel and in-game image quality is set to "High". A fix for this will be included in the next driver release.
• GeForce 6800: Aspect ratio is incorrect when movie transitions from 4:3 to 16:9 playback using PowerDVD5 Trail (download from the Cyber link Web site). This is an application issue. The problem does not occur with other DVD players.
• If you perform a clean driver installation (no previous NVIDIA drivers installed), you must reboot your computer. If you do not reboot, the predefined application profiles will not be activated and you may experience application stability problems.
• GeForce2, GeForce4 MX, Windows XP: City of Heroes crashes to the desktop intermittently. This is not an NVIDIA bug.
• Windows XP/2000: Clone mode may be set for the GeForce FX 5600 although only one display is connected.
This setting causes a drop in the performance of 3D applications. The workaround is to use the NVIDIA control panel to reset the system to standard mode from clone mode.
• Windows XP, GeForce FX 5950 Ultra: Homeworld2 antialiased performance is slow. This is not an NVIDIA bug, but is a known issue with the application. A game patch 1.1 is available at ftp://ftp.sierra.com/pub/sierra/homeworld2/ updates/homeworld2 update en 10 ll.exe.
• Windows ME: CodeCult benchmark does not run properly. This is not an NVIDIA bug.
• GeForce FX, Windows ME: Gunmetal Demo intro movie does not display properly. This is not an NVIDIA bug.

Решенные проблемы в Version 66.93
*************************************************************
Significant issues resolved in driver version 66.93 are listed below:
• Windows XP, Quadro FX 3400: CATIA - Extra lines displayed on Structural Anlaysis.
• Windows XP, Quadro FX 3000, IBM T221 panel, DG5: Desktop appears elongated when HRSD is selected.
• Windows XP, Quadro FX 4000: Main grid is corrupted when starting Lightwave 8.0/7.5.
• Windows XP, GeForce FX 5700 Ultra, GeForce 6800: Corruption with vehicles and clouds in Sim City 4.
• Windows XP, GeForce PCX 5750: Command and Conquer Generals back screen is white (or green).
• Windows Media Center Edition: Live TV or DVD playback may stall or stutter when using the "Smart" deinterladng setting in the NVIDIA DVD Decoder.
• GeForce FX 5200, Windows NT 4.0: Crash in Quake3 ver. 1.32 with Multiview.
• GeForce 6800, Windows XP: Corruption in the Far Cry loading screen before the map loads at 1600x1200x32 or greater resolutions with antialiasing enabled.
• Quadro FX 4000, Windows XP, Lightwave 8.0/7.5: Main grid is corrupted on startup.
• GeForce FX 5950 Ultra, Windows XP: Deus Ex 2 door button shader disappears.
• GeForce 6800, Windows XP: Corruption after screen shot attempted with antialiasing enabled in Far Cry.
• GeForce 6800: Cannot set refresh rate of 48 Hz for 3840x2400.
• Quadro FX 1100, Windows XP, Autodesk Inventor 8: Mipmapping is broken.
• Windows XP, Quadro 400 NVS: Non-admin accounts can enable multiview, but an error message appears after rebooting the system.
• Modo application crashes with GeForce Products.
• Windows XP, GeForce 6800: Microsoft Rallisport Challenge performace drops with antialiasing and lens flares enabled.
• Windows XP, Quadro NVS 200/280: Roaming profiles cannot be read or written.
• Windows XP, GeForce4 Ti: Kohan 2 has missing geometry.
• Wndows XP: Manual downclocking does not work but locks to the defaults.
• Windows XP, GeForce FX 5700 Ultra, GeForce 6800: Corruption with vehicles and clouds in Sim City 4.
• Windows XP, GeForce4 Series, GeForce 6800: Fog problems with Men of Valor.
• Windows XP, Windows 2000, GeForce FX 5950: When the digital display is the primary in Clone mode, both TV and DFP are black upon resume from standby.
• This driver now supports PCI Express under the Windows NT 4.0 operating system.
Угу. А я вот сто лет назад купил себе GеForce Ti 4200 и до сих пор у меня гамы идут без глюков и тормозов... А на ATI найти дрова обычно проблема - просили найти для ATI Rage - задрался рабочую версию искать - тупит, тормозит, часть текстур не отображает... Понятно, что карточка старая, но, к примеру, на таком же старом GF-2 те же самые гамы шли просто шоколадно.
+ проблема совместимости. Та же "рива" нормально попрёт на новых дровах для титашек и FX-ов, а ATI-хам нужны родные дрова, да ещё и поддержка отошедших карточек прекращается практически сразу после прекращения производства... Качество прорисовки меня волнует постольку, поскольку это не мешает работать, так что дешёвые и безглючные Г-форсы для меня лично предпочтительнее.

Ваши споры, господа, напоминают мне старинный анекдот: "Прикинь, какой я галстук себе купил! Штуку баксов стоит! Да ты лох!!! Я ТОЧНО ТАКОЙ ЖЕ купил за ТРИ ШТУКИ БАКСОВ!!!". Если проводить параллели: дорогая машина! Вездеход! (а тебе не нужно съезжать с асфальта!), пять пепельниц! (а ты не куришь!), специальное детское сидение! (а ты холостяк!)... Как будто видюхи покупают для того, чтобы выдавить побольше очков из 3d Mark-a...
Б**! Fanatic сидит на долбанном Gforce и радуется! Мол, приведи мне примеры! Вот и приведу: у меня дрова версии 4.3 для моего ЛЮБИМОГО RADEON`a и игрухи просто летают, даже в тех местах где Жфорсе тормозит!!!! Так что иди на пенсию со своим GEFORCE`ом!!!!!
P.S: Насчет треугольничков и всякой лажи - ето ты зря! НИРАЗУ их НЕ ВИДЕЛ! И стоят у меня эти дрова давно, с момента официального релиза!!!
2 Bianor
Сравнил GF2 и Rage, тоже мне. Rage намного больше лет чем GF2 и она скорее сравнима с Riva128. А с GF2 скорее Radeon 7500. А официальные дрова щас тока для Rage Pro, Rage 128, Rage 128 Pro и Radeon. Я сам лично имел дело с Rage 128 и не такая уж она и глючная была по сравнению с GF2, который был у меня потом.
Dimus X. Про треугольнички не я писал.так написали в реадми файле в каталоге с ил-2 перл харбор. Хочешь я буду спецально из каждой игры такие ридми доставать? Там про АТИ багов на миллион наберется.
Что касается 66.93 то я их не ставил. У nvidia есть переходные версии дровов хреново работающие.Только за ними через 3 дня появляются другие нормальные.
66.93 Официальный WHQL релиз
У меня вот Ge forse 5600XT.Но говорят ATI лучше.
Александр82
почему у 9600 64 бита
смотри:
Hardware Information
Installed memory 128 Mb
Memory Type DDR SDRAM
Memory Width 128 bit
Active Rendering Pipelines 4
128bit - 9600
64bit - 9600SE
у меня 9600se и у меня 128 бит
у меня программа есть гже все сведения о системе пишут...там написано что 128 бит
скажите а 9600se потдерживает директ икс 9.0 и шейдеры 3.0 ????????????????????????
С чего ты взял что у тебя 9600se, они тока с 64bit памятью бывают. Проверь программой Everest или ATI Tray Tools. DirecX 9 поддерживает, а шейдеры 3.0 нет.
как с чего я взял....я же когда покупал знал наверно что беру....и tray tools я проверял
Я за ATI. У самой Sapphire Atlantis R 9600.
Александр
Я тебе послал по мылу скриншоты.там глюки самые красивые.
У меня еще есть но тока мыло больно уж здоровое получилось.
Дрова стоявшие во время скриншотов были 4.9 с fix для дума3.
2 adenoma
значит продавцы не знали что продают, и тебе очень повезло что это полный 9600

2 Fanatic
Я тебе свой шот из Morrowind выслал
Ну вот.
Отсюда выводы 9600 самый удачный чипсет.
А остальные глюки ты сам видел.Потому я и отношусь так к АТИ.

Может то что я щас скажу и глупость но всетки скажу
Если у АТИ сразу 4 фишки на то чтоб увеличивать производительность и все исключительно находятся в чипсете. То скорей всего графа как то поджимается,подрезается,кастрируется, хз как сказать. : ). Ну не может быть что все эти разгоны влияли на игры безнаказанно. Скорей всего от этого все глюки.
Тоесть буквально каждую игру надо "учить" как пользоватся АТИ.Иначе получается глюк.
2 александр82 почему ты говориш что у меня полный 9600 а не сирийный ???я его брал за 3000 рубликов в КЕЙ ,как я слышал у тебя полный 9600....скажи за скока ты его брал
Бли.Аденома купи себе 6600 или 6300 с turbocache и не парся. Те же 3000 рубликов. А что лучше, можно понять по тех.характеристикам и тестам.
9600 (128bit memory) ~ 100$
9600SE (64bit memory) ~ 73$

SE - вроде Simpled Edition или типа этого
Что nVidia, что ATI никогда проблем не было.

ЕСЛИ РОЖА КРИВАЯ, НЕЧЕГО НА ЗЕРКАЛО ПЕНЯТЬ!!!!!!!!!!!
ЧАЩЕ МОЙТЕ РУКИ И ЧИТАЙТЕ УМНЫЕ КНИЖКИ И ТОГДА ПРОБЛЕМ НЕ БУДЕТ НИ С КАКОЙ ВИДЕОКАРТОЙ!!!!!
Я по дурости спалил радик, но не гнать же мне теперь, что нвидиа лучше, НИ ХРЕНА НЕ ЛУЧШЕ!!!!!
Сейчас оба производителя подошли примерно к одному уровню и практически ни в чем друг другу не уступают,
поэтому высчитывать 1-2 фпс практически не имеет смысла...........
Берите x800 pro.Мало греется, не надо блок питания новый. И есть большая возможность разблокировать 4 конвеера и получить самую мощную видюху на сегодняшний день. Я совершенно не уважаю жифорсы,т.к видюхи туфта,только умные маркетинговые ходы.Они умеют впаривать.Сунул неньги-игра под жифорсы.А потом еще говорят они лучше.
x800? Ты ее купи разблокируй конвееры, и сиди радуйся так как unreal 3 никогда не увидишь. дело даже не только в unreale 3.
А так вобщето Nvidia делает не маркетингвый ход, а дает гарантию что игра на geforce будет работать отлично и без глюков.
Туфта это АТИ т.к умеет только разгонять видюхи а нового нихрена не умеет.
И потом почему нельзя купить 6800 от гэнворд и разогнать ее на 200-300 Mhz ? Причем програмно с утилитой которую дает сама же фирма. И получится то что 6800 дерущая х800 будет драть ее еще в 2 раза больше.
2 Fanatic
Unreal 3 сам не скоро увидишь и GeForce 6x00 будет скорее всего слабоват для него, надо будет что-то мощнее.
Кстати игры со значком nVidia не раз глючили на GeForce, так что это реклама. А вот если видишь значек ATI то не будет ни каких проблем это точно.
Где это ты видел разгон на 200-300MHz
Именно! С Radeon`ом глюков нет! А вот с GeForce`ом.....Ж*ПА полная!!! Еще раз ПОВТОРЯЮ для ГЛУХИХ и СЛАБОВИДЯЩИХ: купил я Radeon поставил свежайшие дрова на тот момент(полгода назад) и НИ ОДНА из игрушек типа живописного FarCry, г*вяного DOOM 3, ВЕЛИКОГО HALF-LIFE 2 и им подобные не тормозили и шли безо всяких глюков!!!!!! НИ РАЗУ я под какую-либо определенную игру Radeon не настраивал!!!
Будущее за RADEON`ом!!!
2 александр82
а как ты можеш обяснить что у меня 960си и 128 бит
Hardware Information
Installed memory 128 Mb
Memory Type DDR SDRAM
Memory Width 128 bit
Active Rendering Pipelines 4
там же ведь не 64
Значит у тебя 9600. Проверь прогой Everest
С GEFORCE ГЛЮКОВ МЕНЬШЕ,ВО МНОГИХ ИГРОВЫХ ЖУРНАЛАХ ПИШУТ:ОБЛАДАТЕЛИ КАРТОЧЕК ОТ ATI В ТАКОЙ ТО ИГРЕ МОГУТ ИМЕТЬ ДЕЛО С ГЛЮКАМИ.А ТАКИХ ТО ИГР ОЧЕНЬ МНОГО!!!
н2 александр82
дай ссылку пожалуйста на эверест
2 александр82
нефига там скорость 544 байт в секунду
это комовское соеденение
у меня ati radein 9600 pro офигеть ваще рульная карта!
Имея в наличии P4 2.4 (533), 1024DDR PC2100, ASUS V8440 DeLuxe (Nvidia GeForceTi4400), гонял ХЛ2 все на хай с AF2x и AA2x очень плавно. Тормоз был всего в 2х-3х местах.
Насчет глюков - они есть у всех, менятся со временем от драйверов и патчей к приложениям. Но есть и аппаратные глюки - так например у моего друга на карте ATI Radeon9500 при частоте 100Hz начинают "гулять" вертикальные волны по монитору. Дровами не лечиться.

PS Думаю на своей системе еще годик посидеть, а там и не апгрейд деньги заработаю. Буду брать ессено Nvidia, причем только от ASUS.

PSS Если покупать карту сейчас, или на недалекое будущее, то это Nvidia. Хотя бы из-за SM3.0.
ATI совершила один раз революцию с Radeon 9500/9700? Nvidia лажанулась с GeForce 5xx0. Сейчас силы равны, но у Nvidia больше потенциал.
Волны у него от разгона.У меня тоже такая хрень.Кстати походу они появляются,когда сильно память на видюхе разгоняешь.
А в журналах мало ли что пишут. Половина сайтов,которые тестируют видюхи имееют спонсора nvidia.Неужели ни понятно почему у них она работает быстрее? И кстати хер разгонить жифорс на 200-300.Если даже такое возможно,то придется черт знает какое охлаждение ставить.У моего друга было ti 4600.Мой старый радик 9600 дрючил её по страшному.И купил его дороже всего на 100 рублей.
И еще. Я так смотрел,смотрел на скрины из Фар Края и не особо много отличий нашел у шейдеров 3.0 от 2.0. Может плохо смотрел?
Кстати знаете почему людям нравится nvidia? Потому что от всякой реклами и невероятных тестов им вскружили голову.Это тоже самое типа пенька и атлона.
Я тоже когда-то был поклоником GeForce'ов и орал что они круче, но попробовав Radeon я тут же утихомирился. GeForce'ы не отстой - их тоже не из говна лепят, но Radeon'ы будут на порядок выше.....
Ну выпустила Nvidia шестую серию GF'ов, ну поддерживают они шейдеры
3.0, ну и т.д и т.п. А вы чё думаете в ATI дебилы сидят? Вы чё думаете
они так просто свои позиции сдадут?
Dimus X ты орать прекратишь? Поведай чем же ATI лучше? Я то могу про nvidia практически все расказать.А вот ты помойму относишься к разряду ламеров которые тока орать могут,а сам нихрена не знаешь.
Что вы хотите от фаркрая ?если там патч который меньше 100мб весит то естественно он ничего не сделает.Он просто обеспечил поддержку 3.0.
Но это не значит что воду или стены он менял под 3.0 шейдеры.

А что качается охлождения то оно уже там стоит. расчет именно на беспрепятсвенный разгон.Хотя 6800 и так все дерет.
Блин и неужели я раньше не писал раньше, что unreal 3 тестили именно на первых 6800 с 256мб ddrI. Там было 45 фпс. Этого мало?

АТИ конечно сделает свое "чудо" взятое с основы r400. Вот тока за этим выйдет nv48, а за 48 через 2 месяца 47.Ну а в августе уже и 50 с программируемыми шейдерами (можно сказать по типу 4.0 ps).

Или все скажут зачем нужны 4 шейдеры?

А АТИ БУДЕТ ТОЛЬКО РАЗГОНЯТЬ СВОЮ R520.
to Slik
этот чувак (мой друган) понятия не имеет что такое разгон. И об этой проблеме я узнал с сайта ixbt.com, до этого пинял на монитор. Скрины ты смотрел плохо. Если ты не видишь разницу между FarCry 1.3 SM3.0 HDR и FarCry SM2.0b, то мне нечего сказать,... посоветую сходить к окулисту. :) Сходи сюда http://www.ixbt.com/video2/fc13-p1.shtml или посмотри Unreal3Engine, например.
to Диктатор
В Ати дебилы не сидят иначе не было бы Radeon 9500 и далее. В Нвидиа тоже дебилы не сидят.
НО GeForce 6800 был показан раньше, чем Х800, а по функциональности => перспективности он лучше, На лицо отставание АТИ. (говорю не о скорости, а о функциональности - для меня различие в 5-10 fps не существенно)

to Fanatic
про Unreal3 - по слухам, для идельной работы ему надо 512мб видео



О следующих версиях чипов - см новость от 13.12.2004 на www.overclokers.ru
45 fps в тесте это мало. Ведь в тесте все запраграмировано, а когда играешь еще ресурсы расходуются на героя и всякие события происходящие в игре. Надо где-то 100 fps в тесте чтобы было 40 fps в игре.
Это конечно так но там разрешение стояло ни как не меньше 1600*1200, экран во какой был. И 6800 простая была.
Я имел ввиду,что большой разницы нет у шейдеров.Это тоже самое как 64 бита поддерживает процессор или 32.Купил я себе процессор с 64 битами.А он мне нужен? Вот в чем вопрос.Все равно, пока повсеместно появятся 64 бита,мой процессор устареет.Там же и 6800. Пока появятся третьи шейдеры, уже будет седьмая серия.Но все равно как не крути простая 6800 не соперник 800pro.И притом очень сильно отстает от нее.Ходил я в магазин с ней вчера.Тестили на 2003 3д марке.6800 отстает от моей на 2000.Правда ни одна из видюх не была разогнана.Даже гляньте тесты.Любые.Везде она отстает.Мне моя видюха нравится и работает хорошо.Лагов нет ни где.Я конечно не отрицаю,что 6800 хороша.Я сам себе такую хотел.Только не простую,а GT.Но потом прикинул,зачем мне шум,новый блок питания.Ради чего?Ради тоже,чтобы шейдеры эти лагали.Отдавать деньги не знамо за что.Все равно,когда они появятся, видеокарту можно выкинуть на помойку.
64 бита будет актально с выходом Longhorn'a (опять отсправляю на ту статью с overclokers.ru).
с SM3.0 иная ситуация. Скажем в мае должен выйти СТАЛКЕР с SM3.0 , до него еще что-то будет на SM3.0 Хочешь наслаждеться максимальной графикой? Тогда GeForce 6800. Хочешь гнаться за лишними 5-10 fps и плюс пару тысяч "попугаев" в синтетических тестах - Х800. Чипы от Ати быстрее обрабатывает шейдеры, а от Нвидии - тени, и возможностей у них больше (тесты GeForce&X800 на Doom3&Half Life 2). Если смотреть с точки зрения зравого смвсла и разумного вложения денег - то лучше карту из линейки последних джефорсов.
''крути простая 6800 не соперник 800pro'', интересное у вас сравнение, товарищ Slik. ПРОСТАЯ против PRO :D
радион плох тем ,что под его маркой выпускают видеокарты с таким же названием ,но качеством ниже (sapphire например)
ну где вы видели видеокурту 9600 за 3000 рублей,а если бы это было чисто от ati ,то она бы стоила на 1.3-1.5 раза дороже..
так же у радеона помощнее чипы будут(r350 хорошо себя зарекомендовала...r350 это 9600 про,хт)
Все эти r350 уже давно "вышли из моды".
Кстати интересно, я тесты смотрел мне не показалось что там х800 везде выигрывает. В unreal 2003 ,в Tomd Raider Ну пожалуй на этом весь выйгрышь у ATI (самый заметный) заканчивается. Я видел конечно были игры в которых где то на 1-5 фпс разница была ,это я в счет не беру. Но со стороны nvidia есть хало и дум3 .Тоесть вобщем ничья.
Только не надо так ps3.0 в расчет не брать, они очень даже заметны ,например: Перл Харбор (дополнение к ил-2).
Я сравнивал потому что кто то заливал, что 6800 простая обгонит x800pro, разогнанная на 200-300 MHz.Вобщем берите, что хотите.Но у меня всегда был Родеон и я знаю,что это лучшее.Мне все равно, что стоит у других.Главное, что стоит у тебя.На данный момент серия x800 лучше, быстрее и экономичнее.Тем большее, что хит сезона халфа заточена именно под родеоны.Конечно сейчас выдет новая игра,заточенная под жифорс,но скоро выдет и x850.Это гонка бесконечная.И в ней нет явных лидеров, также, как и явных проигравших.Все две фирмы сильнее в определенном плане.
Лично я за NVIDIA. Эти карточки всегда отличались хорошим качеством, когда ATI обычно заманивала ценой. Но мне хотелось бы заметить, что в последнее время ATI стала выпускать более хорошие карточки, но несмотря на это мне кажется, что NVIDIA всё-таки опять покажет класс, как это в своё время сделала их GeForce 256.
P.S.: Раз уж упомянули, что ATI Radeon X800 заточена под HL2, то я на это могу сказать что NVIDIA сделана под DOOM 3.
To Fanatic: Е-мое, ты кого ламером назвал, а??? У меня появился первый комп тогда когда ты под стол пешком ходил!!!!!!!!!!! Насчет примеров - почитай журналы, а хотя что их читать... у них, как заметил один товарищ, все статьи nVidia`ей подкуплены! Вообщем Radeon для людей понимающих что к чему, и не любящих выкидывать бабки "на ветер"!!! Зато если купил себе карту, так ее мощности хватит на несколько лет вперед! И в крайнем случае можно прибегнуть к разгону, потенциал Radeon` ов позволяет этим заниматься!
З.Ы.: пошли нафиг эти сраные шейдеры 3.0! Кто умеет делать игры тот сделает их так, что все будет прекрасно и на шейдерах 2.0!!!
to Slik
то же самое я написал в своем первом посте, так что peace. :)

to DIMUS X
Если продолжить аналогию - пошли нафиг эти сраные шейдеры 2.0х! Кто умеет делать игры тот сделает их так, что все будет прекрасно и на шейдерах 1.х!!! А если еще дальше - пошли нафиг эти сраные шейдеры! Кто умеет делать игры тот сделает их так, что все будет прекрасно и без шейдеров. Регресс налицо. А технологии не стоят на месте.
Вообще ситуация с шейдерами получучается почти по Чехову: если ружье висит на сцене в первом акте, значит, когда-нибудь оно выстрелит.
А я хотел спокойно поговорить...
Dimus X
Это у кого потенциал? Та знаешь зачем или хотябы как сделали х850? Или может догадаешься почему там кулер стоит ограменный по сравнению с другими х800? Могу сказать:
1)с серии 9800 АТИ занималась чисто разгоном. Получился х800.
2)Когда 6800 обделала х800, АТИ решила еще сильнее ее разогнать (хотя непонятно куда еще)
3)Получился кусок выжатого лимона.... ПРЕДСТАВЛЯЮ.... Х850!!!
4)Какой у нее потенциал ,мать его, если у нее от перегрева (даже с таким охлаждением!) артефакты на экране через 5 минут?
Тоесть конкерето АТИ занимается только разгоном частоты, и причем давно.
А за компом я сам уже сижу 10 лет. Повидал многое.

И говорите пожалуста спокойнее.=)
Дайте же Fanatic'у кто-нибудь очки, а то ему везде артефакты мерещатся. Он наверно пока 10 лет сидел артефакты выглядывал ослеп совсем. Че то я нигде не видел в обзорах разговоров про артефакты. И разгоняется x850XT PE с 540/1180 до 570/1240.
На видеокарте x850xt pe прирост виден в тяжёлых режимах относительно x800xt pe
Про артефакты ничего не слышал
Вобщем от того что вы написали ничего не меняется. х850 это разогнаная х800. А ссылку с картинкой я выше давал, там про все сказано.
To Fanatic: "Сидит ворон на дубу и играет во трубу!" я бы так сказал про тебя! А на счет X850XT ты ее сам-то хоть держал в руках??? Или опробовал ее, чтоб так говорить??? Опираться на журналы - это тупо! Ведь в системнике не одна видюха? - Не одна! Следовательно на качество и наличие всяких артефактов влияет и остальное (проц+опера) То есть на каждом ПК видюха может себя вести по-разному! Енто я пишу про опираемость на сведения журналов и всяких статей! ВЫВОД: тестируй сам на своем ПК, а потом уж говори что есть good!!!!
to morbo82
Графика DOOM'а - шедевр, и если это "АЦТОЙ", то будь готов видеть его во всех хитах, т. к. я уверен что движок этой игры будет использоваться во многих играх.
P. S.: Мог бы привести аргументы, чем так крута ATI.

to DIMUS X
Fanatic прав, говори поспокойнее.
Мать вашу! Я СПОКОЕН! Я веду это все к тому, что сначала САМ протестируй, а уж потом говори! Нечего опираться на статьи журналов и всего прочего! Надо изучать все на своем опыте! Я года 3 назад тоже кричал и что-то подобное писал про GeForce(foreva, ati отстой)! Но с личным опытом я понял, что продукция ATI (видео) во многом превосходит своего конкурента!!!
Ладно, ладно, ладно. Возможно ты и прав, лично я не тестировал GeForce 6800 и Radeon X800, а говорю то, что знаю
asketic
Ati круче хотя бы потому уже, что при запуске даже самой распоследней лажевой игры не приходиться глазеть на ее логотип!
Продукция Ati не нуждается в поддержке своего авторитета в отличии от своих конкурентов. Понятливые люди безо всяких там грошовых реклам знают, что покупать ;)

А графика в думе все же АЦТОЙ ! Не понятно чем там нужно наслаждаться - оттенками темноты ?
2 asketic.by
Кому нафик тормознутый движок Doom 3 нужен.

Для любителей ATI

x850XT будет под AGP
Так это я Fanatic`у объяснял! А к тебе Asketic.by я претензий не имею! Ты наверно не так понял - к кому я эту речь толкую!
Ребят,подскажите где в Москве самый большой ассортимент компьютерных комплектующих по самым приемлимым ценам?
Был бы я москвичем, то подсказал бы! Вот по Питеру могу рассказать!
to DIMUS X
То, что кричал 3 года назад так и было, тогда Nvidia доминировала. Сейчас, на мой взгляд, паритет.

to morbo82
Не прав, у Ати есть заставка ATI: Get in the game или около того.

to Alexandr82
про двиг Д3, скорее всего он будет востребован. Тормознутость тут не всчет, скорее всего сработает принцип - Когда сделаем игру железо станет помощнее.
Ничего другого от Ати ожидать и не следовало: разогнать имеющуюся топжелезяку, перевести на массовую шину агп и вперед! собирать бабло. Скорее всего следующий шаг Нвидии будет анологичен: разгонят их топжелезяку, назовут тпи GeForce 6900 Ultra, и вперед! обирать бабло.
А смысл брать Radeon? Если все-равно Radeon по возможностям проигрывает GeForce'y
Какую видеокарту вы посоветуете купить ориентируясь на сумму не более 6000р. ?
2 chisik
на Савеловском рынке

2 GREMeZ
например на движке HL2 Bloodlines вышел, а на Doom 3 что?

2 patron
Radeon 9800 256bit
более достойного для AGP за такую цену не знаю
Как там ATI со своим x800 ! :)
А вот nVIDIA со свойм мощным GT 6600 Ultra !
nVidan Рвёт ATI в сухую
Это синтетический тест ! :) А как оно реально работает не узнаешь пока бабло не выложишь за обе видеокарты. Под тесты все что хошь оптимизировать можно !



А вот RADEON "опускает"NVIDIA!
Я себе просто собрался достаточно дорогую машину покупать и думаю чёже взять:вообще у меня выбор между radeon 9800 pro-se и джифорса 6600 GT (они стоят в пределах 6000р.) на некоторых "железных" сайтах почитал их сравнения но чето решения так и не принял.
to Alexandr82
Quake 4 в разарботке

to morbo82
Выложи тест Doom3 и подпиши А вот NVIDIA "опускает" RADEON!

to patron
сходи на ixbt посмотри 3Ditogi рейтинги перспективности и полезности
http://ixbt.com/video2/itogi-video.shtml
Я бы GeForce взял.
GREMez
Так я про то и говорю (почитай над рисунком)

Но в любом случае RADEON -THE BEST !
А движок "дума" иначе как "Тормоза во Тьме" и не назовешь!
Да и кому нужны 3-и шейдера? Они еще 2 года на фиг не понадобяться. Да и проццев чтобы их тянуть в "бытовых" условиях пока не придумали! А к тому времени все это "железо" нужно будет тока на свалке.
Абсолютно, с тобой morbo82, согласен!!!
Привет Люди я Cyber =)
Тема то ишо нездохла !=)
я Дажи чучуть этому рад:))
Тема вечна....
Только вот острых углов уже почти не осталось. За столько времени они уже с к р у г л и л и с ь по-моему:)
Вроде риддик сделан на движке дума 3,хотя мне проверять влом. Мне не то ни другое не понравилось 8).

Логика поклонников АТИ мне понятна. Пока у АТИ 3.0 нету, то эта серия ps никому не нужна. Как толькона r520 их покажет вдруг окажется, что как же все без них раньше жили, и 2.0ps отстой.
Игры уже все смогли показать на 2.0. Я не говорю что это некрасиво, просто у программистов есть возможность двигатся дальше с 3.0 .
Кстати не стоит забывать про CineFX3.0 это не просто маленькая фишка. Она дает море возможностей с графой.
Вобщем вот так.
5 серия скорей всего тормозила там где использовались ps всех версий одновременно. В недалеком прошлом такии игры в основном и делали.
Рассмотрим например farcry в нем помимо 2.0 есть и все предыдущие одновременно. Скорей всего Nvidia обробатывала отдельно каждую версию ps и от этого были все тормоза. Возьмем HALO в нем используются конкретно одна версия ps, и никаких тормозов нету. Да вобще во всех играх где ps переключался конкретно тот какой выберешь nvidia не тормозила. У АТИ вероятно устроен чипсет по другому.
Это все только моя догадка, про это я ничего не слышал и не читал.
В Halo по умолчанию PS 1.4 используются, а для PS 2.0 надо команду к exeшнику добавлять в ярлыке.
Задолбали спорить. Берите 3dfx или ATi с nVidia одновременно и меняйте каждый день.
Неважно чо там в хало,я просто пример привел. =)

Я к тому веду, что на 6 серии не будет с ps то что было в пятой из за них т.к :
1)Технология оброботки у nvidia поменялась и ускорилась (8 ops\pix)
2)Игры будут делатся только с раздельным использованием шейдеров. Или только 2.0 с 3.0. Скорей всего будут также как в риддике делать раздельное врубление ps.
3)nv40 под ps 3.0 затачивали.
Сперва мне бы хотелось сказать что Риддик сделан не на движке Дума 3. А вообще попробуйте подумать, если бы у вас был выбор, то какую карточку бы вы купили, GeForce 6800 или Radeon X800? Как правильно отметили третии шейдеры будут использоваться ещё не скоро, но видеокарта покупается не на один день. Я бы взял GeForce 6800 потому что за третими шейдерами будущие, а вторые исживут себя как и первые. В общем покупайте GeForce 6800 и следующие три года живите спокойно.
У меня такое же мнение, только 3.0 выйдут скоро.
В ил-2 уже есть 3.0. А так до весны туча игр должна быть.И надеюсь сталкер будет тоже не позднее весны.
Я только одно не понимаю.Это рассуждение людей.Вот возьмете вы шейдеры 3.0. Так пока выдет что то стоящее на этих шейдерах, можно взять видюху и отправить в форточку.Ведь карты меняются постоянно, требования возрастают.Может только ультра сможет через год выдавать нормально графику.А остальная 6 серия.Она же устареет.Как вы это не понимаете.Кстати я вот, что заметил.Люди вобще ничего не знают.И если у них стоит одно, то про него они и говорят,если другое, то про него.Кстати может люди не знают, что драйвера, которые сейчас выходят на жифорс адаптированы на 6 серию.На ОСТАЛЬНЫЕ видео карты им наплевать.Их никто не оптимизирует.Также и будет скоро с 6 серией.Вобщем люди, мне кажется прежде чем что то нести почитайте и взгляните на то, о чем будете спорить.Вот скажем пример, все говорят что новая технология процессоров пентиум,это технология HT.И что, приносит минимальный прирост в производительности.А восхваляют. Знаете, что я думаю, на шейдерах 3.0 шестая серия очень плохо работает.И из-за них проходится отключать сглаживание и анизатропную фильтрацию.И зачем вам нужны лаги на шейдерах 2.0? И кстати шестая серия намного хуже работает в тяжелых режимах, чем серия x800.И зачем вам покупать видюху за 500 и выше долларов, если она будет лагать, а я уверен, что будет лагать.
Slik - РЕСПЕКТ!
Ну ты прав конечно то что прогресс идет вперед и за ним можно не успеть. Но не так все уж плохо.
Судя по тестам с играми я бы не сказал что 6 серия плоха с анизатропией и сглаживанием. Даже наоборот много тестов где показана прямая линия на любом разрешение при fps >60. Тоесть на новое поколение видеокарт сглаживание и анизатропие будут влиять мало (в плане быстродействия).
не заню как остальным а мне понятно, что если Nvidia захотела бы то выпустила сейчас nv48 ,который уже давно готов. Но сейчас нету смысла.
Видеокарта с nv48 (какая ни будь 6900) выйдет после r520.
И опять же какой смысл брать тогда видеокарту с 2.0 если все скоро изменится?

P.S Могу напомнить скока стоит х800про.
Да по-моему видеокарту за 500$ сейчас брать уже смысла нет - лучше подождать чего они там дальше навыпускают. И за теже деньги купить уже реально зверскую вещь!
А правда, что ATI часто перегреваются?
Russell
нет ниправада :))))
Вообще-то morbo82 прав в том, что пока покупать карту за 500$ нет смысла, т. к. что третья версия шейдеров практически не используется, и когда ей начнут в достаточной мере пользоваться разработчики, то она будет подешевли (надеюсь).

P. S.: Кстати если можно, то напомните сколько стоит X800.
to Russell
зависит от производителя

to Fanatik
прав

Повторюсь - покупка GeForce c точки зрения здравой логики выгоднее. На худой конец в деньгах экономия. Лучше один раз купить карту за 500 уе на три года чем за теже бабки но на два. Тем более с GeForce обеспечена максимальные красоты игрушки.

to morbo82
сучествует еще middle сектор

а про шейдеры 3.0 ты заглул что-то. Года два не понадобятся. Ха! Блин они уже есть и скоро везде будут. Протри глаза!
Насколько я знаю третьи шейдеры используются лишь в аддоне к Far Cry. Если я не прав, то будте добры, просветите.
Радеон рулеззз! в последней х800 технология 3Дц, которая позволяет быстрее юзать карты нормалей! Радеон может и глючный, но если новые дрова скачать, всё будет зачипись!
х800про сейчас стоит более 400$ а х800хт более 550$.
Что касается 3дц то это не единственная фишка у ати убыстряющая работу.У нее есть еще 3 подобных.Все убыстряют работу.(Заметьте ни одна не улучшает графу).
Поддержка 3.0 в фаркрае не видна хотя есть. А в Ил-2 - Перл Харбор можно поставить. Кстати в думе 3 есть кое где 3.0 :). Больше наверно пока нигде, скоро с выходом новых 3д-акшонов будет все, месяца через 2.
HDR в ФарКрае работает на SM3.0
SM3.0 в Doom3... хм не знаю, ИМХО нет там их.
2 Fanatic
Пиксельные шейдеры у него в Doom 3. LOL. В OpenGL никогда их не было, а Doom 3 на нем. И зачем графу улучшать на x800 когда она и так нормальная. А игры PS3.0 ATI претормозит, так как разработчикам нафик не нужно делать игру под разные шейдеры. Кому надо лишние расходы. Они будут делать на самые распространенные 2.0. А если и PS3.0 будут использовать то минимально, чтобы сильно не усложнять движок.
В думе 3 встроенная поддержка 3.0 .Она очень слабенькая и мало заметная ,но кое где видна.
На стенах некоторых можно разглядеть,аккуратней трещины всякие. И причем здесь OpenGL? Тоесть если смотреть шейдеры то на чем тогда?На Direct3D? А в ил-2 я что видел?
to Alexandr82
по твоей логике никогда бы не появились шейдеры 2.0х
мда.... это меня серьезно озадачило...
полскажите когда вышли последние дрова от ати?
2 Unexpected
хорошую подделку захостил на up.li.ru. Не вооруженным глазом видно.

2 Fanatic
Doom 3:На стенах некоторых можно разглядеть,аккуратней трещины всякие - Bump Mapping + VS, а не PS. Doom 3 на OpenGL. А DirectX тама нужен тока для звука.

2 GREMeZ
А ты посмотри когда PS2.0 в играх стали активно использовать - время появления GeForce FX
Radion -> Проблемы с дровами и настойки карточка ! Не спорю скорость высокая , но она на пол года, максимум на год ! А потом сгаревшая железка !

GeForce -> Мне лично хватает 47 fps , а она подерживает минимум 68 fps и не вырезает кадры ! (как делает Radion !)

Вывод -> Мне хватает GeForce нахр*н мне ёб*ный Radion !
Этот тест гон.Этого быть не может.Сам изменил и гордишься теперь.
Вобщем я уже устал объяснять, что даже если купить самую лучшую карту, то все равно через год, а то и раньше начнет тормозить.Ну купите вы шейдеры 3.0, а по производительности все равно видюхи одинаковы.Так зачем же за них переплачивать.Лучше взять видюху дешевле, но с шейдерами 2.0.А через год, полтора и поменяете на карточку с шейдерами 3.0.Кагда во многих играх они будут.И правильно тут кто то отметил, игры сейчас не будут выходить с шейдерами 3.0.Ati сунет бабла и будут 2.0.

Кстати я зашел тут на сайт, с которого он взял тест и изменил.Я не нашел тест этот.Но нашел другой.
http://www.3dnews.ru/video/3dmark-2005pro/index03.htm
Я считаю, что GeForse на сегодняйший момент является самой производительной, технологичной видео-картой.... Ну а тот кто решил купить Radeon, скорее всего просто-напросто продешевил или повёлся на совет друга. И ещё....... The Suffering вообще глючит с картами семейства ATI ///// Это честно написано грамотными людьми в Readme-файле технического руководства, находящегося непосредственно на диске с лицензионной игрой. Она у меня САМОГО есть.... Так что думайте и решайте: В пользу КОГО???....
Slik

Конечно я сам тестировал карточки (во сне , когда спал )!

А на ресунок курсор наводил ты ?


Всем :

Тест разгона карт на вcю мощь! :
Radion x800 xt -> ++++++++++++++++++++
GeForce gt 6600 ult -> ++++++++++++++++++++++++

Чучуть но выше и меньше проблем ! Радион в утюг сувать надо ,как и AMD !
Я вообще не советую покупать ни GeForce 6800, ни Radeon X800, т. к. стоят они дорого, а производительность в играх улучшают не так уж сильно. Если бы я покупал видеокарту, то брал бы GeForce FX 5900XT, не очень дорогая (хотя это смотря для кого) и мощная карточка.
И что теперь скажешь что amd утюг?Теперь то понятно, что нифига ты ничего не знаешь.Атлоны- лучшие процессоры.Тебе это все скажут.Сокет 939 самый перспективный.И вобще скажу как человек, который сидит на атлоне.У меня он греется меньше чем пень.Конечно это не в тему.Но я как это увидел, сразу обомлел.Как такое можно говорить?

Unexpected
кстати у тебя случайно не 6600?А то уж больно ты ее завысил.Даже для твоих любимых жифорсов.
А я весной полюбому буду серьёзный апгрейт ПК делать, а то система сильно устарела:
P4 2000 мегов
512 оперативы
GeForce mx 440 на 64 мега
мамашка: Asus p4b 266, тоже устарела....
Да не все шитают так СМОТРИ СЮДА !
To goga-deyatel: И еще ты смеешь заявлять, что Radeon выбор безрассудного чела???? У самого *ер знает что!(Начитался литературы - молодец!)
НАРОД! Берите что хотите! Будь-то GeForce иль Radeon! Оба продукта хороши! Просто у меня всегда были Radeon`ы и я низачто в жизни не куплю GeForce, да хоть будет он в миллионы раз круче Radeon`а!!!(моя жизненная позиция)
DIMUS X
_________________
Моё, как ты сказал "*ер знает что" , чудеса творит, в отличие от Radeon-ов того же уровня. И харе наезжать...
И ни какой я не "читалово", чтобы "читать", а потом сливать тупо начитанное. Я может и читал спец. литературу, но не собираюсь тут дешёвые понты кидать...
А я и не наезжаю! При MX440 представляю какие "чудеса" у тебя!!! :-))) Надо, надо тачку менять!!!
2 goga-dyatel
Я играл на 9600 в Suffering и не было нифига проблем так что не вешай лапшу.

2 unexpected
- У меня была ATI Rage 128 Fury, а щас Radeon 9600 и проблем не было. А вот при GeForce 2 у меня система часто висла. FX 5200 вроде более или менее работал, но медленно очень.
- P4 сильнее греется чем Athlon

2 asketic.by
GeForce FX вообще ни кому не советую. Медленная обработка PS2.0: на 5900XT соизмерима с 9600. Из-за этих карт nVidia потеряла свое лидерство на мировом рынке.
Конкретно to Slik.
Я не совсем тебя пониаю.
Я понимаю что все скоро устареет то что сейчас новое.Ну так тем более нужна видюха с шейдерами 3.0 (понятно на что намекаю?).
А уж если сейчас купить с 2.0 то ж..па будет гораздо больше. А что касается цен то зайди на сайт www.price.ru и сравни цены по Москве Radeon x800 и Geforce 6800. Или сравни другие карты, только в правельной сопоставимости класса. ;) И не забудь при этом какая помощнее.

To Asketic.by
Зачем брать 5900? Если брать то 6600, Таже цена если не меньше,а карта мощнее.
400 постов накатали, а толку никакого.
P. S. Похоже это самая большая тема на Главном.
Кроме темы о Playground`е, эта тема "nVidia vs ATI" одна держит главный форум ! :)
to Fanatic
еще раз прав.

to Любители Ати
Согласитесь с фактом что сейчас предпочтительнее брать видео от Nvidii. Затраты теже, возможностей больше. Не ужели это так трудно понять?
c IXBT.COM
" Рейтинг полезности: только стоимость карты
01. NVIDIA GeForce 6600 GT AGP 128MB, 500/900 MHz (--)
02. NVIDIA GeForce 6800 GT 128MB, 350/700 MHz (01)
03. NVIDIA GeForce 6800 128MB, 325/700 MHz (02)
04. NVIDIA GeForce 6800LE 128MB, 325/700 MHz (03)
05. ATI RADEON 9550XT 128MB 400/500 MHz (06)
06. ATI RADEON 9600 PRO 128MB, 400/600 MHz (08)
07. ATI RADEON 9800 128MB, 325/590 MHz (05)
08. ATI RADEON X800 PRO 256MB, 475/900 MHz (04)
09. NVIDIA GeForce 6800 GT 256MB, 350/1000 MHz (07)
10. NVIDIA GeForce 6800 256MB, 350/1000 MHz (11) "
http://www.ixbt.com/video2/itogi-video.shtml
Рейтинг перспективности
http://www.ixbt.com/video2/itogi-video.shtml

01. NVIDIA GeForce 6800 Ultra 256MB, 425/1100 MHz (02)
02. ATI RADEON X800XT PE 256MB, 525/1150 MHz (01)
03. NVIDIA GeForce 6800 Ultra 256MB, 400/1100 MHz (04)
04. ATI RADEON X800XT 256MB, 500/1000 MHz (03)
05. NVIDIA GeForce 6800 GT 256MB, 350/1000 MHz (05)
06. NVIDIA GeForce 6800 GT 128MB, 350/700 MHz (07)
07. ATI RADEON X800 PRO 256MB, 475/900 MHz (06)
08. NVIDIA GeForce 6800 256MB, 350/1000 MHz (08)
09. NVIDIA GeForce 6800 128MB, 325/700 MHz (09)
10. NVIDIA GeForce 6600 GT AGP 128MB, 500/900 MHz (--)
11. NVIDIA GeForce 6800LE 128MB, 325/700 MHz (10)
12. ATI RADEON 9800XT 256MB, 412/730 MHz (11)
13. ATI RADEON 9800 PRO 256MB, 380/680 MHz (12)
14. ATI RADEON 9800 PRO 128MB, 380/680 MHz (13)
15. ATI RADEON 9800 128MB, 325/590 MHz (14)
16. ATI RADEON 9800 128MB 128bit, 380/600 MHz (16)
17. ATI RADEON 9600XT 128MB, 500/600 MHz (17)
18. NVIDIA GeForce FX 5950 Ultra 256MB, 475/950 MHz (15)
19. ATI RADEON 9600 PRO 128MB, 400/600 MHz (19)
20. ATI RADEON 9550XT 128MB 400/500 MHz (20)
21. ATI RADEON 9600 256MB, 325/400 MHz (22)
22. NVIDIA GeForce FX 5900XT 128MB, 390/700 MHz (18)
23. ATI RADEON 9550 128MB 250/400 MHz (23)
24. NVIDIA GeForce FX 5700 Ultra 128MB 475/950 MHz DDR3 (21)
25. ATI RADEON 9600SE 128MB 64bit, 325/400 MHz (25)
26. NVIDIA GeForce FX 5700 128MB, 425/550 MHz (24)
27. NVIDIA GeForce FX 5700LE 128MB, 250/400 MHz (26)
28. NVIDIA GeForce FX 5600 128MB, 325/550 MHz (27)
29. NVIDIA GeForce FX 5600XT 128MB 128bit, 235/400 MHz (28)
30. NVIDIA GeForce FX 5200 128MB, 250/400 MHz (29)
31. NVIDIA GeForce FX 5200 128MB, 64bit, 250/333 MHz (30)

PS: 6800 Ultra наверху только из-за PS3.0. GeForce FX вообще не перспективно (позор).
--------------------------------------------------------------------------------

DIMUS X
20.01.05 18:30 А я и не наезжаю! При MX440 представляю какие "чудеса" у тебя!!! :-))) Надо, надо тачку менять!!!
________________________________________________________________________________________________________
Извини! Но у меня GeForce 4 mx 440 ! Она действительно очень производительная видюха... Я просто забыл цифиру 4 приписать.... А ты что? Ошибки сам не заметил? При пне в 2000 мегов иметь сраную первую GeForse! Это же убожество!
to Alexandr82
о том и разговор, что выгоднее сейчас брать последние GeForce'ы

PS во всех рейтингах перспективности в первой десятке рулят GeForce'ы
Как ни крути у АТИ уже не то топ-поколение. Технологический пройгрыш очевиден.
Я с этим полностью согласен ... В технологическом плане ATI проигрывает GeForce ( Ха Ха! Так же, как И AMD loos Intel - у )
Однозначно радионище лучше всего 9600 хт у всех моих знакомых и в клубе компьютерном ....
Все без проблем конечно дум 3 и фар край ведут в графическом плане а остальное на ура даже ваш пресловутый халфлаиф 2 ...что тут говорит летит и на среднем андеграунд .. ребята беоите просто все радеон и все уходит ... а у поцана стояло 5200 fx от гфорсе и что он плпкал мне что дрова криво все криво .... нет у радика поддержка дров просто пять баллов
С уважением Сетевой Администратор Охинского филиала "Роснефть-Сахалинморнефтегаз"
Да ладно загонять... Не знаю кто там у вас плачет... Radeon в любом случае в пролёте. Как не крутис, без GeForce-ов не обойтис!
To goga-deyatel: Иди в *опу со своим Жофорсем и Пнем!!! Э-эх бедный чел купившийся на рекламу! Не зря нас учили: хошь сбыть свой товар - делай рекламу!(все бы ничего, если б этот товар был бы хорош! - А то отстой полнейший!!!!) Я понимаю что ты думаешь наоборот - но сам посуди: nVidia рекламируется почти в каждой игрушке, а ATI не в одной!!!!! Ты считаешь что Radeon - дер***, но его хоть не навязывают! А ср*ная nVidia в "каждой бочке затычка"!!!
Да сам ты иди в *опу! Никто не на какие долбанные рекламы не покупался! Кстати, не ATI ли заявило о поддержке Doom 3 (или ХЛ2) ?. Так что не надо мне тут бздеть ! Умный Млять нашёлся...
Я имею ввиду, что лучше сейчас купить видюху с шейдерами 2.0 и играть на максимальных настройках, но с 2.0. Чем купить жифорс и играть с шейдерами 3.0,но не на максимальных настройках.А потом через год, когда оба производителя будут иметь качественные видео карты с шейдерами 3.0, купить, то что понравится.Разве вы не знали, что 6 серия работает хуже с шейдерами 3.0, чем с 2.0?
Кто как хочет пусть и думает !

Я 4 года тому назад выкинул Savage4 и купил GeForce2 !
Я уже превык к GeForce2 !
Потом я поставил GeForce4 mx 440 -> GeForce4 Ti 4600 -> GeForce FX 5200 щас он и стоит , теперь хочу себе взять и GeForce GT 6600 Ultra !

А радион проблема !
У маего друга стоит , некоторых играх видео баги в местах где световые отражения !
Unexpected, а зачем ты поменял GeForce Ti4600 на FX5200?
Жи-форс 5200 поддерживает более поздний директ икс. Но 4600 конешно МОЩА! я бы не поменял - хрен с ним с директиксом! :)
вот я про то же...
to Slik
Опять что то не то говоришь.
Сейчас сравнивать ps3.0 несчем. Они тока у Nvidia. А то что 2.0 идут быстрее это и моему престарелому коту понятно.3.0 лучше 2.0 => значит требовательней. Тока я незнаю чего они "тормозят" где то, вот в Перл Харбор уж какие водные пространства с 3.0 и все отлично идет.
И конечно может все это и фуфло, но я читал на оф.сайте нвидии что на 6ххх 8ops\pix и новая метод наложения всех ps на текстуры.

P.S.Сейчас у всех остальных 4ops/pix.
Нет ты наверно тоже не понял.Я имел ввиду. что родеон работает производительней, чем жифорс в сложных режимах.Если играть в фар край с шедерами 3.0, то приходится отключать сглаживание.Так что жифорс либо одно либо другое.
ATI бумажный лидер это факт
Пока мы читаем обзоры новых видях от ATI
Новые видеокарты от NVIDIA начинают появляться в магазинах
Давайте просто рассмотрим AGP карты
До 170 тут лидер 5900ХТ т к 8 конвейеров и можно неплохо разогнать(9600XT имхо хуже т к его уже не разгонишь)
До 250 6600gt если он есть в магазине (сейчас только дурак пойдет покупать 9800pro)
300 и выше 6800 и 6800GT (просто другого ничего нет)
Я бы рад назвать ATI лидером но как?
На AGP ничего нет а кто будет прикупать x800pro и x800xt для PCI ?
2 Dirt Jamper
9600XT уделает 5900XT на новых играх. GeForce FX не перспективные карты.
morbo82 и DeX

Я их время от времяни меняю местами !
Просто FX 5200 = 128 Mb , а Ti 4600 = 64 Mb
При играх с требовательностью 128 мне нада FX , а так просто Ti !
Даже на Dioblo 2 на Ti графика выше ! Например эффект от яда !
Да и на FX Half-Life 2 пишит что используется DX 8.0 ! Почему ?
Вот я тоже думаю нафиг 5 серия раз есть 6, которая по цене тоже самое, а мощнее да новее.
5900xt это конечно хорошо но 6600gt еще лучше, неплохо кстати купить 6800le и разблокировать конвееры.
6800Le(разб.конв.)=6600GT.
Только 6800le по цене выше. А так ща среди 6600Gt самая мощная от Galaxy (хотя разница между другими 6600gt 1-3 fps).
Unexpected ты их продай обе и прикупи себе что-нить покруче ;)
Интересно , есть ли сейчас в продаже 6600xxx AGP?
DeX

У нас есть в районе около 10 GeForce GT6600 и GT 6800 !
Но их вроде на самолёте доставили ! Одна такая дороже 6ти GeForce FX 5200 !
И что мне теперь делать ?!
И все-таки 5900ХТ лучше чем 9600ХТ
____9600XT уделает 5900XT на новых играх___
До скольки гонится 5900?
Ну если только в H-L2,про дум я вообще молчу
Не знаю у меня 9600ХТ и я бы его с радостью поменял

Безусловно 6600GT лучше но я говорил про дешевле 6000
N-vidia-ГАВНО!!! RADEON-RULLEZZZZ!!!
Да сам ты какашка! Иди лучше штурвал рули!
Данилка13

Ты раздницу кроме названия знаешь ? :)

nVidia Навсегда ! ! ! ! ! ! ! ! ! !
Ну вы и болтологию развели. Мне интересно, в результате хотя бы один человек, принимающий учатие в форуме изменит свое мнение. Нет. То-то же. Если у меня стоит nvidia, значит она меня устраивает, у кого Ati, его полностью устраивает эта фирма. Поэтому спорить не о чем. Можно только радоваться наличию на рынке видеокарт двух таких гигантов. Конкуренция- двигатель прогресса. А в выигрыше в итоге остаемся мы.
Ну ATI гигантом-то не назовёш... Но ты всё равно прав...
nVidia - наш выбор
начинал с S3 trio 3D 4Mb далее
S3 savage 16MB
Riva TNT2 Vanta 16Mb - практически в 2 раза быстрее
GeForce 2 MX 200 32Mb
GeForce 2 MX 400 32 Mb
GeForce 4 MX 440 64 Mb
GeForce 5600 128 Mb
собираюсь купить либо GeForce 6600 GT or GeForce 6800 Le
работал и с ATI - ничего прлохого сказать не могу, но ВСЕ ТАКИ nVidia
2 Unexpected
Я думаю надо просто подождать, цены снизятся. А там и GF6200 в продаже появится. имхо хорошая бюджетная карта будет (тот же 6600 токо с пониженными частотами).
6200-имеет 4пиксельных конв 1вертексный, 6600-имеет 8pixel 3vertex.6200-300mhz 500mhz. 6600-300mhz 650mhz.
Уже темнело и наступала ночь, но конференция онанистов на тему "Правая рука или левая? На чью сторону встанет у вас?" продолжалась...
скажите а 9600se очень плохая видеокарта или её можно отнести к разряду средних?и вообще обьясните чем хуже приставка se ?
SE - Свиздец Еб*чий...
se-это версия лайт.Ну 9600 есть se,xt,pro.Ну в se самая слабая.Обычно se-это обрезанные версии.
Я вот тут читал что писали за время моего отсутствия и заметил одну интересную вещь. DIMUS X пишет что значок NVIDIA есть в каждой игре и ATI лучше брать, т. к. настоящее качество не нуждается в рекламе (morbo82 однажды писал что-то похожее). То что у ATI меньше финансов и они не рекламируют себя, на мой взгляд, врядли является плюсом ATI.

to morbo82 and DIMUS X
Просьба не считать это наездом.
Точто у АТИ графа не может быть лучше чем у Нвидиа это очевидно. Она может не быть хуже,но лучше стать не может.Тут можно даже просто
посмареть какие вещи включены в видеокарту АТИ. Первые 4 фишки на разгон, вторые чтоб быстрее работало, третьи чтоб графа от первых двух не страдала.
И них такой напряг с этой балансировкой фишек, что об олучшение графы не может быть и речи.
У Нвидиа единственная вещь это ultra shdows (I,II).Она скрывает тени которые находятся например под другими тенями или вобще их не видно за повортом. Дальше идет CineFX (2.0 3.0) которая включает в себя набор иснтруметов улучшающих графу.И в чипсетах 6 серии есть такие вещи
как soft shadows.
А использовать все эти приимущества или нет это дело программистов.

P.S. Старае модели видеокарт я не рассматривал.
Оказалось, что больше половины вообще не догоняют разницы между Radeon и NVIDIA, кроме того, что там буквы разные и цифра какие-то есть. Некоторые вообще х*йню полную пишут. Полазили бы по нету (3DNews.ru) и по другим сайтам, почитали, может че и поняли бы. А то у кого MX-сы стали охренительно мощными видюхами, у других 9800 да еще и SE (!) предел мечтаний, не говоря уже о полностью НИКАКИХ FX-сах.
В 5-м поколении полное поражение nvidia, и никогда 5600, 5700, 5900 и 5950 FX не будет лучше 9600XT и 9800 pro соответственно, не по цене, не тем более по производительности
Но то уже вчерашний день и покупать их не имеет смысла . Лучший выбор на сегодняшний день – это NVIDIA 6600GT!!! И кто бы что не говорил, аналогов ее по цене и производительности у Radeon’а нет!!! И вряд ли будет!!!

P.S. Это AMD надо в утюг запихивать???!!!! Это вы свой пентиум можете туда запихнуть, если не боитесь, что утюг расплавиться !!!
Скиньте пожалуйста ссылки на прайсы магазинов(Москва) или интернет- магазинов с большим выбором современных видеокарт по приемлемой цене.
P.S. Другу обещал помочь. Он хочет купить видео в пределах 600-700 у.е.
Я вижу что тема потиху начинает исчерпывать себя, поэтому, чтобы продлить ей жизнь, я хочу задать вам вот такой вопрос: Как вы думаете за кем будущее, за ATI или за NVIDIA?

Тут кто-то писал что в августе появятся карточки NVIDIA с поддержкой четвёртых шейдеров. Никто не знает, это правда?
2 Stalker of Oblivion
хм.. проглядел. Но только у 6200 не 1, а 3 вертексных конвеера. еще она хорошо разгоняется.
2 asketic нах они нужны, эти 4-е шейдеры, игр с поддержкой 3-х еще единицы.
За ATI.Так как видя все удачи и неудачи nvidia с шестой серией она сделает видеокарты намного более производительней и лучше.
В последнее время продукция компаний nVidia и ATi не сильно отличается друго от друга - на практике все получается одинаковым не смотря даже на то, что nVidia и с кожи вон лезет, пытаясь внедрить новые технологии.

ATi пытается быть ближе к Microsoft и готовится внедрить объединенную шейдерную архитектуру (unified pixel and vertex data processing). Это необходимое условие, которое накладывает Microsoft WGF2.0 (DirectX10) - Windows Longhorn.Весной-летом 2005 года ATi продемонстрирует свой R520.

nVidia -конечно соглашается(это удобнее для программистов), но кажется что-то они мутят. Так как в последнее время не распространяется о своих будущих видеокартах.

Если только, они не придумают какую-нибудь хитрую технологию, которая сможет работать с WGF2.0 и в то же время обрабатывать пиксельные и вершинные шейдеры разными блоками.

Тогда и только тогда - будет полное FOREVA!!!!!
Хватит! Хватит!!! Развели тут... Все и так знают, что ATI лучше! Так за чем это гавно тут разводить!!!
Вот я встал на сторону ATI!!! А пусть тот кто создал эту тему ПОСЧИТАЕТ количество голосов! И мы узнаем кто победил!!!... Давайте? Есть желающие?
to Daniil
Скоро надо будет смотреть сколько ты написал дебильных сообщений и голосовать по этому поводу - дурак ты или бака(дурак по японски).

Хорошь орать как бабка на базаре.
Ребят, никто не знает хотя бы приблизительно на какой срок запланирован выход следующего поколения карт Nvidia и будут ли у него какие-то кардинальные изменения по сравнению с шестой серией?
Поговаривают новые чипы предьявят осень-зима. С возможностью Direct X10.
Хе! Опять нВидиа в *опе! АТИ и тут уделывает нВидия по-самое нехочу!!! - Уже летом выпустит видюху с поддержкой Директ10X, а нВидиа только осенью и то... наверно к концу, а может и ваще через год!!! Я не говорю что нВидиа отстойная компания! Чипсеты у нее просто РУЛЕЗЗЗ!!!(это она отлично делает) А вот с видяхами у нее пи*да пооолная!!!!!!
По сообщению сайта The INQUIRER ATI планирует представить свой графический чип нового поколения R520 в мае этого года, когда он будет выпущен в кремнии.

Как мы уже писали, чип будет производиться по 90 нм техпроцессу. О характеристиках, кроме поддержки шейдеров 3.0 ничего не сообщается. Единственное, что заявляют представители компании это наличие не менее 16 пиксельных конвейеров, но ожидается, что их будет около 24.

Во всяком случае, ATI ведёт себя очень осторожно, так как освоение нового техпроцесса таким сложным чипом может выйти боком, поэтому никаких точных характеристик мы не узнаем до того момента, когда компания получит более или менее хорошие урожаи чипов с пластины.
Я думаю, что сейчас уже наверное нет смысла покупать новую видеокарту типа x800xx или gf 6800xxx, а надо как минимум подождать грядущего Ati r520. А там и за Nvidia дело не заржевеет, ведь похоже r520 станет лидером на рынке видеопродукции. Интересно насколько r520 совершит рывок в производительности по сравнению с тем же x800xt pe или x850xt естественно в сравнении с r520 pro или xt и какова будет приблизительная цена этого продукта
Поживем, увидим! Radeon FOREVER!!!!
To Alexandr82
У r520 точно будет не более 16 пиксельных конвейеров. Ati не хочет идти по пути nvidia.
Nvidia приготовила в рукаве 2 козыря - Nv48 и Nv47.Nv48 сравняет счет, а nv47 добьет. Я думаю у АТИ финансов не хватит выдеражть все это.
Ведm надо будет сразу же делать ответ на это.А там и Nv50 появится (обещали в августе).
Ну вобщем хочу сказать если АТИ действительно сделает чипсет нового поколения, а не чушь разгоняющеюся до Н-ого кол-ва mhz, если там
будут фишки могущие поспорить с CineFX3.0, старые игры не будут глючить и т.д. ТО я буду только рад.
Да, но Nvidia подозрительно темнит.
Jтветом Nvidia на выход R520 может стать чип NV48, который станет неким подобием 0.11 мкм версии NV45 с врожденной поддержкой PCI Express x16 и слегка улучшенными частотными характеристиками.

Совершенно новая архитектура будет у чипа NV50 - только в конце 2005 года.
Этот чип будет производиться по 0.09 мкм техпроцессу и поддерживать DirectX 10 (WGF 2.0).

Нельзя исключать, что ATI к тому времени подготовит адекватное решение.
Сайт X-bit labs опубликовал сообщение фирмы Mercury Research, занимающейся анализом графического рынка.

По результатам их исследования NVIDIA в четвёртом квартале 2004 года вернула часть рынка, потерянную в третьем квартале того же года.

С третьего квартала 2003 года ATI имела 27% рынка графических решений, в то время как у NVIDIA было только 15%, а лидерство было за компанией Intel. Продажей чипов архитектуры GeForce 6 NVIDIA вернула 3% рынка, в то время как доля ATI не увеличилась, не смотря общее повышение поставок видеопроцессоров.

В сегменте дискретной графики для ПК NVIDIA упрочнила своё положение, увеличив долю до 46%. Доля ATI упала с 55% до 51%, такое падение связано с невозможностью удовлетворить спрос на GPU производимые по технологии 130 нм low-k. Правда ATI агрессивно разворачивает 110 нм производство, что может улучшить её положение.

Не обошло стороной компанию NVIDIA и улучшение в мобильном секторе. Так она усилила своё положение с 22% в третьем квартале до 25% в четвёртом квартале 2004 года. ATI напротив, потеряла 3% и теперь её доля составляет 66%.

Посмотрим скока nVidia потеряет с выходом нового Radeon. Но все таки ATI лидер рынка.
Ну и тема! В результате каждый стоит стеной за ту видеокарту, которая находится в его любимом компике. :) Какая разница? Тем более, что производительности карт одного класса у NVidia и у ATI примерно одинаковые. Другое дело, что некоторые игрушки лучше бегают под NVidia (DOOM III), а некоторые под ATI (Half-Life 2). Ну и спор! Вы ещё кулаками решите! :)
Многие игрушки не совместимы(или просто некорректно работают, или же работают медленно) с теме или иными видами видео-карт... А что насчёт Дума и ХЛ2, то обе компании давно заявили о поддержке этих игр, только я не помню, Ati О Дум 3, или наооборот Ati о ХЛ 2... А вот The Suffering, например, плохо, со сбоями работает на картах семейства ATI... Это в документации к игре написано...
Радеон круче ДжиФорса и тчк.! Приобрел вчера я себе ATI Sapphire Radeon X850XT Platinum Edition 256Mb OEM! Вот это знатная вещица!!! Единственное, пришлось комп апгрейдить под PCI-E, а так все тип-топ!!! И всякие The Suffering`и летают without problem!!! Ловлю кайф от игр! ФарКрай заново, например, прохожу!
to dimus x
Ну и глупо. Покупать искусственно разогнанную донельзя видюху, зная что через несколько месяцев выйдет R520 с 16 конвейерами и с поддержкой шейдеров 3.0. А стоит будет дешевле этого псевдо видео флагмана. Так что ты зря хвалишься. Кстати, за сколько взял ? Небось, где-то около 750 у.е.
to dimus x
Ну либо тебе бабло девать некуда, либо ты [censored]. За те бабки надо было брать последний GeForce хватит намного дольше!
Уж лучше SLI было воспользоватся. Теперь жди unreal 3 и смотри что он тебе напишит your video adapter not support DirectX 9.0c.
Или еще что то типо этого.
Об этих двух видюхах могу сказать "с той стороны прилавка" :)
Спор кто из них круче очень напоминает полемику между владельцами AMD и Intel, да и аргументы похожие (кто-то в одном сильнее, а кто-то в другом). В нашей фирме в основном отдали предпочтение nVidia и Intel как-раз из-за проблем возникающих с их конкурентами. С ATI намного больше возни с настройками, по соотношению цена/качество они отнюдь не лучшее. Мы возили и noname ATI и бренды - ломались и те и другие, причём процент возврата был ООООЧЕНЬ большим. У nVidia таких проблем просто нету...
Про различные глюки обнаруженные в игрушках у видюх ATI - сдесь просто не хватит места для описания ;) Конечно многие могут сказать "не умеете настраивать!", сразу парирую - с nVidia мы поступаем аналогично, открываем коробку и ставим дрова с диска и глюков НЕТ.
А самое забавное - это результаты тестов на разных сайтах. Когда начинаешь гонять реальную игрушку - результат не совсем им соответствует (на ATI показывает кучу fps-ов, а игра явно дёргаеться)...

Вобщем для тех кто думает что брать - всё дело вкуса, решайте сами и лучше посморев на оба варианта. А те кто уже сделал свой выбор - чего зря спорить, всё-равно никого не переубедишь... ;)
Странный вы народ. Сейчас тратить деньги на супер видюху, на мой взляд не имеет смысла, чересчур они дороги, димусовского радеона ему хватит года 3-4, так что стоит подождать выхода r520-го ядра и снижения цен. Если и покупать карту сейчас, то стоит брать х700про и гнать его до хт или 6600гт - карты относительно не дорогие, но мощные и не требуют доп. питания
6600gt дешевле чем х700про и мощнее чем х700хт.
Знаешь что Вектор, насчёт цены и того что не стоит покупать дорогие видюхи сейчас писали ещё до этого, и вообще, эй, народ, вам не кажется что мы начинаем повторяться? Мне кажется, что лучше всего было бы дать этой теме отлежаться где-нибудь полгодика, а затем заново возобновить дискусии. Разве я не прав? Может через полгода ATI выпустит что-то, действительно способное конкурировать с NVIDIA.
Может...nVidia выпустит чего-способное конкурировать с ATI(R520)....
Дождемся же, новых видеокарт и продолжим БИТВУ!!! :)))
Ну вот, раз вы согласны, то оставте топик в покое.
Сенсация геймеры прыгают с окон "nVidia" и "ATI" соединяются ! -- шутка

И что вы будете обсуждать ?
Вот и это щас и обсюждайте !
Я с ней так не поступлю!!! Я ее продам, а может и на полочку положу! А как появится R520 сразу куплю!!! И посмотрим кто и что засунет себе в зад!!!
У меня Radeon 9600 XT до этого был ГеФорс. У некоторых моих друзей карты от NVidia. Так вот сам я нарадоваться не могу от своей карточки и когда сравнивали с друзьями качество графики то очевидно что Radeon рулит на все 100% так как всем известно что он поддерживает директ 9 а NVidia нет о чем тогда можно еще говорить ??? Конечно не скрою что в некоторых игрухах немного моя видяха притормаживала (типа в DOOM 3 и HL2) в отличии от ГеФорса но зато качество эффектов и графики полностью компенсировали эту досадную проблему а когда я проапгрейдил свой комп по памяти (поднял с 512 метров до 1 гига и включил это все в дуал моде) то эта проблема вовсе исчезла. Так что я отдаю свой голос за ATI RADEON !!!
Немного хочу сказать о недавно прочитанном в инете про новые карты от ATI и NVidia на базе PCI Express. Я конечно могу ошибаться (сами понимаете что в инете много всякой информации)... НО ! Меня более поразил тот факт что для карт от NVidia потребуется блок питания 480 !!! Вт !!!??? у меня на работе, на серваках, стоят блоки питания на 460 ВТ ! Вопрос во сколько же обойдется апгрейд компа если устанавливать карту от NVidia + покупать блок на 480 Вт ??? Я лично пока что не видел в продаже таких блоков а если даже и появяться они то пока представить не могу скока они будут стоить . C ATI Radeon все проще :) Разработчики заявили что будет изменяться сама конструкция платы (т.е она будет расширяться ). Так как в новых материнках порты PCI express расположены немного по другому т.е. ближе к краю то я думаю что расширение конструкции платы не страшно тем более что блоки щаз довольно просторные а самое главное что плате не требуется утановка мощного блока питания а это согласитесь существенная экономия денег.
Так что решайте сами. Я свой выбор сделал.
Конечно Radeon 9*** превосходил в большенстве случаев GeForce FX 5***, однако теперь NVIDIA на коне, благодаря третьим шейдерам. Так что мало ли что было раньше...

P. S.: У твоих друзей карточки случайно не GeForce 256?
2 [FK]Snake
Цитирую: "....Radeon рулит на все 100% так как всем известно что он поддерживает директ 9 а NVidia нет о чем тогда можно еще говорить ??? ....." Если уж не знаешь, то помолчи ладно. FX`ы поддерживают директ 9, другое дело, что он им тяжелее дается, это правда, не спорю.
По поводу качества графики. Если ты сравнивал свой радеон с MX`ами, то, конечно, оно хуже. Ты сравнивай карты одного поколения и одной ценовой категории и разницу не заметишь.
GFX5700ultra нормально работает , если еще оперативки не менее 512 и проц до 3хГц тогда воще супер у меня пока еще не было такой игры что бы тормозило или видяха подкачала а если висит значит игру коряво сделали .
РЕБЯТА ВЫ НЕ СПОРТЕ ! СПОР УЖЕ РЕШОН ! ЭТУ ТЕМУ ПОРА ЗАКРЫТЬ !
Покупайте платы только для той игрушки которую вы пытаетесь пройти !
Я покупаю от nVidia потому что я игры от неё беру постояно (и у них кадры не вырезаются при ускарении)! А ATI тоже хорошии и быстрые карточки делают !


Так что бери что хочешь ! ЭТО ДЕЛО ТВОЁ !
Согласен... Закрывать пора... Ужо совсем не интересно стало.
2 unexpected
Че там у тебя вырезалось
Потестил я тут 6600 на разных играх: разницы в картинке с моим 9600 не увидел, тока по скорости почти в 2 раза она быстрее. Нормальная карта может потом себе 6600GT куплю, т.к. у ATI за такую же цену ничего достойного нет. Может летом будет что-то стоящее в районе 200$ и у ATI.
Ну так asketic.by уже говорил что надо забросить тему где-нибудь на полгода. Давайте так и поступим.
Приобрел себе 6600GT и весьма ей доволен.
Fps - хороший, разгон - хороший, цена - тоже хороший :))
Брал за 6,5к в ultracomp.ru. Только не думайте, что реклама :)) просто по-дружески рекомендую, если вы в Питере.
Крутая плата, навороченная, можно и в Doom 3 хорошо погонять... только проц нужен... ну, 3200+ A-64 в самый раз :)
Alexandr82, с момента нашей последней встречи ты исправился, и вообще чувак ты круто поднялся, короче говоря тебе респект. Насчет ATI ты прав - я посмотрел - ниче на AGP 8x нету. х600 слабый, х700 никуда еще не завезли (даже не знаю, ATI референс-плату на AGP сделала или нет)
Так что вот такие дела. Nvidia. Мой выбор. Ох, зато выйдет TES4/S.T.A.K.E.R. и я поиграю...
PS 3.0 и иже с ними...
Я и не говорил что NVidia это плохо. Плохо у них тока GeForceFX. Просто встал вопрос о замене видеокарты на что-то в районе 200$ и кроме 6600GT ничего достойного нет для AGP. У ATI для AGP начинается тока с x800 Pro, и цена за 300$ переваливает.
На форуме сайта XtremeSystems появились спецификации R520:

выпуск чипа - в мае 2005-го
24 конвеера
32 модуля текстур
96 АЛУ
192 операции с шейдерами за цикл
Кроме того:

ядро с частотой в 700 МГц
134.4 миллиарда операций с шейдерами в секунду
память до 512 Мб с шириной доступа в 256 бит типа GDDR3, работающей на частотах до 1.8 ГГц
пропускная способность в 57.6 Гб/сек (на частоте в 1.8 ГГц)
300-350 миллионов транзисторов
процесс производства в 90nm
поддержка Shader Model 3.0, ATI HyperMemory, ATI Multi Rendering Technology (SLI)
производительность в 3 (!) раза выше, чем у Radeon X800 XT (для одиночного R520)
Верить или нет данным слухам - дело хозяйское :)

Аж слюни потекли!
Я ЗА РАДЕОН
У меня (Sapphire Radeon 9600 Atlantis-256 MB-400mHz)
Сам комп (Пень 4~3000Mhz-512 Ram)
Я че и говорил - Радеон зе бест!!!!
У меня ASUS 64Mb TD GeForce 4 Ti 4200-всё работает, вобще класная видюха. Но тут увидел у друга ASUS V9999 LE который можно поковырять и зделать если с чипами повезёт что-тот лучше
Вобще влюбился в неё щас собирая на неё бабки. А что лучше х...й его знает я лично за nVidia.
Только GeForce!!!=)))
Radeon как-то не вдохновляет, толи название не нравится..=)))
Но Radeon сильно упал в моих глазах , особенно 9600, у моих друзей уже 4 штуки без обьяснения причины слетели (Sapfirы)
А GeForce у меня до сих пор безотказно пашет (MSI FX5600)
Ещё когда была GeForce256 от нефига делать стал её безбожно разгонять, оперативку ей слегка спалил, но эта падла продалжала работать, даж когда кулер от старости вращаться напроч отказался!=)
Но это всё дело вкуса, так же как AMD vs Intel =))))
У меня раньше стоял GeFroce-4, о таких играх как : Принц Персии и Тhief 3, просто нельзя было, мечтать,
Поставил Радеон 9600, другое дело, да и комплектация у АТИ лучше и руководство, диск с дровами, провод для телека, на диске кроме драйверов всякий софт для компа (не тока direct-x), у знакомого Ge-Force 5600, по скорочти Радеонэчик родной его делает, как нефиг делать....А вы видели настройки драйверов у АТИ?? как там можно развернуться....это не как у Нвидиа, поменять разрешение и сделать например у OpenGl выбрать куда склонять при игре (скорость или графика)....
На моей карте у меня ХЛ2, при максимальных настройках графы, на разрешении 800х600, летал только вьёт, а при 1024х768 замечались не значительные тормоза при резком развороте мышки....
Так, что делайте выводы, будете ли вы сидеть на Жифорсе или наконец откроете глаза и перейдёте на Радеон.
ЗЫ: время н-видии прошло.АТИ рулит
..."время н-видии прошло.АТИ рулит".... Blackes, ты по моему слегка отстал от жизни. Карты нового поколения от обоих производителей по производительности равны и нечего тут спорить. Nvidia исправила свою ошибку с FX`ами, а ATI продолжает делать отличные карты. Битва титанов продолжается.

По поводу настроек драйверов Nvidia. Именно широкими настройками и славятся их драйвера. Если ты не знаешь, где и что настраивать, то это твои проблемы и лучше не позорься.
>raleksei. Ты не прав, у Радеона настроек больше. По себе знаю.
>Дятел ты не прав. У Nvidia настроек больше. По себе знаю
>KLOKUS. И что же в дровах Радеона нет, что есть в дровах Nvidia?
Refresh Rate Overrites, редактирование меню и много чего еще
Раз, два и обчелся! Настройки 3D неочень у nVidia. Сам знаю: у меня до 6600GT стоял Radeon 9600 и настройки даже те которые с драйверами удобнее. А еще для ATI есть замечательная утилита ATI Tray Tools в которой настроек очень много!
При чем здесь больше, меньше. Главное, чтобы эти настройки были нужны. Вообще я не имел в виду, что драйвера Nvidia лучше ATI`шных. Я лишь опроверг заявление Blackes об ограниченности настроек в драйверах Nvidia.

2 Alexandr82
Вот только не надо сюда вмешивать посторонние программы, не о них речь. Для того и другого драйвера можно использовать спец. утилиты, расширяющие настройки, например, Rivatuner.
вот и я о том же.
Главное - не количество, а качество. По моему, Refresh Rate Override - очень, очень полезная штука.
Кому, к примеру, охота играть в DooM 3 на 60 Hertz развертке? Особенно если CRT монитор.
Поищите в дровах ATI эту настроечку - не найдете!
так что приходится юзать Power Strip и прочую лажу
Товарищ Klokus! Насчет герцов пободробнее!!! Мне 85 хватает!
Товарищ DIMUS X, KLOKUS пишется БОЛЬШИМИ буквами!
Вот вам скрин вместо слов:

Извиняйте за трудности, глюки, технические накладки, теперь все путем. Фотку видно?
Отпишитесь кто-нибудь.
Ребят, есть у меня вопрос, точно ли ati r520 появиттся в мае 2005 года? Говорят, что эта карточка будет иметь 512 мб оперативы на борту и 300 млн. конвейеров. Да, вот это будет настоящий прорыв на графичеком фронте.
Товарищ KLOKUS! Не знаю что у вас переводится, но у меня - как поставил 85Гц так и стоят ВЕЗДЕ и никакие игры это не нарушают!!!
To Chisik: Выйдет и мы будем праздновать это! Жду не дождусь!!!
>KLOKUS. В том то и дело что только у Nvida в играх само может сбросится
на 60 герц. =) В Радеоне такого нет. Там поставил на 1024x768=85 герц будет везде при 1024x768 85, при 800x600 100 и т.д.
Ты думал что если в радеоне собьётся на 60 герц, то ни чё не поделаешь
и все сидят и сажают себе глаза?
Все у радеона есть! неча тут ворчать вот :
ставишь вот так и все путем(за очень редкими искл. и то на пиратках)
rad.bmp 407x476
Знаете чё пацаны! Кто нить играл в UT2004 на радеоне 9550 и выше? Проблем с текстурами не заметили? Какие-то странные чёрные полосы на земле и чёрные квадраты... У моего приятеля радеон 9550, а у меня GeForse 4 mx 440/// Производительность у него, конечно лучше, но уж лучше "средние" настройки графики, чем беспонтовые приколы с текстурами, которые всё портят...
Эти глюки не от карты зависят, а от того как криво игра написана. Производители видеокарт новыми драйверами исправляют в основом ошибки програмистов игр, а не свои. Надо патч на игру поставить и новые драйвера.
Когда был у меня R9550SE, то мне так надоело, что в Open GL играх (в основном) развертка была на 60 Герц, вместо положенных моему F700B Flatron`у 85 Гц. Поставил 6600 GT (кстати, порывшись в дровах, переименовал ее;) ), в настройках поставил принудительно 85 и все. Может, в новых Х-Radeon и есть настроечки, но я с ними (Radeon`ами) не сталкивался, к сожалению.
Radeon серии X хорошие и модные видеокарты. Имели бы они 3.0 PS, взял бы какой-нибудь X700Pro.
Кстати, охотно верю, что на них глюков нет, ATI исправилась :)
to chisik and DIMUS X
Да нужен вам тот R520? Где-то в начале 2006 года выйдет NV50. Именно этот GPU должен стать "настоящим" чипом нового поколения. Графический процессор, предстоящий к выпуску весной этого года вероятно будет представлять собой просто доработанную и отлаженную версию NV45 (GeForce 6800 Ultra PCI-E). То есть в нем, возможно, будут увеличены частоты чипа/памяти, количество конвейеров и сделаны другие менее значительные изменения. В то же время NV50 сможет поддерживать Shader Model 4.0, а вместе с ним и DirectX 10. Производиться этот GPU вероятно будет на 110 или 90 нм техпроцессу на мощностях TSMC.
Могу ещё в плане работы пример привести. Эвон радионы не дружат ни с одним пакетом моделирования. Макс во вьювпортах тормозит, Кся на радеон вообще забивает и не запускается, а Майка просто не может показать ни одной текстуры... Тогда как у представителей невидиа таких проблем не наболюдалось. Вот и делайте выводы... =)
Мой друг с Max и Maya работает на Radeon 8500 и не жалуется!
2 XCat
У тебя Макс, Кся и Майя на Radeon 7000 не запускались?
Все нормально работает, если для работы иметь у ATI серию MAXX/FireGL, а у nVidia серию Quadro.
Конечно, можно так сказать - "я юзаю 3d Max 6 на GeForce DDR/Rage 128 Turbo, глючит, тормозит, лагает..."
Под профессиональные проги нужны хорошие видеокарты... хотя и на обычных вроде того же 8500 будет работать. Патчи, люди, нужно качать, а не валить все на железо.
Однако я не фанат ATI, и не фанат nVidia, я скорее фанат AMD!
Кто нибудь знает почему нет карт nvidia 6600gt с 256 мб видео памяти? Это просто безобразие какое-то . Если брать карту на будущее то только с 256мб.
to chisik
Их нет потому что их и не было. Все GF6600 имеют всего лишь 128 MB памяти:(
вообщем вывод - ати сосёт
В-общем, мой вам совет - не берите карточку с 256 VRAM, на то есть 4 причины:
-СЕЙЧАС 256 VRAM никому АБСОЛЮТНО не нужны.
-ЧАСТОТА 256 VRAM вероятно будет ниже, т.к. производитель обязательно постарается сэкономить.
-СТОИМОСТЬ - на 1000+ рублей выше, чем на 128 VRAM аналог.
-КОГДА понадобится 256 VRAM, то вы на мониторе увидите красивое слайд-шоу - карточка не потянет, тут не хватит и 2х6800 Ultra, надо будет чего-то поновее искать.
To Asketic.by: И в каих это играх будет использоваться шейдер 4.0, а? Ну уж не как, не в играх 2006года!!! Может в 2007 иль 2008 они будут использоваться!!! Скока лет прослужили шейдеры 2.0, а? Вот и считай!!! Шейдеры 3.0 думаю раза в 2 дольше прослужат!
Потенциал PS2.0 до сих пор полностью не реализован. А PS3.0 еще на годы хватит!
to DIMUS X
Ну так это же хорошо, что 4.0 шейдеры будут использоваться года через три. Не придётся видюху менять каждый год.
Вобщем, и у Радеона, и у Нвидиа есть свои плюсы и минусы.
Как ты догадался??? :-)
2 KLOKUS

Это был вывод, дубина...
значит так...во первых - нвидия рулит, во вторых...-если кто после меня напишет - тот ;%43ак
Я вот что после тебя напишу: иди ты сам знаешь куда!
О чем спорите-то ребятки? Сравнивайте хотя бы конкретные модели конкретных производителей.Например, Ati 9550 от GeCube может легко уделывать 9600 от Asus, хотя 9550 - это отбракованный процессор 9600. Причем зачастую на двух моделях одной марки карты от одного производителя установлена разная память (потому что в на новой партии карт производитель решил сэкономить), к примеру 3.3 и 5 мс. Хватит письками меряцца!!!
ну-ну все еще спорите, посмотрим когда выйдет PS3, новый графический процессор ваши топовые карты уложит на лопатки.
(мля даже в рифму получилось)
to Cell
Ну мы это ещё посмотрим...
александр82. - смотри пункт 2
первый нах! %)
да обе конторы хороши, вон взял 6600 за 4.5 р и нормуль всепашет и пашет
Что спорить если Qu FX самоя мощная видюха.
Веть незря ее использовали в Unreal 3 на Е3 в мае 2004 года чтобы показать всю мощ движка.
И да еще если выйдет видюха 512 мегабайт от Nvidia представьте мощ двух видиокарт по технологии SLI-- 1 гигабайт; там все хагнуться или еще мощнее Qu FX!!
Там та Ати всосет по полной программе!
Для тех кто любит ATI но не может пока перейти на PCI-Express

Radeon X850 XT PE AGP -> 540/1180 МГц, 16 конвейеров, 256-битная шина, 256 Мб памяти GDDR-3, рекомендованная цена $549;
Radeon X850 XT AGP -> 520/1080 МГц, 16 конвейеров, 256-битная шина, 256 Мб памяти GDDR-3, рекомендованная цена $499;
Radeon X850 Pro AGP -> 520/1080 МГц, 12 конвейеров, 256-битная шина, 256 Мб памяти GDDR-3, рекомендованная цена $449;
Radeon X800 XL AGP -> 400/980 МГц, 16 конвейеров, 256-битная шина, 256 Мб памяти GDDR-3, рекомендованная цена $349;
Radeon X800 AGP -> 392/700 МГц, 12 конвейеров, 256-битная шина, 256 Мб памяти GDDR-3 (DDR-I), рекомендованная цена $249;
Radeon X700 Pro AGP -> 425/860 МГц, 8 конвейеров, 128-битная шина, 128 Мб памяти GDDR-3, рекомендованная цена $199;
Radeon X700 AGP -> 400/700 МГц, 8 конвейеров, 128-битная шина, 128 Мб памяти DDR-I, рекомендованная цена $149.
Уже более двух месяцев по сети ползли слухи о том, что до конца года NVIDIA не представит новой архитектуры. Подтверждение этого наконец-то прозвучало из уст представителей компании. Так на Financial Analysts Session at Credit Suisses’ First Boston Semiconductor & Capital Equipment Conference вице-президент NVIDIA по инвестициям Майкл Хара заявил: «Мы должны дать программистам время, что бы обучиться работе с пиксельными шейдерами 3.0. В чипах ожидаемых весной вы увидите более быстрые версии существующих решений… …не думаю, что будут радикальные перемены в архитектуре. Мы нацелены на создание новой революционной архитектуры каждые жва года. А серии GeForce 6 всего год, поэтому пока мы придерживаемся моделей шейдеров третьей версии.»

По поводу перехода на техпроцесс 90 нм на обсуждении было обронено несколько слов: «Мы будем иметь один или два GPU, выпускаемых по техпроцессу 90 нм во второй половине года.» Такое заявление подтверждает слухи, что ожидаемый весенний GPU будет выполнен только по 110 нм нормам.

Если чип ATI R520 удастся, то у канадцев будет технологическое преимущество, а козырь NVIDIA в виде шейдеров 3.0 будет сведён на нет.
Да шэйдеры 3 серии щас не нужны ,недавно радеон 9800хт щитался самым крутым а щас спустя год круче и круче,что станет к 2010 году там наверно по 2 гигабайта видюхи будут.Еще и не то придумают.
А у меня всеравно выдает 6431 папугай в 2005 марке.
6800гultra---Нужна тогда когда появяться игры с потдержкой 3.0 шейдеров.
А в 2007 хотят уже 4 представлять.
И куда катиться мир.
Да шэйдеры 3 серии щас не нужны ,недавно радеон 9800хт щитался самым крутым а щас спустя год круче и круче,что станет к 2010 году там наверно по 2 гигабайта видюхи будут.Еще и не то придумают.
А у меня всеравно выдает 6431 папугай в 2005 марке.
6800гultra---Нужна тогда когда появяться игры с потдержкой 3.0 шейдеров.
А в 2007 хотят уже 4 представлять.
И куда катиться мир.
Nvidia рулит! Купил себе 6600 gt от MSI, все игрушки идут! У дружбана radeon 9800 pro медленнее работает даже на крутом компе (3.00 ghz 1024 meg ddr). Нет у радеона ответа на 6600 gt на agp....
Сам постоянно сидел на интеле и нвиде...
Замечу, ранее по стабильности обе команды выигрывали...
Последний комп себе собрал на амд и ати...
Ну, в общем-то, что и следовало ожидать - производительность неплохая и с провалами тоже на уровне...
Стабильности маловато...
Особенно, если что-то серьезное под проц попадает - производительность просто рухает...
Не влезает в кеш2 - все... на интеле заметно стабильнее работа идет...
что касается ати...
когда у меня была тнт2... еще кастрированная - 16 метров на 64битах... блин, нарабоваться не мог - стабильность просто супер... затем появилась тнт2 ультра с новыми дровами... так... тут уже какие-то баги засветились... затем пошел джифорс 4 мх440... дрова еще кривее...
но... сейчас стоит 9600ХТ... ребят, ну, хорошая карточка, не спорю... камни у ати неплохие... блин, но стабильность-то где?..
сколько же можно глюки-то собирать? почти под каждую игрушку свои дрова?... увольте...
прошли те времена, когда я занимался садо-мазо...
это камень в огород не только ати, но и нвиды... совсем распоясались...
Были времена, когда просто гордость переполняла за стабильность работы мозгов от нвиды... и я был горд, что в компе такие были... а теперь...
в общем я так скажу - компании идут в ногу друг с другом... дальше выбирает пользователь, сугубо по субъективному мнению... тесты оооочень необъективны... и по параметрам нельзя достойно оценить...
оценить можно только в очень идиализированных ситуациях... вот...

хотя я сам наверно бы остался на ати сейчас... для дома - неплохой вариант...
да когда вы заткнётесь?
Несомненно на сторону nVIDIa! Лично у меня стоит GeForce FX 6800 Ultra.
2Arm: Не знаю про что ты говоришь! Система на базе АМД стабильна! У меня AMD Athlon 2600+,1024Mb Kingston HyperX и Sapphire Radeon X850XT PE 256Mb - идеальная стабильность!!! Правда когда видеообработкой занимаешься малость подтормаживает... Значит криво ставишь дрова и все такое!
У меня тоже на AthlonXP 2400+/2x512 DDR Samsung/Sapphire Radeon 9600 128MB была стабильность. И щас видеокарту поменял на Galaxy 6600GT 128MB AGP тоже все стабильно.
Так, ну народ, вот мой личный опыт: давно в 2003 году сдохла у меня моя первая видяха (nVidia Vanta 16mb AGP), тогда я знал только нвидию и вуду... причем боготворил нвидию... но как раз тогда появились первые модели радеона (новые) уже 8500 была не новой... короче подзаработал и купил Радеон 9000Про -128мб Саппфир, в коробке, с книжкой, переходником на ДВИ и ТВ-АУТ, БЫЛ СЧАСТЛИВ ДО ПРЕДЕЛА... прошло полгода, апгрейдил комп... мать+проц+рам... ещё несколько месяцев апгрейдил видуху (Радеон продал другу за 2000) выбирал долго, долго сидел на 3Д Ньюс.ру выбирал м/у НОНЭЙМ 5600/5700 ФХ и САППФИР Р9600 радик был тогда очень большой редкостью!!! не нашёл я его и согласился на нонэйм ФХ 5700... нонэйм оказался Palit'ом... комплектация - карточка, пакетик и диск с надписью DRIVERS затем полгода мучений... дрова на нВидяшные карты появляются крайне редко!!! У меня глючили почти все игры (дум3, Риддик, прынц персии) м/б из за разгона Видео 425/500 до 461/550 ПРОЦ/РАМ атлон ХР 2000+/333 мгц -> ХР 2600+/400мгц, но крэшей не было... а ешо АГП разогнал с 66 до 70 мгц... потому что и принц и НФС 8 и Риддик тормозили во всё рубился 800*600 без АА, АФ... на дефолте 3д марк 2003 давал 3196 марок при этом разгоне Сдохло это чудо... денег нету... мало в смысле, купил Саппфир Радеон 9600ХТ, проц, память, агп всё на стандартных частотах, без разгона установил... дрова с диска... первое что сделал - тест того же 3д марк 2003 - 3660 МАРОК!!! все игры теперь юзаю 1024*768 2хАА... НЕТ ТОРМОЗОВ...
И после этого вы мне хотите сказать чтонВидия делает сверх качественные быстрейшие крутейшие видухи? СОМНЕВАЮСЬ! Кстати, к вопросу о ценах... если брать нонейм нвидии и АТИ, хотя нонэйм ати в основном это очень качественные Саппфиры то конечно АТИ дороже на 1000+ руб... а если сравнить РЕТАЙЛ УПАКОВКИ ВИДУХ ОДНОГО КЛАССА... САМИ ПОСМОТРИТЕ ПО ПРАЙСУ ВОБЩЕМ...

П.С. Радеон 9600 тоже оказался в пакетике, без переходников и ТВ аута... но этот пакет был с крышечкой, заклеен, ФИРМЕННЫЙ Саппфировский диск с графикой, и НАКЛЕЙКА FUELED BY SAPPHIRE :-) так что я бы советовал выбирать ВИДЯХИ от АТИ...

П.П.С. - против самой нВидии ничего не имею, ОООООЧЕНЬ доволен чипсетом нфорс2 и как говорит знакомый нфорс 3/4 это вообще нечто!

П.П.П.С. - друг всё ещё юзает Радеон 9000Про мой... играет в то же что и я... Принц персии, дума, риддика... с тормозами но ВСЁ ЖЕ!!! а на ГФ МХ440 и т.п. риддик ваще не пашет НИКАК

ДЕЛАЙТЕ ВЫВОДЫ САМИ
Модераторам пора тему мочить, а то, по-моему, тема уперлась в стенку и дискуссии дальнейшие ни к чему не приведут. IMHO
Ну народ лично я встаю на сторону 3dLABS

Всем смотреть!

Шина 512 бит
Память 640 Mb
Слот PSI-E
dual 400 MHz 10-bit DACs
Поддержка шейдеров 3.0
Текстуры до 7000X7000
Короче совершенству нет пределов))))
2 KLOKUS
Зачем её чистить? Надо просто не трогать её некоторое время, а потом возобновить, и всё будет OK.
Недавно ATI стукнуло 20 лет!
G-man, это вообщето профессиональный графускоритель со стоймостью более $2200
ATI Radon FOREVER!!!
Недавно мы уже попытались обобщить имеющиеся данные о видеокартах на базе чипа R520 и его последователях. Промелькнула даже информация об R580 - "разогнанной" версии R520, которая выйдет ближе к концу 2005 года.

Наши германские коллеги с сайта PC Welt дополнили эту информацию некоторыми подробностями о сроках анонса и примерных ценах на новые видеокарты ATI, которые выйдут в этом году.

Прежде всего, будут выпущены три основополагающих чипа: R520, RV530 и RV515. Каждый из них даст жизнь нескольким модификациям, отличающимся по частотным характеристикам и объёму поддерживаемой памяти.

Например, сам R520 будет 0.09 мкм чипом с 300 млн. транзисторов на достаточно компактном кристалле. Предполагается, что он будет иметь 24 пиксельных конвейера, а вот увеличивать число вершинных процессоров ATI не желает - оно наверняка останется равным шести. R520 обеспечит врождённую поддержку PCI Express x16 и совместимость с Pixel Shader 3.0. Характерно, что R520 и все его потомки данной серии шагнут немного дальше стандарта DirectX 9.0c, обеспечив совместимость с API WGF 1.0. Превосходство R520 над R423/R480 будет исчисляться 33-50%.

О частотных характеристиках R520 известно мало, но рубеж 540 МГц он преодолеет. Видеокарты на базе R520 будут иметь 256 Мб или 512 Мб памяти типа GDDR-3, работающей на частоте порядка 1200 МГц DDR. В ассортименте решений на базе R520 будут присутствовать три модификации: Radeon X950, Radeon X950 Pro и Radeon X950 XT. Впрочем, название ещё не окончательное, и всё может измениться к моменту анонса, который намечен на июнь этого года. Стоимость старшей видеокарты на базе R520 составит 499 евро ($499-550 в других регионах), поставки серийных плат в розницу начнутся в июле.

В сентябре появятся видеокарты на базе чипа RV530, который придёт на смену современному R430 (Radeon X800), и за сумму порядка $229 предложат 16 пиксельных конвейеров, поддержку WGF 1.0 и привлекательный уровень производительности.

В октябре праздник придёт в дом тех поклонников ATI, которые не привыкли тратить на видеокарту более $79. За эту сумму они получат графическое решение на базе чипа RV515, обладающего восемью пиксельными конвейерами и поддержкой WGF 1.0. Остаётся лишь сожалеть, что до октября ещё почти шесть месяцев.
2 Alexandr82
overclockers.ru читаешь? Молодец
Чуваки, вышла карта 6800 Ultra с 512 метрами GDDR3 памяти на борту!
Я тебя с этим поздравляю.
Ой, а мы-то и незнали 8)
Уууу..... Как увидел что кто то эту тему сного поднял.....чуть в обморок не свалился я....

Вы что до сих пор спорите , а то 500 с лишним постов в одной теме ... хм...

Моё мнение : Берите 2 карты и играйте на какой пожелаете..... я до сих пор сижу на FX 5200 ... Нет такой игры которая у меня тормазит (Это не сказка) , я под каждую игру настраивою видяшку... Так что и Халфа летает на полной и НФС не глючит ... а Мир Вар Крафта только из-за нехватки памяти поддёргивает...
Люди! Как думаете что лучше купить под AGP: Radeon 9600 XT или GeForce 6600 (простой, без GT)???
Будут ли эти карты стоить до 150$? Дороже не предлагайте.И если GEforce, то на сколько нужен ему блок питания?
GeForce 6600. Блока питания думаю на 250Вт должно хватить.
В NFSU2 при игре часто возникают серые полосы через весь экран, как будто какие-то стены. Через них можно проезжать, но они не прозрачные. Часто возникают на одном и том же месте. Иногда они сплошь и рядом, а иногда нет совсем. Еще - бывает едешь, а картинка застывает. Потом через несколько секунд опять все нормально. Появляется это тоже с разной частотой. Настройки полные, в других играх артефактов вроде нет (пока смотрел только CS 1.6). На старой видюхе MX 420 64 МБ глюков не было. Подскажите, в чем может быть проблема...
Система:
Pentium 2.26 Mhz, 256 Mb DDR PC 2100, Motherboard Elitegroup L4S5Mg3, Nvidia 6600 GT MSI 128 MB GDDr3 500 Mhz 900 Mhz, HDD 40 Gb Seagate, БП 350 Вт noname.
ATI RADEON
У меня RADEON 9800 SE поэтому я отдам свой голос...........RADEONу!
Yurban3
Пяткой в грудь бить не буду, но подобные финты GeForce у меня выдавала на дровах идущих в комплектации с видяхой. После того как поставил более свежую версию драйверов, всё наладилось=)
Попробуй покавырятся здесь http://www.nix.ru/drivers_list.html?key=34854
P.S. Полагаю у тебя ХР стоит =)))
hz
06.03.05 00:27 Тысячи за 2 недели.
Читая это Вы можете изменить свою жизнь! Это
изменило и мою :


Мля....чувак! Время пирамид прошло!!!=))))
Если раньше были "открытки", то переход на интернет сути мыльного пузыря не меняет =))))
Лохотроном где-нить на стороне занимайся!
Платформа Athlon64 3400+ (AGP):
Рейтинг полезности
01. NVIDIA GeForce 6800 GT 256MB, 350/1000 MHz (07)
02. ATI RADEON X800XT PE 256MB, 525/1150 MHz (09)
03. NVIDIA GeForce 6600 GT AGP 128MB, 500/900 MHz (01)
04. NVIDIA GeForce 6800 Ultra 256MB, 425/1100 MHz (14)
05. ATI RADEON X800XT 256MB, 500/1000 MHz (10)
06. NVIDIA GeForce 6800 GT 128MB, 350/700 MHz (02)
07. NVIDIA GeForce 6800 128MB, 325/700 MHz (03)
08. NVIDIA GeForce 6800 256MB, 350/1000 MHz (08)
09. ATI RADEON X800 PRO 256MB, 475/900 MHz (06)
10. NVIDIA GeForce 6800LE 128MB, 325/700 MHz (04)
11. NVIDIA GeForce 6600 AGP 128MB, 300/500 MHz (--)
12. ATI RADEON 9800 PRO 128MB, 380/680 MHz (15)
13. ATI RADEON 9600 PRO 128MB, 400/600 MHz (05)
14. ATI RADEON 9800 PRO 128MB 128bit, 380/600 MHz (13)
15. ATI RADEON 9600XT 128MB, 500/600 MHz (16)
16. ATI RADEON 9550 128MB 250/400 MHz (11)
17. NVIDIA GeForce 6200 AGP 128MB, 300/500 MHz (--)
18. ATI RADEON 9600 256MB, 325/400 MHz (12)
19. NVIDIA GeForce FX 5900XT 128MB, 390/700 MHz (18)
20. ATI RADEON 9600SE 128MB 64bit, 325/400 MHz (17)
21. NVIDIA GeForce FX 5700 128MB, 425/550 MHz (19)
22. XGI Volari Duo V8 Ultra 256MB, 330/900 MHz (--)
Места в рейтинге "перспективности" распределились следующим образом (в скобках — рейтинг по данным прошлых 3DGiТогов):

01. NVIDIA GeForce 6800 Ultra 256MB, 425/1100 MHz (01)
02. ATI RADEON X800XT PE 256MB, 525/1150 MHz (02)
03. ATI RADEON X800XT 256MB, 500/1000 MHz (03)
04. NVIDIA GeForce 6800 GT 256MB, 350/1000 MHz (04)
05. NVIDIA GeForce 6800 256MB, 350/1000 MHz (07)
06. ATI RADEON X800 PRO 256MB, 475/900 MHz (06)
07. NVIDIA GeForce 6800 GT 128MB, 350/700 MHz (05)
08. NVIDIA GeForce 6800 128MB, 325/700 MHz (08)
09. NVIDIA GeForce 6600 GT AGP 128MB, 500/900 MHz (09)
10. NVIDIA GeForce 6800LE 128MB, 325/700 MHz (10)
11. ATI RADEON 9800 PRO 128MB, 380/680 MHz (11)
12. NVIDIA GeForce 6600 AGP 128MB, 300/500 MHz (--)
13. ATI RADEON 9800 PRO 128MB 128bit, 380/600 MHz (12)
14. ATI RADEON 9600XT 128MB, 500/600 MHz (13)
15. ATI RADEON 9600 PRO 128MB, 400/600 MHz (14)
16. NVIDIA GeForce FX 5900XT 128MB, 390/700 MHz (16)
17. NVIDIA GeForce 6200 AGP 128MB, 300/500 MHz (--)
18. ATI RADEON 9600 256MB, 325/400 MHz (15)
19. ATI RADEON 9550 128MB 250/400 MHz (17)
20. NVIDIA GeForce FX 5700 128MB, 425/550 MHz (19)
21. ATI RADEON 9600SE 128MB 64bit, 325/400 MHz (18)
22. XGI Volari Duo V8 Ultra 256MB, 330/900 MHz (--)
(http://www.ixbt.com/video2/itogi-video.shtml)- Учитайтесь в доску!!!=)))
Платформа Athlon 64 3800+ (PCI-E):
Рейтинг полезности
01. NVIDIA GeForce 6600 GT 128MB, 500/1000 MHz (02)
02. NVIDIA GeForce 6800 GT PCI-E 256MB, 350/1000 MHz (07)
03. ATI RADEON X800XL 256MB, 400/990 MHz (01)
04. ATI RADEON X800 256MB, 400/990 MHz (--)
05. ATI RADEON X850XT 256MB, 520/1080 MHz (--)
06. NVIDIA GeForce 6800 Ultra PCI-E 256MB, 425/1100 MHz (12)
07. ATI RADEON X800XT PE PCI-E 256MB, 520/1120 MHz (09)
08. ATI RADEON X850XT PE 256MB, 540/1180 MHz (11)
09. ATI RADEON X700PRO 256MB, 425/860 MHz (03)
10. ATI RADEON X800XT PCI-E 256MB, 500/1000 MHz (08)
11. NVIDIA GeForce 6800 PCI-E 256MB, 350/600 MHz (--)
12. NVIDIA GeForce 6800 GT SLI 2x256MB, 350/1000 MHz (13)
13. NVIDIA GeForce 6600 GT SLI 2x128MB, 500/1000 MHz (06)
14. NVIDIA GeForce 6600 128MB, 300/550 MHz (05)
15. NVIDIA GeForce 6800 SLI 2x256MB, 350/600 MHz (--)
16. NVIDIA GeForce 6800 Ultra SLI 2x256MB, 425/1100 MHz (17)
17. ATI RADEON X700 128MB, 400/700 MHz (04)
18. NVIDIA GeForce 6200 128MB, 300/550 MHz (10)
19. ATI RADEON X600XT 128MB, 500/760 MHz (16)
20. ATI RADEON X600 PRO 128MB, 400/600 MHz (15)
21. ATI RADEON X300 128MB 325/400 MHz (14)
22. NVIDIA GeForce PCX5900 128MB, 350/550 MHz (18)
23. NVIDIA GeForce PCX5750 128MB, 425/500 MHz (19)
Места в рейтинге "перспективности" распределились следующим образом (в скобках — рейтинг по данным прошлых 3DGiТогов):

01. NVIDIA GeForce 6800 Ultra SLI 2x256MB, 425/1100 MHz (01)
02. NVIDIA GeForce 6800 GT SLI 2x256MB, 350/1000 MHz (02)
03. ATI RADEON X850XT PE 256MB, 540/1180 MHz (03)
04. NVIDIA GeForce 6800 SLI 2x256MB, 350/600 MHz (--)
05. NVIDIA GeForce 6800 Ultra PCI-E 256MB, 425/1100 MHz (04)
06. ATI RADEON X800XT PE PCI-E 256MB, 520/1120 MHz (05)
07. ATI RADEON X850XT 256MB, 520/1080 MHz (--)
08. ATI RADEON X800XT PCI-E 256MB, 500/1000 MHz (06)
09. NVIDIA GeForce 6800 GT PCI-E 256MB, 350/1000 MHz (08)
10. ATI RADEON X800XL 256MB, 400/990 MHz (09)
11. ATI RADEON X800 256MB, 400/990 MHz (--)
12. NVIDIA GeForce 6800 PCI-E 256MB, 350/600 MHz (--)
13. NVIDIA GeForce 6600 GT SLI 2x128MB, 500/1000 MHz (07)
14. NVIDIA GeForce 6600 GT 128MB, 500/1000 MHz (10)
15. ATI RADEON X700PRO 256MB, 425/860 MHz (11)
16. ATI RADEON X700 128MB, 400/700 MHz (12)
17. NVIDIA GeForce 6600 128MB, 300/550 MHz (13)
18. ATI RADEON X600XT 128MB, 500/760 MHz (15)
19. NVIDIA GeForce 6200 128MB, 300/550 MHz (14)
20. ATI RADEON X600 PRO 128MB, 400/600 MHz (16)
21. NVIDIA GeForce PCX5900 128MB, 350/550 MHz (18)
22. ATI RADEON X300 128MB 325/400 MHz (17)
23. NVIDIA GeForce PCX5750 128MB, 425/500 MHz (19)

(www.ixbt.com)-читайте, дискутируйте, а мне уже на мозги свои драйвера обновлять надо!=)))
4ekucTT
Дрова сначала были 71.24, которые поставлялись вместе с видяхой. Потом поставил 76.10 никакого эффекта. Стоит Windows XP SP2. Другая видюха (5600XT) на дровах 71.20 не вызывает никаких артефактов.
httpwww.techlabs.byarticlesmethodsoftesting5101071print
КАК ПРАВЕЛО КАКАЯ ВИДЮХА БЫЛА ПЕРВОЙ ТОЙ ФИРМЫ И БУДУТ ПРИДЕРЖИВАТЬСЯ ВДАЛЬНЕЙШЕМ !!!
u mja GeForce fx 5200 i poltora goda nazad ja bil ej dovolen no shas uvi.......:[
2 ManUtd
Не гони на GeForce FX 5200! У меня самого она сейчас стоит, только правда резанная... Ну так вот, все недавно вышедшие игры нормально идут на средних настройках. И что тебя в ней не устраивает?
XBox 2 будет на базе графического процессора R500. Microsoft выбирает ATI - делаем выводы!