<b>nVidia vs ATI: переспективы развития: [Closed]</b>

последние поколения ATI = NVidia
предпоследние поколения за ATI

А насчет кривых драйверов то это треп. На nVidia еще поглючнее будет: попробуйте с новыми дровами на FX запустить Medal of Honor.

У меня ATI Radeon 9600 и я вполне доволен, проблем нет.
Ставлю переделку "FORSAGE" с www.HardwareLab.ru + Полезный твикер "ATI Tray Tools" с www.Radeon2.ru

Комментарии: 568
Ваш комментарий

Хотелось бы верить что у АТИ дрова нормальные, но практика показывает обратное. Thief 3 идет нормально только на 4.6, Морровинд вообще глючит по страшному на каталисте выше чем 4.5 (у меня 9600хт). Этих примеров, к несчастью довольно много, за что, в принципе ваятелей драйверов для радеонов нужно подвесить за это самое место :)

0

У меня Morrowind и Thief 3 ходят нормально на новых дровах. А Thief и на GeForce без новых дров глючил. И я бы сказал что на GeForce глюков побольше. А ATI может раньше и славилась глючными дровами но теперь об этом не скажешь. Да есть, но очень мало что даже не вспомню что у меня глючило в последний раз.

0

Оба-я пользовалсякарточками обеих фирм-производителей. Поих временам-Идеалы.

0

Обе фирмы по свойму хороши
но помне лучше моей msi ati radeon x800pro нету(это почти как xt сапфировская)
раньше сидел на fx 5200 и не жаловался пока игрухи типа дума 3 непопёрли

0

Во-во, у меня счас как раз FX 5200 и DOOM3 тоже бегает при определённых настройках (а чё там в темноте графу высматривать?) и Far Cry(птицы-стрекозы все летают и графа красивая). Поэтому пока не появится какая-нть действительно несусветно тормозная игрулина, карту менять не буду - эта вполне устраивает!!!
Надо просто уметь настраивать свет и тени - пробуйте разные настройки...

0

to Smith
бери Radeon 9000
4 конвеера, полная поддержка DirectX 8.1

0

На Атях глюков однозначно меньше, а начиная с Рад9600 против Гф5700 Нивидия и по скорости в жone. Я летом апгрейдился - выбирал между 9800 и 5900 - оставил Радик и сейчас исключительно доволен.

0

2 Smith

Если шина памяти 128-bit то однозначно ДА. Круче твоей нынешней и очень намного.

4 конвеера, Pixel Shader 1.4, Vertex Shader 1.1 - полный DirectX 8.1. На твоей старой 2 конвеера и поддержка DirectX 7.

Я думаю по скорости будет более чем в 2 раза быстрее

0

У МЕНЯ GEFORCE FX-6800 ULTRA/А С НАЧАЛО БЫЛА RADEON-9600\ОБЛАДАТЕЛИ КАРТ RADEON МОГУТ ЗАМЕЧАТЬ В МОЩНЫХ ИГРАХ С МАЛЫМ ОСВЕЩЕНИЕМ-------БОЛЬШИЕ ГЛЮКИ(SILENT HILL 3 PRINCE PERSIA

0

У меня лично в этих играх на 9600 глюков не было

0

Как то попались мне две карточки Radeon 9600 256 mb и GeForce fx 5700 128 mb. Я их протестировал и GF5700 радеончик сделал не намного но все равно сделал. Напомню, что 9600 - считается эквивалентом 5700. Так что я оставил 5700. Мой выбор GeForce'ы.

0

Всеми руками за Radeon! Много всякой бредятины читал про радеон что дрова кривые, что глючит все по страшному - вот я вам скажу что все это брехня! Небыло ни одной игры с которой бы испытал проблемы из-за видео карточки, с nvidia этого сказать немогу. Если вы не хотите разбираться не в чем выбирайте nvidia, а если вы крутой геймер и вобще увлекаетесь компьютером совет один - radeon. Т.к. на nvidia игры удут чуточку быстрее без всяких наворотах (антизальтропной фильтрации, сглаживания), но нам то такого не надо! Поэтому выбор один Radeon =)

0

Те, кто за (не все, но многие) за NVidia, у тех это первая и единственная карта, и голосуют за GeForce, потому что у них не было Radeon! Я тоже вначале считал GeForce лучшей и точно также думал про дрова и софт, и глюки! НО! Когда стал пользоваться продукцией ATI, понял, что NVidia - это просто хороший маркетинг!

0

у нвидии обсчет шейдеров 2.0 более честный, потому и медленее,
это почти не видно, но только почти.
Только изза этого результаты ниже
с АТИ перешел на Гфорс и доволен.
при каждой новой игре не лазею в инете в поисках св. драйверов (как при АТИ было (это была ж...!))
имею 5900xt(450/850) и не жу-жу!

0

Офигеть! Я и забыл уже, что эту тему делал, а её тут реально подняли. :o
Кстати я прикупил себе одину из последних видюх от Radeon.

0

2 simpson
Особенно "честный" в FarCry 1.1 где производительность GeForce FX подняли за счет заметного ухудшения качества. Слава богу 2.0 на 6x00 подправили, а то бы загнулась ваша nVidia. Еще не известно какие там третьи получились.

0

у мя Радеоны на компе и нубуке стоят
на компе 9800 про на 256 метров
на нубуке мобилити м 6 на 32 метра
с дровами никогда кривостей не было-ставлю новые как тока выходят

з.ы. дум 3 после "спец" дров стал бегать на "всё на полную" и никаких тормозов

0

Че там за радуга и где на нее посмотреть можно. Требую подробно рассказать.

0

Киньте скриншот на мыло с радугой, хочу посмотреть

0

Я писал что нахожусь на стороне нвидив, но теперь это не так. Вчера я сменил palit GFmx400 64mb HA sapphire 9550 128 bit; 128mb. Ati Я с вами.
ЗЫ и еще я прикупиил себе наконец двд ром
Ура

0

Нельзя утверждать, что лучше - нВидия или АТИ, ЖеФорсы или Радеоны (а не "nVidia против Radeona")!
Все зависит от конкретной видеокарты и конкретной игры.
Во времена ЖФ2мх400 я смутно представлял, что такое АТИ и Радеон, только слышал об их глючности и беспонтовости. Затем ЖФ4мх440 ваще погнался по чипу до 380МГц и полгода не знал печали, дрова переставлял очень редко, т.к. старый ДХ7.0 "не конфликтовал" с новыми играми. Когда захотелось увидеть ДХ8.0 перешел на Радеон 9100 (тот же 8500) - воспоминания исключительно положительные. Я убедился, что Радеон не так дорог, как Титаник, но абсолютно безглючен и проблем с дровами не было и картинка красивая. Потом перешел на 5900ХТ - тут-то и начались пляски дровами. Почти каждую неделю новые дрова, под конкретную игру нужно было подбирать конкретные дрова и, естесственно, самое большое разочарование от шейдеров 2.0 и игры ФарКрай, которую я без матов так и не смог пройти - пляска с дровами и патчами ещё та была (играть можно было, но качество в той или иной мере страдало).
В чем хороша эта видюха - это в разгоне до 5950Ультра и высокой производительности в Дум3 и играх на движке Квейк, Анрыл.
Короче есть свои плюсы и минусы у каждой видюхи.
5900ХТ дешевый, гонимый, крутой во многих играх, но провальный во 2ых шейдерах,
9800Про дорогой, круче в играх со 2ми шейдерами, но этих игр меньшинство.
и т.д.

0

Незнаю как рание но щас Nvidia поимела радеон ,6800 Ultra тестировал в Doom 3 и Half laif 2(для этой игры лучше подходит Радеон) и вобще в тестах выйграл 6800 Ultra,тестировали с x800XT ,проц и аперативы были одинаковые.
Ati готовит щас отпор но пока неизвестно какой.
Веть когда они выпустят супер видюху которая будет иметь 6800 ultra,Nvidia выпустит уже чип с 4 потдержкой шейдеров.
Кстати в винде longorn будет включен 10 DX и там будет включена потдержка 4 верссии шейдеров.

0

И что ты там гвоарил Александр ,все можно врубать анизатроп со зглаживанием незнпю как у твоего радеона но мой 6800 ultra справился на ура.

0

2 GhZero

А теперь посмотри на тесты X850PE
http://www.ixbt.com/video2/r480.shtml
http://www.ixbt.com/video2/r480-tr.shtml

Кто кого поимел?! Разве что в OpenGL и играх с малым использованием PS Radeon слегка проигрывает. Так что в ирах будущего преимущество за ATI. У нее уже 51% рынка, а у NVidia сорок с небольшим. А на счет PS3.0 это еще вопрос. Не уверен что их будут активно использовать в ближайшее время. Ни одной игры нет где бы они использовались.

0

Главное радеон обходит Nvidia на малых разрешениях,на 1600-1200 6800 гдекф поимел радеон,я лучше сыграею на высоком качестве чем на низком.

0

Тимболие я имел ввиду в том обошла что их 6800 было соедененных Ati вот в чем проигрывает она ,и еще проблемы с играми какую игру не куплю везде знак Nvidia только во 2 халфе была ати и все а ты гвоариш 51%. Какой там процент,тимболие 3 шейдеры будут в 3 Унреале.

0

Знак nVidia это всего лишь реклама которой хотят промыть нам мозги. NVidia лучше бы вместо рекламы деньги на разработку тратила, а не выпускала сырые продукты с новыми технологиями. И я посмотрю как ты поиграешь в 1600x1200 в новых играх. Я думаю мощости GeForce 6x00 не будет хватать для игры в Unreal 3 с PS3.0.

А в Far Cry PS3.0 используются для замены PS2.0 и только. Никаких преимуществ кроме скорости не дает (за счет этого новые GeForce догнали Radeon). А на отстойных GeForce FX в Far Cry скорость подняли за счет ухудшения качества картинки.

0

2 GhZero
Вот ты гришь, мол 6800 обходит радеон (какой? х800?) на 1600*1200.
Все очень не просто. В разных приложениях по-разному ати и нвидиа карты себя ведут! Сколько
раз я это говорил! И если в unreal 2004(1600*1200) у 6800 ~ 80 кадров, а у радеона 78,9, то какая тебе разница! Ты ведь ее (разницу) как не пыжься не почувствуешь! Да и на кой тебе такое разрешение. Меня
вполне устраивает в любой игре 1024*768 + 4х АА. За глаза и за уши хватает, и ресурсов жрет меньше.

P.S. На самом деле я не знаю какие фпс на таком разрешении у 6800\х800. Так, догадываюсь =)
Попрошу Александра82 меня поддержать.

0

лично я - перешел с Nvidia на ATI. с GeForce Ti4200 на 9800pro. как же я намучился с дровами! ужас. одна игра идет только с такой версией, другая - с другой. на телевизор выводится чёрти что (я фильмы смотрю так) - с искажением цветов, с помехами и размытостью. у меня никогда не было таких проблем с GeForce, несмотря на ту же самую конфигурацию компа и длину провода до телевизора. будет возможность - махну этот radeon на Nvidia не глядя!!!

0

Страшное будущее 1600x1200 (1024x768)

3D Mark 2005 Game 1
Radeon X850PE - 20 (27,6)
Geforce 6800 Ultra - 15,9 (22,7)

3D Mark 2005 Game 2
Radeon X850PE - 10,9 (15,6)
Geforce 6800 Ultra - 10,2 (14,5)

3D Mark 2005 Game 3
Radeon X850PE - 20,2 (29,4)
Geforce 6800 Ultra - 17,4 (26,5)

PS: А Geforce рулит в OpenGL и приложениях с малым использованием PS2.0. Он слабоват для сложных задач.

0

Дело вкуса... 1.5 года назад я отдавал предпочтение nVidia (еще не пробовал ATI, да и не было его ни у кого). Сейчас стоит Radeon 9600XT (без разгона) и тормоза (они у каждого есть, у некоторых в голове...) вижу редко. И все же - дело вкуса...

0

Извечный нерешаемый на сегодняшний день спор.
У каждого производителя есть свои "+" и "-"...
Я лично гоняю на своём стареньком гф3 ти-200 128мб и ощутил реальную не хватку карточки только на фар крае, в остальный играх я не припомню чтоб он меня подводил, щас играю в халфу почти на максималках лагов не ощущаю...
Но и не имею ничего против радионов, хорошие карточки, тоже мощные, "тоже" дорогие... Один хрен за производителями не угонишься, например, сёдня купил ты радика х800 или какой там последний, завтра вышел новый, а потом смотришь какой-нибудь тест и узнаёшь что это хиповая карта, а твоя которую ты приобрёл вчера полна глюков и не доработок, которые хранил в себе производитель и выпустил проагрейженную новую карту..Та же тема и с гф..хз.хз.хз...

0

C half life 2 облом GE FORCE FX работает в режиме dx 8.1, а на radeone 9600 и выше аппаратно dx 9.0 (VALVE КОЗЛЫ!!!!)

0

FX самое отстойное поколение карт nVidia, кто за?

0

Драйвер Forsage не имеет инсталятора и его надо ставить через диспечер устройств. Выбирашь там карту > правой кнопкой > обновить драйвер > и там указываешь папку куда распаковал Forsage.

0

С халвой 2 уже решена проблема насчет видюхи от NVIDIA там короче патч вышел разрешает 9 директ использовать ,я поставил вроде ништяк все.

0

Кто говорил что качество на Radeon хуже, тем сюда
http://www.ixbt.com/video/itogi-video/1104/itogi-video-gallery.html

Кто знает куда делся обзор с IXBT где в Far Cry тестировались GeForce FX и было показано за счет чего им удалось догнать Radeon? Не nVidia ли поработала, чтобы свой позор закопать?

0

ДА знаю я ,не себе ставил та.

0

Александр,ты дамл ссылку про видюхи качество та,посмотри сплинтер Сел пандора томора,на 6800 и на x850 плюсы в сторону 6800 это видно на глаз.

0

2 GhZero
На самом деле ето глюки.

2 DeadSteel
www.HardwareLab.ru - Драйвер FORSAGE
www.ati.ru - родной драйвер
www.guru3d.com - драйвер DNA
www.omegadrivers.net - драйвер Omega

0

Сам подумай.
NVIDIA 6800Ultra 450MHz на ядре
Сырые дрова. Новое ядро.
Что-бы ее догнать пришлось поднять частоту почти до предела.
ATI X850XT 540MHz на ядре
Дрова ATI вылизовала 2 года

Потолок для нынешних карт 600MHz, запас у ATI- 60MHz, у NVIDIA- 150MHz
Потихоньку NVIDIA вылежит драйвера, и в секторе PCI-E, ей не будет равных.

0

Знаем мы как nVidia дрова лижет. Потом картинка вся замусоленая но зато скорость :).

0

Только Радик в HL2 вода нормальная да же на 9600 а у Nvidia только на 6xxx. Хотя у меня стоит Nvidia

0

Надо взять примерно одинаковые карты разных брендов и купить ту, которая дешевле.Так, думаю, сделает каждый не смотря на слюнявые споры.

0

Ошибки в GeForce 6600 GT

По сообщению сайта Hard tecs 4U в некоторых ревизиях GeForce 6600 GT существуют проблемы. По их информации у ряда видеокарт производителей, таких как XFX, Prolink, Albatron и AOpen наблюдались артефакты при тестировании, об этом сообщили на их форуме.

AOpen подтвердила, что эти артефакты могут проявиться при определённых условиях на некоторых ревизиях NV43. На данный момент корпорация совместно с NVIDIA выясняет причины их вызывающие.

Неизвестно что именно является виной этой проблемы, возможно, это брак партии чипов, а возможно проблема вызвана редизайном печатной платы, которую провели производители видеокарт.

0

А откуда новость взял? WWW.NVWORLD.RU!!!

0

2 killerbug
Солидарен с тобой полностью.
Nvidia рулила, рулит и всегда будет рулить!
А радики.... :-(((
Ничего о них хорошего сказать не получается

0

Кстати, здесь, на этом форуме, промелькнуло хорошее замечание - у кого какая карта, тот ту и хвалит!
Дамы и джентльмены! Давайте жить дружно! Ведь все МЫ - ГЕЙМЕРЫ!

0

Я недавно видел у друга моровинд на 9800про.Так вот там на воде,.. на ней плавали зигзаго образное подобие волн 8)).
После тщательной настройки видюхи в ее !кривых дровах! волны стали более круглыми ,только в 10 раз больше нормальных а самой воды видно не было она была как воздух.Вобщем забавная вещь.В ут 2004 шейдеры якобы "качественные " и быстрые показывали на текстурах блестящие пятна явно не того размера, в халфе 2 ваще убогость полная, на 9600 у другого друга я заметил некоторое уродство текстур ,да такое что мне глаза резать стало.Как выяснилось он просто не нашел в этом дибильном каталисте обыкновенных настроек качества OpenGL. На старых 2д играх типо алиен шутера глюки тоже имеются. Вобщем Ати меня ни чем не радует, наоборот пугает даже.
ATI - NEVER!!!

0

2 Fanatic
На 9600 все нормально с Морой. И вообще полный бред несешь. Смотреть скриншоты здесь
http://www.ixbt.com/video/itogi-video/1104/itogi-video-gallery.html

На счет более качественного OpenGL на nVidia чушь

Смотри скриншоты DOOM3
1) обрати внимание на решетку на полу (на nVidia там размытие)
2) обрати внимание на овальные выемки балкона (на Radeon они четче)

0

2 Alexandr
Посмотри во-о-о-о-о-о-н на тот пиксель в том конце экрана, и на в-о-о-о-о-о-н ту точку.
Странные у тя суждения. Прилип к IXBT почём зря. А у радеонов глюки имеются, это прада

0

У меня GeForce FX5600, никогда на неё не жаловался и ни когда не подводила, очень надёжная! С дровами всё ок!
Вопрос на засыпку: можно ли скачать обои с изображением видюх (nVidia желательно) nVidia RULEZZ! (Не навиже это слово!!(RULEZ))

0

А у ATI и не было нового поколения. Так что битва с 6x00 еще впереди.

x300 SE - 9600 se под PCI-E
x300 - 9600 под PCI-E
x600 Pro - 9600 pro под PCI-E
x600 XT - 9600 XT под PCI-E
x700 Pro - 9800 Pro под PCI-E
x700 XT - 9800 XT под PCI-E

А это новинки на старых технологиях под PCI-E: увеличили конвееров, геометрических процессоров.
x800 Pro
x800 XT
x800 XT PE
x850 XT PE

Конешно были мелкие доводки, но это не новое поколение. Да и вообще не много изменилось со времен 9700. Все это были доводки до идеала.

P.S. Это затычки (очень неплохие при этом) до выхода нового поколения, которое скорее всего сильно ударит по ногам nVidia. ;)

ATI не глючит - это ФАКТ

0

Мой гыфорс 4600 сгорел меньше чем через пол года. Производитель НЕ нонейм, в свое время за нее отдал 400 уюитых энотов. Так какое может быть у меня отношение к НВИДИА? Еще если вспомнить и ценовую политику, то становится плохо. В общем Ати рулез.

0

Мало ли что у кого сгорело.У моих знакомых такие вещи горели которые даже гореть не могут 8), брак всегда где нибудь да и попадется.
Другое дело когда бракованые чипсеты продолжают использовать в моделях постраее.Так как раз делают очень многие фирмы работающие с АТИ.Например хоть сапфир который дешевле нойнейма стоит :)).
Мне еще кажется что у Ати 9600 самая удачная модель. На ней наверно чипсет нормальный, глюков меньше. Зато шейдеры просто "класс".
У моего друга с 9600 в моревинде вода тоже не глючит зато если ее качество сравнить с любой картой от нвидиа разница сразу будет заметна,
и не в пользу ати.

0

Комп к нему таскал и на воду глядел? Про оптический обман слышал?

0

2 Alexandr82
Fanatic всё правильно говорит. В Morr`e вода ужжжжжжас на глюкало-радеонах

0

Значит у вас глаза кривые. На 9600 все нормально.

0

А я и не говорил что не нормальная. Я имел ввиду то что не такая как на Нвидиа.
Да и вобще если куплю себе то тока нвидия :
1)глюков никаких не будет
2)если будут значит игра кривая с багами. Помните фаркрай и дум буз патчей?
3)настройка дровов гораздо функциональней чем у ати, да и удобней во много раз тоже.
4)Так как я говорю про настоящий момент времени, по цене и фишкам типо пиксельных и вертексных шейдеров 3.0 и SLI, лучше нвидия.

P.S Особенно по ЦЕНЕ.

0

GF 6xxx серия сейчас на коне, в предыдущем поколении видеокарт впереди была Ati, что будет дальше одному Богу известно. Но возможности Sli режима дают Nvidia некоторую фору

0

Режим SLI - это смешно. Чуть-чуть быстрее Radeon X850 PE и при этом денег дохрена за 2 карты платить.

PS3.0
Radeon 9700 выше в 2002 году (весной вроде), а DirectX 9 активно используется лишь в этом году. Так что вот стока времени прошло, и я думаю еще тока ближе к зиме следущего года PS3.0 станут полностью использовать, если не еще позднее. К тому времени все ваши навороченные 6800 станут средним звеном. Так стоит ли за это платить щас кучу бабла.

0

sli режим дает 75% прирост производительности по сравнению с одной рабочей видеоплатой. Как можно сравнить даже самый продвинутый радеон с мощностью работы двух Gf 6800 gt к примеру

0

СЛИ - это для профессиональных разработчиков. Обычному геймеру на 6800ГТ бы накопить... ИМХО никто не победит. Рынок поделится 50/50, способствуя тем самым здоровой конкуренции и улучшению жыфорсов и радионов.

0

Да уж ладно накопить...
Если есть кто может за 600$ может позволить х800xt pe то на 2 6600 gt хватит уж точно.Или на 2 6800 от асус.
А если сравнивать цену на х850pe то думаю ваще комп собрать можно былоб например атлон 64 с оперативой винчакоми всеми делами, без монитора 8)
Нахрен кстати х850 нужна?
Толку то от нее?
Выжатый лимон е-мое.

0

2 chisik i Fanatic
http://www.ixbt.com/video2/sli-d2.shtml#p27
покажи где тут 75%

0

Sli режим отлично показывает себя в высоких разрешениях, что в принципе говорит о его высоком потенциале. Тут нужно еще учесть что новый продукт Nvidia еще чересчур сыроват, с ним еще работать и работать. Но за Sli светлое будущее, в этом сомнений нет. Я думаю, что нечто наподобие Sli может появиться и в линейке ATI, иначе канадцам не выдержать конкуренции

0

2 Alexandr82

Послушай, ты какой-то странный ей богу. Отрицаешь абсолютно любые (иногда справедливые) возражения против ATI.
ATI - хорошие карточки, но по-твоему они абсолютно во всем идеальны! А идеала не бывает! :-)
Лично у меня 5700 Ultra и я доволен. Хотя у друга 9600XT и он тоже доволен.
Обе хорошие карты, на практике разницы ну никакой!
Хотя когда я покупал свою, она стоила чуть дешевле ATIшной, что и предопределило мой выбор.

0

Александр с пеной у рта восхваляет Ati и даже не хочет признать того,что Nvidia c серией видеоадаптеров 6xxx уже давно на коне и свои передовые позиции не сдаст по крайней мере до появления нового поколения карт канадцев

0

И вобще почему все кто за АТИ не могут что-нибудь толком про нее расказать.
Я вобще хз какие у нее фишки,а то что она мощная я уже слышал.
А есть у нее что-нибудь по типу CineFX3.0?

Круто на савеловском рынке напокупал наклейки с нвидиа терь расклеиваю везде =)).

0

Вы будете смеяться но нвидиа тоже сделает кучу новых видюх толи это будет линейка новая 8),или новые 6ххх.
Причем в одно и тоже время с АТИ.
Одно слово канадцам надо будет сделать что то очень крутое.
Хотя известно что выйдет только 1 видюха на чипсете 520 ,когда у нвидиа их будет не меньше 2 на разных чипсетах.
Трудно придется канадцам.

0

Примечательно то, что ATI выпускает новые драйвера почти каждый месяц, Радеон разгоняется куда лучше чем жифорс, последние чипы немного быстрее. Минус - цена.

0

Каждый месяц выходят новые игры вот они и делают к ним каждый раз новые дрова чтоб не глючило.8)
И то не всегда получается.

0

Это у производителей игр руки кривые, а производителям карт выкручиватся приходится. Не тестят нормально, а стараются быстрее выпустить. Глюков больше исправляет патч к игре, чем новые дрова для видео.

0

Ну не такие уж и кривые. Игра делается не за неделю и даже не за месяц, а иногда и несколько лет (пример всем известные последние игры). Ну ты прикинь, черти начинают делать игру, когда повсюду жефорсы 2 или 3, а под конец идет, ну ты сам знаешь ;).

А я на стороне Радионов, по производительности делают всех, и ни куда от этого ни денешся. А что до плюшек, которые они не поддерживаю типа SLI, или как ее там. То это вопрос времени.

0

А хрен знает когда настанет время это с фишками от АТИ.
То что она мощнее компенсируется глюками.
Да и то мощнее всегда на максимум 5-10 фпс.

0

Вечно ему глюки мерещатся. Наркоман наверное.

0

Хмм.Я не псих и не наркоман.
А вот Даниил ....
Чо за хрен ваще, опухли чтоли?
Вы на своем радеоне нормалной графы не видели поэтому все нормальным и кажется.
Чо ваще практически все кто пишет за нвидиа тот хотя бы мотивирует свои мнения,а кто за АТИ тот только "круто круто" и "мощно мощно" - куча орущих обезьян ,меня это уже бесит ,АТИ из всех мозги выбивает наверное.

0

>Fanatic. У меня на полочке лежат 2 коробочки....
Одна с FX5200, другая с FX5700Ultra. А в компе RADEON 9600XT.
И этим двум (которые на полочке) я уже давно мыслено приклеил
по ярлычку с надписью "говно"......

0

А gf 6800 у тебя на полочке нету. А то я бы с огромным удовольствием спас бы тебя от созерцания этого г.

0

А средним классом уже второй месяц стала 6600.Разьве нет?
Она и стоит дешево если не gt то до 200$.
А 6200 тоже не слабая.Можно извратится и купить две с SLI 8).
Вобщем новая линейка.

0

Реально на сегодняшний день - лучше всего брать Radeon9800pro (или XT), ну и 9600pro тоже неплохо.
Что касается NVidia - на сегодняшний день ну нет у них нормальных карт по той же цене-качеству.
Все говорят 6600 там, или 6800 - но они дорогие. а на тех же радеонах и так всё (на сегодня) будет идти без проблем!!!! !!!!!!!!!!!!!!!!!Это ФАКТ!!!!!!!!!!!

0

Не знаю , мне кажется сейчас покупать radeon9800*** просто глупо т к цена как у g6600gt или x800 которые на много быстрее и по рекомендованной цене даже дешевле. Хотя в продаже я их почти не видел(пока) . Radeon9600xt фигня , переходя с geforse2 ti200 я ожидал большего .
Т к меня интересуют AGP карты и по ряду других причин я выбираю однозначно NVIDIA

0

Мой друг купил sapphire 9800 pro и несказанно рад глюкам и сейчас.За 180$.
А через 2 недели в продаже появились 6600 на pci-e за 140$
Сейчас 6600 на pci-e стоит ваще копейки (для такой видеокарты) 120$
А agp8x 6600 gt стоит 210$, на pci-e 6600 gt - 180$.
Если сравнивать 6600 с 9800 то все тесты показывают что 9800 в большой ....
Ну и что выгодней покупать?
Кстати цены удобно смотреть на www.price.ru

0

Во первых: Я эти карты брал тогда когда они были крутыми (т.е. давно)
Во вторых: Мне RADEON 9600XT обошёлся в 70$.
В третьих: Если бы я щас брал карту я бы взял GF6800, а скорее всего подождал пока ATI чё-нить толкового не намудрит.
Но как обычно все дела упираются в бабло.

0

В одном журнале написано что 520 (новый чипсет) от ати купили технологию с PS 3.0 у Nvidia.
Так что я не знаю что у них из этого получится.

0

---------Fanatic----------
Ты сначала скажи чё у тебя за видюха, а потом и поговорим!!!
Я видел В РАБОТЕ и ту и другую(9800pro и 6600) и одназначно говорю тянет радеончик НА МНОГО ЛУЧШЕ!!!
А тестами только подтираться можно!!!

0

Интересно, поклонникам Ati хватит когда-нибудь мужества признать , что Nvidia на сегодняшний день гораздо предпочтительние что в среднем, что в высшем ценовом диапазоне, а эти 9600хх, 9700хх, 9800хх-вчерашний день. Nvidia6800xx- лучший выбор, если у вас до хрена бабла,которого уже некуда девать. 6600, если вы,ребята, поскромнее в финансовом плане. Ati места на пьедестале не нашлось.

0

DJarl твоим утверждением тоже можно, если распечатать
Не знаю но 6600gt лучше чем 9800xt
Главное было бы во что играть а остальное пиложитса.
Надо chisik все- таки признать на бумаге на pci лидер ATI .(x800,x800le,x850…)
У меня есть знакомый, которому если говоришь про видеокарты ATI он говорит: ’Это же Radeon…’ А я с ним согласен.

0

Ну я прям не знаю.
Тесты тесты....
А чего ваще все усирались ими тогда, видя как АТИ обгоняет пятую серию на 5 фпс?
Особенно 3d mark показывал что у 5950 УЛЬТРЫ меньше очков чем у занюханной 9600.
Или найдется хоть 1 кто скажет что 5950 действительно слабее?
Все прям гордились, на 3d marke больше очков у ATI.
ЧТО все в 3d mark играют?
А стоило мне заговорить что Нвидиа побеждает ,потому что тестить решили предворительно поставив fiхы на бенчмарки и нормальную версию детонатора а не какую-нибудь xx.xx beta, тут же - "нахрена нам эти тесты".
Нет уж пускай будут. Другое дело почему именно мне об этом говорят а не тому кто за АТИ...

0

Сколько времени прошло, а мало кто еще понял что ATI в заду.
Да и потом никогда она не сделает что то нормально.
Вспоминаю дремучие времена когда созерцал не виданное кол-во глюков на ATI (какойто там) rage.
За это время что то изменилось?
Глюки ,разьве что, прикольней стали 8)) и поразнообразней =))).

0

Вы все такие умные!!! Куда деваться!!!
NVidia ПРОСТО СУПЕР. ПРОСТО КЛАСС. МОНСТРЫ РЫНКА КОМПЬЮТЕРНЫХ КАРТ.
НО -----------ATI ЛУЧШЕ--------------

0

P.S. На данный момент у меня стоит GeForceFX5600 256Mb

0

Скажите-ка у кого из присутствующих стоит 6600 или 6800???
Тока без обмана!!!

0

Вот я на днях покупаю 6600 gt. Вот у друга который в 50 метрах от меня живет ASUS 6800 Game Edition.
И все у него бегает. И у меня ничуть не хуже бегать через 3 дня будет.

И вот еще маленькая просьба Всем тем кто говорит АТИ лучше:
Хоть напишите почему она лучше, плиз.
Я ее лучших сторон маловато знаю.

0

2 Stalker
Ты вот про глюки говоришь, а нибось кроме Rage ничего от ATI у тебя не было. А я вот чего скажу: был у меня ATI Rage 128 Fury, так вот он глючил меньше чем GeForce 2MX. А щас у меня 9600 и глюков нет.

PS: так что если говоришь про глюки, то ненадо наговаривать не имея практического знакомства.

0

Не было у меня rage и слава богу 8).
И я хз какие ты глюки мог видеть на mx.

0

Карт ATI не было, а про глюки пи...шь. Наверное от бабки на базаре услышал. А на 2MX не сколько видел, сколько вылетало и зависало.

0

Непонятно откуда появляется инфа о том, что на gf 6800 gt и ультра имеются различные глюки с играми(например с Far cry и Doom3).

0

Чтобы узнать то что запорожец г..вно.Обязательно его купить и на нем ездить?

Я не в глуши живу: журналы читаю, к друзьям хожу.
Мне этого достаточно чтоб увидеть глюки на радеонах.

И действительно почему такое пренебрежение к 6 серии?
Где и что у нее глючит? А где тормозит?

0

На моем Leadtek 6800 Ultra никаких глюков с играми не наблюдается. Поэтому и возникает вопрос , откуда берется информация о каких-то глюках с 6ххх серией. Может быть эти слухи идут от Atiшников, которые уже просто обзавидовались тем счастливцам, у которых стоят GF6800xxx.

0

nVidia всегда были лучше дорогих Radeon.
Во-первых - цена соответствует качеству (большоооооой плюс)
Во-вторых - производительность мультимедиа гораздо выше
3 - греются меньше => меньше шума
4 - по размерам небольшие (видал я тут у другана Радеончик ПРОшный: мало того что дрова еле нашел под нее, так еще и на ладони не помещается и тяжелая от всех этих радиаторов)

А вообще, я думаю, что если у вас Пень 4, то подойдет Радеон, а если у вас АМД, то Джифорс - самое оно.
Геймеры выбирают АМД и Джифорс.
Спасибо за внимание.

0

ХАХА, вот рассмешил.

Первые три пункта относятся больше к Radeon. А в конце вообше бред полный. Откуда таких челов берут.

0

А вон на скриншоте моя видюха только производитель АСУС а не гигабит.

0

клифи би когда анреал то третий выйдет ? :)))

0

Минусы Gf последней серии большие размеры и сильный нагрев при работе, а в остальном Gf далеко вперди по сравнению с Ati особенно на высоком разрешении, наиболее приятном для геймерского глаза

0

пацаны а вот х*р вам моржовый ! я на стороне радеона у самого 9600про. Каталист 4.12 проблем нет мня карта устраивает и пока что то покруче U2 Half-Life 2 Doom 3 не выйдет менять не собираюсь . у самого стояла раньше нВидиа мх4 не понравилась мне карта до мх стояла Рива ТНТ 2 ОООЧЕЕЕЕнь хорошая карт для своего времени ! Пацаны уж давайте без споров просто надоело все это ЧТО КРУЧЕ АТИ ИЛИ НВИДИЯ или АМД ИЛИ ИНТЕЛ хотя доказано что ати и нвидиа практически на ровне идут не считая 5 серии ДФ и 9*** радеона все равно они спорят !!! ну выйдет радеон на новом чипе нового поколения и что опять споры начнуться а ??? то же и с корпорациями производителя процессоров доказано что хоть АМД намного шумнее греется быстрее он все таки по производительности превосходит ИНТЕЛ у самого стоит Сампрон до этого был Атлон а до Атлона Дюрон я не жаловался ни с Ривой ни с Дюроном ни с МХ я вообще не люблю спорит но пойти те же за прогрессом то не угнаться =) седня купил 6800 ультра завтра радеон какой нидь Х950 так было будет и останется ! обе фирмы хороши ! так что не к чему устраивать споры скандалы... а как обычно это доводит до драки ! я\ не прав ???? в БОЛЬШЕМ я за Александра82 а в чем то вы и правы ! делаем вывод еще тот что нВидиа НАМНОГО старше АТИ так что перестанем спорить ! кому нравиться радеон пускай берет радеон кому ФХ ДФ пускай берет ДФ ФХ на этом я закончу

0

2 Alexander82 --- вот тут ты не прав. В этом форуме уже много раз приводили сравнительные характеристики примерно одинаковых видюх и нВидиа была на шаг впереди, так что утрись со своим танком Радеоном. Нефиг людей обсирать без доводов.
А насчет последних строк - не глупость какая то, а факт (проверено лично).
Лучше работает Пень с Радеоном, чем с нВидиа, а АМД - наоборот (смысл ясен?).
К танку подойдут запчасти от танка, а не от Жиулей.
Спасибо за внимание.

0

не знаю даже что на самом деле круче...!=\ последние серии GF полюбому лучше, но правда цена отпугивает..., сам с radeon'ом 9600 сижу, и вроде бы неплохо, единственное что не пошло - это Хроники Риддика!=(( обыдно=((

0

У меня Radeon 9600xt и AMD 2500+, пока еще не было ни одной игрушки которая бы не пошла. Все практически летает.
Судя по форумам у nVidia проблем гораздо больше.
Недавно скачал новые "дрова" для дисплея - встали без проблем.
А вот Catalist почему-то устанавливаться отказался.

0

to morbo82:
а в Риддика играть не пробовал? а то чё-то он у меня запускаться отказывается...!=( правда хз почему, может подскажешь чего!?;)

0

to AntiPOP
В Риддика принципиально играть не буду -
уж больно фильм лажный .

0

Александр ты непрошибаемый, блин.
Чо Хочешь сказать что какой то разогнаный Хххх лучше шестой серии?
она тоже fx.И чо?
Терь к каждой приставке придератся будем.?
ATI-задвинутые идустриальные технологии.

0

У меня стоит сейчас фх5200. Собираюсь его сменить на ...RADEON и только на RADEON (где то 9600Pro/XT). Почему? Да потому что, если верить статье на IXBT.com после бенчмарка 3dmark2005, где РАДЕОНУ9600 ПРО проиграли: FX5950,5900,5700 и еще какие-то,
не помню. Так вот. Там вывод был такой: Nvidia теперь перестала оптимизировать дрова для FX серии, только для 6 серии идет оптимизация.
Отсюда следует, что старые игры на FX5950,5900,5700 будут летать, в то время как новые в ближайшем будущем будут страшно лагать. Чего не скажешь про АТИ. А чт опро нее говорить. ОНА ЛУЧШАЯ! Я ТЕПЕРЬ за АТИ!

0

6800ультра-Elder Scrols 4-45-55fps и точка!

0

Вот что я вам скажу, была у меня раньше GeForse 2 mx 400 64mb, карточка в принципе ничего, на средних настройках тянула довольно требовательные к графе игры, и дрова к ней всего один раз за два года поменял. Но было одно существенное НО... видюха глюкала, причем везде по разному, некоторые игры вылетали на рабочий стол, а старый добрый Call of Duty так вообще иногда выдавал мерцающую картинку с разными полосками по экрану, а о том что комп иногда не хотел загружатся и выдавал протяжные пики так это я вообще не говорю. Конечно по одной карточке сложно судить о всей продукции nVidia, но факт остается фактом.
Поставил себе недавно Radeon 9800, пока все вроде нормально, глюков нету, ни с одной игрой еще не возникало проблем. Единственный минус у этой видюхи, так это то , что она прилично нагревается, да и то только при игре в особо требовательные игры.
А плюсами являются ее безшумность и дешевизна , по сравнению с аналогичной продукцией nVidia. И кто это говорил что ATI дороже?

0

Gf 6800xxx серия еще не до конца раскрылась. Вот увидите, в ближай шее время новые версии дров оптимизации покажут весь реальный потенциал этой серии. Gf 6800xxx - настоящий прорыв на рынке видеокарт. А в средней ценовой нише Gf вообще вне конкуренции.Достойного ответа 6600ххх у Ati пока нет. Не у всех же есть деньги, чтобы покупать всякие там х800ххх

0

У многих бабла есть только на 440 МХ, так теперь давай голосить что он самый лучший, потому что дешевый.

Gf 6800xxx - В том то и дело что эта карта хорошая в своей нише 150 баксов. А то что на х800/850 нет денег, значит она говен - это бред.

ЗЫ. что за глупые аргументы.

0

Ещё мона вспомнить фирму 3dfx. Тож неплохие карточки делала... :-)

0

Я и не говорил что х800 это гавно. Это крутая карта , но за крутые деньги ( хочется вспомнить х800xt pe за 700 с лишним баксов). У многих просто напросто нет денег на такую роскошь. А вот средняя модель Ati x700xxx уступает Gf6600ххх.Об этом везде пишут и это хорошо видно на многих тестах

0

все заходите на форум http://ruhelp.com/forums/index.php?mforum=runetclub
И пожалуйста региструйтесь !
Просто форум токо недавно был сделал и мы щас собираем народ

0

А что, не перевелись на земле русской видяхи от Matrox? Кстати, скоро будет какая-то новая видеокарта третьего производителя, названия вот не помню...

0

Народ хочу в ближайшем будущем приобрести видяху получше. Свои соображения, конечно есть, но как гриться две головы лучше. Выбор мой пал на следующие svga: 6600gt, 9800pro, x700pro. Все карты AGP (6600 и х700 когда агп появятся?) и 128 мб. Прошу высказываться объективно, а не орать не подумав "Ааа! Бери Нвидию, АТИ-ДЕРЬМО!!!". Заранее благодарен.

0

Из этого выше перечисленного бери 6600ГТ AGP8x или PCI-E.

0

6600GT по тестам опережает х700про и =х700хт за тобой выбор.

0

х700 убирают с прилавков.Неудачный проц как признала сама компания.Ее заменит х800 лайт идишен-денег маловато у АТИ.

0

Скоро выйдет радеон x850 и все... нвидиа будет сосать по полной,если конечно не даст достойный ответ.

0

Radeon X850 XT PE судя по разным тестам просто убийца.

0

2 Stalker
Угу, учту, спасибо.
Кстати, когда АТИ обеспечит полную поддержку ПС 3.0 а не куцих 2.1? И когда х700 будут продаваться а АГП варианте?

0

Люди что лучше ставить-Radeon X800...илиGforce 6800GT 256mb?
Щас у меня Радик 9600.
И вообще сколько стоит 6800GT,я смотрел вроде 420$?

0

Sandy ты не указал какая модель х800 ,но по любому лучше брать х800,вообще я тебе советую подождать 1-2 месяца до выхода х850,и денег подкопишь,и очень мощную видюху получишь.Radeon X850 XT PE будет стоить 549$,эта самая лучшая из класса х850.

0

А всеравно радеона будет без потдержки 3 версии шейдеров в х800 их небыло а в 850 модели их небудет и подавно........Вот такие вот дела...

0

Я удивляюсь, как можно брать видеокарту без будущего? Это я про Ati.В самое ближайшее время разработчики игр станут во всю применять шейдеры 3.0.А что будут делать владельцы карт от Ati?Правильно! Жадно глотать слюньи.И вэтот момент выйдут новые видюхи Ati с поддержкой шейдеров 3.0. И владельцам нынешних карт(даже х800) придется тратить свои кровные на апгрейд, иначе не полeучат они удовольствия от новых игр.А владельцы карт Gf6800xx, 6600, 6200xx будут только злорадно посмеиваться над братьями своими меньшими и видеть всю красоту игр типа Morrowind 4, не нуждаясь ни вкаком апгрейде. Может быть затягивание Ati с выпуском карт споддрежкой шейдеров 3.0- это специальный рыночный ход конем. Простодушные покупатели выкладывают бабки сейчас а потом выложат еще большие за новые карты

0

To Truman: насчет цены енто ты загнул я думаю не меньше 600$ тем более что это Platinum Edition!!!

To Chisik: опять за "старые бараны" ??? ATI ЛУЧШЕ nVidia!!! Тем более когда речь заходит о топ модели!!!! И на счет The Elder Scroll`s 4: Oblivion - это владельцы долбанных Жфорсов будут облизываться глядя на ВОСТОРЖЕННЫЕ лица и ВОЗГЛАСЫ владельцев ATI Radeon X850XT PE & ATI Radeon 9600XT!!!!!!

0

На Ati 9600xt ты восторженно увидишь слайд- шоу.А что тоже неплохо, удобно будет делать скрины.Хотя даже их ты не сможешь увидеть во всей красе без шейдеров 3.0.

0

Ха! Юморист! 9600XT буде покруче всяких там 6600 и тому подобных!!! Да, кстати, ая тя че за видео???

0

Я отношусь к тем немногим счастливцам у которых стоит Leadtek gf 6800 ultra.Сейчас эту карту днем с огнем не сыщешь. Я покупал в "Олди".Сейчас там даже не числится. И вообще просто интересовался по разным интернет магазинам либо вообще нет , либо отсутствует на складе. Leadtek вообще меня порадовала, совсем молодая команда, а такую карту склепали. Какая у нее система охлаждения!Такую трубищу редко где увидишь. Единственный минус, как и у всех нвидиа этой серии - большие размеры, заслоняющие свободные Pci cлоты.А вообще ни на секунду не пожалел о истраченных 18 штуках.

0

to chisik
мы же не в пещере живем, в любом магазине сейчас можно прийти со старой железкой, заплатить разницу в цене и уйти с новой, а если говорить так как ты, то зачем ты купил 6800? подождал бы пол года и 7ххх серия может появилась бы

0

Че могу сказать...хороша видюха!!! Помню была у меня MSI GeForce FX5600TD 128Mb хочу сказать ничего была видюха!!! Даже бету версию DOOM3 тянула (заметь: слайдшоу не было!) Просто почитав о том что 5700 лучше 5900 я перестал уважать GeForce! А так в целом обе фирмы хороши и каждая по-своему! Самое лучшее у nVidia это чипсеты для матерей!!! А ты из-за нее новый блок питания не покупал? А ты воще откуда, раз говоришь что карта у тебя эксклюзивная получается???

0

Да, блок питания пришлось поменять. Мин для Gf 6800ultra 420вт.А если меньше то глюки и тормоза появляются. Высокое энергопотребление тоже большой минус последней серии ,gf как и высокий нагрев ес..но. У Ati с этим полегче. А вот по поводу эксклюзивности мей видюхи это конечно перебор. Осенью например при наличие бабла можно было спокойно такую купить, чем я и воспользовался, потратив зараб. летом деньги. А сейчас вообще Gf 6800ultra, не Gt, проблемно купить. Не знаю счем это связано, но каталоги магазинов редко пополняются этими моделями.

0

Мне лучше иметь в моровинде 80 фпс с радеоном без 3.0 шейдеров,чем 30 фпс с Г.-форсом но с шейдерами 3.0,кстати есть такие вещи которые добавляют в игру шейдеры у видюхи которая их не поддерживает.

0

2 Dimus X:

По поводу того, что 5700 лучше 5900...
Сравни Radeon 9600XT и 9800SE, точно такая же фигня. Так что довод спорный...

А вообще я больше девушками интересуюсь, чем железом. (-:
Чего и вам всем желаю.... (-:

0

Не скажииииииии! 9600XT и 9800SE (slow edition) практически одинаковые карты, а 5700 и 5900 причем обе не урезанные!!! Кстати, железо и девушки - вещи не совместимые! Просто тема форума не та... а то можно пообсуждать!!!!

0

Ну никак не может такого быть!!! Ты где инфу такую нашел? Ну-ка ссылочку... Если правда, то и я может уважать перестану NVidia... (-: Вообще, я слышал, что 5700ultra чуть лучше 5900XT, но чтоб не урезанные...
9600XT лучше 9800SE! Поройся на IXBT в архивах, убедишься!

О девушках:
Мне брюнетки нравятся...
Но я не говорю, что все блондинки - ОТСТОЙ (-:

0

А мне BloodRayne нравится!!!
И всё -же не знаю что с апгрейдом делать-вроде Радик хорошо-МОЩь;А Жирафов почти все игры поддепживают,да ещё и шейдеры 3.0.
Я в замешательстве.

0

Я за Nvidia GeForce 6800.Самая лучшая видеокарта на данный момент!

0

Блондинки красивее! Инфу такую я надыбал в Навигаторе за 2003 год! И я не говорю что у nVidia были обе карты урезанные! Как раз наоборот! И были там 5700XT и 5900XT! Такие вот дела!

0

Что делать,что делать-Radeon-Gforce-Radeon-Gforce........................................
ААААААААААААААААА!!!!!!!!!!!!!!!!!!!!!
Я не могу выбрать!Они все такие хорошие и милые так и хотят из меня 500$ выманить!

0

Бери обе карты. Будешь вставлять в слот попеременно.

0

Ты прав SAND - утром-GeForce-Вечером-Radeon.
Теперь другая проблема-где взять 1200$?

0

КОРОЧЕ GEFORCE ЛУЧШЕ ЭТИХ ДОЛБАННЫХ,ТУПЫХ,НЕДОДЕЛАНЫХ радеонов.Особенно посмеемся над радеоном 7000-самая плохая карточка.

0

скажите а 9600 128мб сириес нормальная карта
чем она отличается от 9600хт и 9600 про ???????

0

и ещё скажите как можно видюху разогнать
и как проверить скака на ней бит,мегагерц и т.п. плиззз выручите

0

Эти карты все на одном чипе и отличаются частотами
**********************************************
9550 - частоты 250/200(400)
9600 - частоты 325/200(400)
9600 pro ez - частоты 400/200(400)
9600 pro - частоты 400/300(600)
9600 xt- частоты 500/300(600) + термодатчик

Разгон
*********************************************
ставишь драйвер Forsage с www.HardwareLab.ru
разгоняешь прогой ATI Tray Tools с www.Radeon2.ru

Скока бит и мегагерц
*************************************
смотришь прогой Everest с www.lavalys.com

0

to алесандр82
я скачал форсаж
а чё с другими делать,скажи по точнее

0

Запускаешь exe файл - самораспаковывающийся архив и распаковываешь в какую либо папку. Далее панель управления > система > оборудование > диспечер устройств > видеоадаптеры > выбираешь видеокарту > правой кнопкой обновить драйвер > нет, не в этот раз > установка из указанного места > не выполнять поиск я сам выберу нужный драйвер > установить с диска > обзор > выбираешь папку куда распаковывал > далее выбираешь драйвер > дальше ничего сложного

0

Alexandr82
Подскажи как разгон спомощью ATI Tray Tools делать.Я устоновил её,немного бегунки подвигал.

0

у меня радеон 9600 сириес и драйвер каталист версии 4.8 я установил более новый драйвер саталист версии 4.11(не понятно почему он более новый ведь его коэфитент ниже) и почему-то у меня видяха стала не 9600 сириес ,а 9600 атлансис

скажите это хорошо или плохо,может мне переустановить прежний драйвер ????

0

2 Sendy

Там даже тест на разгон есть Show 3D Render
Find Max GPU - тестирование на разгон ядра
Find Max Mem - тестирование на разгон памяти

Наблюдай тест до зависания, черного экрана или появления белых точек. И запомни при какой частоте они появились, эта частота у будет критической соответсвенно разгонять надо пробовать на частотах до критической. Еще надо потом в играх протестировать. Если появилось что-то странное, то частоты надо уменьшать.

Я свой 9600 разгонял с 325/200(400) до 400/250(500)

0

Спосибочки Александр82 я усё понял.Будем разгонять![Между прочим я тоже Алексаедр]

0

Зае..сь чуваки!!!
В августе у Nvidia выйдут видеокарты на новых 3 чипсета nv48 ,47 ,50.
47 будет мощнее чем 48,так как будет иметь принципиально новую архитектуру.Что касается nv50...
Вобщем 4 шейдеры,и 24 конвеера на самых слабых версиях.Это притом что потенциал 6 серии еще не исчерпан.Причем намного не исчерпан...
В отличиии от серии Х у АТИ.

0

2 fanatic
А это проверенная инфа?

0

скажите пожалуйста как розгонять видюху программа уже есть tray tools что ещё надо и как вней разгонять кто знает плиз скажите

0

Драйвер с разблокированным разгоном Forsage (рекомендую), DNA или Omega

0

Все проверенное. Просто 1 серия 1 раз в год выходит.Значит в августе будет.А 48 будет может в апреле даже.

0

Чего-то не выходит у меня с разгноном,чуть-чуть повысиш частоту начинаются глюки(особенно в DOOM 3 всё расплывается).Возвращаешь всё по умолчанию-всё равно в DooM расплывчато помогает только переустановка дров.

0

Кстати о разгоне! Кто-нибудь разгонял 9600хт (500/300(600ддр))? Я свою разогнал до 540/360(720ддр) Дало 10% мощи (проверял 3Дмарком03). Разгонял на Ati tray tools, Catalyst 4.12. А на 4.9ом еле-еле 510/320 вышло.

0

В дум 3 все расплывчато из-за настроек OpenGL в режим Fast, а надо в Quality. Расплывчатость не результат разгона.

0

да вот ещё...я ползнуки двигаю вверх(память с 200 да 250,ядро с 325 до 400)нажимаю скан фор артифэктс,жду 1 минутуне глючит выхажу..вхажу обратно но всё как прежде такие же 202 и 324 - соответственно
да ещё как езменить DAC у меня 400 и не меняется....а все кто разгонял у тех как правило на 100 больше тоесть было 400 стало 500.....кто мне поможет разогнать

Alexandr82

DRIVER-666

и др. профи

помогите!

0

Я конечно ничего против разгона 9600 не имею.Но..
Может для этого обсуждения отдельную тему отвести надо? А то эта как то совсем не подходит.

0

Каждая видюха по-своему хороша. У меня ATI Radeon 9800 PRO. Мне вполне хватает, не жалуюсь. Глупости всё это, что дрова для ATI "кривые". Если из-за дров игра тормозит и графика стрёмная и т. д., это не значит, что дрова плохие, а игра - говно. Просто, как я считаю, каждой гаме свои дрова. Надо иметь несколько версий дров, и всё будет OK. Nvidia я не буду обсирать, я знаю, что эти видюхи тоже хорошие.
З. Ы.
На вкус и цвет товарищей нет.

0

Nvidia 6,7,8,9,серии будет править.

0

Значит и в России тоже.
И вот кстати я ж про то и говорю у АТИ для каждой игры надо ставить свои дрова.И fixы к ним.

0

Гамал и на ГЕ и на Раде - все что выше FX5700 и 9600XT или Pro (также Matrox Parphelia 550) - способно более или менее качественно передавать картинку и играть с комфортом, а спорить что лучше?! Лучше и прогрессивнее чем появление в свое время карточек 3Dfx пока не случалось ;)

0

2 fanatic
Опять ты сплетни разводишь про глюки ATI, лучше бы про глюки nVidia рассказал. Стыдно небось ;)

0

Ну вобщем ничего особого не произошло за 10 лет в мире графики.
Разьве только бесполезные фишки появились типо как шейдеры 1.1 1.4 2.0 2.1 2.0+ 3.0.Ну ковееры стали делится на пиксельные с вертексными.
Если смареть на скрины elder of scrolla 4 то еще фотореалестичная графа проглядывается.
А так ничего не изменилось....

0

Александр знаешь что?..
Я эти глюки просто не видел. И не увижу.
Зато скоро буду бухать по поводу банкротства АТИ.

0

Слов нет! RADEON FOREVER и ваще тема форума неправильно написана - видно ламер писал! GeForce ОТСТОЙ!!!!!!!!

0

Сам ты Dimus X отстой.А если нет то докажи почему ATI круто ,а Nvidia отстой.
Или на это ни у кого мозгов не хватает?
А кричать то что ATI - круто ,бесполезно. Это форум здесь оспаривать хотя бы мнение надо, а не как на балагане выкрикивать бесполезные куски фраз.

0

Драйвера версий 4.3-4.7 не рекомендуются. Возможно мелькание треугольников и в некоторых случаях – зависание программы.
Для карт серии x800 – с Catalist 4.8
На этой версии могут возникать следующие проблемы:
- Темный цвет воды в режиме «Великолепно» (режим Water=0, Water = 1)
Используйте Water = 2 - Нормальны цвет, но работает медленнее.
- Блик на стеклах кабин самолетов будет иногда частично пропадать
при приближении бликующего элемента к краям экрана
- Возможны небольшие дерганья (задержки) во время игры

Вот вам.В каждой игре можно подобное найти.

0

ХЗ Я братцы не геймер, поэтому скажу со своей колокольни (как все здесь делают). У меня GF MX440, ацтой, но мне хватает потому что я сижу под Линуксом, а на Винду вообще давно забил вместе со всеми играми - ну их нахер! На работе тоже Линух стоит, винда - маздай, не уважаю :)) Раз под Линухом сижу, поэтому мне приемлемее nVidia, т.к. она хоть дрова клепает под Unix-системы в отличие от АТИ (хоть под маздай нормальные сделали бы что-ли), вот так...

а вообще про пустое вы тут трепетесь, типа - кто лучше кто хуже... ХЫ :)) Вы еще тут топик завели бы про камни, типа AMD vs INTEL, вообще будете до конца 2005 года спорить, хоть будет чем занятся :))

0

скажите а радеон 9600se 128мб и 128 бит нормальная карточка при компе р1600, 256 оперативы....и поддерживает ли она эти шейдеры 3.0 и dx9.0
пожалуйста скажите

0

Radeon 9600SE 128bit не бывает, тока 64bit. Cоответсвенно 9550 128bit будет быстрее, особенно если разогнать.

0

2 Fantac, уверенного что ATI очень глючные. Если не знаешь английского то спорить на технические темы с тобой далее не уместно.

ForceWare v66.93

Нерешенные проблемы в Version 66.93
******************************************************************************************
As with every released driver, version 66.93 of the Release 65 driver has open issues and enhancement requests associated with it. What follows is a list of issues that are either not fixed or not implemented in this version. Some problems listed may not have been thoroughly investigated and, in fact, may not be NVIDIA issues. Others will have workaround solutions.
• GeForce 6600/6800 128MB: 3D Mark 2003 demo mode results in an out of memory error at 1600x1200x32 with 4x antialiasing enabled. This is not a bug. The problem occurs because there is not enough memory to run 3DMarkO3 in this mode with a 128MB board.
• Single display modes such as TV only, DFP/LCD only or CRT only provide the best performance and quality from Windows Media Center Edition. Dual display modes such Dualview and nView Clone and Span modes are not recommended.
• When using the trial version of WinDVD 6 from InterVideo.com, you may experience TV or DVD playback problems in Windows Media Center if you change resolutions during video playback. This is most often seen when switching from windowed to full screen mode. This problem does not occur with the latest full OEMversions of WinDVD or with other Windows Media Center qualified DVD decoders.
• GeForce 6800: Code Creatures Benchmark shows screen corruption at 1600x1200x32 with 8x antialiasing enabled. A fix for this will be included in the next driver release.
• GeForce 6600: Artifacts appear in the intro videos and during game play in Tomb Raider: Angel of Darkness at 1600x1200 and with 4x antialiasing enabled. A fix for this will be included in the next driver release.
• GeForce 6600: Minor flickering in Return of Wolfenstein: Enemy Territory when antialiasing is enabled at high resolutions. A fix for this will be included in the next driver release.
• GeForce4 Ti/GeForce 6800: Command and Conquer: Generals has corruption when both antialiasing is enabled in the NVIDIA control panel and in-game image quality is set to "High". A fix for this will be included in the next driver release.
• GeForce 6800: Aspect ratio is incorrect when movie transitions from 4:3 to 16:9 playback using PowerDVD5 Trail (download from the Cyber link Web site). This is an application issue. The problem does not occur with other DVD players.
• If you perform a clean driver installation (no previous NVIDIA drivers installed), you must reboot your computer. If you do not reboot, the predefined application profiles will not be activated and you may experience application stability problems.
• GeForce2, GeForce4 MX, Windows XP: City of Heroes crashes to the desktop intermittently. This is not an NVIDIA bug.
• Windows XP/2000: Clone mode may be set for the GeForce FX 5600 although only one display is connected.
This setting causes a drop in the performance of 3D applications. The workaround is to use the NVIDIA control panel to reset the system to standard mode from clone mode.
• Windows XP, GeForce FX 5950 Ultra: Homeworld2 antialiased performance is slow. This is not an NVIDIA bug, but is a known issue with the application. A game patch 1.1 is available at ftp://ftp.sierra.com/pub/sierra/homeworld2/ updates/homeworld2 update en 10 ll.exe.
• Windows ME: CodeCult benchmark does not run properly. This is not an NVIDIA bug.
• GeForce FX, Windows ME: Gunmetal Demo intro movie does not display properly. This is not an NVIDIA bug.

Решенные проблемы в Version 66.93
*************************************************************
Significant issues resolved in driver version 66.93 are listed below:
• Windows XP, Quadro FX 3400: CATIA - Extra lines displayed on Structural Anlaysis.
• Windows XP, Quadro FX 3000, IBM T221 panel, DG5: Desktop appears elongated when HRSD is selected.
• Windows XP, Quadro FX 4000: Main grid is corrupted when starting Lightwave 8.0/7.5.
• Windows XP, GeForce FX 5700 Ultra, GeForce 6800: Corruption with vehicles and clouds in Sim City 4.
• Windows XP, GeForce PCX 5750: Command and Conquer Generals back screen is white (or green).
• Windows Media Center Edition: Live TV or DVD playback may stall or stutter when using the "Smart" deinterladng setting in the NVIDIA DVD Decoder.
• GeForce FX 5200, Windows NT 4.0: Crash in Quake3 ver. 1.32 with Multiview.
• GeForce 6800, Windows XP: Corruption in the Far Cry loading screen before the map loads at 1600x1200x32 or greater resolutions with antialiasing enabled.
• Quadro FX 4000, Windows XP, Lightwave 8.0/7.5: Main grid is corrupted on startup.
• GeForce FX 5950 Ultra, Windows XP: Deus Ex 2 door button shader disappears.
• GeForce 6800, Windows XP: Corruption after screen shot attempted with antialiasing enabled in Far Cry.
• GeForce 6800: Cannot set refresh rate of 48 Hz for 3840x2400.
• Quadro FX 1100, Windows XP, Autodesk Inventor 8: Mipmapping is broken.
• Windows XP, Quadro 400 NVS: Non-admin accounts can enable multiview, but an error message appears after rebooting the system.
• Modo application crashes with GeForce Products.
• Windows XP, GeForce 6800: Microsoft Rallisport Challenge performace drops with antialiasing and lens flares enabled.
• Windows XP, Quadro NVS 200/280: Roaming profiles cannot be read or written.
• Windows XP, GeForce4 Ti: Kohan 2 has missing geometry.
• Wndows XP: Manual downclocking does not work but locks to the defaults.
• Windows XP, GeForce FX 5700 Ultra, GeForce 6800: Corruption with vehicles and clouds in Sim City 4.
• Windows XP, GeForce4 Series, GeForce 6800: Fog problems with Men of Valor.
• Windows XP, Windows 2000, GeForce FX 5950: When the digital display is the primary in Clone mode, both TV and DFP are black upon resume from standby.
• This driver now supports PCI Express under the Windows NT 4.0 operating system.

0

Угу. А я вот сто лет назад купил себе GеForce Ti 4200 и до сих пор у меня гамы идут без глюков и тормозов... А на ATI найти дрова обычно проблема - просили найти для ATI Rage - задрался рабочую версию искать - тупит, тормозит, часть текстур не отображает... Понятно, что карточка старая, но, к примеру, на таком же старом GF-2 те же самые гамы шли просто шоколадно.
+ проблема совместимости. Та же "рива" нормально попрёт на новых дровах для титашек и FX-ов, а ATI-хам нужны родные дрова, да ещё и поддержка отошедших карточек прекращается практически сразу после прекращения производства... Качество прорисовки меня волнует постольку, поскольку это не мешает работать, так что дешёвые и безглючные Г-форсы для меня лично предпочтительнее.

Ваши споры, господа, напоминают мне старинный анекдот: "Прикинь, какой я галстук себе купил! Штуку баксов стоит! Да ты лох!!! Я ТОЧНО ТАКОЙ ЖЕ купил за ТРИ ШТУКИ БАКСОВ!!!". Если проводить параллели: дорогая машина! Вездеход! (а тебе не нужно съезжать с асфальта!), пять пепельниц! (а ты не куришь!), специальное детское сидение! (а ты холостяк!)... Как будто видюхи покупают для того, чтобы выдавить побольше очков из 3d Mark-a...

0

Б**! Fanatic сидит на долбанном Gforce и радуется! Мол, приведи мне примеры! Вот и приведу: у меня дрова версии 4.3 для моего ЛЮБИМОГО RADEON`a и игрухи просто летают, даже в тех местах где Жфорсе тормозит!!!! Так что иди на пенсию со своим GEFORCE`ом!!!!!
P.S: Насчет треугольничков и всякой лажи - ето ты зря! НИРАЗУ их НЕ ВИДЕЛ! И стоят у меня эти дрова давно, с момента официального релиза!!!

0

2 Bianor
Сравнил GF2 и Rage, тоже мне. Rage намного больше лет чем GF2 и она скорее сравнима с Riva128. А с GF2 скорее Radeon 7500. А официальные дрова щас тока для Rage Pro, Rage 128, Rage 128 Pro и Radeon. Я сам лично имел дело с Rage 128 и не такая уж она и глючная была по сравнению с GF2, который был у меня потом.

0

Dimus X. Про треугольнички не я писал.так написали в реадми файле в каталоге с ил-2 перл харбор. Хочешь я буду спецально из каждой игры такие ридми доставать? Там про АТИ багов на миллион наберется.
Что касается 66.93 то я их не ставил. У nvidia есть переходные версии дровов хреново работающие.Только за ними через 3 дня появляются другие нормальные.

0

66.93 Официальный WHQL релиз

0

У меня вот Ge forse 5600XT.Но говорят ATI лучше.

0

Александр82
почему у 9600 64 бита
смотри:
Hardware Information
Installed memory 128 Mb
Memory Type DDR SDRAM
Memory Width 128 bit
Active Rendering Pipelines 4

0

у меня 9600se и у меня 128 бит
у меня программа есть гже все сведения о системе пишут...там написано что 128 бит

0

скажите а 9600se потдерживает директ икс 9.0 и шейдеры 3.0 ????????????????????????

0

С чего ты взял что у тебя 9600se, они тока с 64bit памятью бывают. Проверь программой Everest или ATI Tray Tools. DirecX 9 поддерживает, а шейдеры 3.0 нет.

0

как с чего я взял....я же когда покупал знал наверно что беру....и tray tools я проверял

0

Я за ATI. У самой Sapphire Atlantis R 9600.

0

Александр
Я тебе послал по мылу скриншоты.там глюки самые красивые.
У меня еще есть но тока мыло больно уж здоровое получилось.

0

Дрова стоявшие во время скриншотов были 4.9 с fix для дума3.

0

2 adenoma
значит продавцы не знали что продают, и тебе очень повезло что это полный 9600

2 Fanatic
Я тебе свой шот из Morrowind выслал

0

Ну вот.
Отсюда выводы 9600 самый удачный чипсет.
А остальные глюки ты сам видел.Потому я и отношусь так к АТИ.

Может то что я щас скажу и глупость но всетки скажу
Если у АТИ сразу 4 фишки на то чтоб увеличивать производительность и все исключительно находятся в чипсете. То скорей всего графа как то поджимается,подрезается,кастрируется, хз как сказать. : ). Ну не может быть что все эти разгоны влияли на игры безнаказанно. Скорей всего от этого все глюки.
Тоесть буквально каждую игру надо "учить" как пользоватся АТИ.Иначе получается глюк.

0

2 александр82 почему ты говориш что у меня полный 9600 а не сирийный ???я его брал за 3000 рубликов в КЕЙ ,как я слышал у тебя полный 9600....скажи за скока ты его брал

0

Бли.Аденома купи себе 6600 или 6300 с turbocache и не парся. Те же 3000 рубликов. А что лучше, можно понять по тех.характеристикам и тестам.

0

9600 (128bit memory) ~ 100$
9600SE (64bit memory) ~ 73$

SE - вроде Simpled Edition или типа этого

0

Что nVidia, что ATI никогда проблем не было.

ЕСЛИ РОЖА КРИВАЯ, НЕЧЕГО НА ЗЕРКАЛО ПЕНЯТЬ!!!!!!!!!!!
ЧАЩЕ МОЙТЕ РУКИ И ЧИТАЙТЕ УМНЫЕ КНИЖКИ И ТОГДА ПРОБЛЕМ НЕ БУДЕТ НИ С КАКОЙ ВИДЕОКАРТОЙ!!!!!
Я по дурости спалил радик, но не гнать же мне теперь, что нвидиа лучше, НИ ХРЕНА НЕ ЛУЧШЕ!!!!!
Сейчас оба производителя подошли примерно к одному уровню и практически ни в чем друг другу не уступают,
поэтому высчитывать 1-2 фпс практически не имеет смысла...........

0

Берите x800 pro.Мало греется, не надо блок питания новый. И есть большая возможность разблокировать 4 конвеера и получить самую мощную видюху на сегодняшний день. Я совершенно не уважаю жифорсы,т.к видюхи туфта,только умные маркетинговые ходы.Они умеют впаривать.Сунул неньги-игра под жифорсы.А потом еще говорят они лучше.

0

x800? Ты ее купи разблокируй конвееры, и сиди радуйся так как unreal 3 никогда не увидишь. дело даже не только в unreale 3.
А так вобщето Nvidia делает не маркетингвый ход, а дает гарантию что игра на geforce будет работать отлично и без глюков.
Туфта это АТИ т.к умеет только разгонять видюхи а нового нихрена не умеет.
И потом почему нельзя купить 6800 от гэнворд и разогнать ее на 200-300 Mhz ? Причем програмно с утилитой которую дает сама же фирма. И получится то что 6800 дерущая х800 будет драть ее еще в 2 раза больше.

0

2 Fanatic
Unreal 3 сам не скоро увидишь и GeForce 6x00 будет скорее всего слабоват для него, надо будет что-то мощнее.
Кстати игры со значком nVidia не раз глючили на GeForce, так что это реклама. А вот если видишь значек ATI то не будет ни каких проблем это точно.
Где это ты видел разгон на 200-300MHz

0

Именно! С Radeon`ом глюков нет! А вот с GeForce`ом.....Ж*ПА полная!!! Еще раз ПОВТОРЯЮ для ГЛУХИХ и СЛАБОВИДЯЩИХ: купил я Radeon поставил свежайшие дрова на тот момент(полгода назад) и НИ ОДНА из игрушек типа живописного FarCry, г*вяного DOOM 3, ВЕЛИКОГО HALF-LIFE 2 и им подобные не тормозили и шли безо всяких глюков!!!!!! НИ РАЗУ я под какую-либо определенную игру Radeon не настраивал!!!
Будущее за RADEON`ом!!!

0

2 александр82
а как ты можеш обяснить что у меня 960си и 128 бит
Hardware Information
Installed memory 128 Mb
Memory Type DDR SDRAM
Memory Width 128 bit
Active Rendering Pipelines 4
там же ведь не 64

0

Значит у тебя 9600. Проверь прогой Everest

0

С GEFORCE ГЛЮКОВ МЕНЬШЕ,ВО МНОГИХ ИГРОВЫХ ЖУРНАЛАХ ПИШУТ:ОБЛАДАТЕЛИ КАРТОЧЕК ОТ ATI В ТАКОЙ ТО ИГРЕ МОГУТ ИМЕТЬ ДЕЛО С ГЛЮКАМИ.А ТАКИХ ТО ИГР ОЧЕНЬ МНОГО!!!

0

н2 александр82
дай ссылку пожалуйста на эверест

0

2 александр82
нефига там скорость 544 байт в секунду
это комовское соеденение

0

у меня ati radein 9600 pro офигеть ваще рульная карта!

0

Имея в наличии P4 2.4 (533), 1024DDR PC2100, ASUS V8440 DeLuxe (Nvidia GeForceTi4400), гонял ХЛ2 все на хай с AF2x и AA2x очень плавно. Тормоз был всего в 2х-3х местах.
Насчет глюков - они есть у всех, менятся со временем от драйверов и патчей к приложениям. Но есть и аппаратные глюки - так например у моего друга на карте ATI Radeon9500 при частоте 100Hz начинают "гулять" вертикальные волны по монитору. Дровами не лечиться.

PS Думаю на своей системе еще годик посидеть, а там и не апгрейд деньги заработаю. Буду брать ессено Nvidia, причем только от ASUS.

PSS Если покупать карту сейчас, или на недалекое будущее, то это Nvidia. Хотя бы из-за SM3.0.
ATI совершила один раз революцию с Radeon 9500/9700? Nvidia лажанулась с GeForce 5xx0. Сейчас силы равны, но у Nvidia больше потенциал.

0

Волны у него от разгона.У меня тоже такая хрень.Кстати походу они появляются,когда сильно память на видюхе разгоняешь.
А в журналах мало ли что пишут. Половина сайтов,которые тестируют видюхи имееют спонсора nvidia.Неужели ни понятно почему у них она работает быстрее? И кстати хер разгонить жифорс на 200-300.Если даже такое возможно,то придется черт знает какое охлаждение ставить.У моего друга было ti 4600.Мой старый радик 9600 дрючил её по страшному.И купил его дороже всего на 100 рублей.
И еще. Я так смотрел,смотрел на скрины из Фар Края и не особо много отличий нашел у шейдеров 3.0 от 2.0. Может плохо смотрел?
Кстати знаете почему людям нравится nvidia? Потому что от всякой реклами и невероятных тестов им вскружили голову.Это тоже самое типа пенька и атлона.

0

Я тоже когда-то был поклоником GeForce'ов и орал что они круче, но попробовав Radeon я тут же утихомирился. GeForce'ы не отстой - их тоже не из говна лепят, но Radeon'ы будут на порядок выше.....
Ну выпустила Nvidia шестую серию GF'ов, ну поддерживают они шейдеры
3.0, ну и т.д и т.п. А вы чё думаете в ATI дебилы сидят? Вы чё думаете
они так просто свои позиции сдадут?

0

Dimus X ты орать прекратишь? Поведай чем же ATI лучше? Я то могу про nvidia практически все расказать.А вот ты помойму относишься к разряду ламеров которые тока орать могут,а сам нихрена не знаешь.

0

Что вы хотите от фаркрая ?если там патч который меньше 100мб весит то естественно он ничего не сделает.Он просто обеспечил поддержку 3.0.
Но это не значит что воду или стены он менял под 3.0 шейдеры.

А что качается охлождения то оно уже там стоит. расчет именно на беспрепятсвенный разгон.Хотя 6800 и так все дерет.
Блин и неужели я раньше не писал раньше, что unreal 3 тестили именно на первых 6800 с 256мб ddrI. Там было 45 фпс. Этого мало?

АТИ конечно сделает свое "чудо" взятое с основы r400. Вот тока за этим выйдет nv48, а за 48 через 2 месяца 47.Ну а в августе уже и 50 с программируемыми шейдерами (можно сказать по типу 4.0 ps).

Или все скажут зачем нужны 4 шейдеры?

А АТИ БУДЕТ ТОЛЬКО РАЗГОНЯТЬ СВОЮ R520.

0

to Slik
этот чувак (мой друган) понятия не имеет что такое разгон. И об этой проблеме я узнал с сайта ixbt.com, до этого пинял на монитор. Скрины ты смотрел плохо. Если ты не видишь разницу между FarCry 1.3 SM3.0 HDR и FarCry SM2.0b, то мне нечего сказать,... посоветую сходить к окулисту. :) Сходи сюда http://www.ixbt.com/video2/fc13-p1.shtml или посмотри Unreal3Engine, например.
to Диктатор
В Ати дебилы не сидят иначе не было бы Radeon 9500 и далее. В Нвидиа тоже дебилы не сидят.
НО GeForce 6800 был показан раньше, чем Х800, а по функциональности => перспективности он лучше, На лицо отставание АТИ. (говорю не о скорости, а о функциональности - для меня различие в 5-10 fps не существенно)

to Fanatic
про Unreal3 - по слухам, для идельной работы ему надо 512мб видео



О следующих версиях чипов - см новость от 13.12.2004 на www.overclokers.ru

0

45 fps в тесте это мало. Ведь в тесте все запраграмировано, а когда играешь еще ресурсы расходуются на героя и всякие события происходящие в игре. Надо где-то 100 fps в тесте чтобы было 40 fps в игре.

0

Это конечно так но там разрешение стояло ни как не меньше 1600*1200, экран во какой был. И 6800 простая была.

0

Я имел ввиду,что большой разницы нет у шейдеров.Это тоже самое как 64 бита поддерживает процессор или 32.Купил я себе процессор с 64 битами.А он мне нужен? Вот в чем вопрос.Все равно, пока повсеместно появятся 64 бита,мой процессор устареет.Там же и 6800. Пока появятся третьи шейдеры, уже будет седьмая серия.Но все равно как не крути простая 6800 не соперник 800pro.И притом очень сильно отстает от нее.Ходил я в магазин с ней вчера.Тестили на 2003 3д марке.6800 отстает от моей на 2000.Правда ни одна из видюх не была разогнана.Даже гляньте тесты.Любые.Везде она отстает.Мне моя видюха нравится и работает хорошо.Лагов нет ни где.Я конечно не отрицаю,что 6800 хороша.Я сам себе такую хотел.Только не простую,а GT.Но потом прикинул,зачем мне шум,новый блок питания.Ради чего?Ради тоже,чтобы шейдеры эти лагали.Отдавать деньги не знамо за что.Все равно,когда они появятся, видеокарту можно выкинуть на помойку.

0

64 бита будет актально с выходом Longhorn'a (опять отсправляю на ту статью с overclokers.ru).
с SM3.0 иная ситуация. Скажем в мае должен выйти СТАЛКЕР с SM3.0 , до него еще что-то будет на SM3.0 Хочешь наслаждеться максимальной графикой? Тогда GeForce 6800. Хочешь гнаться за лишними 5-10 fps и плюс пару тысяч "попугаев" в синтетических тестах - Х800. Чипы от Ати быстрее обрабатывает шейдеры, а от Нвидии - тени, и возможностей у них больше (тесты GeForce&X800 на Doom3&Half Life 2). Если смотреть с точки зрения зравого смвсла и разумного вложения денег - то лучше карту из линейки последних джефорсов.
''крути простая 6800 не соперник 800pro'', интересное у вас сравнение, товарищ Slik. ПРОСТАЯ против PRO :D

0

радион плох тем ,что под его маркой выпускают видеокарты с таким же названием ,но качеством ниже (sapphire например)
ну где вы видели видеокурту 9600 за 3000 рублей,а если бы это было чисто от ati ,то она бы стоила на 1.3-1.5 раза дороже..
так же у радеона помощнее чипы будут(r350 хорошо себя зарекомендовала...r350 это 9600 про,хт)

0

Все эти r350 уже давно "вышли из моды".
Кстати интересно, я тесты смотрел мне не показалось что там х800 везде выигрывает. В unreal 2003 ,в Tomd Raider Ну пожалуй на этом весь выйгрышь у ATI (самый заметный) заканчивается. Я видел конечно были игры в которых где то на 1-5 фпс разница была ,это я в счет не беру. Но со стороны nvidia есть хало и дум3 .Тоесть вобщем ничья.
Только не надо так ps3.0 в расчет не брать, они очень даже заметны ,например: Перл Харбор (дополнение к ил-2).

0

Я сравнивал потому что кто то заливал, что 6800 простая обгонит x800pro, разогнанная на 200-300 MHz.Вобщем берите, что хотите.Но у меня всегда был Родеон и я знаю,что это лучшее.Мне все равно, что стоит у других.Главное, что стоит у тебя.На данный момент серия x800 лучше, быстрее и экономичнее.Тем большее, что хит сезона халфа заточена именно под родеоны.Конечно сейчас выдет новая игра,заточенная под жифорс,но скоро выдет и x850.Это гонка бесконечная.И в ней нет явных лидеров, также, как и явных проигравших.Все две фирмы сильнее в определенном плане.

0

Лично я за NVIDIA. Эти карточки всегда отличались хорошим качеством, когда ATI обычно заманивала ценой. Но мне хотелось бы заметить, что в последнее время ATI стала выпускать более хорошие карточки, но несмотря на это мне кажется, что NVIDIA всё-таки опять покажет класс, как это в своё время сделала их GeForce 256.
P.S.: Раз уж упомянули, что ATI Radeon X800 заточена под HL2, то я на это могу сказать что NVIDIA сделана под DOOM 3.

0

To Fanatic: Е-мое, ты кого ламером назвал, а??? У меня появился первый комп тогда когда ты под стол пешком ходил!!!!!!!!!!! Насчет примеров - почитай журналы, а хотя что их читать... у них, как заметил один товарищ, все статьи nVidia`ей подкуплены! Вообщем Radeon для людей понимающих что к чему, и не любящих выкидывать бабки "на ветер"!!! Зато если купил себе карту, так ее мощности хватит на несколько лет вперед! И в крайнем случае можно прибегнуть к разгону, потенциал Radeon` ов позволяет этим заниматься!
З.Ы.: пошли нафиг эти сраные шейдеры 3.0! Кто умеет делать игры тот сделает их так, что все будет прекрасно и на шейдерах 2.0!!!

0

to Slik
то же самое я написал в своем первом посте, так что peace. :)

to DIMUS X
Если продолжить аналогию - пошли нафиг эти сраные шейдеры 2.0х! Кто умеет делать игры тот сделает их так, что все будет прекрасно и на шейдерах 1.х!!! А если еще дальше - пошли нафиг эти сраные шейдеры! Кто умеет делать игры тот сделает их так, что все будет прекрасно и без шейдеров. Регресс налицо. А технологии не стоят на месте.
Вообще ситуация с шейдерами получучается почти по Чехову: если ружье висит на сцене в первом акте, значит, когда-нибудь оно выстрелит.

0

А я хотел спокойно поговорить...
Dimus X
Это у кого потенциал? Та знаешь зачем или хотябы как сделали х850? Или может догадаешься почему там кулер стоит ограменный по сравнению с другими х800? Могу сказать:
1)с серии 9800 АТИ занималась чисто разгоном. Получился х800.
2)Когда 6800 обделала х800, АТИ решила еще сильнее ее разогнать (хотя непонятно куда еще)
3)Получился кусок выжатого лимона.... ПРЕДСТАВЛЯЮ.... Х850!!!
4)Какой у нее потенциал ,мать его, если у нее от перегрева (даже с таким охлаждением!) артефакты на экране через 5 минут?
Тоесть конкерето АТИ занимается только разгоном частоты, и причем давно.

0

А за компом я сам уже сижу 10 лет. Повидал многое.

И говорите пожалуста спокойнее.=)

0

Дайте же Fanatic'у кто-нибудь очки, а то ему везде артефакты мерещатся. Он наверно пока 10 лет сидел артефакты выглядывал ослеп совсем. Че то я нигде не видел в обзорах разговоров про артефакты. И разгоняется x850XT PE с 540/1180 до 570/1240.

0

На видеокарте x850xt pe прирост виден в тяжёлых режимах относительно x800xt pe
Про артефакты ничего не слышал

0

Вобщем от того что вы написали ничего не меняется. х850 это разогнаная х800. А ссылку с картинкой я выше давал, там про все сказано.

0

To Fanatic: "Сидит ворон на дубу и играет во трубу!" я бы так сказал про тебя! А на счет X850XT ты ее сам-то хоть держал в руках??? Или опробовал ее, чтоб так говорить??? Опираться на журналы - это тупо! Ведь в системнике не одна видюха? - Не одна! Следовательно на качество и наличие всяких артефактов влияет и остальное (проц+опера) То есть на каждом ПК видюха может себя вести по-разному! Енто я пишу про опираемость на сведения журналов и всяких статей! ВЫВОД: тестируй сам на своем ПК, а потом уж говори что есть good!!!!

0

to morbo82
Графика DOOM'а - шедевр, и если это "АЦТОЙ", то будь готов видеть его во всех хитах, т. к. я уверен что движок этой игры будет использоваться во многих играх.
P. S.: Мог бы привести аргументы, чем так крута ATI.

to DIMUS X
Fanatic прав, говори поспокойнее.

0

Мать вашу! Я СПОКОЕН! Я веду это все к тому, что сначала САМ протестируй, а уж потом говори! Нечего опираться на статьи журналов и всего прочего! Надо изучать все на своем опыте! Я года 3 назад тоже кричал и что-то подобное писал про GeForce(foreva, ati отстой)! Но с личным опытом я понял, что продукция ATI (видео) во многом превосходит своего конкурента!!!

0

Ладно, ладно, ладно. Возможно ты и прав, лично я не тестировал GeForce 6800 и Radeon X800, а говорю то, что знаю

0

asketic
Ati круче хотя бы потому уже, что при запуске даже самой распоследней лажевой игры не приходиться глазеть на ее логотип!
Продукция Ati не нуждается в поддержке своего авторитета в отличии от своих конкурентов. Понятливые люди безо всяких там грошовых реклам знают, что покупать ;)

А графика в думе все же АЦТОЙ ! Не понятно чем там нужно наслаждаться - оттенками темноты ?

0

2 asketic.by
Кому нафик тормознутый движок Doom 3 нужен.

Для любителей ATI

x850XT будет под AGP

0

Так это я Fanatic`у объяснял! А к тебе Asketic.by я претензий не имею! Ты наверно не так понял - к кому я эту речь толкую!

0

Ребят,подскажите где в Москве самый большой ассортимент компьютерных комплектующих по самым приемлимым ценам?

0

Был бы я москвичем, то подсказал бы! Вот по Питеру могу рассказать!

0

to DIMUS X
То, что кричал 3 года назад так и было, тогда Nvidia доминировала. Сейчас, на мой взгляд, паритет.

to morbo82
Не прав, у Ати есть заставка ATI: Get in the game или около того.

to Alexandr82
про двиг Д3, скорее всего он будет востребован. Тормознутость тут не всчет, скорее всего сработает принцип - Когда сделаем игру железо станет помощнее.
Ничего другого от Ати ожидать и не следовало: разогнать имеющуюся топжелезяку, перевести на массовую шину агп и вперед! собирать бабло. Скорее всего следующий шаг Нвидии будет анологичен: разгонят их топжелезяку, назовут тпи GeForce 6900 Ultra, и вперед! обирать бабло.
А смысл брать Radeon? Если все-равно Radeon по возможностям проигрывает GeForce'y

0

Какую видеокарту вы посоветуете купить ориентируясь на сумму не более 6000р. ?

0

2 chisik
на Савеловском рынке

2 GREMeZ
например на движке HL2 Bloodlines вышел, а на Doom 3 что?

2 patron
Radeon 9800 256bit
более достойного для AGP за такую цену не знаю

0

Как там ATI со своим x800 ! :)
А вот nVIDIA со свойм мощным GT 6600 Ultra !

nVidan Рвёт ATI в сухую
nVidan Рвёт ATI в сухую
0

Это синтетический тест ! :) А как оно реально работает не узнаешь пока бабло не выложишь за обе видеокарты. Под тесты все что хошь оптимизировать можно !

А вот RADEON "опускает"NVIDIA!

0

Я себе просто собрался достаточно дорогую машину покупать и думаю чёже взять:вообще у меня выбор между radeon 9800 pro-se и джифорса 6600 GT (они стоят в пределах 6000р.) на некоторых "железных" сайтах почитал их сравнения но чето решения так и не принял.

0

to Alexandr82
Quake 4 в разарботке

to morbo82
Выложи тест Doom3 и подпиши А вот NVIDIA "опускает" RADEON!

to patron
сходи на ixbt посмотри 3Ditogi рейтинги перспективности и полезности
http://ixbt.com/video2/itogi-video.shtml
Я бы GeForce взял.

0

GREMez
Так я про то и говорю (почитай над рисунком)

Но в любом случае RADEON -THE BEST !

0

А движок "дума" иначе как "Тормоза во Тьме" и не назовешь!
Да и кому нужны 3-и шейдера? Они еще 2 года на фиг не понадобяться. Да и проццев чтобы их тянуть в "бытовых" условиях пока не придумали! А к тому времени все это "железо" нужно будет тока на свалке.

0

Абсолютно, с тобой morbo82, согласен!!!

0

Привет Люди я Cyber =)
Тема то ишо нездохла !=)
я Дажи чучуть этому рад:))

0

Тема вечна....
Только вот острых углов уже почти не осталось. За столько времени они уже с к р у г л и л и с ь по-моему:)

0

Вроде риддик сделан на движке дума 3,хотя мне проверять влом. Мне не то ни другое не понравилось 8).

Логика поклонников АТИ мне понятна. Пока у АТИ 3.0 нету, то эта серия ps никому не нужна. Как толькона r520 их покажет вдруг окажется, что как же все без них раньше жили, и 2.0ps отстой.
Игры уже все смогли показать на 2.0. Я не говорю что это некрасиво, просто у программистов есть возможность двигатся дальше с 3.0 .
Кстати не стоит забывать про CineFX3.0 это не просто маленькая фишка. Она дает море возможностей с графой.
Вобщем вот так.

0

5 серия скорей всего тормозила там где использовались ps всех версий одновременно. В недалеком прошлом такии игры в основном и делали.
Рассмотрим например farcry в нем помимо 2.0 есть и все предыдущие одновременно. Скорей всего Nvidia обробатывала отдельно каждую версию ps и от этого были все тормоза. Возьмем HALO в нем используются конкретно одна версия ps, и никаких тормозов нету. Да вобще во всех играх где ps переключался конкретно тот какой выберешь nvidia не тормозила. У АТИ вероятно устроен чипсет по другому.
Это все только моя догадка, про это я ничего не слышал и не читал.

0

В Halo по умолчанию PS 1.4 используются, а для PS 2.0 надо команду к exeшнику добавлять в ярлыке.

0

Задолбали спорить. Берите 3dfx или ATi с nVidia одновременно и меняйте каждый день.

0

Неважно чо там в хало,я просто пример привел. =)

Я к тому веду, что на 6 серии не будет с ps то что было в пятой из за них т.к :
1)Технология оброботки у nvidia поменялась и ускорилась (8 ops\pix)
2)Игры будут делатся только с раздельным использованием шейдеров. Или только 2.0 с 3.0. Скорей всего будут также как в риддике делать раздельное врубление ps.
3)nv40 под ps 3.0 затачивали.

0

Сперва мне бы хотелось сказать что Риддик сделан не на движке Дума 3. А вообще попробуйте подумать, если бы у вас был выбор, то какую карточку бы вы купили, GeForce 6800 или Radeon X800? Как правильно отметили третии шейдеры будут использоваться ещё не скоро, но видеокарта покупается не на один день. Я бы взял GeForce 6800 потому что за третими шейдерами будущие, а вторые исживут себя как и первые. В общем покупайте GeForce 6800 и следующие три года живите спокойно.

0

У меня такое же мнение, только 3.0 выйдут скоро.
В ил-2 уже есть 3.0. А так до весны туча игр должна быть.И надеюсь сталкер будет тоже не позднее весны.

0

Я только одно не понимаю.Это рассуждение людей.Вот возьмете вы шейдеры 3.0. Так пока выдет что то стоящее на этих шейдерах, можно взять видюху и отправить в форточку.Ведь карты меняются постоянно, требования возрастают.Может только ультра сможет через год выдавать нормально графику.А остальная 6 серия.Она же устареет.Как вы это не понимаете.Кстати я вот, что заметил.Люди вобще ничего не знают.И если у них стоит одно, то про него они и говорят,если другое, то про него.Кстати может люди не знают, что драйвера, которые сейчас выходят на жифорс адаптированы на 6 серию.На ОСТАЛЬНЫЕ видео карты им наплевать.Их никто не оптимизирует.Также и будет скоро с 6 серией.Вобщем люди, мне кажется прежде чем что то нести почитайте и взгляните на то, о чем будете спорить.Вот скажем пример, все говорят что новая технология процессоров пентиум,это технология HT.И что, приносит минимальный прирост в производительности.А восхваляют. Знаете, что я думаю, на шейдерах 3.0 шестая серия очень плохо работает.И из-за них проходится отключать сглаживание и анизатропную фильтрацию.И зачем вам нужны лаги на шейдерах 2.0? И кстати шестая серия намного хуже работает в тяжелых режимах, чем серия x800.И зачем вам покупать видюху за 500 и выше долларов, если она будет лагать, а я уверен, что будет лагать.

0

Ну ты прав конечно то что прогресс идет вперед и за ним можно не успеть. Но не так все уж плохо.
Судя по тестам с играми я бы не сказал что 6 серия плоха с анизатропией и сглаживанием. Даже наоборот много тестов где показана прямая линия на любом разрешение при fps >60. Тоесть на новое поколение видеокарт сглаживание и анизатропие будут влиять мало (в плане быстродействия).
не заню как остальным а мне понятно, что если Nvidia захотела бы то выпустила сейчас nv48 ,который уже давно готов. Но сейчас нету смысла.
Видеокарта с nv48 (какая ни будь 6900) выйдет после r520.
И опять же какой смысл брать тогда видеокарту с 2.0 если все скоро изменится?

P.S Могу напомнить скока стоит х800про.

0

Да по-моему видеокарту за 500$ сейчас брать уже смысла нет - лучше подождать чего они там дальше навыпускают. И за теже деньги купить уже реально зверскую вещь!

0

А правда, что ATI часто перегреваются?

0

Вообще-то morbo82 прав в том, что пока покупать карту за 500$ нет смысла, т. к. что третья версия шейдеров практически не используется, и когда ей начнут в достаточной мере пользоваться разработчики, то она будет подешевли (надеюсь).

P. S.: Кстати если можно, то напомните сколько стоит X800.

0

to Russell
зависит от производителя

to Fanatik
прав

Повторюсь - покупка GeForce c точки зрения здравой логики выгоднее. На худой конец в деньгах экономия. Лучше один раз купить карту за 500 уе на три года чем за теже бабки но на два. Тем более с GeForce обеспечена максимальные красоты игрушки.

to morbo82
сучествует еще middle сектор

а про шейдеры 3.0 ты заглул что-то. Года два не понадобятся. Ха! Блин они уже есть и скоро везде будут. Протри глаза!

0

Насколько я знаю третьи шейдеры используются лишь в аддоне к Far Cry. Если я не прав, то будте добры, просветите.

0

Радеон рулеззз! в последней х800 технология 3Дц, которая позволяет быстрее юзать карты нормалей! Радеон может и глючный, но если новые дрова скачать, всё будет зачипись!

0

х800про сейчас стоит более 400$ а х800хт более 550$.
Что касается 3дц то это не единственная фишка у ати убыстряющая работу.У нее есть еще 3 подобных.Все убыстряют работу.(Заметьте ни одна не улучшает графу).
Поддержка 3.0 в фаркрае не видна хотя есть. А в Ил-2 - Перл Харбор можно поставить. Кстати в думе 3 есть кое где 3.0 :). Больше наверно пока нигде, скоро с выходом новых 3д-акшонов будет все, месяца через 2.

0

HDR в ФарКрае работает на SM3.0
SM3.0 в Doom3... хм не знаю, ИМХО нет там их.

0

2 Fanatic
Пиксельные шейдеры у него в Doom 3. LOL. В OpenGL никогда их не было, а Doom 3 на нем. И зачем графу улучшать на x800 когда она и так нормальная. А игры PS3.0 ATI претормозит, так как разработчикам нафик не нужно делать игру под разные шейдеры. Кому надо лишние расходы. Они будут делать на самые распространенные 2.0. А если и PS3.0 будут использовать то минимально, чтобы сильно не усложнять движок.

0

В думе 3 встроенная поддержка 3.0 .Она очень слабенькая и мало заметная ,но кое где видна.
На стенах некоторых можно разглядеть,аккуратней трещины всякие. И причем здесь OpenGL? Тоесть если смотреть шейдеры то на чем тогда?На Direct3D? А в ил-2 я что видел?

0

to Alexandr82
по твоей логике никогда бы не появились шейдеры 2.0х

0

мда.... это меня серьезно озадачило...
полскажите когда вышли последние дрова от ати?

0

2 Unexpected
хорошую подделку захостил на up.li.ru. Не вооруженным глазом видно.

2 Fanatic
Doom 3:На стенах некоторых можно разглядеть,аккуратней трещины всякие - Bump Mapping + VS, а не PS. Doom 3 на OpenGL. А DirectX тама нужен тока для звука.

2 GREMeZ
А ты посмотри когда PS2.0 в играх стали активно использовать - время появления GeForce FX

0

Radion -> Проблемы с дровами и настойки карточка ! Не спорю скорость высокая , но она на пол года, максимум на год ! А потом сгаревшая железка !

GeForce -> Мне лично хватает 47 fps , а она подерживает минимум 68 fps и не вырезает кадры ! (как делает Radion !)

Вывод -> Мне хватает GeForce нахр*н мне ёб*ный Radion !

0

Этот тест гон.Этого быть не может.Сам изменил и гордишься теперь.
Вобщем я уже устал объяснять, что даже если купить самую лучшую карту, то все равно через год, а то и раньше начнет тормозить.Ну купите вы шейдеры 3.0, а по производительности все равно видюхи одинаковы.Так зачем же за них переплачивать.Лучше взять видюху дешевле, но с шейдерами 2.0.А через год, полтора и поменяете на карточку с шейдерами 3.0.Кагда во многих играх они будут.И правильно тут кто то отметил, игры сейчас не будут выходить с шейдерами 3.0.Ati сунет бабла и будут 2.0.

Кстати я зашел тут на сайт, с которого он взял тест и изменил.Я не нашел тест этот.Но нашел другой.
http://www.3dnews.ru/video/3dmark-2005pro/index03.htm

0

Я считаю, что GeForse на сегодняйший момент является самой производительной, технологичной видео-картой.... Ну а тот кто решил купить Radeon, скорее всего просто-напросто продешевил или повёлся на совет друга. И ещё....... The Suffering вообще глючит с картами семейства ATI ///// Это честно написано грамотными людьми в Readme-файле технического руководства, находящегося непосредственно на диске с лицензионной игрой. Она у меня САМОГО есть.... Так что думайте и решайте: В пользу КОГО???....

0

Slik

Конечно я сам тестировал карточки (во сне , когда спал )!

А на ресунок курсор наводил ты ?


Всем :

Тест разгона карт на вcю мощь! :
Radion x800 xt -> ++++++++++++++++++++
GeForce gt 6600 ult -> ++++++++++++++++++++++++

Чучуть но выше и меньше проблем ! Радион в утюг сувать надо ,как и AMD !

0

Я вообще не советую покупать ни GeForce 6800, ни Radeon X800, т. к. стоят они дорого, а производительность в играх улучшают не так уж сильно. Если бы я покупал видеокарту, то брал бы GeForce FX 5900XT, не очень дорогая (хотя это смотря для кого) и мощная карточка.

0

И что теперь скажешь что amd утюг?Теперь то понятно, что нифига ты ничего не знаешь.Атлоны- лучшие процессоры.Тебе это все скажут.Сокет 939 самый перспективный.И вобще скажу как человек, который сидит на атлоне.У меня он греется меньше чем пень.Конечно это не в тему.Но я как это увидел, сразу обомлел.Как такое можно говорить?

Unexpected
кстати у тебя случайно не 6600?А то уж больно ты ее завысил.Даже для твоих любимых жифорсов.

0

А я весной полюбому буду серьёзный апгрейт ПК делать, а то система сильно устарела:
P4 2000 мегов
512 оперативы
GeForce mx 440 на 64 мега
мамашка: Asus p4b 266, тоже устарела....

0

To goga-deyatel: И еще ты смеешь заявлять, что Radeon выбор безрассудного чела???? У самого *ер знает что!(Начитался литературы - молодец!)

0

НАРОД! Берите что хотите! Будь-то GeForce иль Radeon! Оба продукта хороши! Просто у меня всегда были Radeon`ы и я низачто в жизни не куплю GeForce, да хоть будет он в миллионы раз круче Radeon`а!!!(моя жизненная позиция)

0

DIMUS X
_________________
Моё, как ты сказал "*ер знает что" , чудеса творит, в отличие от Radeon-ов того же уровня. И харе наезжать...

0

И ни какой я не "читалово", чтобы "читать", а потом сливать тупо начитанное. Я может и читал спец. литературу, но не собираюсь тут дешёвые понты кидать...

0

А я и не наезжаю! При MX440 представляю какие "чудеса" у тебя!!! :-))) Надо, надо тачку менять!!!

0

2 goga-dyatel
Я играл на 9600 в Suffering и не было нифига проблем так что не вешай лапшу.

2 unexpected
- У меня была ATI Rage 128 Fury, а щас Radeon 9600 и проблем не было. А вот при GeForce 2 у меня система часто висла. FX 5200 вроде более или менее работал, но медленно очень.
- P4 сильнее греется чем Athlon

2 asketic.by
GeForce FX вообще ни кому не советую. Медленная обработка PS2.0: на 5900XT соизмерима с 9600. Из-за этих карт nVidia потеряла свое лидерство на мировом рынке.

0

Конкретно to Slik.
Я не совсем тебя пониаю.
Я понимаю что все скоро устареет то что сейчас новое.Ну так тем более нужна видюха с шейдерами 3.0 (понятно на что намекаю?).
А уж если сейчас купить с 2.0 то ж..па будет гораздо больше. А что касается цен то зайди на сайт www.price.ru и сравни цены по Москве Radeon x800 и Geforce 6800. Или сравни другие карты, только в правельной сопоставимости класса. ;) И не забудь при этом какая помощнее.

To Asketic.by
Зачем брать 5900? Если брать то 6600, Таже цена если не меньше,а карта мощнее.

0
ЗАГРУЗИТЬ ВСЕ КОММЕНТАРИИ