Nvidia vs ATI - битва продолжается v5 {closed}

Продолжим тут.
Предыдущая тема
0
Shader 3.0
_________________
NVIDIA это не подтверждала так что неизвестно что там и как.Скорее всего G80 будет поддерживать 4е шейдера так как это было бы невыгодно и означало что NVIDIA отстала (а этого она скорее всего недопустит).Ненадо верить всяким сплетням.Поживём увидим.
0
G-Man

Не думаю, что эта тема имеет право на существование.
У нас теперь есть довольно популярная Все о видеокартах. На фиг нам надо две темы про видюхи?
0
to Needer
Что-то этих "сплетен" слишком много в последнее время. Думаю nVidia и вправду слажает со своим G80:
Чип Nvidia G80 должен выйти в конце третьего квартала 2006-го или в начале четвертого. Этот графический процессор будет поддерживать DirectX 10, но поддержка Shader Model 4.0 будет не полной. Чип уже готов к работе с ОС Vista. Видеокарты на его основе будут относиться к high end-классу. G80 имеет шансы опередить ATI R580+ в производительности, но выход R600 поможет ATI догнать конкурентов.
0
Shader 3.0
_____________

Это всё пошло от 1 британского сайта.NVIDIA и ATI всегда боролись за корону.NVIDIA не упустит шанс быть первой.Темболее чего гадать до сентября осталось немного.
0
Чей-то Бот
Тема о видекартах - занимаемся непосредственым выбором. Здесь просто обсуждаем общие вопросы.
0
to Needer
Ты тоже не подумай, что я какой-нибудь фанат ATI (у самого nVIDIA). Просто я говорю что думаю. А я думаю, что в плане поддержки 10-го Директа ATI будет выглядеть получше.
0
Гм, ну не знаю , последние события по поддержки Шейдеров 3 версии показали, что АТИ не так сильна в вершинном текстурировании. Пиксельные преобразования - да, вспомнить хотя бы 48(!) конвееров на 1900.
0
В таком случае вспомни 16 конвееров у Х1800 хт против 7800гтх у котрого 24 конвеера...где первый мог идти в ровень и даже обгонять 7800гтх! 3-ие шейдеры у АТИ не удались,по тому что слишком поздно их внедрили,когда было ооочень много аналогов у Нвидии,которые поддерживали3-ие,и стоили не так дорого...даже вспомнить картину с 6600гт...скока АТИ делала ей конкурентов...и х700про,и х800гт(кстати этот более менеее,тока без 3-их((( , и х1600хт...отлично выделился тока х800гт и х1600хт,но через какое время?!-причем абсолютными победителями назвать и их незя,так как в некотроых играх так же проигрывали 6600гт...еасли бы скажем АТИ внедрила 3-ие шейдеры,то успех был бы у них намного лучше,ИМХО! не то получилось так...выпустили первые карты с 3-ими шейдерами,когда через 8 месяцев уже почти готов чип под ДХ10 (
0
х1600хт - убогая от рождения карта. Сколько там вершинных конвееров?
0
12 пиксельных и 6 вершиных,но она совсем не убогая....меж рочим по своей цене смотрется очень даже не плохо,в новых играх она быстрее 6600гт (ФИАР, Обливион, и т.д.)
0
а сколько она стоит?
0
150-160$
0
В Х1600 ХТ всего 4 вершинных конвеера.
0
Вопервых вершиных там 6, а текстурных блоков 4,так что не путай ;) http://www.ixbt.com/video2/r520-part1.shtml
0
Я непонемаю логику ATI ,нафига завышать цены если у NVIDIA аналог намного дешевле и парой лутче.Пример история с RADEON 1900XTX и 7900GTX.
0
Syzygy
АТИ не так сильна в вершинном текстурировании

Чего-чего, а вершинных процессоров в последних радиках хватает... Наверное ты имел ввиду текстурные модули.
0
Хех,не знаю как у тебя Нидер,но у меня 7900гтх стоит стока же как и х1900хтх...причем х1900хт тот же 1900хтх,тока частоты меньше ;) и кто сказал.что она сильнее ?!-карты почти равны,Нвидия как всегда лидирует ы ОпенГЛ играх,а АТИ щас там,где много шейдеров (Обливион ,Х3 и т.д.) главное что ты от своей карты хочешь....любишь гамать в ОпенГЛ игры (ФИАР,Риддик,Прей,Квак4) то однозначно Нвидия,если же игры где шейдеры используются ух как сильно ,то АТИ (хотя и там и там бывают исключения)....ай,да и вообще ,зачем брать х1900ХТХ,когда есть Х1900ХТ =))))
0
Блин, точно(всё завязываю пьяным за комп садиться).
1600ХТ - 12 пиксельных и 5 вершинных шейдерных процссоров , в наличии лишь четыре текстурных блока.
Посмотрю тесты ещё, но по всем эта карточка отстаёт от 6800ГС.
Реализация ОпенГЛ в Ати просто некудышная(блин, сколько времени уже прошло, а они до сих пор нормальных дров не научились писать)
0
Емое....ну что с тобой ?!?! тебе сколько раз уже надо говорить,что у Х1600ХТ 6 Вершиных блоков ,аа?-это у 1600про их 5,а у 1600хт их 6....запомни уж..на бумажки где нить напиши =))) а вообще то если ты не знал,то в связке с Кросфайр,даже в ОпенГЛ играх в разрешении скажем 1600*1200 и FSAA 8Х АТИ всегда впереди....причем Нвидия часто в таких режимах отстает на процентов 30-40! про FSAA 14 говорить не буду,так как у АТИ это 12,поэтому они всегда и впереди,но впринцепи по качеству картинки одинаковы,что на FSSA 12 и 14
Причем где где а в Думе 3-ем щас АТИ ооочень часто лидирует,и в Кваке 4 тоже,они давно выпустили драйвер повышающий производительность в ОпенГЛ играх,чтож,походу повышает =))) а про Риддика...это можно сказать пиар Нвидия,эта игра изначально базировалась под архитектуру ДжиФорсов,да и тут как я говорил раньше,под высоким разрешением и сглаживанием АТИ берет верх
0
Цитата:
" в связке с Кросфайр,даже в ОпенГЛ играх в разрешении скажем 1600*1200 и FSAA 8Х АТИ всегда впереди".

Гыыы! Рассмешил, однако.

Тесты какие-нибудь читал? Что-то я там не заметил лидирования АТИ в думах, кваках и т.п. играх(кстати изначально создававшихся под архитектуру НВидиа).
0
http://www.radeon2.ru/reference/cards/
Очень интересно и позновательно.
0
http://www.fcenter.ru/online.shtml?articles/hardware/videos/17319 смотри где максимальное сглаживание,и максимальные настройки....а насчет ФСАА перепутал,там 14Х... http://www.overclockers.ru/lab/22509.shtml
Ну насчет слова ВСЕГДА ЛИДИРУЮТ тут да,оговорка...в большенсвте случаев,так лучше сказать
0
Кстати, откуда утверждение .что Х1600ХТ имеет 6 текстурных блоков. Ссылку на официальную информацию, пожалуйста(оф сайт),
0
http://www.ixbt.com/video2/r520-part1.shtml ....епт...да ты че СЛЕПОЙ СОВСЕМ МЛЯЯЯ?!?!?!?-где я нах писал что текстурных блоков у нее 6 ?!?!?!-епт....вершиные процесоры и текстурные блоки,это совсем другое к твоему сведенъю.....х1600хт 12 пикс. конвееров,6 вершиных процессоров и 4 текстурных блока,ВСЕ!!!!!
0
Да ладно тебе чего раскричался -то?:))) Просто проверка, всё я знаю. Я тоже привёл тебе ссылку, где говорится, что вершинных процессоров там ровно 5. Потрудись привести ссылки на ОФИЦИАЛЬНЫЕ сайты компании AТИ, а не ИКСБТ.
З.Ы. Нервные клетки не восстанавливаются.
З.З.Ы. А вообще я не специально, прошу извинить за это издевательство.
0
Мда уж...че за хрень...кто нас на*бывает ?!?! Иксбит или www.ati.com ?!?!? =)))) да уж....но вообще как на АТИ говорят тока о х1600про,хотя я уже честно говоря не знаю че там и где...я в замешательстве =)
0
Осталось только купить х1600 про и х1600 хт и подсчитать там и там вершинные процессоры =)
0
Опа.

Отсутствие поддержки унифицированной шейдерной архитектуры в G80 - серьёзный технологический недостаток. ИМХО. Я такого не ожидал от nVIDIA, да и ктому-же какая-то невсвосем понятная, неполная поддержка Shader Model 4.0 тоже выглядит странным, они либо поддерживаются на аппаратном уровне чипом либо нет... странно короче это всё выглядит...

p.s.
И что же это получается, что nVIDIA остаётся со старой архитектурой ? К тому же унифицированная шейдерная архитектура более гибка к программированию сложного шейдера (3.0/4.0) - что естественно даёт выигрыш в скорости его обработки к примеру в сцене с комплексным применением шейдеров различных сложностей одновременно. Короче может это всё ещё слухи (насчёт G80) и они не подтвердятся, хотя как знать, как знать... поживём увидим...
0
Да всё это слухи!!!Ваще немогу понять где они это выкопали ,ведь оф инфы небыло .....
0
Если слухи пошли значит были предпосылки, не из воздуха же они взялись...
0
Needer
Слухи эти пошли после закрытых демонстраций чипа G80 на SEBIT 2006.
0
Pendalf2005
ИКСБТ. Я, чесно говоря, очень плохого мнения об этом ресурсе. Ибо знаю, как там статьи пишутся. В ХТ 5 вершинных процессоров. 5.
Версии Про и ХТ отличаются только частотами. Рекомендую не брать инфу с ИКСБТ.
Про Г80, не знаю, но кажется мне, что это будет провал Нвидиа - если её новый чип не поддерживает шейдеров 4.0. Хотя не дураки же они, понимают чем это чревато. Думаю там будет всё нормуль.
0
Мне чем то политика Нвидия щас напоминает политику АТИ при выпуске Х*** "нафига нам эти 4-ые шейдры,и без них живется хорошо" =))))
0
Тема не обновляется шестой день.
Как я и предсказывал, смысла ее существования у нее нет.
ВСЕ о видеокартах уже в названии подразумевает ЛЮБЫЕ вопросы, как общие так и конкретные...
ИМХО
0
В теме о видеокартах - как в первой так и во второй в основном идут вопросы по покупке - а то что тут затишье - да просто обсуждать нечего. (да и в ближайший месяц тоже вряд ли что то будет интересное) - а вот осенью - все веренется на прежднее место..
0
Эта тема продолжает традиции предидущих четырёх частей, закрывать её нельзя, эта тема историческая по длительности своего существования, в ней всегда обсуждались видеокарты и графика, а вот как ра та тема является клоном данной ибо была создана совсем недавно. Эта тема в несколько раз старше той и если и удалять какую то из этих двух тем, то точно не эту.
0
Прально...этой теме уже около года ,если не больше,и должна быть и 6-ая ее версия,и 7-ая...помните люди,когда вышли Х1** или 7*** ,как посты шли?! каждый день по постов 23 не меньше...так и будет осенъю,а возможно еще лучше...ведь придет эра ДХ 10 ,это событие !!!! =)
0
Новости:

Увы, G80 - и правда не будет поддерживать унифицированную шейдерную архитектуру.Преимуществом унифицированных конвейеров в R600 является возможность динамического распределения ресурсов. К примеру, ядро R580 (Radeon X1900) использует 48 пиксельных и 8 вершинных конвейеров, но в зависимости от обрабатываемой сцены может потребоваться больше вершинных, или, наоборот, шейдерных конвейеров. Унифицированные конвейеры могут конфигурироваться так, как того пожелает графический чип. Следовательно, всегда задействуются все ресурсы видеокарты.

Кстати G80 будет полностью совместим с DirectX 10 и Windows Vista, и конкурировать ему прийдётся с ATI R580+, который появится примерно в то же время и будет модификацией R580 с поддержкой памяти GDDR4.
0
Я бы не сказал что это новость плохая - тот же UnrealIII Engine не дружит с унифицированной архитектурой - тот же UT2007 на последних гефорсах будет работать лучше чем на аналогах от ATI. Вообще унифицированная архитектура не является распространенной среди игровых движков (ну мож кроме тех, которые контролируются ATI) - так что тут пока Nvidia задет тон - особенно в среде OpenGL - и движков Doom3, FEAR и пр..
0
Унифицированная шейдерная архитектура ATI уже используется в X-Box 360. Многие игры попадают на PC именно с этой платформы, тот же Oblivion. Приставочка то от Microsoft, а значит и у Microsoft есть опыт работы с такой архитектурой. Так что у ATI есть непохие шансы развернутся на новой архитектуре. А OpenGL не игровой движок и поэтому в играх используется редко, за последнее время только движок Doom 3 и был. К стати в Quake 4 движок Doom 3 доработан и отставание ATI свидено к минимуму. А FEAR вообще-то на DirectX!
0
И полная красота Кризиса будет в руках у Р600
0
Г-Мэн, скажи,а откуда такая уверенность,что Анрил 3.0 будет лучше работать на последних Форсах ?
0
G-Man оптимист! ;-)
0
NVIDIA не дураки чтобы отказыватся от новых технологий и по этому еще раз повторяю что NVIDIA не говорила что G80 не будет поддерживать 4 шейдеры и унифицированную шейдерную архитектуру!Это всё слухи которые никто не подтверждал!
0
Needer ну ты фома неверующий, уже во всём нете это известно, а ты "не подтверждал". :)
Вообщем, может эта архитектура ещё довольно сырая и nVIDIA решила пока повременить с выпуском чипа с унифицированной архитектурой, возможно у них возникли какие-то проблемы с реализацией этой фичи. С другой стороны конечно не факт что R600 будет очень удачным. Но я надеюсь что ATI не подведут. Кстати про X-гроб 360, тут наверно у ATI уже были наработки в этой области с чипом XENOS, поэтому с опытом в этом деле им проще было реализовать, чем nVIDIA.
0
Оптимист тут тока Needer по моему =)
Я просто читал релиз движка U3 - там неоднократно подчеркивалось что унифицированная шейдерная архитектура не используется движком.
0
2 Needer
То что в G80 не будет унифицированной шейдерной архитектуры заявляли даже представители nVidia. А присутствие шейдеров 4.0 вероятно трудно реализовать на старой архитектуре.

2 G-Man
То что унифицированная шейдерная архитектура не используется движком не значит что будет работать хуже чем классическая. Никто в принципе не мешает добавить ее к моменту выхода игры или даже после. Например в Quake 4 сначала не было поддержки многопоточности, но патчем 1.2 ее добавили.
0
Хотя чего гадать ,ждать осталось недолго....
0
А когда выходит чип да и ещё не известна цена
0
Писали что выйдет в сентябре
0
выйдет в сентябре
Хех, подарок школьникам =))
0
Ага.И их родителям. :P
0
Наоборот никому это не подарок. Дети начнут клянчить видеокарту, а предки скажут, мол, учись хорошо и к концу года купим, когда выйдет уже g85
0
Pendalf2005 писал:
Мне чем то политика Нвидия щас напоминает политику АТИ при выпуске Х*** "нафига нам эти 4-ые шейдры,и без них живется хорошо" =))))

Да, пожалуй, разделю твоё мнение. Стоит добавить, что ATI и nVIDIA сейчас "поменялись местами" ещё и по энергопотреблению своих видеокарт. Помнится когда только вышли X800 XT & 6800 Ultra, то ATI демонстрировала на какой-то выставке работу своей топовой видеокарты (X850 XT PE была выпущена позднее) в корпусе, оснащённом (!) 250 Вт-ным БП. А для 6800 Ultra рекомендовали тогда БП от 450 Вт. А что сейчас? Для X1900 GT, например, рекомендуется БП 450 ВТ, тогда как 7900 GT свободно хватает и БП на 350 Вт. Такие вот дела.
0
Вообще то для 7900GT надо 400Вт и выше
0
Да, тут дело не в политике. Просто мощности граф. процессоров уже превосходят мощности потребления обычных CPU. Так что это нормально. И кстати да, для 7900 GT нужно 400-420 ватт минимум..
0
Дык я сам удивился что 7900 GT так мало кушает. Но вы сами посмотрите http://www.overclockers.ru/lab/print/22339.shtml - там вообще сказано о 300 Вт.
0
Нифига себе! А сколько же надо тогда 7950 XTX 2?
Да и скажите последняя модель ATI это X1950 XTX?
0
Во первых 7950 GX2, во вторых ей нужен блок от 850 ватт и выше (лучше сразу 1000). В третьих для 7900 GT именно что приблизительно, и как правило блоки на 300 ватт для такой нагрузки не расчитанны и проседают (а иногда и мрут, утягивая за собой и видяху, да и мать заодно). И наконец X1950 XTX - это продукт типа Geforce 6850 Ultra - кое кто слышал, но хрен кто видел. Судя по всему сверхбыстрая версия R580 для OEM рынка... В магазинах не найти..
0
Geforce 6850 Ultra
Первый раз слышу о таком монстре )))
Это наверное типа FX5950 Ultra с повышенными частотами и астрономической ценой... (такая карточка была у Валентины Матвиенко в 2004 году)))
0
Вот и я написал не 300, а 350 Вт (чтоб с запасом). Хотя самому не верится, что 7900 GT сможет нормально работать с БП 300-350 пусть даже и "честных" ват. Хотя может и на оверах опечатались...
0
да нет,не опечатались,у моего друга оня(7900гт) + плюс двуядерный проц и все это весит на 350-ват =) -конечно все без разгона =)
0
А сколько примерно стоит блок питания с 500 ват.
0
Думаю от 2000-2500, но это как говорит G-Man если не брать в расчет северокитайский Gembird, который к аппаратуре подключать жалко. И хотя он стоит в два раза дешевле я бы может и соблазнился его купить.
У меня вот стоит древний блок на 250Вт от Noname (!!!) и работает прекрасно, хотя без разгона чего-либо, а вот у друга новый блок от FSP сгорел через полгода после покупки компа (система была не самая мощная причем) и вместе с собой потопила мать и видюху. Так что тут скорей как повезет. После того что я подключал к своему компу, северокитайский Gembird не так жу страшен для меня. Как для вас -ваше дело...
0
Харош молчать, где война NVIDIA с ATI!? :P
0
А откуда вы знаете как будет работать Crysis на G80? Сейчас все красивости игры делаются на програмном уровне, так как еще нет видюх с 4 шейдерами. Если он с эмуляцией DirectX10 так прекрасно работает то на настоящих DirectX10-чипах он будет летать. И ваще для одной игры ждать R600 и G80 тупо.
Да и какие еще игры под DX10 в 2007 будут?

Кстати ролики из UT2007 записывали в OpenGL, так как в DirectX были глюки с освещением.
Так что nVidia будет полюбому быстрее. Да и во всех тестах игры били только ДжиФорсы.
О Ати ни слова небыло.
0
Потому что в свое время движек делался на 6800ультра,и Нвидия спонсор этого проэкта,поэтому там тебе карт от ати НЕ БУДЕТ =)) а насчет быстрее или нет,ну допустим записывали в ОпенГЛ ,ну а кто сказал,что финальная версия игры будет в ОпенГЛ ?! =)))
0
Если они оставят OpenGL, да еще и оптимизация под nVidia... На GeForce все будет пучком.
0
//////////////////////////////////////////////////////////////////////////////
Предварительные данные о конфигурации конвейеров чипа G80
http://www.overclockers.ru/hardnews/22692.shtml
//////////////////////////////////////////////////////////
0
Вряд ли там ОпенГЛ будет - ибо Microsoft в Vista отказалась от его поддержки...
0
///////////
Зацените
http://www.3dnews.ru/software-news/crysis_pravda_ili_lozh-173981/
////////////////////////////////////////////////////////////////////////////////
0
OpenGL никуда не денется, т.к. он используется в професиональных 3D приложениях, таких как Maya, 3D Studio и прочие.
0
Силами компании ATI возникло некое предубеждение, что DiretcX 10 видеочипы будут основаны на так называемой унифицированной архитектуре вычислительных блоков. Это подразумевает, что чип динамически направляет свои ресурсы то на пиксельные вычисления, то на вершинные и расчет геометрии в различных пропорциях. Нечто подобное можно наблюдать в архитектуре центральных процессоров. Но спецификации DiretcX 10 не требуют от чипа придерживаться унифицированной архитектуры, поэтому NVIDIA в G80 пока решила руководствоваться проверенными способами и предложить чипы нового сезона на основе традиционного разделения блоков на пиксельные и вершинные вычисления.
По предварительным данным, в архитектуре G80 будет реализовано соотношение пиксельных и вершинных блоков как 2:1. В данный момент флагманский чип NVIDIA G71 имеет формулу 3:1, то есть 24 пиксельных конвейера и 8 вершинных блоков. Как видим, в новой архитектуре будет сделан сравнительно больший упор в сторону геометрических вычислений. Пока точные данные о характеристиках G80 держатся в секрете. Лишь известно, что в компании довольны производительностью своего нового продукта. Также сообщается, что G80 будет полностью совместим с DirectX 10 и Shader Model 4.0 независимо от организации вычислительных блоков. В конце концов, потребителям важны "кадры в секунду", а не то, каким именно способом производятся вычисления.



http://www.3dnews.ru/news/nvidia_g80_pervie_dannie_o_sootnoshenii_funktsionalnih_blokov-173999/

_____________________________

Съели!!!Я всегда это знал!!!
0
G80 уже готов и будет в сентябре. УРА!
http://www.3dnews.ru/news/g80_sushestvuet_uzhe_ne_tolko_na_bumage-173998/
0
А вообще 256Mb PCI-E GeForce 7600GS Sonic DDR3, TV-out, DVI, Palit сложно будет разогнать до 7600GT! То я этим никогда не занимался))
0
ТО что была возможна поддержка 4-ых щейдеров,не кто пока не спорил ,то что карта не поддерживает WGF 2.0 (унифицированная шейдерная архитектура) это ясное дело,и так видно!!! без нее 4-ые шейдеры реализовать сложно,так что я считаю,что в играх где будут 4-ые шейдеры, детищю АТИ не будет равных,т.е. в Кризисе
0
Короче залез я на форум overclockers.ru по 7900GT. Так вот там из 155 страниц почти на каждой у кого то или заглючила или ваще сгорела 7900GT. Причем горят и глючат даже на дефолтных настройках через 1-2 месяца после покупки. Некоторые меняли уже по нескольку штук или брали Х1800ХТ. Если кто че знает про это то напишите. А то куплю а она сгорит. Чудненько тогда будет.

И что всетаки мощнее Х1800ХТ 256МВ или 7900GT 256МВ??
0
x1800xt по моему мнению,еще на оверах сравнивали х1900гт , 7900гт и х1800хт,оследний был самый мощный,если мне память не изменяет =)
0
to Pendalf2005

нефига, никто даже незнает как поведет себя WGF 2.0 в реальности...
0
ну не знаю,по моему мнению Нвидия просто решила поосторожничать не внедряя унифицированную архитектуру,так как опыта в этом нету,а для того чтобы полностъю ее изучить,ей бы понадобилось намного больше времени,а у АТИ просто уже есть опыт в этом,с помощъю Хящика 360 ,графический процессор Хенос обладал этой функцией,и я считаю что АТИ мало того что ее сделает на Р600 ,она должна ее усилить как то,ведь пргогресс не стоит на месте,и Нвидия поняла,что свяжавшись с этой архитектурой она потеряет время и деньги,так как АТИ в этом будет сильнее,вот она и выпускает карту по пропорции 2 к 1-ому с поддержкой ДХ 10 и 4-ых....ее единственное оружие которое лучше чем у АТИ ,так это скорость выпуска,Нвидия хочет чтобы все хардкорные геймеры купили их карты не дождавшись АТИ,а там то и лучше видно будет!
0
Возможно,
везде полно новостей про G80, а про R600 ничего неслышно. Странно.

И еще.
А почему 7900Gt сравнивают с X1800Xt, а не с X1900?
0
А чем X1800Xt провальный?
0
Провальным он6 как бы не считается,просто вышел слишком поздно,а привосходил 7800гтх только где то в 10-5 процентов,причем жрал и грелся много!!! так карта хороша,тока поздняя слишком... =)))
Бот ,а я как то наоборот,во сновном слышал про Р600 ,а про Г80 мало =)
0
Не ,сравнивают и с х1900гт,просто х1800хт стоит чуть чуть дороже х1900гт и 7900гт,а версия с 256 мг памяти вообще стоит стока же!!! еще х1900гт чуток имеет приимущество походу над х1900гт,а вообще мне екажется они равны,в каких то лидирует 7900гт ,в каких то х1900гт (точно знаю,это Обливион!!!)!!! но как бы походу х1800хт скоро снимают с производства,когда выйдут Р570 ,так как он должен быть мощнее и дешевле,будет конкурентом 7800гтх/7900гт!
0
Зачем?
Пусть лучше концентрируют свои силы на R600
0
Р600-монстр копите на него деньги, надеюсь на зимнеи праздники купить его, буду играть в ОБЛИВИОН и будет у меня 100фпс на макс. в лесу и городе))А то мой X850 XT, хоть и тянет макс. но трудно
0
Бот...ну знаешь друг,не у всех у нас корманы забитые деньгами,поэтому думаю прально делают что делают средняка =))))
0
Я не говорю, что у меня карманы набиты деньгами, в них вообще лишний полтинник то не появляется никогда, но если они не поторопятся с R600 эти ЭнВидивцы выиграют только за счет того, что выпустят карту гораздо раньше ATi
0
А у них такая тактика...понимаешь....тоже самое они и сделали с х1800хт,они просто взяли и выпустили карту с той же архитектурой ,и просто увеличели число конвееров,и сняли с производства старые модели,чтобы конкурент был в замкнутом круге!!! сама АТИ так сделала,когда выпустила Радеоны 9-ой серии, они были быстрыми и поддерживали вторые шейдеры,но когда Нвидия выпустила ФХ-ы они просто не были способны работать в ДХ 9 приложениях
0
В чем различия между обычной х1800хт, х1800хт Lite RTL и Full RTL ??
х1800хт поддерживает Висту?
0
Поставкой и все го то,где больше проводков,где меньше проводков и утилит =)))

Поддерживает Висту ясное дело,другое дело он не поддерживает ДХ 10 ,а с Вистой совместимы многие видюхи! (как минимум 2-ые шейдеры должны быть)
0
X1800 XT OEM - в пакетике + диск с драйвером
X1800 XT Lite RTL - в коробке
X1800 XT Full RTL - в коробке + бонусы: игры и прочее
0
Кстати о висте. Я сегодня установил какую-то специальную Windows XP SP2 с майскими дополнениями. Так вот там в качестве дополнений навтыкали не только самые распространённые драйвера и утилиты (+DirectХ9 апрельский), там ещё панельки, кнопочки и ярлычки взяты из висты (по-видимому из беты). Смотрится довольно красиво :) Вот решил и вам показать:
Image Hosted by ImageShack.us
0
Красотища та какая,даже матом ругаться не хочется =))))))
0
Подумаешь.
XP и не такое может - ставьте только темы да иконки для него и покрасивей будет
0
Тока грузят машину такие вот тяжеловесные темы... езедц... Не, я аскет в этом плане - нах нада...
0
Хм, действительно. Сейчас глянул, а у меня активна тема (которая ставится одновременно с этой виндой) - Energy Blue (от неё то и вся красота). Поставил тему Windows XP и красота исчезла..., но ярлычки из висты остались :) Значит они всё-таки вне темы. Ведь не даром в файле serial.txt в разделе New в пункте № 23 указано:
23. Все иконки пропатчены иконками из Windows Vista 53**.
P. S. Всё, завязываю с оффтопом (но на ярлычки всё-таки полюбуйтесь, ведь Vista действительно будет красивее XP). А G80 и R600 довольно быстро приучат народ к этой новой ОС.
0
G-Man,
У меня слабенький Cel1700 s478
Вот так выглядит мой комп


PlayGround.ru

Поставлены иконки и курсоры - все, ну еще заменена цветовая палитра окон. Чтобы на моем так называемом компе все это загрузилось при загрузке Винды надо подождать всего лишь дополнительных 10 секунд, потом это не тормозит и ничего противозаконного не делает

и еще как вставлять большие картинки - как вверху?
0
Хостишь их в актуальном размере и все =)) Можно на pix.playground.ru закидывать - давайте наших поддерживаем =)))
0
Я и так через Pix,
0
Ребят как понять не полная шейдерная архитектура
0
В смысле не полная??? :D
0
Это наверное, как частичная поддержка, допустим директХ 9. Отдельные элементы этой архитктуры поддерживаются, а часть нет
0
Наверно пьяные инженеры что-то напутали и когда была пора выпускать назвали это "неполной архитектурой" =)
0
Новости с Игромании:

Анонимное лицо сообщило нашим коллегам с The Inquirer, что подход ATI и NVIDIA к обработке и ускорению физических процессов в играх в корне не верен и даже близко не сравнится с тем, что предлагает AGEIA. «Доброжелатель» подтвердил уже известную информацию о том, что видеокарты не могут рассчитывать интерактивную физику – только eye candy (то есть игровой мир не сможет взаимодействовать с игроком). Интерактивная физика, якобы, не по зубам даже самым мощным моделям видеокарт, типа Radeon X1900 XTX, или GeForce 7900 GTX, тогда как AGEIA PhysX справляется с этим на ура. Похоже, аноним является сотрудником компании AGEIA...

Представители компании Samsung рапортуют о запуске оперативной памяти GDDR4 в массовое производство! Новые чипы памяти должны достаточно серьезно ускорить видеокарты. В заявлении говорится, что память работает на 33% быстрее, чем GDDR3, предыдущее поколение. Первые 80 нм модули будут иметь пропускную способность порядка 2,4 Гбайт/с, тогда как в прошлом году Samsung разработала уже и 3,2 Гбайт/с технологию так что запас производительности присутствует. GDDR4 потребляет на 45% меньше энергии, чем прошлое поколение памяти. Производители видеокарт весьма воодушевлены скорой доступностью памяти.

igromania.ru
0
Чип AGEIA больше всего похож на чипы Nv3х серий - как FX5600 например. Процу все равно че обрабатывать - Ageia нервничает - конкуренты бьют сзади =))
0
Похож, но не значит такой же. Например CPU хоть и имеет частоты в несколько гигагерц, но все же исполняет графические расчеты намного медленнее GPU. Можете убедится на тестах 3D Mark 2005, там есть одни и те же тесты исполняемые и GPU, и CPU.
0
G-man:
>Процу все равно че обрабатывать
- Если ты про графический проц, то наверно не совсем всё равно что обрабатывать, наверно есть какие-то потери скорости при обработке физики графическим чипом.
AGEIA ведь затачивает чип под физику, а графический проц изначально заточен под графику его уже не переделать (хотя и там и здесь по идее надо щитать вектора), но всё таки наверно есть существенная разница между архитектурами NV3* и AGEIA, и вероятно есть определённые тонкости которые AGEIA реализует в своих чипах, благодаря чему они всё таки будут быстрее имхо. (во всяком случае уж точно быстрее чем любой из FX-ов).

зы
Но всё покажет время и вообще интересно было бы посмотреть тесты видеочипа против AGEIA... естественно когда он выйдет.
0
>Например CPU хоть и имеет частоты в несколько гигагерц, но все же исполняет графические расчеты намного медленнее GPU.

- Вот, вот, весьма показательный пример, всё дело не в количестве операций в секунду, а на что эти операции тратятся. В графическом чипе (лично моё предположение) много будет простоя из-за особенностей его архитектуры, всё таки при расчёте физики нужно хранить и работать немного с другими типами данных, чем при обработке пикселей и текселей. (буферы хранения данных к примеру в графическом чипе имеют другой формат). Так ведь ?

Соответственно возможно до 50% (может и больше) графического чипа будет не задействовано в при расчёте физики. Поэтому я думаю наивно ожидать от графического чипа большей скорости, чем от чипа с изначально другим подходом к реализации этих расчётов. Так же как было бы например наивно ожидать того что чип AGEIA будет быстрее обрабатывать графику к примеру, чем специально для этого предназначенный видеочип. (хотя графику AGEIA скорее всего обрабатывать не сможет, но это я так просто как пример привёл).
0
Сколько стоит AGEIA?
0
Графический чип фактически переводит трехмерную модель в плоскую картинку с наложением текстур и эффектов. А физический чип просчитывает изменения трехмерной модели (движение). Это очень даже разные задачи.
0
Сколько стоит AGEIA?
http://www.price.ru/bin/price/prodlist?curr=2&vcid=010303&base=1&cid=0903&pnam=AGEIA&where=00

Вроде должна быть версия без игры Ghost Recon Advanced Warfighter. Она наверно будет дешевле стоить.
0
Я не сильно понимаю, эти AGEIA ставить вместо видеокарты? Или вместе с ней, как дополнение для расчета физики? Но разве игры поддерживают сейчас возможность такого распараллеливания задач? Я мельком только читал, что нужно специально программировать для этого игры
0
Физический ускоритель вставляется в обычный PCI слот. У AGEIA свой физический движок, и он должен быть заложен в игру. Можно добавить поддержку AGEIA и с помощью патча. Например он встроен в Ghost Recon Advanced Warfighter. Список игр поддерживающих физический ускоритель тут:
http://www.ageia.com/physx/titles.html
0
Я про большинство игр и не слышал даже. Да и не густо с ними. А цена немаленькая у этого AGEIA - 300 баков
Не стоит, наверное, пока заморачиваться
0
Alexandr82
Графический чип фактически переводит трехмерную модель
- Да так и есть :) Но сначала ведь он (чип) эту трёхмерную модель считает в трёхмерной системе координат, а данные хранит в back buffer. А потом используя front buffer выводит уже плоскую картинку - "проецирует" на плоскость всё что посчитал в предидущей стадии.

Вот в графике используются для хранения данных:

Цветовой буфер, буфер глубины, буфер шаблонов (stencil - для хранения теней), альфа буфер (alpha - информация о прозрачности пиксела в 32 битном представлении), первичный буффер (front buffer - через него осуществляется вывод изображения на экран, после back buffer), вторичный буфер (back buffer - область памяти в которой происходит рассчёт кадра), буфер кадра (frame buffer - хранит данные о пикселах одного обрабатываемого кадра), линейный буфер (line buffer - хранит одну строку изображения), Z-Buffer (информация о глубине цвета пиксела, обычно не меньше 16 бит на пиксел).
В современных графических чипах присутствует свой Z-Buffer. Т.е. аппаратно. Вот, это всё чисто для хранения графических данных.

А при расчёте физики, ничего этого не надо, т.е. приходиться хранить какие-то свои данные, и это вовсе не информация о пикселах. Может разрабы придумают создавать свой буфер в видеопамяти для хранения значения физических рассчётов, но опять же это потребует дополнительного времени. Короче незнаю... я думаю граф. чип будет медленней физкарты ИМХО.
0
Такое же ощущение ...Эта физики совсем сырая и реальности пока в ней немного поэтому нестоит тратить 7-8k на эту "физику"......
0
Needer
Солидарен с тобой. :)
0
В конечном итоге все равно все сводится к просчету нулей и единиц =)) Главное под что чип заточен - и если есть маштабируемость софтовой части (драйверов) под такие задачи - то в принципе просчет физики на видеокартах имеет право на жизнь. Хотя ATI сказала, что им потребуется больше года на разработку подобного драйвера. Тут скорее Ageia следует опасатся Microsoft с их "директИкс физикс" - они планируют слияние с Havok - и разработку софтовой составляющей именно под видеокарты. У них то опыта поболее будет. Борьба с такими игроками Ageia явно не по зубам. Да еще и шина PCI - Ageia утверждает что это основное слабое место ускорителя. Нужно пережодить на PCI-E хотя бы 1x.
Игр с поддержкой Ageia PhysX пока шесть - Гост Рекон, Rise of nations, Bet on Soldier и еще тройка проектов, пока не особо известных. Активно идет интеграция PhysX в движок UnrealIII, возможно засветися еще в SacredII.
Я делаю ставку на Микрософт. Интеграция физ. составляющей в новые версии DirectX и в соотвествующие SDK - это не шутки. (и не отдельные драйвера и инструментарий Ageia - не известно то как он будет с DX контачить)
0
Конечно все мы делаем ставки на Microsoft!
Билл столько мудится со своим X-BOX, хотя каждая его версия уступает по всем параметрам PS, он не закрывает этот проект! Самый богатый человек в мире 12 год подряд может себе позволить выпускать консоль в убыток и тем более ему ничего не стоит раскрутить тандем Havok-DirectX. А эта AGEIA выскочка какая-то! Чем они вообще занимались до PhysX? Наверняка были сопливой конторой программистов-дилетантов!
ИМХО нах
0
почему ты думаешь что х-бокс приносит убытки? Просто приносит меньше прибыли чем ПС.
0
Просто Билл Гейтс с ним возится наверно больше чем с Виндовсом!
И все равно проигрывает Sony
0
1) Недавно прошла конференция разработчиков игр (European Game Developers Conference 2005), на которой известная компания Valve показала моделирование реальных физических эффектов на чипе PhysX (на примере Half-Life 2). Представители компании Ageia рассказали возможностях приставок следующего поколения - они смогут поддерживать этот чип на программном уровне, но, из-за особенностей архитектуры системы X-Box 360, эта консоль сможет использовать чип в ограниченном режиме.
Такие эффекты, как флюидная физика, включая движение воды и дыма, а так же сложная физическая механика будут доступны только обладателям PS3 (и PC).

2) Microsoft has licensed the PhysX™ engine from AGEIA™, a pioneer in hardware-accelerated physics, enabling real-world physics simulations with robot models. The PhysX simulations can also be accelerated using AGEIA hardware.

3) Процессор Ageia PhysX получил поддержку со стороны российских компаний: 1C, Бука, Акелла, Новый диск.

4) у Microsoft достаточно тёплые отношения с Ageia, в частности, их PhysX API был использован в недавнем продукте игрового подразделения под названием "Rise Of Nations"

5) Plug-In ThinkingParticles 2.5 для 3DS Max получил поддержку Ageia PhysX

Так что Ageia не спит, а активно пытается проникнуть везде
0
В любом случае ни Ageia, ни Microsoft пока не могут одного - заставить всех переходить на аппаратную физику. Повторяется ситуация с шейдерами и Geforce3 - вроде все есть - но никто делать не умеет. Вспомните примитивизм внедрения шейдерных технологий в игры на ранних этапах. Все игры спокойно работали и без них, поддержка шейдеров игрой выглядела жалким пеаром... Что собсно происходит и сейчас с физикой. Возможности то огромны - но пока все еще сильно по детски. Возможно, это происходит от необходимости писать дополнительный код для обработки физ. процессором - то есть он должен быть легкоотеделимым - что бы игра работала на машинах и без наличия чудо-платы, опять же ввиду ее малораспространенности среди пользователей. (что опять же было на заре внедрения шейдерных технологий) - а потом при активной интеграции физ. составляющей в движок игры - игра хоть и не будет работать без платы PPU, но сможет порадовать нас невиданными доселе возможностями...
0
ИМХО рано ещё активно внедрять эти технологии в реальность.
Может годика через два они будут уже желательны или даже необходимы для большинства игр, но сейчас я думаю ещё рановато.
хотя тот же Crysis возможно будет работать быстрее за счёт этой технлогии (учитывая что разработчики обещают физику применительно ко всем обьектам - таким как листья и ветки, мелкий мусор и т.д. и это всё будет "правильно" реагировать на воздействия игрока и других обьектов - я соменваюсь что центральный проц сможет с нормальной скоростью со всем этим справляться), и возможно без специальной физикс-карты могут быть не доступны какие нибудь дополнительные настройки физики игры. Но это лишь моё предположение, учитывая то, что Crysis продвигает новую Windows Vista, то я думаю вполне возможно они реализуют многие "тяжёлые" физические эффеткы, что бы содействовать продвижению новой технологии по убыстрению физики. CryTek от рекламы новой технологии не откажется имхо.
0
Люди, чем отличаются видюхи жираф 7600GS и 7600GT - у них разница в цене 500гривень(2700 рублей) и вообще насколько хороши эти видюхи как для игр так и для профессинальных задач ( меня интересует использование в 3dsmax и Maya)
0
Хе... а знаете что, мне это тоже напоминает ситуацию с графическими ускорителями, только при переходе от софтрендера к железному, один в один ситуация имхо :) Как это было ещё с VooDoo Graphics - первым 3D ускорителем.
Сначала конечно будет не всё так удачно, но мне кажется за отдельными картами будущее (3D ускорители и соответственно PhysX ускорители).

Единственно PCI - проблема, но наверно этой скорости пока хватает, ведь не надо передавать большие обьёмы информации такие как текстуры к примеру. Основной поток данных к 3D ускорителю - это ведь текстуры в основном.

Насчёт Microsoft, незнаю... зачем обрабатывать физику видеокартой, может легче создать свой физикс-ускоритель (было бы новое слово в архитектуре PC) и благополучно его внедрять и писать уже для него драйвера и проч, а не заморачиваться с видеокартами, как-то это глупо имхо. (т.е. как-то через одно место получается ;)) Тем более лишние финансовые затраты пользователей, покупать видеокарту только для того чтобы половина её аппаратной части неиспользовалась ?
0
RODRIGES
Принципиально ни чем, но у 7600 GS частоты ниже чем у 7600 GT.

Насчёт 3DsMax, а что есть принципиальная разница ? Для него вроде обьём текстур вообще не важен, т.е. обьём видеопамяти. Что 256 что 128 Mb. Но большее количество видеопамяти может сказаться на работе игр, где нужно текстуры обрабатывать в реальном времени.
0
RODRIGES
7600 GS действительно мало чем отличается от 7600 GT. Только частотами. А т. к. память на 7600 GS работает на меньшей частоте, то применяют её более дешёвые варианты - типа DDR или DDR2. Но некоторые производители предлагают и 7600 GS с памятью DDR3. Один из таких неплохих бюджетных вариантов - 7600 GS от Sonic, и хоть это Palit, но эта карточка у них вроде получилась неплохо.
0
G-Man
Пора создавать отдельную тему по физическому ускорению
0
Ни фига. Лучше ей бойкот устроить!
0
:PPP
0
Alexandr82
Ды без проблем. Будет ли она популяронстью пользоватся? А то как всегда адльше 30-40 постов дело не пойдет..
0
Да, помню все 3D Ускорители себе ставили. Помню, что Турок требовал его для игры обязательно. Я был неимоверно крут, у меня была тогда 3dfx VooDoo 2 со встроеным ускорителем)) как и все видухи сейчас. Так что Скоро все карты обзаведутся своими физ. ускорителями.
0
Lord Alucard
Че то вы не то грите - вообще-то VooDoo2 был только 3D-акселератором - который требовал в пару 2D карточку. И никуда он встроен не был. Вся серия VooDoo2 была чистокровными 3D-акселлераторами без 2D карты не работали ессно - окончательно 3DFX обьединил 2D и 3D чипы только на VooDoo Banshe и далее на VooDoo3 - тогда же и подошла к концу эпоха разделения карточек - так как просто отпала необходимость в этом.
0
Джи-Мен
Тебе придется признать, но по-моему ты в меньшинстве сейчас насчет вопроса о будущем физикус ускорителей. Они по-любому переберутся на видюхи. Также как 3D ускорители.
0
G-Man, первый 3D ускоритель с 2D чипом на одной плате был VooDoo Rush, у мня было такое чудо где стоял S3Trio чип. И по производительности он был менее быстр, чем связка отдельных карт на тех-же чипах.
0
ball1
Верно, я просто имел ввиду, когда единая архитектура начала опережать разделение на 2D и 3D карты по скорости. (я так и написал, кстати - "окончательно", а не "впервые" верно? ;-) А Rush проигрывал связкам 2D+3D почти в полтора раза (и широкого распространения не получил в отличии от Banshe).

Чей-то Бот
По моему я прямо нигде ниче не утверждал - перебратся они могут, только в том случае, если ATI и nvidia таки напишут софт и драйвера для обработки и просчета физики на видеокартах. Ageia парилась с софтовой составляющей почти год, причем из них пол-года на руках и складах пылились розничные образцы PhysX - в этом легко убедится посмотрев серии выпуска чипов в обзорах ускорителей. Сейчас вроде все тока налажилось. И опять перепродумывать архитектуру карты, опять же каким то образом делить память между видео и физюхой (а чип PPU работает с куда как более медленной памятью, и я думаю пересадить его на GDDR4 будет проблемой =)??? А охлаждение? Да, это вопрос времени. И я думаю вопрос не меньше чем двух лет. Сейчас пока технологии до прямого слияния еще не доросли. А там не известно - а вообще будет ли необходимость в этом обьединении? Возможно переходы на все более меньший техпроцесс, просто позволит интегрировать необходимые блоки в кристал GPU (или чего доброго вообще в CPU). Но это инжинерам Nvidia и ATI придется придумывать явно самим - если кто то из них конечно не купит Ageia=))

ЗЫ Как вам кстати курсирующие в сети слухи о покупке ATI корпорацией AMD? Думаю такой союз пошел бы на пользу и тому и другому...
0
>слухи о покупке ATI корпорацией AMD
- Да я тоже слышал. Эти слухи курсируют уже довольно давно :) (я эту новость ещё в прошлой темке выкладывал) но там пока ничего не понятно вообще. Но то что слияние пошло бы на пользу тому и другому уверен на все сто.

>PPU работает с куда как более медленной памятью, и я думаю пересадить его на GDDR4
- А у него будет своя память. Мне кажется будет более проблематично использовать видеопамять для хранения посторониих данных, и они скорее всего будут замедлять доступ GPU непосредственно к видеоднным.

зы
Но отдельный чип PPU на видеолате - звучит заманчиво. :) Следовательно и отдельные чипы памяти.

>И я думаю вопрос не меньше чем двух лет.
- Согласен. И уверен, что первые блины будут комом. ;) Но за этим будущее. имхо.

Lord Alucard
Кстати да, если нужно было обрабатывать 3D данные то поток данных атоматически перенаправлялся на 3D уксоритель, с 2D данными работала 2D карта.
0
Млять, у меня 100% была одна карточка. с 16 мб памяти на борту. И разве Banshee - это не есть VooDoo 2?
0
Banshee - это Voodoo 2 + 2D карта
0
Lord Alucard
Хе...нет, сначала были выпущены VooDoo Graphics - карта представляющая из себя чисто 3D ускоритель (вообще первый в своём роде), она работала в паре в обычной 2D картой.

Затем в свет вышла карта VooDoo Rush - это была первая поноценная карта обьединяющая в себе возможности как 2D так и 3D. Но она была медленная и уступала по скорости той же VooDoo Graphics почти в 2 раза.

Следующим шагом 3Dfx был выпуск опять чисто 3D ускорителя без возможности обработки 2D (работал только в связке) - это был VooDoo 2, эта карта была почти в 3 раза быстрее чем VooDoo Graphics. (карточка уже могла спокойно работать с OpenGL и Direct3D и умела производить сглаживание). С этой картой появилась возможность соединять две карты в режиме SLI - Scan-Line Interleave (привет nVIDIA :)), работала технология следующим образом - одна карта обрабатывала чётные строки изображаения, а другая нечётные.

И уже затем в 1998 году появилась VooDoo Banshee - полноценная карта с возможностью обработки как 2D так и 3D. (карту выпускали уже не только под PCI но и под AGPx1). Конкурентом ей тогда была RivaTNT от nVIDIA.

Затем в 1999 году появились VooDoo 3 - выпускались уже под AGPx2. И конкурировали с RivaTNT2.

Позже вышли VooDoo 4 и 5 - карты были неудачными, т.к. вышли поздно и порядочно отставали от уже вышедшего GeForce2.

В ноябре 2000 компания 3Dfx была полностью выкуплена компанией nVIDIA. На этом закончилось существование этой компании сделавшей первый шаг в направлении ускорения 3D графики и совершившей революцию в этой области.
0
Ну вы и историки :)
0
Shader 3.0
Не зная истоки, нельзя знать настоящего. Тока видя прошлое - видишь полную картину современного рынка =)

SilverMoon
Ты тока забыл упомянуть про SLI от 3Dfx и обьединение Двух VooDoo2 и одной 2D карты в системе =))
А на счет физики - ты забываешь про наводки, и сложность построения такой системы - (ты когда нить набирал или вытравливал платы на текстолите?) - карты такие по себестоимости должны будут включать в себя цену хорошей видяхи плюс цену PPU, а это баков 800-900 с учетом сложностей построения и компановки таких связок - да еще и память отдельню - ты вообще представляешь себе этого монстра - и чем его будут охлажадть? Нет. Такой вариант вряд ли будет приемлем. Дорого (очень), крупно и горячо. Вероятнее всего все это будет выглядеть именно как когда то сопроцессоры перехали под единую оболочку CPU в виде отдельных блоков...
0
Хм.. ну может быть ты и прав насчёт тепловыделения, но про наводки - это навряд ли, при грамотном поектировании принципиальной схемы наводок вполне можно избежать.

зы
Насчёт травки текстолита было дело, когда паял усилок себе самодельный, но это мало относится к сути =)
Потому что мы же не будем сравнивать обычный текстолит с тем что исползуется в микроэликтронике PC, насколько я знаю текстолит видеоплаты - двухслойный, а материнки вообще три слоя, так что...
0
To G-man:

И всё равно я с тобой не согласен. =)

1)Тепловыделение - эту проблему вполне можно решить более мощой системой охлаждения, вспомним хотябы двухчиповые видюхи, система охлаждения там со всем справлялась. И если ты думаеш, что разработчики обьединят GPU и PPU в одном кристале то надо учитывать что площадь кристалла значительно увеличится - следовательно опять же возрастёт тепловыделение, так что тут я думаю разницы большой нету что охлаждать один большой кристал или два небольших. Приэтом дополнительная проблема для разрботчиков GPU как им переделать строение чипа, чтобы внедрить туда ещё и PPU. А если сделать PPU отдельно, то проблема всего лишь в проектировке принципиальной схемы - что я думаю легче чем создавать новый GPU.

2)Себестоимость - ясен пень что сначала будет высокой, в любом случае. Все новаторские решения изначально относительно дороги. Но со временем я думаю это всё уляжется до разумных цен как всегда это было.
0
SilverMoon
я имелл виду, что представляешь себе что такое разводка элементов =) Грамотное планирование тоже денег стоит - и все это будет входить в финальную цену платы - особенно цена чипа PPU - и затрат на его производство.
0
To G-man:
>Грамотное планирование тоже денег стоит
- Ну так создания такого чудо чипа GPU с интегрированным PPU тоже денег стоит и может быть ещё больших чем просто проектирока непосредственно платы и построения схемы "дорожек" от GPU к PPU и чипам памяти. =)
0
Игра с поддержкой Ш4 выйдут сто % после выхода самих графических решений и тем более после DIRECTX 10 то есть ждать еще долго, вспоминаем ш.3 и фар край тупо привитые на скорую руку ш.3 ни чего не дали. А игры реализующие ш.3 в полном объеме и дествительно паказавшие их плюсы вышли не так уж давно. Тестовый уровень HL2 LOST COAST с HDR, OBLIVION, ща HL2 EPISODE ONE, TOMB RAIDER (SIN например тоже поддерживает ХДР только из за использования крассок как в комиксах мало отличаеться картинка при вкл и выкл хдр, не живая вообщем) и еще какие новые вот там видно что такое ш.3, так что после анонса ш.4 вам как миниму ждать еще пол года игр на ш.4 реализующих потенциал этих самых 4 шейдеров.
0
Большинству геймеров не важно какая у них там версия шейдеров. Главное, чтоб не тормозило. 7 из 10 моих друзей не смогут отличить шейдеры от анимации и 3и шейдеры от 2-х.
0
Чей-то-бот:
>не смогут отличить шейдеры от анимации
- Всмымле ? O.o
0
Всмысле сравнение 2-ых шейдеров и 3-их...это зависит от самого приложения...если оно ткоа строится на 3-их шейдерах,это не означает.что на видюхе с 3-ими ты увидешь разницу,надо чтобы игруха поддерживала те или инные технологии...(ХДР,паралаксные текстуры, мягкие тени и т.д.) которые внедряются в игру со времинем или же патчем...впринцепи если даже нету разницы в игре с 3-ими шейдерами,но она под них заточена,то ссответственно карта которая поддерживает 3-ие шейдеры ,имеет более длинный код шейдера,что приводит к поднятию производительности на 10-20 процентов (пример 6800 ультра в ФарКрае 1.33)...так что впринцепи не в эффектах то все и дельце....а щас уже вышли игры,в которых реально заметить эту самую разницу,и самый яркий тому пример ,это Обливион (по моему пока что самая яркая игра где есть разница меж 2-ыми и 3-ими ,хотя и разрабы клялись.что на 2-ых игра будет выглядеть как какашка =) ЭйджОфЭмпайрс 3,тоже наглядный пример,вода и освещение намного грамотней чем на 2-ых,ну лараКрофт тоже красивее выглядеть (правда такой красотой фигушки на 6800ультра нормально полюбавться мона будет =)))) так что люди ,нам еще ждать и ждать,до норм. оптимизации под 3-ие шейдеры =)))
0
Pendalf2005
Ты мне расписал, такие вещи которые я сам уже знаю давно =)

Вопрос был: "в чём разница между третьими шеёдерами и анимацией" ? O.o
Товарисч ошибся ?
0
Pendalf2005
>то ссответственно карта которая поддерживает 3-ие шейдеры ,имеет более длинный код шейдера
- Не совсем так. Видюха поддерживающая SM3.0 умеет обрабатывать длинные и ветвящиеся шейдеры _быстрее_ чем видюха поддерживающая SM2.0. Разница только в длине шейдера.

>приводит к поднятию производительности на 10-20 процентов
- Приводит к поднятию производительности при обработке вторых шейдеров, т.е. более простых.
0
Специальный драйвер ATI Catalyst 6.6 для Oblivion
http://support.ati.com/ics/support/default.asp?deptID=894&task=knowledge&questionID=21960
0
Видуха не поддерживающая 3 шейдеры будет работать быстрее со вторыми чем видуха нового поколения с третьими.
в обливионе х850хт обходит по производительности 7900гт. Потому что не обрабатывает 3 шейдеры.
0
Lord Alucard
Ясен пень, но причём тут это ? Речь идёт совсем не об этом. =/

А вот к примеру если бы игра не поддерживала третьи шейдеры, то какя бы видюха работала быстрее X850 или 7900 ? Видюхи поддреживающие третьи шейдеры, благодаря умению быстро обрабатывать длинные шейдеры, соответственно быстрее справляются со вторыми более простыми, благодаря улучшенному алгоритму обработки длинных ветвящихся инструкций кода.
А сравнивать производительность x850 в игре с вторыми шейдерами и 7900 с включёнными третьими - как минимум не корректно.

зы
Соответственно отсюда вывод: Видюха не поддерживающая 3 шейдеры будет работать медленнее со вторыми, чем видуха нового поколения с этими же вторыми шейдерами, за счёт улучшенной архитектуры обработки шейдеров _вообще_.
0
В самом что ни на есть прямом смысле.
Все что красиво движется и и зменяет форму - это шейдеры!
Примерно такое умозаключение делают мои знакомые, которые вообще знакомы с понятием "шейдеры".
И я не осчибся, извольте)))
0
А, ну если так думают ваши знакомые, тогда это другое дело. =)
Обьясните им в чём они не правы, а то так и будут заблуждаться всю жизнь.
0
На то, чтобы объяснить им хотя бы что такое шейдеры в деталях - удет пол летних каникул. Это потому что они все равно будут дежаться при своем мнении.
0
Если уж пошла теминология, то:

Шейдером в широком смысле называется программа для визуального определения поверхности объекта. Это может быть описание освещения (попиксельное освещение - bump mapping, normal mapping), текстурирования (альфаблендинг), постобработки (Bloom, Depth of Field, Motion Blur) и т.д.
Пока в шейдерных моделях реального времени, поддерживаемых на сегодняшний день аппаратными видеоускорителями, определено лишь два типа шейдеров: Vertex Shader и Pixel Shader (в определении DirectX9). В будущем с DirectX10 к ним должен добавиться еще один тип - Geometry Shader.

Vertex Shader - Вершинные шейдеры - это программы, выполняемые видеочипами, которые производят математические операции с вершинами (vertex, из них состоят 3D объекты в играх), иначе говоря, они предоставляют возможность выполнять программируемые алгоритмы по изменению параметров вершин и их освещению (T&L - Transform & Lighting).
Очень простой, но наглядный пример: вершинный шейдер позволяет взять 3D объект сферы и вершинным шейдером сделать из него куб.

Pixel Shader - Пиксельные шейдеры - это программы, выполняемые видеочипом во время растеризации для каждого пикселя изображения, они производят выборку из текстур и/или математические операции над цветом и значением глубины (Z-buffer) пикселей. Все инструкции пиксельного шейдера выполняются попиксельно, после того, как операции с трансформированием и освещением геометрии завершены.
Наиболее простой пример пиксельного шейдера: банальное мультитекстурирование, просто смешение двух текстур (diffuse или lightmap) и наложение результата вычисления на пиксель.

Отличие третьих шейдеров от вторых по сути только в их длине, количестве используемых команд и возможности динамических переходов в вершинных и пиксельных шейдерах.

зы
Кстати вы не знали что есть процедурные текстуры которые не занимаюи в видео памяти ни капли места ? Вот, такие текстуры генерятся "на лету" какой либо математической функцией с помощью пиксельного шейдера. =)
0
Oh, yes, yes. Shader is good!
0
Емое...все...давайте сделаем сами видюху,и будем королями,так как у нас уже пошла научная конфернция...СилверМун- ты че ученый збежавший от Нвидия ? :D емое...да на самих Оверклокерах.ру прям так не обсуждают эти видюхи...как мы щас тут =))))
0
А что такое этот Геометрический Шедйрер вообще ?
0
Pendalf2005:

DirectX10
По последним данным, самые значительные перемены ожидают нас именно в отношении D3D. Во-первых, существенно расширяется предел, касающийся объема текстур (8192x8192 против 2048x2048 в DX9). Во-вторых, будет представлена объединенная модель Shader Model, избавляющая, наконец, разработчиков от необходимости писать отдельные коды для карт ATI и NVIDIA. В-третьих, будет анонсирована технология Geometry Shader, предназначенная для создания сложных сцен.

Т.е. как я понял теперь в графическом конвеере после стадии вершинного шейдера будет ещё одна стадия - геометрический шейдер (Geometry Shader). Это шейдер, которому доступны уже собранные из вершин треугольники перед отрисовкой, как целостные объекты. Т.е. он может производить какие-либо операции над треугольниками (а не только над вершинами как вершинный шейдер). В том числе, учитывая какие-то дополнительные параметры вершин. Можно изменить параметры, можно рассчитать новые, специфичные для всего треугольника, и передать их затем в пиксельный шедер.
Другими словами он даст большие возможности для обработки геометрии в играх.

Ещё в новом DX10 длина шейдеров будет практически не ограничена.
0
На самом деле сейчас очень интересная ситуация происходит, если вы следите за информацией о новой ОС от Microsoft, то вы наете, что Microsoft вместе со своей новой Windows Vista (codename "Longhorn") внедряет своё новое графическое ядро WFG2.0 (windows graphics foundation) для которого будут требоваться специальные драйвера разработнанные в Microsoft. Насколько я понял будет предусмотрено два вида драйверов: начальные и основные/специальные.

Начальные драйвера - драйвера для совместимости нового граф. ядра со старым железом, но не в этом суть. А суть в следующем: для полноценной поддержки нового API (DirectX10, следовательно и 4 шейдеров), надо будет устанавливать специальные драйвера LDM (longhorn driver model) т.е. для полноценной реализации WGF2.0 они будут необходимы, и соответственно железо должно разрабатываться с учетом спецификаций этих новых LDM и понимать специальные системные "структуры данных".

К чему это я ? А к тому, что это означает что Microsoft теперь практически диктует свои условия производителям железа и девелоперам. Т.е. теперь с переходрм на WGF2.0 графические ускорители будут вынуждены иметь практически одинаковые возможности и разница будет только в качестве и скорости их реализации, другими словами больше не будет спицефических фишек отличающих карты ATI от nVIDIA и заложенных в их драйверах, теперь они будут поддеживать одинаковое базовое число графических технологий и создаваться под диктовку нового сандарта WGF2.0 от Microsoft.

Вообщем, Microsoft сделала еще один шаг к жесткому контролю над развитием графического рынка (c) ixbt.. =)
0
Кстати на днях Билл должен начать выплачивать по 3 миллиона (если не ошибаюсь) в день за то, что отказался перевести Windows в открытый код. Ну на тоесть причины, я думаю, правильно делает если честно
0
to all
В скором времени будет выпущена 7600 GS на APG от Sparkle.

Чей-то-Бот, да я эту новость уже выкладывал:

Reuters сообщает, что Редмондского гиганта обвиняют в том, что в 2004-м году он нарушил антимонопольный закон Европейского Союза.
Кроме того, Microsoft хотят заставить раскрыть исходный код Windows другим компаниям. Аналитики полагают, что решение Европейского Союза может негативно сказаться на дате старта ОС Windows Vista. В этом случае будет отложен релиз и всех проектов, заточенных под эту операционную систему.


Только по информации из разных источников штраф Microsoft составит ~ 2.56 миллионов долларов.
0
а кому выплачивать? Антимонопольному коммитету? или как его там.
0
Да уж конечно!
По-моему этому Евросоюзу и выплачивать. Им всегда есть за чт оплатить, союз из стольких крупных стран не может быть без денежных проблем, а по 2,5 миллиона в день - это совсем неплохо!
0
Да уж..и когда твоя страна одна из стран Евросоюза =)))
0
М-дааа.
Биллу не повезло.
А вообще смотю вот на инет-карточки и думаю, если хочу наконец сделать апгрейд пора бы уже поменьше тратиться на инет. Жалкий тормознутый диал-ап обходится мне как хороший DSL! почти 500руб/месяц!
Короче не обижайтесь и не удивляйтесь, но я в ближайшем будущем буду появляться на ПГ гораздо реже.

Сорри, оффтоп, но не удержался, надо кому-то высказаться...=)
0
Давно не рылся в новостях. Не вышла еще видюха Radeon X1900GT у нас???????? Если есть уже, какая ее цена????????
0
330$ примерно
0
скажите плиз что круче джефорс 6600 или радеон 9800?(а то мы сдругом поспорили и хотим выяснить прадву)
0
ДжиФорс лучше, но не круче, так как обе эти карты вообще не крутые
0
Лучше намного. Если они обе не крутые, то всё-равно 6600 немного круче из-за PS 3.0
0
Люди подскажите что лучше брать под Intel - Geforce 760GT или Radeon X800GTO? Оба 256MB pci-express
0
Interseptor
Может ты имеешь ввиду Radeon X1800GTO, а не Х800GTO? У Х1800GTO преимущество перед GF7600GT в шине 256бит, что помогает ей в высоких разрешениях и настройках антиальясинга и анизотропии. А также есть возможность одновременно включить HDR и antialiasing (у многих, правда, почему-то возникают с этим проблемы). Но и стоит она чуть подороже. Недостаток радеона - греется он посильнее, чем жефорс.
От того, чей процессор, интел или амд, выбор карты не зависит
0
А по-моему он не мог одном предложении неправильно написать две карты (7600 GT тоже нолик забыл) - чисто психологический вывод на основе анализа стиля речи, интуитивной пунктуации и своего дара прорицания...=)))))
Думаю он имел ввиду как раз X800GTO
0
А как там с видюхами GF 7900GT и Ati X1900GT? У какой какое преимущество? Nvidia в этой карте опять не сделала одновременную поддержку HDR и antialiasing? И еще меня интересует надежность этой серии от Nvidia.
0
Rodriges, не слушай его.
х1900GT Лучше будет. Мы тут это уже проходили.)))) Серия 7900 показывает себя не очень надёжно. Некоторые по гарантии умудрились сменить до 4 карточек)))
0
Да я имел ввиду 7600GT и X1800GTO (ошибся:(
0
А модель Saphire х1900GT нормальна будет? Я вот думаю, если будут лишние деньги, так возьму эту наверное. Я на ней года 2 смогу более-менее играть?
0
Interseptor
Тогда X1800GTO лучше. Это уже обсуждалось выше.

RODRIGES
Более или менее сможешь. Просто в каждой очередной новой игре будешь постепенно снижать настройки качества. Если тебя это не смущает. Многие еще сейчас сидят на FX 5200 и считают, что это крутая видяха
0
Некоторые сидят на GF2. и им побоку. За прогрессом не угонишься.
0
Я недавно сидел на Radeon 9200 :p
0
А че:?
Я уже как-то писал, что мой знакомый с большим удовольствием прошел SA, HL2 и FarCry на GF4=)
0
Более или менее сможешь. Просто в каждой очередной новой игре будешь постепенно снижать настройки качества. Если тебя это не смущает. Многие еще сейчас сидят на FX 5200 и считают, что это крутая видяха
Лучший друг такого мнения.И считает что 5 фпс это не тормоза спорит даже плять.Я подумал ну и х8й с тобой лупень.Всё равно я новый камп буду брать.Хе-хе :)
Кстати из X1800GTO мона замутить полноценный X1800XL вот тока как конвеера разлочить-плять загадка.Я до сих пор под вопросом чё брать-7600GT или X1800GTO.Думаю сижу плять.Часто ли конвеера разблокируются?
0
даже если не разюлокируется,она все равно лучше =)))) а вообще скоро выйдет так называемый х1950 про и х1650....говорят будут не дорогими,а на х1950 про обезали цену около 240 баксов,она имеет чип походу как Р570- новый чип имеющий 0.08 техпроцесс,который должен снизить себестоймость продукта,и повысеть частотный потонцеал =)
0
Я сегодня в ударе:)))
Думаю, со мной согласятся и не будут против моей нахальности постоялые и знающие посетители Железного.
Тема выбора 7600GT и X1800GTO поднималась лишь на моей памяти не один десяток раз=))
Пожалуй, стоит сделать такое заключение и поставить Жирную точку в этом вопросе:
RADEON X1800GTO ВО ВСЕХ ОТНОШЕНИЯХ ЛУЧШЕ И ПРОИЗВОДИТЕЛЬНЕЕ GE FORCE 7600GT
НЕСМОТРЯ НА СВОЮ НЕМНОГО БОЛЕЕ ВЫСОКУЮ ЦЕНУ. ОН ДАЖЕ БЕЗ РАЗБЛОКИРОВАНИЯ КОНВЕЕРОВ
ЛЕГКО ОБХОДИТ КОНКУРЕНТА 7600GT
А В СЛУЧАЕ ЕСЛИ ВАМ ПОВЕЗЕТ И ВЫ РАЗЛОЧИТЕ КОНВЕЕРЫ, ВЫ ПОЛУЧАЕТЕ ПОЛНОЦЕННЫЙ X1800XL
0
я тоже прошёл SA, HL2 и FarCry на GF4, причём на мх-440.

HL2 то без тормозов норм графикой идёт. А вот в FarCry - графика некрасивая ужасно.
0
Чей-то Бот
Ну окончательную точку в выборе между 7600 GT и X1800 GTO поставят продавцы - и устаноленные ими цены - а там кто сколько сможет выложить за комп - тот и будет выбирать соответсвенно - на 7600 GT можно построить вполне приличный системник за 700 уе, кто готов (вернее - "может") выложить больше - может взять GTO - или же ждать X1900 GT...
0
а две х1800gto можно объеденить в кросс-фаер?
0
Конечно можно. Получится классная система
0
Прошу помоч, как удалять ПРАВИЛЬНО дрова на видеокарту NVidia GForce, чтобы потом другие установить. У меня комп уже достал, постоянно зависает. Это не вирус, так как часто на экране появляются непонятные цвета. Пробовал, удалять их Driver Cleaneroм, но комп серавно предательски виснет...
0
У тебя наверняка просто перегрев видеокарты
0
Lestat
Это было с момента покупки новой карты? Если так, то еще может быть брак
0
А как можно проверить, насчет перегрева ? Я проверял вентилятор на ней, но он вроде как нормально крутится. Компу уже год, и такое началось только недавно.
0
сегодня AMD купила ATi за 5.4 млрд. USD
0
hazard1337
Очень хочется надеяться, что от этого выиграют и АМД и АТИ

Lestat
Поиграй полчасика (ну или сколько там до зависания времени проходит) и потрогай рукой радиатор на видеокарте и чипы памяти на ней же. Если сильно обжигает, то значит перегрев. Я также трогаю текстолит с противоположной стороны графического чипа, только заземляюсь на всякий случай сначала о батарею или корпус компьютера
0
Ты прав... ОЧЕНЬ горячий... И что можно сделать ? Или только обратно в магазин с гарантией везти надо ???И есче интересно, почему он то перегревается, а то нет. Вчера у меня неразу не зависало, а позавчера и седня так через каждые пол часа...
0
Разные игры по-разному карту греют и температура в комнате может быть разная. Ты попробуй отвентить крышку с корпуса и поиграть без нее.
0
NVidia больше для OpenGL игр,тоесть более vультиплейерных.
ATI тем самым более для простих Action,FPS с лучшей графикой.

Т.к. мой выбор не МП игры .a СП,то я скорее всего за ATI.
0
Lestat
Попробуй улучшить охлаждение. Для начала поставить что-нибудь на обдув карты. Можно снять радиатор аккуратненько, отшлифовать его получше, если нужно, и посадить на нормальную термопасту. Можно приклеить радиаторы на память, что лишит тебя гарантии. Хотя можно просто положить сверху на память радиатор, и не приклеивать ее. Память сама по себе не сильно греется, но ее греет граф. чип через текстолит, это улучшит отвод тепла от карты в целом. Я использую радиатор от GF2MX200, порезанный напополам, так чтобы два чипа памяти накрывал один кусок, и еще 2 - второй. Так вроде эффективней, чем раздельно на каждый чип выпиливать радиатор.
0
Оффтоп - сегодня стали известны требования проекта Crysis

Минимальные требования:

Процессор: Athlon 64 3000+/Intel 2.8ghz
Видеокарта: Nvidia 6600/X800GTO (SM 2.0)
ОЗУ: 768Mb/1Gb on Windows Vista
HDD: 6GB
Интернет соединение: 256k+
Привод: DVD
Система: DX9.0c with Windows XP

Рекомендованные требования:

Процессор: Dual-core CPU (Athlon X2/Pentium D)
Видеокарта: Nvidia 7800GTX/ATI X1800XT (SM 3.0) or DX10 equivalent
ОЗУ: 1.5Gb
HDD: 6GB
Интернет соединение: 512k+ (128k+ upstream)
Привод: DVD
Система: DX10 with Windows Vista
0
Надо копить на новую видеокарту и материнку, остальное у меня уже подходит под рекомендованые требования
0
У меня вопрос...после покупки АТИ ,видеокарты надеюсь все еще будут производиться с тем же названием - Радеоны от АТИ ??? -или же будут какието Амдеоны от АМДИ ? =)))))))))
0
"AMD Radeon" ;)
0
Сотрудники компании осталиь те же. ПРосто владелец сменился.
Скорее всего даже так и останутся ATI Radeon.
0
УУУУх!
Блин, даже если куплю Core2 Duo и потом R600 - все равно оперативки не хватит! Блииин....




А автомобильном мире сегодня такое сплошь и рядом.
Простейший пример - сколькими компаниями сегодня владеет General Motors? Я все перечислить не смогу, но каждая из них оставила за собой логотип, значок на капоте, марку ну разве что некоторые модели поменяли названиями.
Так что скорее всего так и останется ATi Radeon, а в паспорте уже будет стоять штампик AMD
0
Не успев объединиться, компании AMD и ATI уже строят совместные планы по разработке на ближайшие пару лет. Президент AMD Дирк Мейер (Dirk Meyer) сообщил, что планируется разработка гибрида процессора с видеоядром! Изначально такая универсальная штуковина будет использоваться только в специализированных приложениях. Буквально на прошлой неделе AMD подала заявку на патент некоего «CPU and graphics unit with shared cache» (центральный процессор и видеочип с общей кэш-памятью).

Что это ещё такое ? Гы... даже интересно что из всего этого выйдет. =)
0
А следующая версия mtvs как будет называться? AMD vs. nVidia?
0
Блин, вот они намудили!
Я все ждал когда на рынке появится еще хотя бы парочка производителей видеочипов, но все происходит как раз наоборот.
Друзья, чему вы радуетесь? Они же монополизируют рынок процов и видюх. Когкуренции никакой - цены больше в два раза, развитие тормозится, ATI и AMD почивают на лаврах и собирают бабки со старых моделей, новые делать влом - зачем если нам никто не мешает?
Куда катится мир?
В сфере высоких технологийтакая херня творится!!!! ДА они должны по двадцать производителей на видюхи и на процы существовать а не эти две и то объединившиеся все между собой.
МОНОПОЛИЗАЦИЯ - это ПЛОХО!!!
0
Чей-то-бот.
Никакой монополизации не нет и небудет, если тVIDIA не обьединится с ATi, так что не надо говорить ерунду, всё остаётся как было.
0
Ну вот посмотрим. Сейчас наверняка Intel купит nVidia и все будет xyeBeй некуда!
0
Ну и что что купит.Всёравно Intel и AMD конкурировать будут и всё останется как было.Другое дело если AMD объеденится с NVIDIA.....
0
А чегьо смотреть ситуация на рынке остаётся такой как была, по прежнему присутствуют два производителя - ATi и nVIDIA. Чего тут гадать, для этого нет никаких предпосылок.
0
Чей-то-бот.

Надо понимать, что монополизация рынка не выгодна как ATi так и nVIDIA, соответственно обьединятся они не будут, это и так должно быть понятно.
А то что AMD купила ATi, так это не о чём ниговорит, возможно просто это пойдёт на пользу обоим, и даже если Intel купит nVIDIA, то всё равно в области видеокарт будет существовать здоровая конкуренция (может даже ещё более жёсткая), что приведёт возможно к более быстрому развитию технологий. В общем нечего тут раздувать из "ничего" слона, так сказать.

Надеюсь покупка пойдёт на пользу ATi и они смогут отбить себе большую часть рынка в области графических решений.

зы
А то что "монополизация - это плохо", и так все понимают =)
0
Компания Microsoft отрицает, что ею ведутся работы по разработке DirectX Physics API для грядущего DirectX 10. Об этом сообщил Рик Викхам (Rick Wickham), директор отдела Windows Gaming в интервью журналу Maximum PC.

Он заметил, что Microsoft и сейчас продолжает прием на работу специалистов по программированию физики, но никаких планов по выпуску продукта аналогичного AGEIA PhysX или Havok FX она не имеет.
0
Чей-то Бот
ЖЕЛЕЗНЫЕ СЛОВА!!!+УВАЖЕНИЕ:)!
0
Чей-то бот, ничего вы не понимаете в экономике. послушайте Сильвермуна.
Карабас Барабас, туда же.

Здорово получается. А кто пустил такой слух про DirectX Physics API?
0
думаю спор можно считать исчерпаным ибо нвидиа имеет 80% рынка + ати продались так что ати уже можно сказать сдалась. народ выбырает кошельком и с ним не поспоришь.
0
Да с какого хрена это плохо? Будет ли радость программерам оптимизировать свои продукты под 30 видеокарт различных производителей? На таком рынке - множественность идет только во вред. Монополия с единым производителем - это плохо. Но когда монополия в виде двух крупных конкурирующих фирм - это вполне нормально. Я хз че вы паникуете... Я вообще более чем уверен что для обычных юзверей все останется как было - и кто про это слияние не слышал - так и не узнает про него. AMD грамотно вложила деньги, собранные на удачном семействе K8, и что тут плохого? Если бы компаниям надо было воевать - поверьте это бы произошло гораздо раньше...
Вообще что значит "купила"? Выкупила контрольный пакет акций. Это абсолютно никак не влияет на саму компанию - ну просто теперь они будут более усиленно работать с платформой АМД (опять же в сфере чипсетов - так как пробится на рынок Intel - которой сам эти чипсеты производит очень активно - и устанавливает правила игры - АМД отдает чипы на откуп сторонникам, что позволяет делать их дешевле).
Поймите - речь идет о СЛИЯНИИ КАПИТАЛЛОВ. Что бы эти две фирмы могли позволить себе те разработки, на которые раньше у них не хватило бы риску пойти. Чем определяется стабильность фирмы? Ее уставным каппиталом. Под него банком выдается кредит, ибо в случае проблем истребовать кредит можно только в части которую может предстваить уставный капиталл. А вы тут так вопите, как будто только што Гитлер обьединился с Японией и Италией и обьявил всему миру войну. =))
У нас в стране все фирмы проданны за рубеж и что? Бука - ушла с молотка Финнам по моему. Nival - Американцам - и что изменилось? Кто про это не знал - и спит спокойно - не жарко не холодно...
0
G-man Ладно успакоил фухх
0
G-Man
AMD граммотно вложила деньги
Вот видишь, неграмотно написал слово "грамотно" =)))

Вообще что значит "купила"? Выкупила контрольный пакет акций. Это абсолютно никак не влияет на саму компанию
ТО есть теперь AMD главный акционер ATI и может диктовать им условия. И никто кроме них самих не знает зачем именно они это сделали. Вздохну с облегчением, если они действительно задумали то, что ты говоришь:)
0
Приобретение ATI - это первое из трёх крупных инвестиций AMD, намеченных на ближайшее время. Помимо этого, AMD намерена в течение трёх лет вложить 5,8 миллиарда долларов в расширение производственных мощностей в немецком городе Дрездене, а также 3,5 миллиарда долларов в строительство новой фабрики по производству полупроводников в американском городе Лютер Форесте, штат Нью-Йорк. Планируется, что на новом заводе будут работать более тысячи человек, а полное завершение его строительства намечено примерно на 2010 год. Для штата Нью-Йорк строительство фабрики AMD - чрезвычайно выгодный проект, способный заметно оздоровить экономику: будут созданы новые рабочие места, а казна штата существенно пополнится за счёт налогов.

В отличие от AMD, компания ATI не располагает никакими собственными производственными мощностями и размещает заказы на выпуск продукции у своих партнёров.

Авторы официально пресс-релиза утверждают, что за последние четыре квартала объём продаж объединённой компании составит порядка 7,3 миллиарда долларов США, а число работников превысит 15 тысяч человек. Несмотря на формальное объединение с AMD, компания ATI сохранит своё название, но будет выступать уже в качестве подразделения AMD. В частности, нынешний исполнительный директор компании ATI займет пост исполнительного вице-президента подразделения ATI и будет подотчётен непосредственно руководству AMD в лице Эктора Руиса и Дирка Мейера. Штаб-квартира AMD останется на прежнем месте - в калифорнийском городе Саннивейле.

Слияние двух компаний должно заметно изменить расстановку сил сразу на трёх тесно связанных друг с другом рынках - микропроцессоров, наборов системной логики и графических ускорителей. Нельзя забывать о том, что крупнейшим производителем чипсетов для процессоров AMD на данный момент является конкурент ATI, компания nVidia, а наборы микросхем ATI менее популярны у покупателей. Кроме того, nVidia - главный соперник ATI на рынке встроенных и дискретных графических ускорителей.

В результате объединения AMD и ATI неизбежно изменение расстановки сил на рынках высокотехнологичных товаров. Некоторые аналитики уже вполне серьёзно рассуждают на тему возможного объединения nVidia c Intel или хотя бы более тесного сотрудничества между этими двумя компаниями. Тем не менее, в nVidia подчеркивают своё лидерство на рынке высокопроизводительных игровых, профессиональных и многопроцессорных графических систем, и заявляют, что намерены продолжать сотрудничество как с AMD, так и с Intel. Что касается отношения к слиянию AMD и ATI. то в nVidia заявляют, что оно лишний раз подтверждает правильность её стратегии.

Оперативно отреагировала на объявление о слиянии компания Microsoft: сопрезидент её подразделения по платформам и услугам Джим Олчин заявил, что в его фирме восхищаются потенциальными возможностями, которые объединившиеся AMD и ATI могут предоставить будущим пользователям операционной системы Windows Vista.

До последнего времени AMD была лишена важного конкурентного преимущества, которым располагает Intel - собственных наборов системной логики для своих процессоров. Это стало особенно очевидно с начала 2006 года, когда Intel полностью перешла на платформенную политику, когда покупателю предоставляется законченное решение для производства компьютерных систем, рассчитанных на то или иное целевое применение. Теперь подобные комплекты сможет поставлять и AMD через единые каналы распространения.

Сделка по слиянию AMD и ATI должна быть одобрена акционерами обеих компаний, Федеральной комиссией по торговле США, а также Канадским бюро по конкуренции. В случае, если подготовленная руководством двух фирм сделка не получит одобрения, AMD обязуется выплатить ATI неустойку в размере 162 миллионов долларов США - весьма скромные деньги по сравнению с суммой сделки.

Несомненно, объединённая компания будет обладать гораздо большими возможностями, чем сегодняшние AMD и ATI. Однако насколько умело сможет руководство нового IT-гиганта воспользоваться этим огромным потенциалом, мы увидим не менее чем через год-полтора.

зы
И чего паниковать спрашивается ? Выдумали себе проблему =)
0
Вот нашел новость на сайте Игромании, может слышали :
"Мы уже знаем, что видеокарты на основе ядра R580+ будут называться Radeon X1950 XTX и придут на смену существующему Radeon X1900 XTX. Оказывается, ATI готовит и замену для Radeon X1900 GT. 80 нм ядро RV570 идеально подходит на эту роль – 36 пиксельных и 16 вершинных конвейеров, высокая частота (600 МГц), 256-битная шина данных. Видеокарты на основе RV570 будут называться не иначе, как Radeon X1950 Pro. Самое интересное – цена. ATI назначила для X1950 Pro ценовой диапазон в районе $199-249! Каким образом NVIDIA будет отвечать на этот вызов пока не ясно. "

P.S. Да уж такая классная видюха X1950 Pro (36 пиксельных и 16 вершинных конвееров) по цене $199-249 - это удар по nVidia ниже пояса...
0
Да и сам уход с рынка и объединение с амд удар тоже не плохой, а что касается видяхи то да, не плохая. Но стоющая ли ? Нвидия уже готовит новое ядро G80 (кторое единственное из созданных нвидией будет держать DirectX 10) и нам не известна её цена. + Я думаю Нвидия ответит на ето спадом цен на 7-ю серию, или вапще никак. И так она имеет 80% рынка.
0
Да, эта астрономическая цифра в 80% - это я так понимаю доля рынка nVIDIA в области чипсетной логики.

Т.к. по итогам рынка видеокарт за весь 2005 год. Ситуация такова:

Общую долю рынка PC компонентов Intel, ATI и nVIDIA делят следующим образом:

Intel - 32% (в большинстве своём - это интегрированные решения).
ATI - 24%
nVIDIA - 23%

В области же дискретных видеокарт (видеокарт для настольных PC) рынок полностью разделён между ATI и nVIDIA:

ATI - 47%
nVIDIA - 52%
0
может и будет рекомендованная цена $199-249 но такая видуха будет пользоваться огромным спросом и сам же спрос поднимет цены в магазинах, если ATI не сможет быстро наладить производство x1950Pro в крупных масштабах.
0
Блин ну выпустит nVidia свой G80 раньше всех. Но люди то тоже не дураки. Нафига брать только что вышедшую карту с поддержкой шейдеров 4.0 и DX 10 по заоблачное цене (ИМХО цена будет высока и не будет оправдывать себя) если эти вещи будут работать только в Vista, которая выходит одновременно с чипом ATI в начале 2007 года (я не думаю что это совпадение). В G80 нет унифицированной шейдерной архитектуры, там nVidia сделала следующую пропорцию 2:1. Брать G80 только из-за мощности???? А потом через пару месяцов менять на более мощный (в этом я не сомниваюсь) продукт от ATI с поддержкой унифицированной шейдерной архитектуры, полноценной (просто все эти слухи про G80 - оа не будет поддерживать 4 шейдеры т.к. нет унифицированной шейдерной архитектуры и это сложно сделать за не имением последней - наводят на раздумья) поддержкой Shader Model 4.0, DX10 . Так что смасла брать G80 не будет, пока нема Vista. А брать ее только из-за мощности, врятли. Лучше уж взять последние топовые решения G70-73 (тот же nVidia 7950GTX2 или 7900GTX/GT, 7800GTX/GT) а от ATI как я уже писал есть грядущие великолепные карты (ATI 1950 XTX/XT/PRO) по низкой цене.
0
Ну а нафига сейчас брать эти видухи, которые стоят немало, когда уже на носу выход новых видеокарт, как ты сам написал. На пол-года я себе и 7600 возьму. Хватит на 100%
0
В том-то и дело. Если nVidia не дебилы то наверное они снизят цены на свои старые видюхи. Как было с выходом 7900GTX/GT , цены на 7800GTX/GT не снизились. Ясное дело что тут лучше брать новые видюхи. Но блин жирные калифорнийцы - жадные мерзкие коррупционные свиньи которые об этом не подумали. Желаю им успешного провала продаж своего нового чипа G80. R600 vs G80 - ясное дело последний даже рядом с R600 не стоял!
0
Akon
Пока больше похоже на бездоказательные фанатские вопли, не в обиду будет сказано :-)
0
Да нет я не против nVidia но R600 будет поддерживать унифицированную шейдерную архитектуру, выходит он позже => наверное все таки он будет помощнее G80.
P.S. Про фанатские вопли - если у канадцев тоже будет тупая политика как сейчас у nVidia я и про них то же скажу. Когда они выпустили свою дебильную x800 серию без 3 шейдеров я их так же само матом крыл.... Так что я ни фанат ни той ни другой кампании
0
Akon
Пока нет никаких сравнительных тестов сложно сказать является ли унифицированная шейдерная архитектура преимуществом или нет. Пока не ясно как поведет она себя в реальных приложениях, по крайней мере я не видел достоверной информации об этом. Только предположения, что это должно быть лучше. А ведь еще нужна оптимизация игр под это, наверное.
0
да кстате больше на фанатские выкрики похоже, я вот ужеотложил свой грейт на зиму, и с выходом висты буду брать новую систему от нвидии, как и сказалось даже близких тестов еще не было и сравнивать их нету смысла только сотресение воздуха.
0
а я комп в августе брать буду и возьму дешёвую 7600GT. чтобы потом с выходом R600 не жалко было с ней расстаться. А вот оттягивать покупку компа на пол-года врятли получится с моим нортвудом и 9550.
0
О преимуществах, полученных ATI после слияния с AMD:

Теперь канадская компания имеет доступ к каналу сбыта AMD. Документ, выпущенный ATI, утверждает, что NVIDIA придется несладко, так как она осталась без поддержки мощной компании и теперь калифорнийцам (nVIDIA) придется по настоящему сражаться за место под солнцем.
AMD, также, пообещала открыть ATI доступ к своим технологиям.
0
Если в этой ветке кого-то ещё заинтересует покупка Radeon X1800 GTO, то не поленитесь зайти сюда. Мой пост от 28.07.06 22:09 содержит немало познавательной информации, накопленной и упорядоченной за месяцы, проведённые в соответствуещей ветке на форуме overclockers.ru. Мож кому и пригодится.Image Hosted by ImageShack.us
0
Новости:

После того, как AMD купила ATI, в Сети не перестают циркулировать слухи о том, что компания Intel, вероятно, купит NVIDIA. За сделку AMD заплатила 5,4 миллиарда долларов. Оказывается, NVIDIA стоит почти в два раза дороже. Только на выкуп акций уйдет порядка 8 миллиардов. Конечно, для процессорного гиганта, компании Intel, это не такие уж и большие деньги, так что подобная сделка не исключена. Однако, помимо того, что она, по сути, не нужна ни той, ни другой компании, покупку никогда не одобрит антимонопольная комиссия США. Объединенная компания заняла бы намного больше, чем 50% рынка и была бы признана монополией.

И немного о физике в Dx10.
Хоть в первой инкарнации DirectX 10 и не будет присутствовать компонент Direct Physics (вполне возможно, что его вообще никогда не будет), некоторые подвижки в сторону большего удобства и гибкости при разработке игр будут присутствовать. В DirectX 9 чтобы использовать физику разработчик сначала должен создать трехмерную коробку, затем «украсить» ее пикселями и вершинами, и только затем, при помощи AGEIA PhysX, или другого средства, физически просчитать «коробку». Только после этого можно будет играться с физикой на основе этой коробки. DirectX 10 будет самостоятельно создавать «коробку» и «физическую оболочку», так что разработчик сможет отдохнуть от рутины.
0
Монополия - это не обязательно владение более 50 процентами рынка.
Если например владеют 40%, а остальные 60 делят между собой примерно поровну десяток-другой мелких компаний, то это тоже монополия.
Про ДиректХ 10 че-то не догнал=) по-русски можно?:))
0
Чей-то-Бот
Что именно не понятно насчёт DirectX10 ?
0
ОН облегчит жизнь разрабам.
0
SilverMoon
Начиная с понятия "трехмерной коробки".=))
0
Чей-то-Бот
По идее в Dx9 берут коробку, ящик, бочку и т.д. и просчитывают её физическую модель, записывают это в какой-то файл, и потом в игре эта бочка будет обладать определённыи весом, прочностью, типом материала, сцеплением с почвой... т.е. физическими свойствами просчитанными заранее на основе этого физического обьекта (как например в редакторе Half-Life2 к примеру разные модели обладают разными характеристиками, там кстати можно их немного поднастроить). А в Dx10 просчитывать заранее физ.модель каждого обьекта заранее не надо, это делает сам DirectX "на лету" так сказать.
0
Ну ведь все равно надо вбивать тип материала, вес ит.д.=)
А так, понял теперь=)
0
Да по-моему все и так ясно
0
По последним данным видеокарты следующего поколения ATI и NVIDIA будут потреблять просто катастрофически много энергии. Если типичная прожорливость видеокарт нынешнего поколения (NVIDIA GeForce 7900, например) не переходит за отметку 100 Вт, то ядро G80 потребует 175 Вт! Почти в два раза больше?! Неужели десяток дополнительных конвейеров и память GDDR4 настолько требовательны к энергии? Но это еще что. Killer-решение от ATI, ядро R600, потребует 200 Вт! Энергопотребление видеокарт начинает вызывать опасения – вспомните, что произошло с «бесконечно совершенной» архитектурой Intel NetBurst… На данный момент информация носит статус неподтвержденной, ждем новых подробностей.
0
Народ, посоветуйте, какую нибудь хорошею видиокарту за 3000- 4000 штуки руб, plizz.
0
Paladin-Nik
Да уж. Нормальную видюху за такие деньги... Можешь взять nVidia 7600GS. Неплохая видюха. Можешь попробовать разогнать до 7600GT. Вообщем альтернативы ей в данном ценовом диапозоне я не вижу
0
PlayphysX, непонятно только почему R600 так много потреблять будет. Ведь он будет на новом 80 nm техпроцессе. А G80 останется со старым 90 нм.
Но ведь они будут идти со своими блоками питаниями.
0
Хороший вопрос. Дело наверное в частотах видюхи. Ведь ходят слухи, что в R600 частота ядра может достигнуть 1000MHZ !!!
0
дааааа... тут надо определённо ждать января и посмотреть что выпустит ATI.(AMD :)))) и не брать nVidia.
0
Полностью согласен. Сам так буду делать
0
Что-то мне вся эта возня с большим энергопотреблением сильно напоминает истоию с NetBurst...
0
Люди знающие подскажите, что лучше купить SVGA 512Mb DDR ASUSTeK N6800/TD (RTL) +DVI+TV Out GeForce 6800 или SVGA 512Mb DDR Sapphire ATI RADEON X1600 Pro (RTL) 128bit+DVI+TV Out
скажите а
0
Вроде GeForse 6800 получше будет.
0
Ни ту, ни другую.
С этим вопросом в тему "Всё о видеокартах".
0
6800 будет более хорошим выбором. А так лучше возьми 7600GS или 7600GT
0
Midnight
Неплохая идея расписать видюхи на классы в FAQ'е.
У меня предложение, давай-ка вместе составим такую таблицу, чтоли, где укажем не только ее позиционирование в классах, но и параметры, хотя бы основные - частоты, конвееры, чип, память...
Пиши сообщением в профиль...
NK
0
Всем привет! Как вы думаете, на х1950 pro хватит блока питания на 500 W?
0
Сегодня состоялся анонс официальный X1950 XTX (650/1000(2000)MHz). Рекомендованая цена вроде 399$. Цены на 7900GTX от 500$.

Первые тесты
http://www.guru3d.com/article/Videocards/375/1/
7900GTX догнали и в некоторых тестах даже немного поимели
0
Одновременно с анонсом флагмана Radeon X1950 XTX компания ATI представила новинки для производительного, среднего и бюджетного классов: Radeon X1900 XT 256 МБ, Radeon X1650 Pro и Radeon X1300 XT. Согласно официальному пресс-релизу, видеокарты появятся в широкой рознице после 14 сентября. Рекомендованные цены следующие: Radeon X1900 XT 256 МБ: $279 (EUR 249), X1650 Pro: $99 (EUR 89), X1300 XT: $89 (EUR 79).
0
Sapphire X1800GTO переделываеться в X1800XL!
http://www.3dnews.ru/video/sapphire_x1800gto/
0
Alexandr82, это устаревшая статья. Сейчас разблокировке поддаются только Х1800 GTO от HIS IceQ3. Ещё Х1800 GTO2 идут с 16-ю конвейерами, т. е. ничего даже не надо разлачивать. :(
0
Шейдер,
ну как ты со своей видюхой сидишь? нормально? много игр потестил - думаю доволен? или нашел какие-то недостатки?
0
Как хотите а вот nVidia 7950GT щас ВСЁ ПОРВЁТ...всех АТI :)
0
7950GT стоит не по- децки... за такие бешеные деньги можно подождать до сентября и купить G80... да и еще подкопить за это время на мамку можно ...
ИМХО.
0
Тупарылые фанаты... =))) STAS1KUS
где док-тво ,что порвет ?! =)))) сначала докажи чем нить,а потом вякай...или ты в Нвидие работаешь,и рекламируешь её,ааа ? =)) 7950 пойдет в сравнение разве что с подешевевшим х1900хтх а уверен что по производителньости будет как х1900хт 256 мб,а уж он поверь,стоить будет дешевле,a x1900xtx порвет её в задницу...просто разорвет...ну что сможет по равной цене в этом сигменте предоставить твоя дорогая Нвидия ?? 7900гс ?!- обрезок 7900гс до которого в разгоне 7600гт дотянет ?!!!!

http://www.anandtech.com/video/showdoc.aspx?i=2821&p=11

http://www.anandtech.com/video/showdoc.aspx?i=2821&p=8

http://www.anandtech.com/video/showdoc.aspx?i=2821&p=12

Вот результаты х1900хт 256 мб...производительность в современных играх на уровне х1900хт с 512 мб,отстование от 7900гтх в районе 10-5 фпс ,зато разница в цене....большая =))))
0
Гггг, яж не говорил что я её брать буду...на данный момент ето самая мощная видяха, а вот цена ето уже другой разговор..
0
Если ты имел ввиду 7950гтХ ,то да,порвет,но если ты имел ввиду 7950 ГТ ,которая выйдет ближе к осени,то в этом я сомневаюсь ;)
0
Народ у меня crt монитор, а на мощных видюхах по два DVI порта. Бывают переходники ?
0
конечно! обычно идут в коробке с видюхой.
0
Народ скажите почему в тесте 3DMark06 для моей видеокарты Palit GF7600GT не отмечен тест - SM3.0 Score. Этот режим не поддерживается этой моделью карты ? Сама видеокарта, как писалось выше, довольно не плохая.
0
ДА не бойся, поддерживает твоя видяха 3-и шейлеры и видяха действительно неплохая.
Поройся в прогах по настройке видюхи (название сказать не могу так уц меня Радеон и я пользуюсь ATi Tray Tools) и посмотри включены ли третьи шейдера или нет
0
2 EliteGame
Надо установить DirectX 9.0c и последние драйвера для видеокарты
0
А какие дрова после 91.31 есть (не бетта версии) ?
0
Есть отдельная тему по вопросом о драйверах.
0
Когда выйдут карты на R560, R570?
Будуд они поддерживать DirectX10?
0
10-й Директ будут поддерживать лишь чипы R600 и G80 , да и то недостоверно известно.
0
Чей-то Бот
Шейдер,
ну как ты со своей видюхой сидишь? нормально? много игр потестил - думаю доволен? или нашел какие-то недостатки?

Не подумай, что я такой тормоз, просто больше недели не заходил в ветку, поэтому отвечаю только сейчас. Сижу нормально. Бивисов перешил немерено (перепрошивал толи 12, толи 14 раз, уже не помню). Не один из ХТ-шных бивисов для моей X1800 GTO2 не подошёл. С бивисом от Sapphire видюха становилась нерабочей уже в 2D режиме, с биосами других производителей глюки начинались в 3D. Но некоторым всё же удавалось перепрошить на эту карточку ХТ-шный биос. Но из-за повышенных таймингов памяти видяха показывала более низкие результаты, чем с родным биосом на тех же частотах. Остановились на мнении, что GTO2 на частотах 625/1300 по производительности сравнима с Х1800 ХТ. На таких частотах и я юзаю свою карточку (правда не везде, а лишь в особо прожорливых играх). Вот недавно прошёл FEAR лицензионный (брал у друга). На максимальной графе (да ещё и с русской озвучкой) игра оставила лишь хорошие воспоминания... и кучу скриншотов (сделанных при помощи Fraps). Единственное, что в FEAR не понравилось, - так это глюки с мягкими тенями при включённом АА (но это вроде глюк всех радиков в FEAR, а не только серии Х1800). Сейчас поигрываю в The Chronicles of Riddick - Escape From Butcher Bay, Titan Quest и GhostRecon - Advanced Warfighter. Последний, кстати кушает на максе около 400 метров видеопамяти (чем меня здорово удивил). За исключением FEAR нигде никаких глюков больше не встречал. Ах да, забыл. Ещё в Риддике для моей видеокарты игра автоматически ставит шейдеры версии 2.0 (и изменить это нельзя), т. к. по заверению "игры", шейдеры 2.0+ поддерживают только видеокарты GeForce 6). Лол, одним словом!
P. S. А вообще очень доволен до сих пор. Жду Gothic 3, NFS Carbon и старого проходимца STALKER'a. Последний, кстати, может выйти уже в сентябре. Хотя возможен и фейк.
0
SilverMoon

Выбирая себе видюху протестил много разных, мне надо было в 5500р поместиться, остановился на GF6800GS Palit 512МВ, думаю что сделал правильно, т.к. в нашем городе по цене к ней близка тока х1600, учитывая ширину шины я думаю сравнивать их глупо. Самые умные и конкретные высказывания по этой теме я читал здесь от SilverMoon, по-этому меня интересует мнение этого человека - правильно ли я поступил? Может отзоветесь? - плиззз!
0
Хм... давно я сюда не заходил. =)

Freddy May
А что тут сказать ? В принципе, разумный выбор.
X1600XT из-за 128bit-ной шины полностью сливает 6800GS, всё таки 256 bit делают свое дело =)
X1600Xt - 128 bit (Fillrate 2400); GF6800GS - 256 bit (Fillrate 5100);

Shader 3.0
Хотя возможен и фейк.
LOL =)
И кто такое сочиняет ? =) На этом амазоне я ещё 2 года назад на него предзаказ видел ;)
0
SilverMoon

Весьма рад, что Вы откликнулись, всегда приятно поговорить с умными людбми!!!
Я тоже при выборе ориентировался на 256бит и Shader 3.0, но в последнем соиневаюсь,
и основание для этого - буковка S и только 12 конвейеров(вместо 16-ти) - обидно.
Всвязи с этим есть вопрос: можно ли сделать 16, как например 8 у R9800SE ?
Если можно, то как? Заранее спасибо!
0
А какую память взять лучше, в смысле производителя. или не имеет разницы. у меня Athlon и видюха GeForce
0
Тут помню был спор где то о крутости 7950гт...хех...ну вот http://www.anandtech.com/video/showdoc.aspx?i=2833&p=11 нет в ней ничего крутого,просто карта и ничего особенного,х1900хт256мб выигрывает у нее и стоит дешевле...вот тебе и реклама,и ничего стоющего!
0
А 7950ГТ и не подавалась как новое топ-решение nVidia...

EDIT
Гы-гыыы=))))
ЛОЛ!
Только что увидел, что это мой пост номер 666
Хех=) памятная дата...
0
SilverMoon
И кто такое сочиняет ? =) На этом амазоне я ещё 2 года назад на него предзаказ видел ;)
Тады будем ждать 13 октября и играть в Готику 3. :) Ну а в ноябре в Карбон погоняем.
Freddy May
Позволь и мне откликнуться на твой вопрос по поводу 6800 GS.
но в последнем соиневаюсь, и основание для этого - буковка S и только 12 конвейеров(вместо 16-ти) - обидно.
Зато необидно из-за повышенных частот. :) Засчёт них 12 котлов этой карточки дают примерно ту же производительность (ну может процентов на 10 меньше), что и 16 котлов 6800 GT.
Всвязи с этим есть вопрос: можно ли сделать 16, как например 8 у R9800SE ?
Неа. Было бы слишком жирно. :) Частоты итак завышены. Из ВСЕХ 6800-ых разлочить можно ТОЛЬКО карточки на чипе NV40. А Palit'овские 6800 GS идут на чипах NV41+HSI (AGP-вариант) и NV42 (PCI-E-вариант).
0
Я тут потестил 7600ГТ и опух, 12-котлов почему? Короче с 6800ГС они в ногу в 2005 3дмарке, а в цене 6800 - дороже, в чем прикол непойму, неужели битность так на цену повлияла, результат-то одинаковый, ну и потом 7-серия дороже быть должна, думаю не поменять ли мне одну на другую, вариант пока есть, совет по этому поводу будет?
0
Shader 3.0
16.09.06 00:51

Я Щас поглядел, моя на NV42 ГП-423МГц ОЗУ-990МГц, че-то маловато, в НЕТе говорят 425/1000 должно быть,
надо будет у 7600 поглядеть, я уже готов на обмен, если 7600 будет хотя бы 575/1500, как ее рекламируют в НЕТе.
0
РАЗРЕКЛАМИРОВАТЬ ЭТО ОНИ МОГУТ А ГНА ДЕЛЕ ....
0
Посмотрел у Никсов - 560 на 1400 пишут у Асуса Радеон х1600хт соблазнительнее 590 на 1400 и дешевле почти на 1000р вот так ни хрена себе!
0
1600XT довольно значительно медленне 7600GT. Если есть возможность остановись лучше на GF
0
Потестил 7600ГТ 256МВ и 7600ГТ 512МВ - результат вопросительный? Почему это 512МВ медленнее, чем 256? даже частотки 256 - 559\1398, 512 - 556\1312 прикол? Может 256МВ взять, хватит наверное? ASUS 7600GT вообще 550\1300, а имя то великое! 3DMark05 сказал 5656 на 256МВ, 5367 на 512МВ, мое сокровище 6800GS\512 отстает прилично 5086! - Я в печали и раздумье, так как в 3d - играх например TombRaider Legend на видеозаставках 6800 не тормозит, а у 7600 - случается, в чем прикол не пойму? Может дрова ей не нравятся? Или 6800 лучше? Pariah тоже 6800 лучше любит, не въезжаю я в чем тут фишка?(7600 испытывал ту которая 512 естесственно она с моей в цене схожая).
0
Бери 256. Производители хитрые и разводят покупателей на 512мб, типа это лучше, а на самом деле ставят медленную память. Пока объем не так критичен (между 256 и 512), а вот пропускная способность более быстрой 256мб памяти побольше значение имеет
0
Ну дык, бОльший обьём памяти -> бОльшие тайминги -> хуже производительность.
0
Короче я решился, махнул 6800гс на 7600гт, вроде бы по-лучше стало и на душе полегчало, но заходил тут к товарищу и он меня ошарашил, он купил х1900GT почти по той же цене, вот повезло-то, покупал через интернетную барахолку с рук, но учитывая модель можно нетрудно догадаться что она на гарантии даже, я чуть слюной не захлебнулся, 7600 там делать нечего - торчит в заднице, сегодня целый день я в печали, надо было и мне поискать на барахолке, но я то думал что там тока москвичи, а оказалось, что и наши есть и вообще там куча городов, вот тока не пойму как там узнать кто из какого города, там ведь мыло одно указано, переписываться что ли?
0
Стоит ли брать GeForce 7900gs ?
0
Фениkс

А какая альтернатива еще рассматривается?
0
GeForce 7900GS
GeForce 7600GT
Radeon X1800GTO
0
x1900GT - она дешевле 7900 и имеет 36 пиксельных конвейеров http://hard.compulenta.ru/267433/ , а не 20, как у 7900 http://newansy.ru/news/22241 - посмотри сам.
0
Freddy May
Неудивитеоьно что у радеона X1900GT 36 писельных конвееров, ведь о стоит порядка 300 долларов, а geforce 7900gs - 220.
0
7900гс находится на уровне чуток слабее х1900гт,при разгоне догоняет,7900гт чуток обгоняет х1900гт но и стоит дороже,х1900гт это среднее между ними.и незя забывать...
Первое: 7900гс не плоха,но всеже х1900гт тоже гонится 2-ое...преспектива конечно есть брать эти карты,несомненно,НО уже говориться о выпуске таких моделей как RV660, RV630 и RV610...Г84 и Г86...это видюхи с ДХ 10 среднего класса,терь вспомните что сделала 7600гт с 6800гт =))) просто реально что ситуация повторится,и купив ЩАС тот же х1900гт или 7900гс,потом будут продукты или дешвле,или которые стока же стоят,но производительней,поэтому хотябы те кто может потерпеть.потерпите этого времени,ведь если даже новые чипы себя не оправдают,будет время взять уже подешевешие те же 7900 и х1900!
0
Pendalf2005
Тогда что взять сейчас, чтоб несильно пролететь потом ?
0
Pendalf2005
Весьма логично, но парня приспичило, я вот 7600GT себе взял, и теперь позняк метаться...
0
Феникс...если уж ну прям нужна овая видяха,если стоит как то ФХ 5700 ну и хочется новую видяху...возьми дешевенькую 7600гс,до времени появления крутых видях,она у тебя окупиться,и тогда уже с доброй душой сможешь продать своего героя 7600гс кому нить за 60 процентов от её стоймости,и купить уже или там х2600хт или какой нить 8600гт =))) это лично мое мнение...просто я пролете,купив зимой 6800гт,когда уже мона найти карту мощнее раза в два,и по такой же цене =)
0
Pendalf2005
Я наверно так и сделаю
0
Pendalf2005
А кто производитель и почем ты ее урвал? И в каком городе?
0
Ну как бы я из Латвии)) и по моим деньгам это 225 латов,в долларах...ну где то 400 баксов))) фирма Инновижен)) для инфы...щас у нас 7600гт мона купить за 99 лат,это около 190 баксов =))) вот такие вот времена =)))
0
Pendalf2005

Ну 400 - это действительно дорого, хотя о Инновижен у меня хорошие воспоминания остались, это из группы компаний 3D Club - продвинутые ребята, как правило слегка разогнанные, хотя из этого звена я бы выделили TIGA и GALAXY - решение не плохое, память правда у них бывает разная, надеюсь у тебя DDR3 стоит, ведь не зря ты за нее столько бабла отвалил, частотки не озвучишь плизз? Интересует - сохранили ли Инновижены свое имя на рынке, а то я давно ничего не видел в их исполнении, у самого стоит 7600GT-Palit. 6800GS-Palit стояла до замены, 6600GT-Galaxy, которая была до 6800GS - выигрывала у последней даже, но AGP - пришлось поменять в силу замены матери, прикинь 6600 выигрывает у 6800 - нонсенс, но - факт!

Нынешняя моя 7600GT-Palit не до конца радует: 3DMark05 - 5604 при 4аа 16Anisotrop, после 50 тестов(за ночь) - Комп кфг = P5LD2 / Cel 352(3,2) / 2x512 Kingston 4-4-4-12 / 7600GT-Palit 256Mb / FSP-400W / - остальное не имеет значения, так как в тесте не исползуется, 3DMark03 - 8084 при аа-4, Anisotrop-1(больше не делается, может криво сломан?), 3DMark06 пока не гонял - не установлен, OS - XP2 Professional. Я считаю, что это несколько маловато, а ты? Хочу купить камень D805, они упали в цене и стоят у нас теперь на 400р дороже С352, как оценишь решение? Есть еще мысль оставить камень, но взять х1900GT, что лучше? Через 2часа я вернусь, может дашь совет мне к тому времени? (х1900 дороже 7600 на 3000р, D805 стоит 3500р) Жду...
0
Немного о семействе 8800

GeForce 8800 GTX:

* Частота видеочипа 575 МГц. Что характерно, 128 унифицированных шейдерных блоков будут работать на частоте 1350 МГц. Как видите, стратегия дифференцированного назначения тактовых частот для разных функциональных блоков внутри видеочипа продолжает работать.
* Частота памяти 1800 МГц DDR. Самое забавное, что вместо вполне естественной для нынешнего сезона GDDR-4 мы увидим на GeForce 8800 GTX память типа GDDR-3. По крайней мере, в этом уверены американские коллеги.
* Ответ на вопрос "почему не GDDR-4?" даёт описание объёма памяти GeForce 8800 GTX - видеокарта будет иметь 768 Мб памяти. То есть, к обычным 512 Мб добавлены ещё 256 Мб - скорее всего, для нужд обработки физических эффектов или прочих специфических задач. Если бы GeForce 8800 GTX использовала память GDDR-4 такого объёма, цена получилась бы не самой привлекательной.
* Шина памяти тоже имеет необычную разрядность - 384 бит. То есть, к обычным 256 битам добавлены ещё 128 бит. Это объясняет П-образное размещение микросхем памяти вокруг видеочипа на графической карте GeForce 8800 GTX.
* Наконец, пара скоростных характеристик: память обеспечивает пропускную способность 86 Гбит/с, видеочип заполняет сцену со скоростью 38.4 млрд. пикселей в секунду.

Вторая видеокарта семейства по имени GeForce 8800 GTS отличается более скромными характеристиками:

* Частота чипа 500 МГц.
* 96 унифицированных шейдерных блоков, работающих на частоте 1200 МГц.
* Частота памяти 1800 МГц DDR.
* 640 Мб памяти типа GDDR-3 (512 + 128).
* 320-битная шина памяти (256 + 64).
* Пропускная способность памяти 64 Гбит/с.

Поддержка PS 4.0 и DX 10 гарантируется.

Все дополнительные мегабайты и "кусочки" шины - предназначенны для обработки "физики". Ну что может кто то поспешил, с покупкой плат от Ageia? =))
0
8880GTX супер ... тока энергии (ватт) многа потреблять будет, а если в SLI ставить, то дома надо будет держать мини-электростанциюю.
0
цитата с оверов

"Если говорить непосредственно об уровне энергопотребления, то документация NVIDIA рекомендует использовать для одиночной GeForce 8800 GTX блок питания мощностью не менее 450 Вт, для одиночной GeForce 8800 GTS требования снижаются до 400 Вт."

наверняка имеется ввиду честные 450ватт

интересно на сколько проентов 8800gtx будет производительней 7900gtx? на 40? на 50?
0
G-man
Мда, сколько это все стоить будеть - вопрос №1! Я наверное такое чудо только года через два себе позволить смогу(когда они в цене рухнут, а игрушки перстанут играть на 12-ти шейдерных чипах). Вчера покупали блок на 550 честных как бы Ватт - почти 2700р, накладно однако(у меня FSP-400W, но судя по нагреву - нечестные 400, а ведь FSP - что брать, чтобы быть уверенным - не знаю).
Какая по-твоему фирма сейчас выпускает честные блоки?
0
Freddy May
Не, вообще у FSP всегда были не плохие блоки - особенно в старших сериях 500-600 ватт. Так - вообще Hipper и Zalman - единственные фирмы, про которые я не слышал плохих отзывов.

i3000
Если смотреть по характеристикам, и зная характерный подход Nvidia - думаю что в два раза быстрее =)).
0
G-Man
Все дополнительные мегабайты и "кусочки" шины - предназначенны для обработки "физики". Ну что может кто то поспешил, с покупкой плат от Ageia? =))

Как в воду глядел!! Ты блин еще сопротивлялся и отнекивался...=))) хаха! как бы не так! сам вот теперь и говоришь, что физ. ускоритель - не нужен как отдельная плата..=))))))
хаха! истина восторжествовала!
0
Так я че то не врубаюсь ?!?!? - Г80 будет поддерживать Унифицоравнную шейдерную архитектуру,или нет ?!
0
Чей-то Бот
Надоть будет поглядеть как это чудо будет работать с Havok - еще пока неизвестно, да и Ageia воду мутит. А на счет того че спорил - я как то думал что до этого первыми дойдут ATI шники (из-за слияния с AMD) - см. мой пост в теме - AMD Intel от 27.07.06 15:00 - но видимо это не так - хотя хз че там в R600 то будет. Хотя я конечно хотел бы увидеть физ. сопроцессор в CPU (может K8L чтон ить покажет? =)). Хотя вряд ли конечно... Эт так - мячты...

Pendalf2005
Я тоже этой темы не понял - хз - вопросы к оверам =). Написанно 128 унифицированных конвееров...
0
думаю всетаки "128 унифицированных шейдерных блоков будут работать на частоте 1350 МГц." +450 ватт + 700миллионов транзисторов на чипе

- это утка

жаль конечно но скорее всего это так
0
i3000
Ды почему - у R600 пактически сходные обнародованные характеристики. Мы не в том времени, когда количество транзисторов на видяхе можно считать по пальцам. Иначе какой смысл в переходе на более низкий техпроцесс при сохранении массивных систем охлаждения? (то есть явно не в уменьшении тепловыделения) - а значит в стремлении напихать в оболочку всего и побольше.


В предварительных спецификациях PCI Express 2.0 потребителей больше всего заинтересовали не удвоение пропускной способности шины или повышение частоты шины, а способность обеспечить питанием видеокарты мощностью от 225 до 300 Вт. Какие-то изменения предусмотрены и для блоков питания, а также соответствующих разъёмов для питания видеокарт.

Сайт ZD Net сообщил, что комитет PCI-SIG уже выпустил близкие к окончательным спецификации PCI Express 2.0, и распространил соответствующую документацию среди разработчиков. Дополнения и комментарии к спецификациям можно будет сделать в течение 60-дневного периода, затем в свет должны выйти окончательные спецификации PCI Express 2.0. Таким образом, стандарт может быть утверждён если не в конце этого, то в начале следующего года, как и планировалось.

Напомним, что образцы чипсета Bearlake-X с поддержкой PCI Express 2.0 начнут поставляться в первом квартале 2007 года. Чипсет ATI RD790 для платформы AMD с поддержкой PCI Express 2.0 появится во второй половине 200г года. Собственно говоря, к тому моменту этот чипсет будет носить имя AMD :).

Кстати, PCI Express 2.0 сможет работать не только с технологией Geneseo, но и позволит подключать "внешние" карты расширения через стандартизованные кабели длиной до 10 м, обеспечивая скорость передачи данных до 2.5 Гбит/с. В серверном сегменте такая возможность пригодится.

Пугающихся всего нового пользователей можем успокоить: существующие платы расширения с интерфейсом PCI Express x1/x4/x8/x16 смогут работать в слотах PCI Express 2.0. Судя по всему, первое время поддержка PCI Express 2.0 будет оставаться прерогативой наиболее дорогих чипсетов.
0
ну мляяяяя!!!!намудили с*киии!
нет, я не новичок и не пугаюсь всего нового, но черт возьми! у меня еще AGP-карта, я тут понимаешь только на PCI-Ex16 собираюсь переходить, а они опять новый стандарт выпускают!!! ну вашу мать,а! теперь придется мне уже дважды менять материнку (как минимум) чтобы на будущей системе с Конроем поставить R600!!!
Пипец, как меня это за*бало, честное слово!
0
P.S.
G-Man
Надо бы подкорректировать Общий FAQ насчет PCI-E 2.0
Я что-то не полностью врубился, плиз если не трудно внеси изменения ты, а?
и желательно кинь линк на глубокое раскрытие сего вопроса.
0
ОК, ща попробую описать =)
0
мэн почему схожие то если 128 унифицированных шейдерных блоков у нвидии против 64 у айтиай

да и оффициального пдтверждения так и нету
0
i3000
если 128 унифицированных шейдерных блоков у нвидии против 64 у айтиай
Да хрен его знает, может и правда. Только я не удивлюсь если 128 нВидиевских блоков будут работать с такой же эффективностью как 64 Атишных. Опыт имеется. :)

А вот насчёт "унифицированных" - пока что совсем ничего не ясно. Может нВидия под "унифицированными" блоками называет что-то другое, нежели Ати ? Потому что что-то большие сомнения у меня на этот счёт. =/
Ведь раньше сама нВидиа говорила что Unified Shader в G80 не будет. Странно... больше похоже на типичную утку с подменой терминов. Да и вообще слухи по нету обычно быстро распространяются, так что рекомендую всё таки подождать официальных анонсов и подтверждений характеристик.
0
кстати говорят в следующем году амд+атi готовят какой то проект графического сопроцесора или что то в этом роде
0
Разве в следующем ? По моему говорили не ранее 2008, но могу и ошибаться...
0
возможно и 2008, я только краем уха слышал)
0
вообще конечно это объединение сулит по-настоящему прогрессивные подвижки в развитии компов.
В отличие от м*даков, которые каждый год выпускают новый слот под видюхи...
0
i3000

Да это интегрированое графическое ядро в процессоре. Но это решение начально-бюджетного уровня, для игр его не хватит - оно будет внедрятся в мобильные компьютеры - что бы пошатнуть позиции Intel и ее G-чипсетов с интегрированной графикой. Говорят что исполнятся будет на очень низком тех процессе - а значит будет потреблять мало энергии.
0
ясно ну тогда пока что все взоры на 8800gtx
0
хачю видюху купить от ATI каторая будет не хуже GF 7800gtx ....... поскажите мне название модели такой видюхи и скока он будет стоить
0
chikstillo
Пустая трата денег на видюху серии directx 9.0
0
chikstillo 1900xtx
0
Да блин, тока я на PCI-E перешел, уже 2.0 подоспел, и так то немеренно вложился и на те снова! За прогрессом не угонишься - я в печали...
0
не ты один...

P.S.
Блин, мой епнутый провайдер в корень аxъyeл или это на сервере ПГ такие глюки, что сообщение 5 минут отправляется???????
0
первые неофициальные бенчи 8800gtx

3dmark06
Core 2 Extreme QX6700: 2,67 ГГц - 12000
Core 2 Extreme x6800 2.93 - 10500
athlon fx-62 - 10000
0
Я весь в возмущении!!!
Пошел покупать Radeon X1900GT, стал разглядывать ее, обратил внимание на как бы мощный красный как бы медный радиатор скрытый красной органикой, вид внушительный. И так же увидел два переключателя на тыловой стороне о которых тут же спросил менеджера. Менеджер взяв в руки карту потянулся за коробкой и задел рукой(с картой) стойку, карта вылетела и сосчитав полки упала к моим ногам, я ее поднял и обнаружил, что радиатор раскололся и на изломе имеет серый цвет, похожий на силумин! Даже козе понятно, что медь и алюминий не колятся, из чего же тогда радиатор?! А на коробке между тем значилось Sapphire Original with Cu+ radiator, кому теперь верить?! Если даже в фирменных салонах подделки гонят!!!
0
Что вы можете мне посоветовать для игр?

ATI RadeonX1600 256MB
или
NVidea 7600GS 256

ну что думаете?
0
NVidea 7600GS 256

Дешевле ,можно считать равна по мощности (если радеон ХТ)
0
SIR STRONGHOLD
NVidea 7600GS 256 - однозначно, 8 блоков против 4-х у АТИ - красота на лицо!
0
Фрэдди
Них! И что на это сказал менеджер? И он вообще выжил после того, как разбил карту стоимостью три его зарплаты?
0
Все свершилось. nVidia со своей 8800GTX на коне, до нового года точно. А там R600...
0
NVIDIA круче! У меня 6800GS и круто! А бутерброд (7950GX2) вроде ещё никто не превзошол.
0
Uriel Septim
бутерброд давно уже сделан X1950 XTX.
0
Uriel
Причем не просто бутерброд,а спамятью GDDR4, какой кажется даже на G80 нет. (сорри если ошибаюсь, но по-моему так)
0
Скорее всего будут и модификации G80 с GDDR4, когда эта память подешевеет. Но все же даже память GDDR3 не мешает 8800GTX обходить ATI X1950XTX с ее GDDR4 почти на 50% (по первому обзору 3Dnews). Опять же повторю : Со своим G80 nVidia на коне до нового года точно (100%). Пока что она имеет в своих рядах самую мощную видюху планеты - 8800GTX. А в новом году ATI R600... Скорее всего это будет поражение G80 и nVidia отойдет на второй план. В этом я уверен на 80%
0
Кстати недавно (сегодня днем) просматривал цены на видюхи и к своему удивлению обнаружил, что ATI Radeon X1950XTX стоит дешевле на 60$ чем nVidia 7900GTX !!! Магазин первоклассный. Карты "настоящие" точно, не подделки. И кто спрашивается будет после этого брать nVidia 7900GTX - вот к чему приводит жадность. )))
0
все таки Г80 имееет унифициравоную шейдерную архитектуру....тока почему раньше об этом говорили вообще наоборот ?
0
Akon
Это не жадность, а закупочные цены. X1950 XTX пришел в новых партиях по новым ценам, а запасы старых привозов 7900GTX не успели распродать - а удешевлять просто так цены нельзя...
0
Akon
Опять же повторю : Со своим G80 nVidia на коне до нового года точно (100%)
Ну ясное дело R600 выйдет не раньше января. АТи и не собиралась вроде до этого выпускать что-либо сравнимое с G80=))
0
Моё мнение таково, нвидиа первая выпускает видюхи новые(ну всмысле нового поколения), а ати слегка насморевшись на все недостатки нвидиа, выпускает свои карты, из-за этого получаються что радеоны получаються лучше чем нвидиа....
0
TATOSHKA
Не это очень примитивно. Как ты тогда, например, обьяснишь отсутсвие поддержки PS 3.0 на картах серии X*** - когда как у nvidia они были внедрены начиная с серии 6***? =) Да и не всегда у ATI выходя карты лучше чем у Nvidia. Просто ATI страдает отсутствием широких мощностей производства чипов - им приходится идти в некотором смысле в кильватере, за Nvidia, которая свободно может себе позволить различные провалы (аля серия FX 5***).
0
G-Man
Почитал тут тест видюх 2,5-летней давности. Там среди тестов FX5500-5700 и Rad9600 различных вариантов выигрывал именно FX5700Ultra. Почему?

ЗЫ
Гыыыыы! Сижу в нете в минус!!! круто! жаль потом все равно за это придется платить=))
0
Akatosh
Какие то очень старые (странные) тесты отрыл - 9600 XT свободно делал 5700 Ultra. 9600 Pro в свою очередь делал все модели 5600 (Ultra, XT).
0
Что пятые правальная я вкурсе,я согласен что нвидиа как то крупней чем ати(это можно увидеть и по количеству рекламы той или йной фирмы)....
Просто странно что многие видюхи ати выходящие поже по тестам лучше...
А вот интересно мой друг решил брать камп чтоб висту смог взять нгасчёт всего ясно а вот насчёт видюх он не знает что лучше Жираф 7600GT и радеонка х1650про???
вот на какой тест я бы хотел взглянуть это 7300 против х1300?хочу посмотреть что лучше новый чип у ати или старый у нвидиа...
0
ATI
0
G-Man
Совершенно серьезно. Щас короче - то был или Страна Игр или PC Игры за июль 2004 года. Я совершенно точно запомнил.

P.S.
Система Celeron 2500 s478, 512DDR, FX5500 128 моего знакомого свободно делает мою Cel1700 512DDR, Rad 9600XT 256!!!!! Если это из-за проца то как ты можешь потом говорить что игры не такие уж процессорозависимые, если 700 Мегагерц играют такую большую роль???...
0
Akatosh
Во первых вот - http://www.igromania.ru/articles/?79_Test
Во вторых я НЕ говорил что игры не процессорозависимы. Просто есть движки очень жадные для пропускной способности (для которых каждый лишний мегагерц - это лишний fps) - аля DOOM3, FEAR и т.д. Как правило жадностью для пропускной способности CPU отличаются все OpenGL движки. Есть менее жадные - типа Gamebryo (Oblivion) - где скорость CPU большой роли не играет - но ессно в пределах разумного - это не означает что ее можно запустить на Pentium2 MX.
В третьих - в конкретных конфигурациях все зависит от прямоты настроек, замыленности системы, установленных драйверов. Если ты равняешь компы в 3D Mark - то у него очень жесткая привязанность к системным требованиям - не удивляйся что машина будет отставать. К тому же для архитектуры конкретного проца (Celeron) - уровень тактовой частоты из-за особенностей архитектуры может быть очень даже важен. (плюс - материнка - для Intel скоростной чипсет на матери очень важен - так что если у тебя мать на старом чипсете то ничего удивительного)
0
кароче видюхи радеон вседа были есть и будутт лутшими видюхами для обычных пиплов которые приходят в магазин и емею всего 200 жалких баксов! хватит вам ставить друг против друга видюхи исходя из того что они якобы конкуреты или же радеон выпустил видюху в ответ недавно выпущеной видюхе от geforce! это тупость! давайте ставить видюхи исходя из цены.... скажем так у меня 150 баксов что я могу купить от nvida и что могу купить от ATI........ и что из них лутше!
0
Лучшая видеокарта PCIe за $130

GeForce 7600 GT
Кодовое название: G73, технология 90 нм
12 блоков пиксельных шейдеров, пять блоков вершинных шейдеров, 12 текстурных блоков, восемь процессоров растровых операций
128-битная шина памяти
Ядро 560 МГц, память 700 МГц (1400 МГц DDR).
7600 GT - впечатляющая видеокарта для данного ценового диапазона. Она поддерживает технологию SM 3.0 (см. тесты качества SM 3.0), а высокие тактовые частоты дают прекрасную производительность. Самым слабым местом является 128-битная шина памяти, но высокая тактовая частота памяти нивелирует этот недостаток. Карта вполне может конкурировать с 256-битными моделями, например, с X850 XT.
Radeon X1650XT http://www.overclockers.ru/lab/23784.shtml#4
0
а не лучше ли GF 7900 GTX???? Производительность зверь. Правда цена тоже не малая
0
ATI Best! Они лучше были, сейчас и будут
0
chikstillo
Каким тогда оразом ты обьяснишь тот факт, что при одинаковой цене на 7600 GT и X1650 XT - видео от ATI еле дотягивает до уровня 7600 GT. По моему уже давно пора забить на детский фанатизм - и выбирать не марку и фирму - а сочетание цена/качество. Выкидывать лишние деньги из фанатизма - глупо. Хорошие видяхи есть и nvidia, не меньше их и у ATI. Но сейчас в ценовом сегменте до 200 уе - 7600 GT пока лидер бесспорный.
0
Ребят, а чего вы совсем перестали обсуждать ASUS 7800GTX 256 ?? совсем галимая что ли она ? Прям обидно (((
0
AG777
А че ее обсуждать? стоит и по сей день неоправданно дорого, с производства снята давно. Будет баков 200 стоить - вот и будем обсуждать =)).
0
Grafikkarte Radeon


у меня стояла GEforse 7900GT .проработала она пару часов и сдоихла.стала глючить.вырубать комп.
обиделся я на Nvidia и поставил ATI Radeon 1900GT.и пр сдела.Вот для срвнения.

X1900 XTX Radeon X1900 XT Radeon X1900 GT GeForce 7900 GT GeForce 7900 GTX
Fertigungsprozess 90nm 90nm 90nm 90nm 90nm
Transistoren 384 Mio. 384 Mio. 384 Mio. 278 Mio. 278 Mio
Chiptakt 650 MHz 625 MHz 575 MHz 450 MHz 650 MHz
Speichertakt 775 MHz 725 MHz 600 MHz 660 MHz 800 MHz
Rendering Pipelines 16 16 12 24 24
Pixel Shader Einheiten 48 48 36 24 24
Vertex Shader Einheiten 8 8 8 8 8
Speicherschnittstelle 256bit 256bit 256bit 256bit 256bit
Speicher 512MB 512MB 2 56MB 256MB 512MB
Shader Model 3.0 3.0 3.0 3.0 3.0
Dual-VGA CrossFire CrossFire CrossFire SLI SLI SLI SLI

кстати на 3Dmark (на расширение 1024 Х 768 Pixel)Radeon

1900 GT показ счет чуть больше чем на GEforse 7900GT
0
G-man А вообще то для сегодняшних игр норма ?? Я вот щас режусь в Медивиал 2 1680х1050 всё по максимуму Когда народу много тормозит :(((( Скорее из за проца это всё да ? Простите за оффтопик...
0
AG777
Видяха норм, но честно ты ее купил зря. Стоит она неоправданно дорого, сейчас цены позволяют купить нечто лучшее или хотя бы тот же чип 7900 (GS, GT). К тому же ты и сам наверно знаешь как карта греется, еще интересно - она у тебя не ломалась? Потому что были очень большие партии некачественных таких видюх как у тебя.

Обсуждать ее бессмысленно ровно как и рекомендовать кому-то на покупку так как есть более достойные конкуренты. Но я бы на твоем месте не задумывалс я о покупке новой еще минимум месяцев 8-10 до распространения R600. Так как брать видюху чуть-чуть лучше чем... бессмыслено.
ТО что тормозит Медивал неудивительно такие большие разрешения и макс. настройки очень часто глючат из-за кривого движка игры. (а-ля Обливион на мегамониторах с большой диагональю и соотв. большим разрешением требует поистине МЕГА-комп, где-то была статья на THG, но искать не буду, так как лень и трафик не резиновый=))) да и ты я думаю понял мою мысль
0
Пасиба тебе за ответ ))) Мне оч приятно это слышать !
Я эту видюху купил в ноябре прошлого года )) На тот момент она была флагманом сильным !! Она греется максимум до 67-70 градусов при полной загрузке, больше не было )) Ни разу не ломалась.. тьфу тьфу тьфу Это ж ASUS он вроде не часто ломается ))!!! Просто сейчас большой выбор а я вот уже год не думал об этом.. А сейчас вышли в свет новые процы от интел вот думаю брать ))) CPU INTEL Core 2 Duo E6400 (2,13GHz) LGA775 (cache 2048, 1066MHz) BOX или 2.4 Вот они то наверняка загрузят видюшку по полной... ) а медивиал навена тормозит из за моего старого проца P4 3.0 800 ))

Akatosh ты мне прям настроение поднял ;-)
0
Когдамы уже увидим на прилавках nVidia 8800GTX и 8800GTS ?????????????? Кто реально знает??? И не пишите что-то типа а эти карты фуфло, их легко обойдет R600 и т.д. Просто срочно ножна видюха!!!!!!!!!!!!!
0
В Украине тоже, если кто знает...
0
Akon
вот думаю брать ))) CPU INTEL Core 2 Duo E6400
Вот это уже будет достойным выбором для апгрейда.

ьфу тьфу тьфу Это ж ASUS он вроде не часто ломается
На днях у знакомого сгорела вторая по счету мать ASUS P4P800 без разгона и прочих манипуляций - просто взяла и сгорела, причем вторая=)))) так что марка не всегда знак качества для всех моделей.
0
Akatosh
23.11.06 17:36
Где твой товарищ их берет? Они давно не выпускаются (ASUS P4P800) а уже ремонченные должны гореть, к тому же ICH5 имеет известный глюк по USB, я с такой маманей год прожил, с доп.контроллером USB, летала и летает до сих пор, только не у меня, при чем разогнанна теперь ого-го и по памяти и по шине и видюха на ней 7800 на AGP тоже разогнанна. Друган у меня ее выпросил слезно, когда свою спалил при разгоне, но он не виноват, радиатора на чипе у него не было, а он не знал пока комп не вскрыл, а по гарантии сказали нет таких уже - не выпускаются, вот мы и решили, что он мне 775 берет, а я ему свою отдаю, конечно с моей доплатой, так у меня и появился 775.

G-man
Спасибо за аргументированную поддержку ГеФорсов, я тоже изучил данные Вами статейки и глянул на прайс.ру x1650xt я не нашел у нас, но х1650pro уже чуть дороже ГФ7600ГТ у нас - значит ХТ еще дороже ну и как их сравнивать? Я тоже хочу х1950хтх, но денег только на 7600ГТ есть!
0
Цитата : "R600 станет первым совместимым с DirectX 10 графическим решением от AMD/ATI. Он будет содержать 64 шейдерных и 16 текстурных блоков. Ожидаемая рабочая частота: 650 MHz – 700 MHz. Также внутри графического процессора будет располагаться контролер памяти, поддерживающий GDDR4; разрядность памяти составит 512-bit. Производиться новый чип будет по 80nm техническому процессу."

Мля, nVidia со своим G80 тут ловить нечего...
0
Где твой товарищ их берет? Они давно не выпускаются (ASUS P4P800) а уже ремонченные должны гореть
Ну так комп старый - он по гарантии меняет, а в моем городе еще такие матери будут долго.

Akon
Похоже намечается новый оборот той ситуации когда nVidia выпускала FX, а ATi Radeon 9xxx. Старые добрые времена - так приятно сразу стало=))))
0
Думаю не лишним будет создать новую темку - http://forums.playground.ru/hardware/142024/
0