Все о видеокартах v5.0 {closed}

Продолжим. Просьба не уходить от основной темы - для этого есть другие - по разгону и общим вопросам по подбору комплектующих.
Предыдущая тема

Общий FAQ

Комментарии: 328
Тема закрыта. Публикация новых комментариев отключена.

Блин...а у меня Палитовская..=( я прост про это не знал...а что можно с палитовской сделать?

Ну дык , подскажите как разогнать PALIT GEFORCE 6800 GS 256 MB (256BIT)?

0

7600 GT MSI- достойный выбор для среднеценевого дипозона ?

0

Лучший выбор среднего ценового диапазона - Radeon X1800 GTO!

0

А вот если Радик от HIS разблокировать конвейеры путем перепрошивки БИОС и получить Х1800 ХL- это провда ? (статья в июльском номере Игромании).

0

Babylon
Это лотерея. Так что осбо на это не надейся.

0

Бери X1800 GTO2 - все уже разблокировано

0

512Mb PCI-E ATI Radeon X1800GTO2, DDR2, DVI, TVout, Sapphire 21069-04 retail
Она??
И почему DDR 2??(((

0

Не может быть... Ты ошибся, наверное... Или составители прайса ошиблись )

0

погляди прайс!!
http://80.67.243.34/GoodsCat/Index.php?
goods_code=8112925&goods_product_id=
W1WSTB&goods_price_rub=7515&goods_price_usd=
280,35&goods_amount=****&goods_guaranty=12

0

TANK2010
Какой то аццкий обрезок от 6800 GS видимо - так как XT - у Nvidia означает - "хуже некуда" =)

0

А у АТИ наоборот- авангард ...

Короче вот на днях на ПГ была новость, что АМД хочет купить АТИ, то 5есть если я собираюсь ставить себе Атлон, то покупать под него НВидию на ПСИ- Е теперь глупо ?

0

Во-первых AMD уже купила ATI (читай новости)
Во-вторых можешь спокойно брать Атлон и НВидию на ПСИ-Е

0

У меня с компьютером что-то неладное. Загружаешь любую игру и через некоторое время вырубается монитор. Единственным выходом остается перезагрузить компьютер. Пробовал переустанавливать Windows- не помогает. Думал, что из-за видюхи, но купил я ее в июне сего года. Подскажите в чем дело.
Конфигурация моего компьютера:
Intel Celeron 1.7 GHz
GeForce 6600GT (Sparkle) 128 bit 128 mb AGP (дрова ForceWare 78.01)
LG Flatron 774 FT 17”
Socket 478 Realtek RTL8139/810X Family Fast Ethernet NIC
1024 mb ОЗУ

0

BeerBear
Желательно бы еще узнать твой блок питания. 6600GT жрет неоправданно много. Проверь температуры и, на всякий случай, контакты у монитора.

0

А скачать дрова посвежей не пробовал ???

0

А какой длок питания подойдет для обжоры 6600GT

0

DigitalGod
Я поставил тоько что дрова81.84 Проблема осталась...

0

BeerBear
Для 6600GT оптимально будет 350 ватт. Может сойти и 300, при условии, что блок хорошего качества и установлен не особо прожорливый процессор (как в твоем случае)

0

Прости за глупый вопрос, а ты к ней доп. питание подключал ???

0
Image Hosted by ImageShack.us
Image Hosted by ImageShack.us
Image Hosted by ImageShack.us
Image Hosted by ImageShack.us

to Babylon
вот если Радик от HIS разблокировать конвейеры путем перепрошивки БИОС и получить Х1800 ХL- это провда ? (статья в июльском номере Игромании).

ВСЯ ПРАВДА О РАЗЛОКЕ КАРТ X1800 GTO НАПИСАНА В ПРЕДЫДУЩЕЙ ВЕРСИИ ЭТОЙ ТЕМЫ! Читай мой пост ближе к концу темы. Там статья получше, чем в какой-то там Игромании. Яж для всех старался, когда её писал. Не сегодня, так завтра переделаю свою X1800 GTO2 в X1800 XT Platinum Edition (надо только прошить отредактированный биос). Пока ищу подходящий редактор. RaBit 2.1, к сожалению, не подходит (из-за глючной работы с таймингами). Единственная поправка - сейчас уже почти все PowerColor идут с 12-ю конвейерами. Так что халява закончилась..., но не совсем.

to Kent89
512Mb PCI-E ATI Radeon X1800GTO2, DDR2, DVI, TVout, Sapphire 21069-04 retail
Она??
И почему DDR 2??(((


Да, она. А вот DDR2 - это ещё давнишняя ошибка. На самом деле там стоит память DDR3 Samsung 1.2 нс. А вообще-то все вопросы по X1800 GTO задавайте мне. Я весьма неплохо осведомлён во всех аспектах и тонкостях выбора/разгона этих видях. У самого X1800 GTO2 (и не случайно).

0

to Babylon
вот если Радик от HIS разблокировать конвейеры путем перепрошивки БИОС и получить Х1800 ХL- это провда ? (статья в июльском номере Игромании).

Так он же не про X1800GTO2 спрашивал а про X1800GTO

0

Я в своём мини-обзоре (в предыдущей версии темы) рассказывал и про разлок обычных X1800 GTO. Читайте внимательнее.

0

Действительно. Надо подумать над этой выгодой..... =)

0

У меня 1800GTO 2 стоит 7500 руб!!!
А 1800XT стоит 7800 руб-- что лучше взять!!??

0

Kent89, при таком раскладе я бы взял Х1800 ХТ. Хотя GTO2 - таже ХТ, да ещё и с 512МВ памяти (что для такой карты немаловажно). Та 1800 ХТ, которая за 7800 р. - с 256МВ памяти. Но всё же лучше бери ХТ, особенно если в разгоне немного опыта.

0

Ну я подумаю, а насчет разгона всегда можно будет спросить у тебя)))

0

А ну-ка народ подскажите, AGP версия 7600GS требует доп. питания ? Вроде бы требует, но надо точно.
И как у неё вообще с тепловыделением и уровнем шума ? Я знаю от MSI стоит пассивное охлаждение
(PCI-E), а на AGP какое ?

Может даже её кто-то уже юзал ?

0

SilverMoon
Требует 100% - там еще преходной мост нужно запитывать - так что без доп.питания не обойдешьси..

0

SilverMoon, AGP 7600 GS от MSI идёт c разъёмом для подключения доп. питания, а система охлаждения у неё активная. Подробности в этой статье http://www.overclockers.ru/hardnews/22399.shtml

0

Ок. Спасибо.
Shader 3.0 я совершенно точно знаю есть 7600 GS от MSI под PCI-E с пассивной системой. А вот под AGP наверно нет...

0

Неужели переходной мост столько жрёт ? =(

0

SilverMoon, я думаю проблема не столько в прожорливости моста HSI, сколько в самом AGP-слоте. Я имею ввиду, что через слот PCI-E видяха потребляет бо'льшую мощность (да ты и сам это знаешь) и необходимость в дополнительном питании у PCI-E 7600 GS, таким образом, отпадает.

0

Shader 3.0
Понятно что и-за мощности PCI-E в 75 ватт потребность отпадает, вот собственно я и хотел узнать укладывается ли 7600GS в 42 ватта или нет. Тепрь понял что не укладывается :) Только если в 2D режиме. :D

0

BioNik-MC
Конечно подключил
Отец Викториус
Спасибо. На следующей неделе попробую с новым блоком питания

0

Кстати после замены дров стало зависать, а не выключаться. Не объясните почему?

0

Ладно админы удолили мои 2 темы ща буду здесь писать!!!!

Какая из видио карт баче "Сафир ATI Radeon X850XT или ATI X1600???????

Заранее благодарен!

0

X850XT покруче будет (ultra high end всё-таки), но она не поддерживает SM 3.0. А это - вчерашний день...

0

Дайте пожалуйста ссылки на сравнение 7600GT и X1800 GTO- эти карты вообще являются конкурентами в своем ценевом диапозоне ? И для Атлона стоит ли брать видео от АТИ ? намного ли она дороже нВидиа ?

0

Babylon
Читай Общий FAQ по железу там про эти карты в первом вопросе написано. Для Атлона можешь брать и Нвидиа и АТИ. Самые большые различия - X1800GTO поддерживает одновременно HDR и Anti-Aliasing. Также в X1800GTo шина 256bit - это сказывается в тяжелых режимах.

0

"Сафир ATI Radeon X850XT или ATI X1600 дайте ссылки на сравнение какая баче и вобще что у каждой видюхе ну какбы всё по ним!!!!!!
Сылку плизз!!!!!!!

0

Если кто знает (что мало вероятно), дайте пожалуста ссылку на драйвера для этой видеокарты (если они существуют):

Изготовитель: S3
Чип: Trio64V+(86C765)Rev E
Конвертер DAC: Internal
Память: 1Мб
Возможности: Direct Draw 1.00
Версия программы: 4.0

0

Ого, у меня такая же видуха лежит. Только у неё 0,5 мб памяти)))))

0

ReZer Во-первых есть X1600Pro и X1600XT. Во-вторых X1600 серия - слабая. Не бери будет тормозить. Лучше X850XT. Там хоть и нету 3.0 шейдеров, зато все просто летать будет. Видюха очень мощная.

0

"Akon" Спасибочки но она у меня уже как месец стоит "Сапффир ATI Radeon x850xt" я просто с другом спорили у кого баче спасибо ещё раз!

0

Купил я как то Palit GeForce 6600 256mb agp, так у нее частоты занижены 300/400 вместо 300/500. пытался разогнать по памяти а в riva tune выше 433 поставить не получается. И еще даже на родных ее частотах 300/400 после 2 часов игры(или работы в 3d приложениях) если выйти в windows и опять зайти в игру появляются артефакты: всякие пятна, полоски, экран мерцает или залит одним цветом. Если выйти в windows, то в ней все нормально. Если попытаться посмотреть фильм dvd или wmv, то вместо фильма показывает зеленый экран, и нагрузка процессора 100%. Температура GPU 58-60градусов. Народ помогите, устало это аж жуть!

0

Shader 3.0
Тут у меня друг собрался комп брать, посоветуй plz шо брать:
ATI Radeon X1900GT (c кулером Zalman VF700-CU) или Geforce 7900GT (с тем же кулером).
Видюха нужна только для навороченных игр (F.E.A.R, Oblivion и т.д.) - никакой работы с видео, AVIVO и т.д. Для себя я взял X1900GT, но еще игры не запускал (все тестирую). По тестам на overclockers.ru X1900GT быстрее, по тестам на 3Dnews - 7900GT быстрее.
Или поскажи свой вариант (только не X1800GTO2) тысяч на 9-10 (Шоб хорошо гнался).

0

ИМХО- естесственно Х1900GT- там ты сможешь включить одновременно ХДР+ Анти Альязинг, но аот питания, вроде, он требует по- больше ...

0

Первач,
Я бы взял x1800xt с 512 мб памяти.

0

Слухайте, люди, щас видел такую вещь:
256Mb PCI-E MSI ATI X1900GT, DDR,DVI,TV RX1900GT-VT2D256E, PCI-E

Стоит как обычный X1900GT, но имеет 48/16 блоков выборки текстур (как XTX!!!)
ЧЁ ЗА ДЕЛА???

0

У них тока ошибка в памяти - там DDR3. На всяк случай облазил еще 5 магазинов - там таже ботва. Фактически X1900XTX по цене X1900Gt =)))

0

Вот ссылка:
http://80.67.243.34:80/GoodsCat/Index.php?goods_code=
8112604&goods_product_id=UE2STB&goods_price_rub=
8548&goods_price_usd=319,3&goods_amount=
*&goods_guaranty=12

И еще:
http://sipc.ru/cgi-bin/sipc/index.pl?_index=*descr;it=8112604

И ещё:
http://128bit.ru/item.php?id=8112604&do=9&ch=

0

Че за ботва? Щас вот встретил X1900GT вообще с 12 конвеерами :0

0

X1900 GT имеет 12 конвееров и 32 пиксельных процессора, никаких 48/16 на ней никогда не было. Вот на X1900 XT другое дело.

0

Radeon X1900GT
Ядро R580
Техпроцесс (мкм) 0.09
Транзисторов (млн) 384
Частота работы ядра 575
Частота работы памяти (DDR) 600 (1200)
Шина и тип памяти GDDR3 256 Bit
ПСП (Гб/с) 38,4
Пиксельных конвейеров 36
TMU на конвейер 12 (всего)
Текстур за такт 12
Текстур за проход 12
Вершинных конвейеров 8
Pixel Shaders 3.0
Vertex Shaders 3.0
Fill Rate (Mpix/s) 20700
Fill Rate (Mtex/s) 6900
DirectX 9.0c
Anti-Aliasing (Max) MS-6x
ANISO (Max) 16x Quality
Объем памяти 256
Интерфейс PCI-E
RAMDAC 2x400

Вот оффициальные характеристики X1900 GT. Вы че то слишком много хотите за ее цену...

0

PERVA4, если будешь менять сток (родной кулер видеокарты), то бери X1900 GT. Стоковое охлаждение у неё слабовато. Зато Залман 700 - будет самый раз. Только не вздумай брать для этой карточки 900-ый Залман. Его конструкция применительно к видеокартам серии Х1800, Х1900 не совсем эффективна. Ядро он охлаждает получше чем 700-ый Залман, но мосфеты греются просто жуть! А насчёт Х1900 GT с формулой 48/16 - сейчас спрошу у ребят на overclockers.ru. Может MSI действительно выпускает GT с чипом от ХТ (тоже самое, что и Sapphire выпускает X1800 GTO2 на чипе от Х1800 ХТ). Вполне возможно, что это частная инициатива компании.

0

В дни проведения выставки Computex 2006 уже была озвучена страшилка о том, что видеокарты ATI и nVidia на базе чипов R600 и G80 соответственно будут потреблять до 130-300 Вт. Производители блоков питания начали готовиться к их выходу, предложив продукты мощностью 1000 Вт и выше. По крайней мере, связка из двух таких видеокарт потребует именно такого блока питания, ведь она будет не единственным потребителем мощности в системе. Производители систем охлаждения тоже начали "готовиться к встрече со звездой", если использовать крылатое выражение Филиппа Киркорова :).

Теперь мы знаем, что чип R600 будет выпускаться по 0.08 мкм техпроцессу, а чип G80 будет выпускаться по 0.09 мкм техпроцессу. Изменились ли прогнозы по уровню энергопотребления?

К счастью, японский сайт PC Watch некоторые свои соображения на эту тему опубликовал на текущей неделе. Использовав сослагательное наклонение, японские коллеги рассуждали о том, "как хорошо было бы, если чип R600 производился по 0.065 мкм техпроцессу". Дело в том, что необходимость поддержки DirectX 10 и перехода на унифицированную шейдерную архитектуру вызвала увеличение числа транзисторов на 40% по сравнению с R580. Это означает, что число транзисторов R600 возрастёт с 384 млн. штук до величины, превышающей 500 млн. штук.

Само собой, все эти транзисторы нужно разместить на одном кристалле. Ядро R580 имеет площадь 342 кв. мм, оно выпускается по 0.09 мкм техпроцессу. Переход на более "тонкий" 0.08 мкм техпроцесс позволит получить некоторую экономию площади ядра, в результате R600 будет иметь площадь ядра порядка 380 кв. мм. Как видите, увеличение числа транзисторов на 40% выразилось лишь в 10% увеличении площади ядра. Неплохой результат, можно и на 0.065 мкм техпроцесс не переходить :).

Между тем, если бы ATI избрала для R600 техпроцесс с 0.065 мкм нормами, площадь ядра удалось бы уменьшить до 250 кв. мм, не говоря уже о потенциале снижения энергопотребления. Сейчас, когда R600 должен производиться по 0.08 мкм технологии, уровень его энергопотребления должен превысить показатели R580 примерно в 1.6 раза. Это означает, что потребляемая видеокартами на базе чипа R600 мощность может перевалить за 200 Вт - в режиме полной нагрузки, разумеется.

Будет ли G80 экономичнее, ведь чип останется верен устаревающему 0.09 мкм техпроцессу? Японские коллеги не приводят каких-то расчётов, а просто ссылаются на предоставляемые партнёрам nVidia данные: видеокарты на базе чипа G80 будут потреблять порядка 175 Вт. Для сравнения - расчётные показатели для GeForce 7900 GTX равны 120 Вт, для GeForce 7950 GX2 - 143 Вт. Собственно говоря, не такой уж большой прирост, но всё же заметный.

Как видите, до обещанных 300 Вт никто так и не добрался :). С другой стороны, производители видеокарт должны будут особенно тщательно подходить к проектированию системы охлаждения, ведь чипы G80 и R600 будут сильно нагреваться, а отводить тепло от них желательно с минимальным уровнем шума. Справятся ли с этой задачей производители, мы наверняка скоро узнаем.

0

Тут появилась возможность поменять мою 7800 GT на X1800XT, при этом без доплаты!
Также можно поменять на X1900GT, но с доплатой 500 р.
Я больше склоняюсь к 1-ому варианту...

0

Я бы тоже. к первому склонился. Но вот сколько памяти у x1800xt?

0

Ан нет... Уже никак... Карточку я покупал на месяц раньше, чем сказал вчера продавцу.
Поэтому доплачивать надо больше 1 000 р. за X1800XT. (((
Ну и фиг с ней. Буду свою гнать зверски, когда похолодает )

0

Midnight, не вижу особого смысла доплачивать более 1000 р. за Х1800 ХТ 256МВ. Если есть возможность без доплаты обменять на X1800 GTO2, то это совсем другое дело. Во-первых, ты получишь карточку, которая на дефолтных частотах не уступает твоей 7800 GT. Во-вторых, ты получишь карточку с 512МВ памяти, что для такой видяшки уже немаловажно (например GhostRecon - Advanced Warfighter при максимальных настройках в разрешении 1024х768 кушает около 400 МВ видеопамяти). В-третьих, X1800 GTO2 можно без проблем разогнать до производительности 512МВ Х1800 ХТ. На это я могу дать гарантию 100%. Лично моя GTO2 при повышении напруги на чипе до 1.275В (у ХТ напруга составляет 1.4В) свободно держит частоты 625/1300, достигая при этом производительности на уровне полноценной 512МВ Х1800 ХТ . У ХТ частоты составляют 625/1500, т. е. по памяти на 200 МГц больше, однако это с лёгкостью компенсируют низкие тайминги видеопамяти GTO2 (я уже восемь раз прошивал биос видеокарты, в том числе и биосом от Х1800 ХТ и знаю что говорю). В-четвёртых, ты получаешь карточку, которая греется меньше чем Х1800 ХТ (засчёт более низкой напруги на GPU), достигая при этом её производительности. А если меньше температура чипа - следовательно стоковый кулер работает тише. Лично я в 2D его вообще не слышу. Ну и в-пятых, ты получишь мощную видеокарточку, способную поддерживать одновременно HDR и AA. А на такой карточке данный режим уже вполне играбелен. Так что есть над чем задуматься.
PERVA4, на оверах про эту MSI X1900 GT (типа X1900 XT c 256MB) никто ничего не слышал. Поэтому, если будешь брать эту карточку, то будешь первопроходцем, а может и первым счастливчиком.
P. S. Всё, удаляюсь из ветки до следующей недели. В выходные у меня присяга и скорее всего по вечерам в увольнение теперь отпускать не будут. Всем пока!

0

Блин, незнаю что взять 1800гто или 1800хт, понимаю что хт лучше, но с ней наверняка будут какие-нибудь проблемы, греется сильно! в общем думаю, на комп хватает, но если покупать 1800хт, то надо занимать 1300 руб., как поступить мне???
P.S. т.е разница между ними 1300 руб.

0

Бл@, уж если хочешь 1800, то бери ХТ. А то, как говориться, скупой платит дважды...

0

Так... Ходил в "Кей". Мою карту оценили в 7800 р. Очень неплохо!
X1800GTO2 стоит 7400. Она точно не хуже моей 7800GT???
Мне хватит моего б/п Thermaltake 430 Вт для неё?

0

Блока хватит с лихвой.
Карта как совершенно верно заметил Shdar 3.0 даже на стандартных настройках не уступает твоей, а возможность HDR+FSAA только добавляет ей плюсов. Вот только ты хорошенько посмотри правда ли это именно GTO2 именно с 512MB именно от Сапфира. Шейдер говорил что такую достать трудно.
А так бери конечно!

0

Конечно бери X1800GTO2. X1800GTO2 будет и получше твоей 7800GT. Ведь X1800GTO2 - практически X1800XT (разогнать по словам шейдера очень просто) => конкурент для разогнанной X1800GTO2 - 7800GTX. А 7800GTX помощнее твоей 7800GT Блока должно хватить.

0

Kent89
Какие нах проблемы?! Если ты беспокоишься об охлаждении, купи на нее залмановский кулер. Хотя штатный работает тоже неплохо.
Чтобы разогнать, биос шить не обязательно. Riva Tuner тебе в помощь!

0

Помогите! Атлон 64 3200+ взять BOX или OEM(и докупить кулер)!! Если 2, то какой кулер посоветуете?

0

За сторонние кулеры ничего говорить не буду(все зависит от цены). А температура моего Атлон 3200 с боксовым кулером 35-45(2D-3D).

0

Да, без разгона, а с разгоном на пару градусов выше.

0

НА стоковые кулеры AMD вообще мало кто жалуется

0

Поздравьте!!!
Стал счастливым обладателем 16-и конвейерного чуда в лице Sapphire X1800XT 256 Мб.
За обмен (7800GT на X1800XT) заплатил 790 р.

0

А я сегодня тоже хотел купить Х1800ХТ, но ее не было и я взял Х1800ГТО2, но тоже очень счастлив!!!

0

Это нормально 120 градусов для этой видюхи?
Эх, моя холодная 7800GT, где же ты теперь... ((

0

Че так сильно греется? От какой фирмы брал?

0

А вообще Sapphire рулит, мне эта фирма очень нравиться!!! Жду когда же получу я своё чудо! Завтра в 14 часов ехать забирать!!)))

0

Ох, руки мои кривые... Даже не буду говорить, что я сотворил )
Теперь температура 56 градусов в простое. Для этой карты нормально.
ЗЫ В 3D Mark2005 набирает 8100 по дефолту на древних драйверах 6.14.
ЗЫЫ Каталист контрол центр не рулит.

0

У меня Каталист Контрол Центр вообще не работает.
Говорят, что для него надо .NET Framework - я устанавливал его на прошлой ОС, но все равно ни фига.
А теперь буре на Мании установку, а мастер установки мне пишет, что нужен какой-то установщик Windows 3.0!!!!=))
Так что я этот Control Center в глаза нее видел - мне хватает ATI Tray Tools для настроек и Riva Tuner для каких-нибудь остальных фич, которые впринципе мне не очень часто нужны...

0

Надо ставить NET Framework 2.0. А Windows Intaller 3.0 закачивается через Windows Update.

0

Ага а Windows Update с недавнего времени не работает с пиратскими Windows...=)
так что это замкнутый круг...

ЗЫ
И даже не спрашивайте какая у меня Виндоуз!

0

Сгорела моя X1800XT...))
А может я спалил )
Теперь мне её по гарантии поменяли на X1900GT. )
Почему в Эвересте у неё отображается 48 Конвейеров?
А в Риве всего 12???

0

У нее 12 конвееров и 48 пиксельных процессоров

0

Почему она так сильно греется? Аж до 90 градусов? Это нормально?
И почему частота ядра 500 Мгц вместо 575?

0

Температура в принципе нормальная. Карта какой фирмы? А в 3D она тоже 500МГц?

0

Понял ) Это в 2D такая частота ))
Карта фирмы Sapphire.
Обороты кулера вручную увеличил до 68%. Теперь температура не более 70 градусов.
А глюки с уголватыми тенями в играх всё равно остались... Что же это такое?

0

Сегодня я все таки стал обладателем нового компа, указан в другой ветки!!
У меня вопрос касается видюхи, почему у меня экран иногда моргает?? И вообще можете посовеиовать, что сделать в первую очередь??? Включить что-либо??
И что можно сделать в конрол центре, что-нибудь полезное?
P.S. Видюха Х1800ГТО2!!! И киньте ссылку на последние дрова!!! Спасибо!
Что такое HYDRAVISION???

0

https://support.ati.com/ics/support/default.asp?deptID=894&task=knowledge&folderID=293

0

Еще заметил глюк, с запуском новой программы или игры, монитор глюконет и норма!! Запущу еще одну он в ней глюконет, норма!

0

Народ, расскажите кто нибудь про Ata2 (Hdd) как его, нехорошего подрубить (865 чипсет), может купить шлейф? А с питанием?

0

2 Midnight
В каких играх проблемы с тенями? Пробовал играться с настройками видюхи? Soft Shadows в настройках игр включаешь?

2 Kent
Наверно видеорежимы меняются

0

Alexandr82:
А можно это как=нибудь исправить???
И еще как лучше настроить ее?
Ну там, анизотропию и т.п.??
Какие дрова сейчас на нее хорошие?

0
PlayGround.ru
PlayGround.ru

В следующих: Ghost Recon 3, HoMM 5, Tomb Rider: Legend, Titan Quest, Fahrenheit,...
Ещё в 3D Mark 2005.

0

Подскажите пожалуйста: у меня P-4 3.0ГГц, fx5200 128mb. Я собираюсь ставить GF 6600GT. Надо ли менять блок питания? Блок питания какой стаит не знаю может кто знает прогу какой можно узнать подскажите.

0

[Frodo]
Хе, камрад - ты предстаавляешь себе как вообще БП подключается к материнке? Он же не подключен по USB и пр. - он только подает напряжение на контакты - вот что максимум может прочесть материнка. Поэтому прог, определяющих тип и мощность БП нет. Выход один - снять БП и посмотреть что на нем написанно. Для 6600 GT нужен БП не меньше 350 ватт...

0

G-man ответь на мои вопросы если знаешь!!!

0

Midnight
Трабл с угловатыми тенями, вообще как я понял головная боль очень многих Радеонщиков. У меня вот древний 9600XT и на нем в последних трех NFS тоже угловатые тени. У друга 9600Pro и у него вообще в половине игр тени состоят из ОЧЕНЬ больших пикселей!

Лично у меня это убирается изменением настроек теней в какую-либо сторону. ЧАще всего в сторону качества, но так как моя вдяха мягкие тени очень не любит, зачастую приходится мириться с пикселями на экране.
А вот U2 - это вообще кошмар!
Там графика по ходу построена на какой-то тупой технологии и у меня в игре ВСЕ!! объекты из пикселей, как будто я играю в разрешении эдак 320*200=))

Температура для 1900GT в 90 градусов нормальная - некоторые уникумы греют ее и до 120 градусов...+)

Hausler
Выкинь нафиг эту материнку и купи новую с видюхой (7300 seriries для бюджетной и 7600GT для мэйнстрима), а если твой гибридный мутант (мат. плата) имеет PCI-E то бери 1800GTO а потом начинай копить на АМ2

0

Чей-то Бот
На предыдущей 7800GT было также. )
Температура теперь у меня 65 градусов.

0

Kent89
Честно говоря нинаю. Что значит мигает? Мигает при запуске? Ну это нормально - идет просчет и изменение видеорежимов, как уже Александр выше говорил...

0

Прошу вас помочь...мой друг один взял недавно 7600гс под АГП от Клаб 3Д ,так вооот,комп у него не может определить видюху,дрова не хотят инсталица.вообщем поменял он и такая же лажа,пошли мы ко мне,у меня хотели проверить,так у меня вообще комп не хочет с нею запускаться,кто подскажет,в чем может быть трабла ?

0

2 Pendalf2005
Несите ее по гарантии

2 Midnight
На Catalyst 6.7 тоже самое с тенями? DirectX последний августовский ставил? Патчи на игры ставил?

0

Подскажите что надо сделать, после установки дров))) Я имею ввиду, какие проги нужны, для Х1800ГТО2, и какие возможности у этой видюхи!!!
напишите проги и для чего они нужны!! Спасибо!

0

чото моя 7800GT сильно грется стала ( 90 градусов ) - это норм для неё?
начинает напрягать это, при 90 градусах - лаги жуть, в Titan Quest например
эх.. поскорей бы G80 вышла

0

Видеокарта по имени GeForce 7900 GS с интерфейсом PCI Express x16 присутствует на рынке с весны этого года, но исключительно в составе готовых систем от таких производителей, как Dell. Она основана на 0.09 мкм чипе G71, который в данной конфигурации имеет 20 пиксельных конвейеров из 24 возможных, а также 7 вершинных процессоров из 8 возможных. Частоты равны 470/1320 МГц, видеокарта оснащается 256 Мб памяти типа GDDR-3, которая сообщается с чипом по 256-битной шине. Ближайшим родственником является GeForce 7900 GT.

0

nVidia поняла, что настало время вывести GeForce 7900 GS из тени OEM рынка в розницу. Соответствующий анонс произойдёт в конце августа, рекомендованная розничная цена составит $179-199. Характеристики будут изменены только в одном пункте - частоты видеокарты составят 450/1320 МГц.Самое интересное, что цена GeForce 7600 GT будет снижена до $130. Ради снижения себестоимости таких видеокарт производители переводят их на более дешёвый 4-слойный дизайн печатной платы. Скорее всего, на разгонном потенциале такая экономия скажется не самым лучшим образом.

0

hazard1337
Для 7800GT 90 градусов это смерть. Что-то не в порядке.

0

http://forums.overclockers.ru/viewtopic.php?t=153841

Незивисимый тест х1950хтх прекрасного овера Шамино...вообщем я ему доверяю,и смотрю,что х1950хтх,будет вполне удачнйо по моему мнению видюшкой =)

0

хм, поиграл ещё тут в F.E.A.R, HL2 и т.д, температура у меня выше 69 не поднималась, наверно это чото с самой игрой Titan Quest

0

"Сама игра Titan Quest" не может делать никаких команд по насильному нагреванию чипа, значит видюха рано или поздно будет греться в еще какой-нибудь игре, а потом еще, и еще...

0

Из-за чего это может быть? и можно ли это как-то исправить? или менять надо

0

Можно, конечно, купить крутую систему охлаждения, но карта того не стоит.
Лучше меняй... пока не сгорела. Даже 69 градусов для неё многовато.
ЗЫ А от какой фирмы видеокарта?

0

В Каталисте есть пункт OverDrive? вот там есть разблокировать!!! Так вот можно повысить частоты процессора графич. устройства(500 Мгц) и памяти граф.(495Мгц), температура 53с, насколько повысить, боюсь спалить, сколько предельная температура!!!?
Х1800ГТО2

0

Почитай конец этой темы (пост Shader 3.0):
http://forums.playground.ru/hardware/124934/

0

Вот я и снова с вами. Вчера присягу принял, в хлам нажралси, голова болит. Короче всё в норме.
Midnight
Как это тебя угораздило спалить Х1800 ХТ? И что тебе без проблем её обменяли в гарантийке? Или на ней не было следов от гари и копоти? :) А вообще лучше бы послушал моего совета и взял бы X1800 GTO2. И дешевле, и шуму меньше, и 512 метров памяти.
Kent89
Поздравляю с отличной покупкой! Повремени ещё один денёк с разгоном карточки. Если нужно, я могу завтра выложить подробное описание по разгону Х1800 GTO2. Только выкладывать тогда буду в теме про разгон (http://forums.playground.ru/hardware/124935/), а то здесь как-то "оффтопно". А пока прикупи лучше корпусной вентиль (в разгоне карточки он будет весьма кстати). Можно конечно и без него, но желательно всё-таки с вентилем (бери любой - от 80х80х25 и до 120х120х25).

0

У неё система охлаждения работает на выдув, надо удалять заглушку с соседненго ПСИ-слота. Чего я второпях не сделал. )) Температура была жуткая, карта ревела как самолёт...

0

Внутри стоят 2 вентиля 120х120, вдув и выдув!!!
Ты посоветовал, я взял!!
ну, наконец, мож проще Асю или Mail Агент!!!
Shader 3.0. напиши в Агент, как сможешь, то вопросов много,думаю ты поможешь!!!

0

Люди знающие подскажите, что лучше купить SVGA 512Mb DDR ASUSTeK N6800/TD (RTL) +DVI+TV Out GeForce 6800 или SVGA 512Mb DDR Sapphire ATI RADEON X1600 Pro (RTL) 128bit+DVI+TV Out
скажите а

0

А мож кто чё лучше знает на AGP в пределах 6000р. ?

0

Пока я нашёл только это чудо по цене примерно в 4788р.
Описание
Производитель XFX
Модель Extreme Gamer PV-T40K-NDDX
Упаковка (единицы измерения) ( в коммерческой упаковке )
Основные характеристики
Тип 2D / 3D видеоадаптер для ПК
Интерфейс хост-контроллера AGP 8x
Чипсет NVIDIA GeForce 6800
Технология 0.13 микрон
Частота RAMDAC 2 x 400 МГц
Разрядность внутренней шины 256-бит.
Кол-во пиксельных конвейеров 16
Макс. разрешение 2048 x 1536 / 16 млн. @ 85 Гц
Разрядность Z-буфера 32-бит.
Поддержка нескольких мониторов 2 x DVI + PAL/NTSC TV
Поддержка API Direct3D, DirectDraw, DirectVideo, DirectX, OpenGL
Версия DirectX 9.0
Пиксельные шейдеры 3.0
Вершинные шейдеры 3.0
Поддержка текстур видеотекстурирование (Video Texture Mapping), модуляция текстур

(Texture modulation), мультитекстурирование, сжатие текстур S3TC (texture compression S3TC),

сжатие текстур в DX6 (DX6 texture compression), смена степени детализации и плавное

преобразование текстур (LOD biasing and texture morphing)
Свойства / особенности Scalable Link Interface (SLI)
Видеопамять 128 МБ DDR SDRAM, работает на частоте 1100 МГц
Дополнительные характеристики
Графические режимы 640 x 480 / 8-бит. (256 цветов) @ 200 Гц
640 x 480 / 16-бит. (65536 цветов) @ 200 Гц
640 x 480 / 32-бит. (4294967296 цветов) @ 200 Гц
800 x 600 / 8-бит. (256 цветов) @ 200 Гц
800 x 600 / 16-бит. (65536 цветов) @ 200 Гц
800 x 600 / 32-бит. (4294967296 цветов) @ 200 Гц
1024 x 768 / 8-бит. (256 цветов) @ 200 Гц
1024 x 768 / 16-бит. (65536 цветов) @ 200 Гц
1024 x 768 / 32-бит. (4294967296 цветов) @ 200 Гц
1280 x 1024 / 8-бит. (256 цветов) @ 170 Гц
1280 x 1024 / 16-бит. (65536 цветов) @ 170 Гц
1280 x 1024 / 32-бит. (4294967296 цветов) @ 150 Гц
1600 x 1200 / 8-бит. (256 цветов) @ 120 Гц
1600 x 1200 / 16-бит. (65536 цветов) @ 120 Гц
1600 x 1200 / 32-бит. (4294967296 цветов) @ 100 Гц
1920 x 1200 / 8-бит. (256 цветов) @ 85 Гц
1920 x 1200 / 16-бит. (65536 цветов) @ 85 Гц
1920 x 1200 / 32-бит. (4294967296 цветов) @ 85 Гц
2048 x 1536 / 8-бит. (256 цветов) @ 85 Гц
2048 x 1536 / 16-бит. (65536 цветов) @ 85 Гц
2048 x 1536 / 32-бит. (4294967296 цветов) @ 85 Гц
Видеостандарты NTSC, PAL
Формат видео сжатия AVI, DVD, Indeo, MJPEG, MPEG-1, MPEG-2
Системные требования (мин.) MS Windows 98/98SE/ME/2000/XP Intel Pentium IV AGP
Коннекторы 2 x DVI-I • 29-штырьковый Molex
S-видео выход

0

С одной стороны этот вариант лучше чем 6800.Цена примерно 4424р.
Производитель Palit
Упаковка (единицы измерения) ( техническая упаковка )
Основные характеристики
Тип 2D / 3D графическая карта для ПК
Интерфейс хост-контроллера AGP 8x
Чипсет ATI Radeon X1600 Pro
Технология 0.09 микрон
Частота RAMDAC 2 x 400 МГц
Разрядность внутренней шины 128-бит.
Кол-во пиксельных конвейеров 12
Макс. разрешение 2560 x 1600
Разрядность Z-буфера 32-бит.
Поддержка нескольких мониторов DVI + RGB + PAL TV
Поддержка API Direct3D, DirectDraw, DirectX, OpenGL
Версия DirectX 9.0
Пиксельные шейдеры 3.0
Вершинные шейдеры 3.0
Поддержка текстур сжатие текстур в DX6 (DX6 texture compression), смена степени детализации и плавное преобразование текстур (LOD biasing and texture morphing), мультитекстурирование, сжатие текстур S3TC (texture compression S3TC), модуляция текстур (Texture modulation), видеотекстурирование (Video Texture Mapping)
Свойства / особенности CrossFire
Видеопамять 256 МБ DDR2 SDRAM
Дополнительные характеристики
Видеостандарты NTSC, PAL
Формат видео сжатия DIVX, H.264, MJPEG, MPEG-1, MPEG-2, MPEG-4, WMV9
Системные требования (мин.) MS Windows 2000 / XP
AGP
Коннекторы DVI-I • 29-штырьковый Molex
S-видео выход
VGA • HD-15F

0

Есть карта за 6920р.
Чипсет ATI
Графический процессор Radeon X800
Частота чипа/памяти 400MHz/980MHz
Тип памяти GDDR3
Объем памяти 256 Мб
Разрядность шины памяти 256 бит
Внешняя шина AGP
Частота RAMDAC 400 МГц
Максимальное разрешение 2048 x 1536
Охлаждение Радиатор и вентилятор
Дополнительные функции ТВ-выход
DVI
Комплект поставки Retail (карта в картонной коробке + драйверы + мануал + диски)
Упаковка Retail
Срок гарантии 1 год
Производитель Palit

0

"512Mb PowerColor X1600PRO "
Графический движок ATI Radeon X1600PRO
Частота процессора, МГц500
RAMDAC, МГц400
Размер/тип оперативной памяти 512 МБ DDR2
Шина памяти, бит 128
Частота памяти, МГц 800
Видеовыход 2 x DVI-I
ТВ-выход S-Video
Цена 3945р.

0

Мне кажется что лучше 7600гс под АГП ,карта по силе как х1600хт,даже лучше,стоит дешевле

0

http://www.polaris.ru/descriptions/18/r311983.html?PHPSESSID=779234084ced370c243b129dfc283365 или же эту,у вас она какраз 6000 стоит ,производительность высокая,где то на уровне х800про,причем карта имеет шанс разблакировки конвееров,впринцепи из нее вообще можно сделать 6800ультра,но разгон до частот ультры думаю обеспечен,впринцепи для АГП очень хорошая плата

0

Х1600 - ваще лажа.
Она конкурент гораздо более низким моделям чем 7600

0

Купил я как то Palit GeForce 6600 256mb agp, так у нее частоты занижены 300/400 вместо 300/500. пытался разогнать по памяти а в riva tune выше 433 поставить не получается. И еще даже на родных ее частотах 300/400 после 2 часов игры(или работы в 3d приложениях) если выйти в windows и опять зайти в игру появляются артефакты: всякие пятна, полоски, экран мерцает или залит одним цветом. Если выйти в windows, то в ней все нормально. Если попытаться посмотреть фильм dvd или wmv, то вместо фильма показывает зеленый экран, и нагрузка процессора 100%. Температура GPU 58-60градусов. Народ помогите, устало это аж жуть! Это я уже писал но некто не ответил. ПЛИЗ!!!

0

Карту неси в гарантийку. Зелёный экран при проигрывании видео - возможно проблема с кодеками.
-----
Как подключить видеомагнитофон к компьютеру? Очень нужно! ))

0

Вот решил взять х1900хт или х1900хтх,большая ли разница между ними в плане производительности?
Какой надо брать БП
Потянет ли П4 3000 такую карту?
Насколько хорошо охлождение на HIS Radeon X1900XTX IceQ3 (Retail, TV-Out, Video-In, 2x DVI),я знаю что на неё стоит другая система охлаждения

0

Ты её случайно не собрался ставить под АГП? П4 3.0 точно не раскроет её потенциала.
БП - чем больше - тем лучше. Бери 480 Вт от известного производителя.
ЗЫ XT можно превратить в ХТХ поднятием частот.

0

Не умею поднимать,и не хочеться,а если Intel Core 2 Duo E6300 1866 MHz, 2x 1024 KB, 1066 MHz ( Sockel LGA775,то потянет такой проц видео?
На сколько лучше HIS Radeon X1900XTX IceQ3 (Retail, TV-Out, Video-In, 2x DVI) чем GigaByte GV-RX19X512VBRH (Retail, TV-Out, Video-In, 2x DVI)

0

Не ну впринцепи потянет,но вообще полного потонцеала не раскроет,х1900хт одна из самых мощных в мире видяха,если конечно разгонишь свое Е6300 хотябы до 2.2 то думаю будет уже оптимально...
Насчет видяхи...Ну я думаю что ХИС,так как Х1900 славяться не хилым энергопотреблением,а у ХИС ооочень хороша система охлаждения,так что это оочень даже кстати,впринцепи материнку можешь взять совсем не дорогую,знаю конечно что возможно многие будут восклицать,но мать Asrock Conroe945g не плоха для своей цены,стоит дешево.и какраз обеспечивает спокойный разгон под шину 315 мгз ( 315 * 7 (множитель Е6300) - 2.205...так что думаю так будет вполне нормально,в играх Е6300 разогнаный до 2.2 будет как Атлон 5000+ Х2 ,а он то точно думаю номральное решение было бы для Х1900хтх,но если берешь комп с нуля,то все таки Конрой предпочтительней

0

Матх не МАТХ,у моего другана щас эта плата,и миди тоуэр кейс.все нормально,а чем плохо что МАТХ ?

0

А разница между х1900хт и хтх большая?обе HIS IceQ3

0

А какая на Хис система охлаждения?

0

неа,единсвтенное чем они отличаются,так это частотами,и это оочень лекго исправить,разогнав х1900хт,да и не разогнаной х1900хт хватит тебе выше крыши ;)

0

На хис своя хорошая система охлаждения,я в лицо карту эту не видел,но читал на форумах н аоверах,что очень хороша,ведь плата не слабо греется

0

Скажите пожалуйста как узнать "подойдёт" видеокарта на материнку или нет?

0

ну если у тебя плата PCI-Express 16х то идет видюха PCI-E,если плата идет под АГП 8х\4х\2х ,то карта с АГП 8х\4х\2х

0

У меня в городе под agp ничего лучше нет чем SVGA 256Mb DDR Sapphire RADEON X800GTO (RTL) 256bit+DVI+TV Out

Можно ли брать?

0

Можно, но не нужно. Карта - вчерашний день.
Кинь ссылку на прайс своего магазина, а мы посмотрим.

0

Блин Коре у нас будет не скоро сказали,что было 3 коре и их забрали.Будут не скоро...
Что место коре хорошее,под х1900хт,да решил хт взять если,говоришь за глаза хватит...

0

Можете дать ссылку где сравнивают х1900хт и х1900хтх

0

Kent89, хотел написать покороче (про разгон X1800 GTO2), но опять забацал статейку. Короче заходи на http://forums.playground.ru/hardware/124935/ и сам всё увидишь. Если будут вопросы, то лучше спрашивай в той теме про разгон.

0

Люди, а чем отличается Directx 9.1 от 9.0c ?

0

Люди...срочно совет какое лучше охлаждение на Fx 5200 поставить?Акваблок не предлагать.

0

Aйдар
Хм, любое охлаждение будет стоить дороже, чем сама карта. Может лучше продать чуток добавить и взять к примеру радик 9600про?

0

DimanR
К сведению. Я беру охлаждение, которое будет стоять и на слудующей карте. Просто ждать ещё около 15 дней на этом грёбанном FX без разгона, поскольку при разгоне доходит до 100 градусов. Возьму залман 900 и поставлю на эфикс нормально?
Полюбэ скоро куплю 7900GS.

0

Young Stranger
DX 9.1 не существует. Старшая версия Dx 9 - 9.0 c. Изначально, планировали вводить поддержку шейдеров 3.0 в версии 9.1, но потом они появились в версии 9.0с.

0

Aйдар
Только узнай заранее, встанет ли залман на твой fx

0

Pendalf2005
Ну как там решилась проблема с 7600 GT AGP?
hazard1337
хм, поиграл ещё тут в F.E.A.R, HL2 и т.д, температура у меня выше 69 не поднималась, наверно это чото с самой игрой Titan Quest...Из-за чего это может быть? и можно ли это как-то исправить?
Это можно легко исправить. Для этого надо лишь не играть в Titan Quest :)
Midnight
У неё система охлаждения работает на выдув, надо удалять заглушку с соседненго ПСИ-слота. Чего я второпях не сделал. )) Температура была жуткая, карта ревела как самолёт...
Да, я знал про твой косяк (думаю ты знаешь - откуда). Но из-за уважения к тебе не стал здесь об этом писать (ведь ты сам об этом первоначально не написал). Скажу лишь, что тебе повезло. Ведь в гарантийке не заметили, что карточка "поджарена". А то ведь могли и отказаться менять. Типа сказали бы что ты её разгонял, вот она и сгорела от перегрева. Так что радуйся своей новой Х1900 GT. Благо по производительности она стои'т почти на уровне Х1800 ХТ (и явно пошустрее твоей прошлой 7800 GT).
Alexandr82
Кому нужна mATX плата (Asrock Conroe945g)?
Хм, наверное тебя смущает форм-фактор мат. платы? Честно признаться я раньше эти "обрезки" тоже всерьёз не воспринимал... пока не купил себе такой же обрезок (см. профиль). Смущало также то, что у материнки основное питание 20-ти контактное, но после разговора с умными людьми забил на всё это дело и прикупил к этой матери видеокарту Х1800 GTO2 (X1800 XT). До сих пор не замечено ни единого глюка. Тьфу, тьфу, тьфу.
Lloret
А какая на Хис система охлаждения?
На HIS IceQ3 стоит система охлаждения компании Arctic Cooling. Очень эффективная СО, надо признать.

0

ну у него 7600гс,но кажися так и не заработала,на оверах в форуме написал,а никто не ответли...ну да ладно...впринцепи комп у него работает,потом найдет выход думаю ;)

0

2 Pendalf2005
Спасибо.Это я знаю. Но разве никаких других проблем возникнуть не может? Значит когда выйдет видеокарта от Radeon с чипом R600 то я не меняя материнской платы смогу её (видюху) поставить?

0

Так что радуйся своей новой Х1900 GT. Благо по производительности она стои'т почти на уровне Х1800 ХТ.
Мне кажется, она лучше, чем X1800XT )
По крайней мере X1800XT набрала в 3D Mark 2005 8150 очков, а эта 8600.
И ты верно подметил - тест очень процессрозависимый. Моего процессора, с горем пополам разогнанного до 2.6 Ггц явно не хватает для полного раскрытия потенциала видеокарты. ФПС в некоторых местах стоит на месте...

0

Midnight
8150 попугаев - что-то маловато для Х1800 ХТ. Ты при этом проц разгонял? Моя GTO2 на частотах 625/1300 и то набирает 9000. Выложи результаты CPU тестов (сколько баллов проц набирает в CPU тестах).

0

Не. Это результат без разгона, т.е. на частоте 2.2 Ггц.
Тесты выложу завтра, сейчас спать ))

0

Подскажите пожалуйста я собираюсь купить x1900XTX, мне надо будет менять материнку на PCI-Express. Вопрос такой надо ли будет менять проц и оперативку? Или найдется такая материнка чтобы поставить старые детали? Вот и они: P4 3.0Ghz два ядра, 1024mb Kinghston PC3200.

0

Midnight у меня гарантия уже закончилась!

0

CPU Test 3D Mark 2005
Athlon 64 3700+ 3884 очков
Athlon 64 3700+@FX55 (2.6 Ghz) 4350 очков
---------
На 2.6 Ггц результат 3D Mark-a 9052. (видеокарта не разогнана).

0

CJRUS
Как это?????? P4 3.0GHZ 2 ядра. Это же пень 4, а не пень D ????????

0

Akon
Когда я проц покупал продавец трындел что это двухядерный, да и в свойствах компа у меня проц на две части разделяется, в диспетчере задач тоже самое, причем у каждого ядра своя нагрузка.

0

HT разделяет одно ядро на два виртуальных, но физически ядро одно. Продавец и не такое наплетет, лишь бы продать.

0

Alexandr82
Продавец и не такое наплетет, лишь бы продать.
Святая истина!

Midnight
Athlon 64 3700+@FX55 (2.6 Ghz) 4350 очков
Ты хочешь сказать, что 3700+ можно вот так вот в домашних условиях разогнать до FX-55???
Блин, выложите мне подрбное описание серии FX- никак не пойму почему они стоят так дорого, а получаются путем простого разгона?:)))

Shader 3.0
А в 6-Марке сколько попугаев (и проц скажи свой)

0

Midnight
CPU Test 3D Mark 2005
Athlon 64 3700+ 3884 очков
Athlon 64 3700+@FX55 (2.6 Ghz) 4350 очков

Не. У тебя точно что-то не то с процем. Попробуй скачать SiSoft Sandr'у и протестить свой проц на дефолте. Он должен быть где-то на уровне FX-53. Просто у меня при разгоне проца до уровня 3700+ (FX-53) результат находится в районе 4400 очков. Ты в биосе смотрел? Мож там чего не так установлено? У меня например для оперативки DDR400 материнка по дефолту выставляет делитель DDR333. А вообще у тебя какая материнка?
Чей-то Бот
Серия FX является топовой, потому эти процы и стоят так дорого. А разогнать 3700+ до уровня FX-55 не составит труда.
А в 6-Марке сколько попугаев (и проц скажи свой)
6-ой Марк не люблю из-за его дефолтного разрешения 1280х1024, что на моём мониторе соответствует частоте обновления экрана = 60 Гц. :( А вообще при максимальном разгоне видяхи (700/1380) и проца (Athlon 64 3000+, 2.0 GHz @ 2.47 GHz) получал где-то 4400 попугаев образца 2006-го года (3DMark06 CPU Score = 941).

0

Материнка средней паршивости - MSI K8N Neo4 Platinum.
В Сандре производительность в мультимедийном тесте ровно на уровне FX51. (это без разгона).

0

Материнка средней паршивости - MSI K8N Neo4 Platinum
Жестоко

0

Шейдер 3
Очень много что-то у тебя в 6 Марке очков...
У знакомого комп на Х2 3800+ и Х1800ХТ 512МВ выдал всего 4012 очков.

0

Гы, а у нас в прайсах (www.ret.ru) - появилась Gigabyte GV-3D1-7950-RH, она же FX7950GX2 - по цене 685 уе... А зато обычный 7900 GTX все от того же Gigabyte стоит 690 уе =))))) бугага... лол.

0

Midnight, у тебя что-то не то с процем. Атлон 3700+ по производительности примерно равен FX-53, но не как не FX-51. Быть такого не должно! Надо искать в чём косяк. Открой CPU-Z и посмотри характеристики своего проца (ядро, тактовая частота, кэш). Потом сравни их с характеристиками на сайте AMD (или ещё где найдёшь в интернете).
Чей-то Бот, да нет, не много. Во-первых, 6-ой марк не такой процессорозависимый как 5-ый. Поэтому проц тут не оказал почти никакого влияния. Во-вторых, моя карточка на частотах 700/1380 быстрее чем 512МВ Х1800 ХТ, т. к. у неё частоты 625/1500. Частота памяти у меня пониже, но это легко компенсируют низкие тайминги видеопамяти. Просто вчера одному камраду с overclockers.ru всё-таки удалось прошить GTO2 биосом от Х1800 ХТ (оказывается нужно было шить бивис от HIS, а не от Sapphire). Разгон по памяти увеличился, а производительность немного упала. Всему виною высокие тайминги памяти ХТ. Ну и сам понимаешь, если полноценный чип R520 работает на частоте 700 МГц, то это уже соответствует частоте Х1800 ХТ Platinum Edition. Так что вполне обычный результат на дефолтных настройках 6-го марка.
G-man, да российский рынок далёк от идеала. Я зимой всё удивлялся глядя на цену в НИКСе на 512МВ 6800 Ultra от Leadtek. За такие деньги тогда уже можно было купить 7800 GTX 512MB (7800 Ultra).

0

Привет всем! В этой ветке я впервые, но осилил до конца :)
Не согласен с тем, что 3DMark2006 от процессора мало зависит.
У меня конфигурация компа такая:
Р4 3.0 Ghz Socet478
MB ASUS P4P800-X
RAM DDR400 Corsair CL2.5 2x512Mb
HDD Samsung 160 Gb SATA
Video E-vga 7800GS 256Mb (430/1300) AGP 8X

Так вот. В 3DMark2006 по дефолту 3070 попугаев
разогнав видяху до 500/1500 получил 3190 попугаев, т.е прирост несоразмерен разгону
Разогнал проц на 10%, т.е до 3.3Ghz (в биосе частоты AGP/PCI оставил 66/33)
С разогнанной видяхой и процом получил 3917 попугаев, что говорит о том, что скорость проца
для данного теста значение имеет и не малое :)
Если я не прав - поправьте

0

Чей-то Бот
У знакомого комп на Х2 3800+ и Х1800ХТ 512МВ выдал всего 4012 очков.
Сейчас ещё раз прогнал 3ДМарк06 на частотах 625/1300 с процем разогнанным до уровня 3700+ (FX-53). Слегка посмеялся над полученным результатом - 4016 йагупопов, т. е. всего на 4 йагупопа больше чем у твоего знакомого. Значит всё-таки Х1800 GTO2 на частотах 625/1300 равна 512МВ Х1800 ХТ на частотах 625/1500. Видно я оказался прав (насчёт того что низкие тайминги GTO2 компенсируют повышенную частоту памяти ХТ). Спасибо за цифры. Пойду раскажу камрадам на оверах.
MaGrig
Фигасе. Тебе обязательно надо гнать проц, если такая процессорозависимость. Если не влом - потесть в 5-ом марке таким же способом. Будет очень интересно взглянуть на твои цыфорки.
P. S. А 3917 попугаев что-то многовато. У тебя простая 7800 GS (16 tmu) или 7800 GS+ (20 tmu)? И ты тестил с дефолтным разрешением (1280х1024)?

0

Вы мне все таки ответьте, когда выйдет видеокарта от Radeon с чипом R600 то я не меняя материнской платы смогу её (видюху) поставить?и хватит ли мне 400 W?

0

DeeFo
Если у тебя материнка с PCI-Ex16, то конечно же сможешь. Кстати, а что у тебя за материнка (если ты так сомневаешься по поводу совместимости с R600)?
А вот БП на 400 Вт не хватит по-любому. Я бы посоветовал брать не менее 600 Вт.

0

Народец ура я себе взял Physx Agea ускоритель они уже стали продоваться в москве , просто класс физика в играх смотрется в 100 разков круче )

0

2 Shader 3.0
Материнская плата S-775 Intel D945PSNLK.
А Корпус V-Tech Gaming 823CK Silver .
Простите за возможно глупый вопрос, чтобы увеличить Вт нужно купить новый корпус или просто блок питания ( я просто не знаю продаются ли они отдельно(блоки питания))

0

неа,тока БП новыенький,но я бы насчет этого вопроса особо не заворачивался,там уже будут идти отдельные БП под видюху,так что если нет желания брать БП на 600ватт,тогда мона и не барть ;)

0

Так значит мне вполне хватит моих 420 W? Я так понял что у этой видеокарты будет "свой" БП?
Но вы мне на всякий случай скажите, сколько будет стоить Блок питания на (где-то) 650 Ватт или больше ( если таковые имеются)

0

Shader 3.0
Отвечу по-порядку :)
1. Обязательно постараюсь протестить в 3DMark2005 со всеми теми же настройками,
правда скоро не обещаю, потому как работы не в проворот. Даже на UT2004 времени нет :(
Все приведённые мною цифры получены около месяца назад, когда видяха появилась,
сейчас даже 3DMarka2006 на компе нет.

2. 7800GS у меня простая с формулой 16/6. Разблокировать не получается :)
Единственное, что производитель самостоятельно её разогнал до 430 Mhz по GPU.
При этом она совершенно спокойно гонится свыше 500 Mhz.

3. Тесты проводил с дефолтными установками в драйверах и 3DMarke2006

Обязательно всё повторю, сделаю скриншоты и т.д. как только разгребусь на работе.

0

Cheburashka
Народец ура я себе взял Physx Agea ускоритель они уже стали продоваться в москве , просто класс физика в играх смотрется в 100 разков круче )
Поздравляю! Надеюсь ты имел ввиду игры, поддерживающие AGEIA PhysX? Просто в других играх этот ускоритель ничего не даёт. Но зато нибось теперь от GhostRecon - Advanced Warfighter торчишь по полной программе. :) Кстати а какие сейчас игры ещё поддерживают технологию AGEIA PhysX?
DeeFo
Если R600 и G80 будут поставляться с отдельным БП, то тебе безусловно хватит и 400 Вт. А вообще БП на 650 и более Ват сейчас стоят от 4000 р. Насчёт твоей материнки. Не уверен, но помоему она не поддерживает Core 2 Duo (Conroe). Следовательно, монстра R600 будет тянуть далеко не самый подходящий для этого процессор. Для такой мощной видюхи желательно брать что-то не менее Athlon 64 Х2 4200+ или Core 2 Duo E6400 (2.13 ГГц) и гнать, и гнать, и гнать... Иначе видяха будет работать в полсилы.
MaGrig
Пожалуй я сейчас тоже проведу тесты в 6-ом Марке на своей Х1800 GTO2 (по твоему образцу) и посмотрю как обстоят дела у меня с процессорозависимостью. Резалты выложу.

0

Кстати а какие сейчас игры ещё поддерживают технологию AGEIA PhysX?
http://www.ageia.com/physx/titles.html

0

MaGrig
Не, камрад. Ты явно что-то напутал, когда прогонял тесты в 6-ом Марке. 3DMark06, как я уже писал - непроцессорозависим. Об этом свидетельствуют результаты, которые я только что получил. Итак, тестирование проводил по твоей методике. Проц на дефолте работает на частоте 2 ГГц, видюха (X1800 GTO2) - на частотах 500/1000. Проц разгонял до 2.2 ГГц (т. е. на 10%, как и ты). А вот и сами резалты:

3DMark06 Athlon 64 3000+ (2 ГГц) 500/1000
3182

3DMark06 Athlon 64 3000+ (2ГГц) 700/1360
3978

3DMark06 Athlon 64 3300+ (2,2 ГГц) 700/1360
4120

Как видишь от процессора мало что зависит. Но ты всё-таки проведи тесты в 5-ом Марке. Вдруг опять получишь интересные цифры. Тогда надо будет искать где у тебя затаился косяк.
P. S. Если вдруг мне не доверяешь, то полученные мною резалты могу подкрепить скринами (просто сразу не охото было их заливать).

0

2 Shader 3.0
Спасибо большое за ответы.
Я наверное сначала возьму видюху, а уже потом как нибудь возьму новую материнку и процессор, а то денег на всё это сразу не хватит.

0

Привет, народ. Хочу, заменить видеокарту остановился на GeForce 7900GTX 512Mb.… Но потом услышал о новой версии DirectX 10 и задумался. Будет ли эта видеокарта работать с ним. Или стоит немного подождать и взять 8 линейку видеокарт…

0

Подскажите, а уже вышла 7600GT под АГП?
и может кто подскажет где ее подсуетить в Киеве.

0

KONA_LSD
7900 GTX естественно не будет поддерживать на аппаратном уровне DirectX 10. Да и вообще не стоит брать что-либо из 7900. Серия уж больно глючная. К тому же отсутствие поддержки HDR+AA для такой мощной карточки - явный недостаток. А если уж и брать в будущем что-либо из нового поколения видеокарт, то я бы посоветовал Radeon (на чипе R600). Чип видяхи будет основан на более тонком техпроцессе 80 нм (у G80 - 90 нм). Поэтому и потребление энергии, и тепловыделение у Радеона будет меньше. К тому же R600 будет обладать унифицированной шейдерной архитектурой. Думаю эта архитектура позволит избавиться от таких проблем в играх, как проседание минимального fps. Почему fps в некоторые моменты игры может резко упасть? Например потому, что в какой то момент понадобилось обработать очень большое число пиксельных вычислений и чипу видеокарты попросту "не хватило" его максимальной скорости пиксельного заполнения (число пикс. конвейеров, умноженное на частоту их функционирования). А если все функциональные блоки GPU будут универсальными, и способными обрабатывать и текстуры и пиксельные, и вершинные вычисления, то нагрузка будет распределяться между ними равномерно. И уже не будет такой ситуации, когда, например, пикс. конвейеры загружены до предела, а вершинные процессоры попросту "простаивают", или наоборот. Единственное, что может подвести в такой архитектуре - это заметно бо'льшие размеры этих самых универсальных блоков GPU. Тогда придётся либо уменьшать их число (что приведёт к уменьшению вычислительной мощности GPU), либо увеличивать площадь чипа (что приведёт к увеличению тепловыделения). Но всё же думаю техпроцесс 80 нм сделает своё дело.

0

Я правильно понял? Radeon с его R600 будет лучше чем Nvidia с её/его G80?
И скажите, кто нибудь знает примерную цену этих видеокарт?

0

Shader 3.0 а я все вспоминал где же я тебя видал
и вот заскочил сюда, давно меня тут не было.

0

Shader 3.0
у тебя случайно мать не s754?
а то мне кажется у нас процы одинаковые

0

DeeFo
Я правильно понял? Radeon с его R600 будет лучше чем Nvidia с её/его G80?
Моё мнение - да. Хотя думаю, если R600 будет более удачным чипом, то и стоить будет подороже.
И скажите, кто нибудь знает примерную цену этих видеокарт?
Нет. Этого наверно не знают даже в высшем руководстве ATI и nVidia, потому что цена зависит также от конкурентноспособности соперников. Лично я думаю, что рекомендованная цена на эти карточки будет установлена в районе 500-600$. У нас же первое время они будут стоить около 20000 р., ИМХО.
Overclocker-7
Shader 3.0 а я все вспоминал где же я тебя видал
А я тебя на оверах сразу узнал. Ну так ты ходил в магазик? Спроси откуда они завозят товары (Ультра, НИКС, Санрайз)? А может ты сам из Москвы?
у тебя случайно мать не s754?
а то мне кажется у нас процы одинаковые

Да, именно socket 754 (подробнее смотри в профиле - я там всё подробно расписал). А вот насчёт твоего проца. Ты вроде говорил, что он при разгоне делает FX-55? Так что твоему процу лучшая пара будет хорошо разогнанная Х1800 GTO2. А обычная GTO будет для твоего проца слабовата.

0

Shader 3.0
ходил я в магаз и заказал......7600 GT от GigaByte
на 1800 гто2 цена была задрана до небес
как и 1800 гто. тут моих 6500р уже не хватало
и то я 7600 гт заказал за 5900р-что не есть гут(а этот магаз самый дешевый все таки 80 км от Москвы ИМХО!!!! а этот магаз получает железки из ультры)
буду гнать наверно 7600 GT невероятно
прошью дельту -100 и до 700 по гпу будет
у меня же залман фв700-alcu без дела лежит.
P.S. я из Подмосковья. Тяжело конечно.

0

мне желтую карточку дали на оверах :-)

0

Всем здорово!Я вопрос задать хотел.У меня комп AMD Athlon 2200+1.8"Thorton",512 mb ddr1,ATI Radeon x700 128 mb,мат.плата MB SoketA GIGABYTE GA-7N400E nForce2 400 (ATX,4ddr,SB,U133),БП 300 ват. В ближайшее время собираюсь делать неболь шой апгрейд на сумму около 4000 р.Неподскажите чё лучше сменить,и если менять видео то не упрётся ли это в проц. и БП,и почём можно продать мою видеокарту(она вообще какая по вашему мнению).

0

Твоя видеокарта по нашему мнению никакая. Тебе надо как минимум добавить оперативки и сменить видеокарту.

0

Если скажешь на какую ,буду очень благодарен.

0

BigLord
Думаю твою видюху возьмут за 1000-1500 р. На большее врядли нужно рассчитывать. Тогда у тебя получится около 5000 р. Обязательно докупаешь оперативы (около 1300 р. за 512МВ) и у тебя останется где-то 3700 р. На эти деньги можешь взять либо 6600 GT, либо Х1600 Pro. Хотя в проц всё начнёт упираться довольно сильно (неплохо бы его подразогнать хотя бы до 2500+).

0

Shader 3.0 :

Я шас в демку Join task force играю она тоже подерживает технологию физикс , тоже смотрится гараздо лутще появилось больще физики класс все так разлетается уххааа )

0

На сайте AGEIA написано что для этой игры нужен патч для поддержки физического ускорителя, и он значиться как "Coming Soon" т.е. скоро выйдет. Так что там не аппаратная физика.

Если хочешь аппаратной то играй в Bet on Soldier (патч надо ставить), Ghost Recon Advanced Warfighter, City of Villians (нужен патч) и можешь скачать CellFactor Beta (http://www.ageia.com/physx_in_action/cellfactor.html)

0

Не знаю я поставил акселиратор физикс и последние дровищки к нему и у меня в игре Join Tas force все видко как разлетается )

0

Народец у меня карточка осталась после радеончика , 6800GT 256MB PCI EXPRESS от производителя XFX , состояние отличное родные дровищки на всякие пожарнве прелагаются )

Продаю за 4000 деревяненьких :) Ну налетай каму видющку не втерпеж получить :)

Каму надо карточку можете свои мобильнички оставить я звякну )

0

можно ли разогнать GeForce 4 MX 440 на более нормальную?

0

Гони, не гони, а шейдеры она тебе всё равно не покажет. На свалке ей место )

0

Вот люди вопрос, я думаю купить новую видеокарту, накопил на неё, работал, и не хочется упасть лицом в грязь. На AGP, думаю взять карту, либо Saphire Radeon X800GTO 256 mb , или Palit GeForse 6800GS 256 Mb. Вроде первая дешевле на штуку, и хватает, а вторая вот не знаю... Говорят, что 6800GS лучше, и читал, и сам знаю, но стоит-ли переплачивать. Короче, посоветуйте, какую из этих взять, или подскажите что-нибудь подобное на ваш вкус, а то я такой привередливый, сам выбрать не могу.

0

Я бы взял 6800GS, а X800GTO хоть и быстрая карта, но устаревшая

0

Voodi Voodspeiker
Я бы порекомендовал 7600 GS AGP8x (видеокарта от MSI уже есть в продаже). Можно было бы и 6800 GS, но именно про версию от Palit читал много плохих отзывов (ужасное тепловыделение => проблемы с перенгревом и т. п.). В своё время сам хотел взять эту карточку, но Бог уберёг от такой покупки.

0

Hummer Usher
можно ли разогнать GeForce 4 MX 440 на более нормальную?
В цытатник!=)

0

Shader 3.0
7600 GS AGP8x и стоит поприличнее, а на что мне хватает, так это вот, на это. Пишешь, что перегревы? Блин, вот х.рня, я только обрадовался, что она немного в цене скинула... Есть другой вариант - Gainward BLIIS GeForse 6800GS, но я посмотрел на её параметры и спецификацию... мда.... Шина памяти - 128 бит, Частота памяти / время выборки - 500 МГц; =(
Ещё и стоит дороже.
Alexandr82
X800GTO не такая уж и устаревшая, да и не устаревшая вообще, типа аналога, как-бы её сравнивают часто с 6800GS, и Х800GТО проигрывает. Но при этом, у них почти одинаковая спецификация, заметь...
Для примера:
Sapphire ATI Radeon X800GTO
Чип: семейство ATI X800/X850
Объем памяти 256 Мб
Чипсет ATI Radeon X800GTO
Частота GPU 400 МГц
Частота памяти / время выборки 490 МГц (980 МГц DDR)
Тип памяти DDR3
Шина памяти 256 бит
Количество пиксельных конвейеров 12
Частота RAMDAC 2 x 400 МГц
Версия Direct X Microsoft DirectX 9.0
Шина AGP 8x/4х

Palit GeForce 6800GS
Чип: семейство nVidia GeForce 66xx/68xx
Объем памяти 256 Мб
Чипсет NVIDIA® GeForce 6800GS
Частота GPU 425 МГц
Частота памяти / время выборки 1000 MHz
Тип памяти DDR3
Шина памяти 256 бит
Частота RAMDAC 400 МГц
Версия Direct X Microsoft® DirectX® 9.0
Шина AGP 8X

0

Voodi Voodspeiker
Это очень общая спецификация. X800 GTO хоть и дружит с DX 9.0, но Pixel Shader 3.0 она не поддерживает - а сегодня это существенно.
Вообще понравилось, лол просто -
"Чип: семейство ATI X800/X850" - X800 GTO может быть на совершенно разных чипах, как на древнющем R423, так и на шустром R480 - и не всегда отличатся ценой... (бывает и такое).

Но вот в отношении 6800GS убило просто -
"Чип: семейство nVidia GeForce 66xx/68xx" - песдетц =)) Кто видел 6800 GS на чипе NV43 от 6600 GT признавайтесь? =)) Вообще то для 6800 GS всего два типа чипа -
Для AGP - это старый добрый NV40 - он же использовался для 6800 GT и Ultra - отсюда возможность разлочить четыре отключенных конвеера
Для PCI-E - якобы новорожденный NV42 - на самом деле все тот же NV40, с начисто вырванными 4-мя конверами (то есть возможности разлочки нет - ибо нечего лочить =))

Карты хоть и немного схожи, но X800 GTO проигрывает отсутсвием поддержки PS 3.0, более низкой пропускной способностью самого чипа, и возможностью нарваться на голимый чип R423 и получить геморрой (заметь что такую инфу узнать очень сложно - возможно это станет известно только после установки карты в систему)...
6800 GS под AGP радует возможностью превращения в GT или Ultra...

0

G-man
У Х800 GTO нет Shader 3.0??? Не понял, ты это чё-то написал...=) Ну ладно, насчёт чипсетов гнать GeForse, что 6600, что 6800 - это всё из серии GeForse 6. Семейство, заметь. Верно?

0

Voodi Voodspeiker
Да все Семейство Radeon X800/X850 не поддерживает Shader 3.0 - факт общеизвестный. Только 2.0b (что не есть одно и то же) Равно как и вообще вся серия X*** У ATI. Поддержка Shader 3.0 появилась только в сериях X1***. Так что учти. Это было главным слабым местом у ATI, за которую ее журили все - так как при равных возможностях карт - карты Nvidia выгодно отличались поддержкой PS 3.0 - которая была введена во всех картах начиная серии 6*** у Nvidia.

Заметь как написанно - не просто шестая серия. Есть чипы младшей серии -

66** - это NV44, NV44a, NV43v, NV43, - эти чипы НИКАКОГО отношения к семейству 6800 не имеют - они не используются там. Значит нужно было просто написать - "Чип - семейство 68xx" и не парится.
6800** серия - это NV40, NV41, NV42, NV45 - как видишь общих чипов в семйствах нет. Значит и права так писать в характеристках тоже нет.

0

Voodi Voodspeiker
7600 GS AGP8x и стоит поприличнее
Отнюдь. Открываю прайс Ультры. Смотрим:
256Mb 7600GS TV DVI [MSI NX7600GS-TD256 256bit] Retail отдают за 4300 р. (AGP-версия)
256Mb 6800GS TV DVI [Palit 256bit] Retail стоит 5500 р. (тоже AGP-версия)
Или ты не имеешь возможности заказать карточку из Ультры? Ты всё-таки уточни насчёт цен поконкретнее.
А теперь подробнее об этой 6800 GS от Palit. G-man тебе правильно написал - AGP-версия этой карточки основывается на чипе NV40 (как и AGP8x 6800 GT/Ultra). Но Palit был бы не Palit, если бы не выделился. А выделилась компания следующим образом: вместо чипа NV40 (техпроцесс 0.13 мкм, 350 МГц) они поставили на карточку чип NV41 (PCI-E аналог 0.13 мкм чипа NV40) и разогнали его до частот 0.11 мкм чипа NV42 (около 425 МГц, как у PCI-E 6800 GS). Подразумеваю, что столь успешного разгона инженерам Palit удалось добиться благодаря повышенному напряжению питания граф. чипа (но точно не знаю, эту информацию не проверял). В результате карточка стала выделяться "отменным" температурным режимом. Кроме того, вместо термопасты инженеры Palit решили использовать более дешёвое решение - "терможвачка неизвестного происхождения". :) После месяца эксплуатации карточки с таким "термоинтерфейсом", всё это дело быстренько высыхало и у некоторых обладателей карточки чип после нескольких минут игры начинал прогреваться до 80-100*. Дело было весной (именно тогда я задумывался над приобретением этой видяхи). Отсюда и знаю столько подробностей про это чудо. Правда я долго сомневался насчёт того, что там действительно стоит 0.13 мкм чип NV41 (эту версию чипа показывала Riva Tuner). Но Unwinder (автор этой самой Riva Tuner) заявил, что у видеокарт nVidia, ID строго прошит в чип (в отличие от видеокарт ATI) и поэтому, если Riva Tuner показывает наличие чипа NV41 (а не NV42, как должно быть), то значит так оно и есть. Ну, как понимаешь, спорить я с ним не стал.

0

G-man
Странно насчёт Х800GTO, я читал, видел у друга, что у этой карточки поддержка 3.0. Странно...
Семейство.... ты не понял меня,
Пример:
GeForse 66xx; 68xx - Семейство GeForse 6
GeForse 76xx; 78xx; 79xx - Семейство GeForse 7
GeForse Fx 5200; 5700; 5900 - Семейство GeForse 5
Я про чипы ничего не писал...=)
Кстати, подскажи, стоит-ли брать Рalit GeForce 6800GS?
Shader 3.0
Просто я смотрю по ценам Питерского Кей^я, у меняя ссылочка есть. Сейчас посмотрю 7600GS, я её не видел, но мне кажется что она дороже, могу ошибатся. Всё понял насчёт Palitа, ты классно всё объяснил, спасибо. А как 256Mb 7600GS TV DVI, расскажи о ней, она лучше? Просто сомнительно дёшево стоит.
(спустя некоторое время) Ещё, вот посмотрел я 7600GS, нет, чего-то не очень; к тому-же где я хотел, на AGP её небыло. Вот ещё Gainward BLISS GeForce 6800GS, отличается от Palita Шиной памятью (Palit - 256, Gainward - 128), и Частатой памяти (Palit - 1000Mhz Gainward - 500Mhz). Притом Gainward дороже немного, но лишь на немного.

0

Voodi Voodspeiker
7600 GS так дёшево стоит из-за шины памяти 128 бит. Характеристики у видюхи такие:
400/800, 12 пикс. конвейеров, 5 вершинных процессоров. Разгон без вольтмода должен дать частоты около 600/900. При этом карточка не имеет таких проблем с перегревом, как 6800 GS от Palit. Т. е. покупая 7600 GS ты получишь видеокарточку более сильную по чипу, но более слабую по памяти (т. к. у 6800 GS шина памяти разрядностью 256 бит). Следовательно в тяжёлых режимах 7600 GS будет послабже. Но решать тебе. Хотя тебе лучше всего либо перейти на PCI-E, либо поднакопить на 7800 GS (уж эта точно получше будет). Есть ещё вариант дождаться AGP 7600 GT (Leadtek WinFast A7600 GT TDH появилась в японских магазинах около месяца назад, думаю скоро будет и у нас). Ещё ATI обещала под AGP видеокарту на базе чипа RV560. Так что вариантов у тебя много. Хотя если денег немного, то лучше подожди AGP 7600 GT.
P. S. Вот тебе ещё ссылки на статьи про AGP 7600 GS и 7600 GT:
http://www.overclockers.ru/hardnews/22399.shtml
http://www.overclockers.ru/hardnews/22878.shtml

0

Voodi Voodspeiker
Ну уж нинаю че видел, звиняй =) Нет у серии X*** у ATI поддержки PS 3.0 и все.
Вот статья - если хошь гляди табличку - http://www.overclockers.ru/lab/20119.shtml или воть - FAQ по X800 - http://forums.overclockers.ru/viewtopic.php?t=107887 - читай особенности карты - поддержка только 2.0b.
Я Palit не доверяю в принципе, поэтому не стоит =) Gainward тоже не вариант - обрезок.

0

Значит так, видео -1800 ГТО от какой фирмы лучше брать, критерии выбора я выбрал следущие:
1- цена
2- охлаждение
3- разгонный потенциал
4- производительность( естественно ...)

Заранее Вам спасибо ...

0

Guide
О! Вопросик прям для меня. Я в этих X1800 GTO весьма неплохо разбираюсь (как говорится сам себя не похвалишь...). Значит так, отвечаю по порядку:
1. Самая дешёвая X1800 GTO на данноый момент от GeCube (в Питере один чел умудрился откопать карту за 5500 р.). Но карточку этой фирмы очень сложно найти в продаже.
2. Все Х1800 GTO представляют собой полный референс от ATI (наклейки только свои лепят), а значит имеют референсный кулер, заисключением двух вариантов:
а) X1800 GTO от компании HIS с пометкой IceQ3 идут с фирменным (ОЧЕНЬ эффективным и тихим) охлаждением компании Arctic Cooling (может слышал про их видеокулеры Accelero Х/X2 - главный соперник Zalman VF-700/900).
б) Х1800 GTO2, которая сейчас выпускается только компанией Sapphire. Имеет двухслотовую (тоже кстати довольно эффективную) систему охлаждения - точную копию как на Х1800 ХТ (почему - объясню ниже).
3. Разгонный потенциал лучше всего у карт Sapphire, HIS IceQ3, GeCube. Как показывает статистика, карточки от PowerColor показывают непонятно низкий (на фоне остальных) потенциал разгона.
4. Производительность всех "обычных" Х1800 GTO, как ни странно, одинакова. Однако и здесь не обошлось без исключений:
а) Ещё недавно в продаже встречались X1800 GTO от PowerColor, которые на самом деле являлись полноценными X1800 XL. Причём все 16 конвейеров были открыты уже сразу (напомню, что у обычной Х1800 GTO имеется 12 конвейеров). На X1800 XL в основном ставят плохоразгоняющийся чип 14-ой ревизии (отсюда и плохой разгон PowerColor). Но в последнее время карточки от PowerColor идут лишь с 12-ю конвами (т. е. обычные Х1800 GTO). Поэтому рассчитывать на 16 конвейеров при покупке такой видяхи уже не приходится.
б) 90% всех X1800 GTO HIS IceQ3 идут также с 16-ю конвейерами (об этом официально заявляли сами представители компании). Только для разблокировки этих карт (изначально открыто лишь 12 конвов) требуется перепрошить карточку биосом от Х1800 XL. С 16-ю конвами и отменным охлаждением карточка вполне свободно гонится до уровня Х1800 ХТ (есть даже предположение, что HIS для этих видях использует именно 256МВ Х1800 ХТ). В пользу этого говорит также наличие 6-ти силовых элементов питания на PCB платы рядом с длиненьким красным радиатором на мосфетах (у всех Х1800 GTO/XL таких элементов - 5).
в) Все Х1800 GTO2 имеют изначально 16 конвейеров. На самом деле карточка представляет собой 512МВ Х1800 ХТ с пониженными частотами и напряжениями. Так что ХТ-шный кулер здесь установлен не случайно (да и силовых элементов питания тоже 6). До частот Х1800 ХТ (625/1500) по памяти карточка к сожалению не гонится (причина - слишком низкие тайминги видеопамяти, прошитые в биосе видеокарты). Разгон по чипу не уступает разгону на Х1800 ХТ. Но замечено, что X1800 GTO2 на частотах 625/1300 ничуть не уступает 512МВ Х1800 ХТ на её 625/1500. Причина - всё те же тайминги видеопамяти, которые у GTO2 занижены и с лихвой компенсируют разницу в 200 МГц.
P. S. Надеюсь в полной мере ответил на твои вопросы. Завтра уезжаю (на несколько дней), так что пытался раскрыть вопрос более подробно. :)

0

Подскажите, у меня стоит Gigabyte 6600GT 128mb, cтоит ли мне ее менять на 7600GS? И еще, почему в GTA SA какие бы настройки я не выставлял, будь то 1280х1024, х3 Antialiasing, Very high details или 640x480, без Antialisinga, Low details, у меня FPS скачет в диапазоне 20-50, маловато :(
Конфиг: P4 - 2,4Ghz, 2x256mb DDR400 PC3200

0

Естесственно стоит, ведь это не только новое поколение, да еще и намного производительнее твоей нынешней 6600 ...

П.С. Shader 3.0, большое тебе спасибо за ответы.

0

Я смотрел тест на Overclockers http://overclockers.ru/lab/22207.shtml, так прирост производительности в играх 2-5 FPS
И все-таки почему у меня такая фигня с GTA? Похоже не из-за видео... а оперативы вроде хватает...

Да, забыл сказать, у меня AGP
И может мне покопить на АTI X800GTO?

0

У меня такие же проблемы были, проосто игра плохо опртирована с ПС2, но потом я понял- ставь ЛЮБОЕ разрешение, например, как у нас с тобой, 1280 х 1024, НО с 16- битным цветом... Качество практически не ухудшается, а ФПС достигает и сотни, бывало ...

ИМХО.

0

Drinkins88
>И может мне покопить на АTI X800GTO?

Не стоит - 7600GS лучше.

GTA-SA вообще какая-то глючная получилась, я даже не захотел в нее играть

0

Да, однажды тихим вечером эта игруха просто взяла и отказалась показывать на моем компе более 15fps, честное слово, я ее не удалил только потому что это все-таки Grand Theft Auto. А так, вообще порт конечно ОЧЕНЬ кривой, я так и не понял что я изменил в компе, что она так глючить стала, но теперь я в нее просто не играю. Вроде тогда дрова на видюху поставил или просто ОС переставил - но факт, что в один момент SA начинает жутко тормозить...

Кстати, раз уж заговорили про консоли, не хочется идти на Консольный форум, спрошу здесь, уверен, что знающие люди найдутся.
Короче, вот когда говорят о приставках, то часто упоминают ее битность (сейчас уже не помню сколько мне там говорили битов в PS - то ли 16 то ли 32), нр я так и не понял что же это означает? Причем говорили, что вот на PS 16бит (кажется), а на компе аж 128 бит. Я думал, думал и так ничего и не надумал.
Нет, ну смешнее некуда - вообще так нормально разбираюсь в железе, но до этого сам не допер=)))
Единственное совпадение - может это шина памяти - в компе в то время были только 128 бит, а в приставках поменьше. Но вот вряд ли десятилетние друзья тогда вообще знали, что такое шина памяти=)))
Но это не битность чипа (32 или 64 сейчас на процах) и не цветность экрана (16 или 32 бита для мониторов) уж никак не память, буфер или кэш (насколько я знаю минимум - несколько килобайт). Так что же это вообще может быть???

0

Ладно, сдам свою 6600GT по moneyback и посмотрю, как будет с финансами
У меня у друга 6800GS от MSI, так у него GTA не тормозит, минимум 30 ФПС, но меня настораживает не то, что моя карта слабее, это естественно, а то, что даже меняя настройки графики от минимальных до максимальных, фпс такой же (20-50), так не должно быть! Значит проблема не в видяхе, потому что например BattleField 2 на макс настройках, прописывает 40 фпс, но стоит только повернуться, начинает переписывать с 0, но это можно списать на оперативу, потому что, он жрет ее всю, и наверное хочет еще, а GTA оставляет метров 100-150...

0

Это ты как смотришь?
По Диспетчеру Задач?
Там показывается объем ВСЕЙ памяти, включая виртуальную память, так что надо пользоваться специальными прогами.

0

Подскажи например
Просто когда я из GTA делаю ALT+TAB, у меня 100-150 мб оперативы остается (прога RAM_2K из Customizer'a XP) из BF2 ALT+TAB лучше не нажимать...

0

Подскажите какого производителя лучше взять 7600GT, что бы можно было потом и разогнать, тоесть норм охлаждение GIGABYTE ???

0

Незнаю, мне почему- то пригляделась от MSI, тем более у нее память GDDR3, вот ее и советую ...
ИМХО.

0

Смотря какой, MSI, я в етом не шарю просто знаю что вышла 1-ая в ней был простенький кулер тоесть разгон не возможен а вот 2-ая вышла с кулер+радиатор и уже можно разогнать. Так а на GIGABYTE вроде вообщу СУПЕР охлаждение..

0

Короче хрен с ним, у програмиста знакомого спрошу, он точно подскажет, что взять.
XFX GeForse 6800GS, воть ещё нашёл, правда стоит на порядок дороже, почти восемь косарей, но придратся не к чему.

0

6800GS даже щас мочит нехило ;) посмотри тестик http://overclockers.ru/lab/22207.shtml

0

Народец у меня карточка осталась после радеончика , 6800GT 256MB PCI EXPRESS от производителя XFX , состояние отличное родные дровищки на всякие пожарнве прелагаются )

Продаю за 4000 деревяненьких :) Ну налетай каму видющку не втерпеж получить :)

Каму надо карточку можете свои мобильнички оставить я звякну )

0

Cheburashka
Продавать всегда лучше на overclockers.ru в разделе Продажа

0

Guide
Если брать 7600 GT то лучше взять Palit GeForce 7600 GT Sonic, там память стоит samsung 1.2 ns!
и частоты поэтому подняты, я щас такую поеду заказывать, правда за нее хотят 6000р
это ведь подмосковье, тут кто как хочет цены ставит.
предятавьте себе 1800 GTO2 стоит 8700р !
вот так вот.

0

Ну незнаю про подмосковье, но у нас 7600 ГТ от АСУС ии МСИ стоит в диапозоне 5600 рублей, да и при том от АСУС- а пассивная система охлаждения ...

0

Проблема решена!( Я писал вырубании монитора в играх ) Теперь У меня комп ВАЩЕ не работает!!! На рабочем столе меня выкинуло как в игре и п***3деts. Нажимаешь на ПОВЕР и ничего. Кагда вырубаешь доп. питание для видюхи (6600 gt) комп пытается загрузиться, но у него не получается. HHHHHHHHHHHHHHHEEEEEEEEEEEEEEEEEEEEELLLLLLLLLLLLLLLPPPPPPPPPPPPP!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!

0

у меня innovision 6600. В свойствах экрана определяется как Nvidia GeForce 6600. Но любые дрова ее видят как GeForce Go 6600GT PCIEx16. Но у меня AGP. частоты 300/500. Да, еще видяха определяется как в PCI'ном слоте, хотя стоит в AGP и дложна быть 8Х. Мамка Asus P4P800-X(865PE). Жду мнений....

0

Итак, я вернулся, заказал Palit GeForce 7600 GT Sonic завтра его надо уже забирать, постараюсь в тот-же день отписаться.
И рассказать, что это за чудо юдо.

0

Когда 7600GT на AGP выпустят??? У меня терпение не железное!!!

0

Действительно, не вижу смысла поддерживать увядающий класс... Хотя это же бизнес... Но я бы все- таки купил маму на ПСИ- Е и соотв. видеокарту ...

0

sewer ты должен зайти в БИОС ,и посмотреть,какой слот у тебя определяет мать,возможно там и написанно ПСАЙ,так что смени н аАГП и всё

0

Drinkins88
А это называется процессорозависимость мой друг....проц слишком слаб вот и видяха не на полную работает,он её словно сдерживает ,смени проц на Атлошку там 3800 Х2 ,или если уж финансы подживают,то 3700+...они щас очень дешевые,думаю сам это знаешь ;)

0

Help, у меня проблема с Palit GF7600GT Sonic ! В некоторых играх происходит зависание: останавливается изображение и звук заглючивает, через 5 сек. выводится сообщение, что-то вроде "видео драйвер пошёл на замкнутый цикл, перезапустите систему". Испробовал много разных драйверов, везде одинаково. Ошибка постоянно происходила в играх: King Kong и The Da Vinci Code, ещё незначительно в играх вышедших ранее 2006 года, в новых играх не встречалась!

0

Возможно из- за того, что видюха новая, игры не все на нее оптимизированный( ИМХО), я бы теьбе посоветорва во- первых поставить самые свежие драйвера, причем не только на видеокарту, ну а если не пойдет- можно попробовать форточку переставить ...

0

Не хочу на PCI-Е, существеных причин, кроме видяхи не нахожу. Мне и с AGP хорошо.

0

Guide
Игры оптимизируются не под видеокарты, а под DirectX и OpenGL. Чтоб оптимизировать игру на все сущ. сегодня видюхи понадобится оч. много времени. А вот сами видюхи уже вдровах оптимизируются под DirectX и OpenGL и соответственно под игры на них. В свойствах новых дров производитель обычно пишет, что в данной версии драйвероа удалось добиться увеличения производительности в такой-то игре на столько-то процентов, в такой-то на столько-то и все

0

Я купил видуху два месяца назад в маг Турист за 4600р - видуха XFX GF6600GT 128 mb .Чето смотрел во всех прайсах, и там везде 3600 р. Даже не знаю че делать. Подскажите.

0

Punisher001
Чел, тебя надули. =)
Пишу от имени своего друга. Лично он советует, если гарантийный срок не вышел, то у тебя есть шанс отдать ее обратно в магазин по гарантии и купить другую. Деньги тебе должны вернуть по закону. Возможно, что они предложат тебе ее обменять на другую, конечно же с доплатой. И в этот раз, если все получится, купи что-нибудь по круче и по современней. Ну если конечно все выдет так, какя сказал, то будет тебе полный респект и уважуха окружающих.

0

4600 за 6600GT????????!!!!!!!!
Ё-моЁЁЁЁЁ!!!
Люди, куда катится мир? Даже у меня в городе такой хлам за 3000 продают.... вооо блиин=)

0

Что- то слишком загнули... Лучше за приблизительно такие же деньги купить 7600 ГС, а если подкопить еще 10000 , тогда взять 7600 ГТ ...
ИМХО.

0

А че мне в магазине сказать ? Шоб не послали, а то я на радостях купил.
оХо если добавить 10000 то можно GF7950GX2

0

За 4500 тысячи моно купить 7600gs соник от палит с DDR3 - её чуть подразогнать и будет как 7600GT.

0

Я поговорил со знакомым програмистом, честно, после разговора с ним, куплю карту от Палита, только если это будет последний производитель на свете.
Punisher001
Но я понял, почему у тебя сняли за неё такие бабки. XFX деньги дерёт немеренно, 4600 - это ещё хорошо, в Питерском Кее она стоит вроде около пяти, или дороже... Что сказать? Интересный вопрос... Спокуха, придумаю, напишу; заодно у приятеля этого спрошу, ОН такую идею предложил.

0

Что быстрее Palit 7600 GT Sonic или GeCube x800 Pro?

0

Overclocker-7
Да, 7600GT, конечно. Она быстрее всех радеоновских видеокарт 800-ой серии. И по-моему даже производитель не влияет на это.

0

даже производитель не влияет на это.
Потому что Палит умудрился сделать нормальную карту! В кои-то веки!

0

Да, у меня ведь совсем не референс от nVidia. Palit тут очень хорошо съиграла на рынке запихнув в топовою версию (7600 GT Sonic) память 1.2 нс. Причем цена не на много выше референса. На ней система охлаждения тихая(для меня), по крайней мере не визжит, слышно тока как воздух в системе прогоняется на 100% оборотах.

0

Вопрос.
А при двух видюшках на R600 (будущая видюшка от ати), в режиме CrossFire, на материнках, основанных на чипсете ATI CrossFire Xpress 3200, нужна будет МАСТЕР КАРТА? А то я слыхал, что в новых материнках на новом чипсете от АТИ (RS600 или что-то типа того) она не нужна будет. А на старом (ATI CrossFire Xpress 3200) как? И будет ли вообще Мастер версия видюшки R600?

В общем, на новый год я не знаю что брать:
1.Материнку (на ATI CrossFire Xpress 3200 чтобы не менять проц, а разогнать его), память (оверклокерскую) и две R600, т.е. сэкономить.
Или
2.Все, т.е. дорогую материнку, дорогой проц, дорогую память, кулер и дорогие видюшки... :-(

0

У меня прогрев ядра достигает в режиме простоя-41 гр, а в нагрузке 55-60 гр в разгоне с 574\1500 до 681\1612
при этом термоинтерфейс заменен на АлСил-3, радиаторы на чипах памяти
и значение дельты составляет минус 95.
Температура норм?
Видюха-Palit GeForce 7600 GT Sonic

0

Я уже не первый раз задаю этот вопрос (или первый, не помню)но для пущей уверенности хотелось бы услышать ответ ещё раз.
С могу ли я поставить видеокарту от RADEON на чипе R600 на такой системный блок?
Корпус V-Tech Gaming 823CK Silver [420 W], МПлата S-775 Intel D945PSNLK, Процессор Intel Pentium 4 Prescott 630 3.0 GHz [OEM],Видеоадаптер 128Mb ASUS 6600GT TD RTL, 2 Модуля DIMM 512 Mb Samsung
Заранее спасибо.

0

DeeFo
Мать с PCI-E? Если да, то без проблем. Только блок питания придется сменить, хотя говорят они с картами в комплекте будут идти

0

Тут другая проблема. Твой процессор не раскроет и половины (возможно слишком грубо сказал )) потенциала видеокарты на R600.

0

нет, ну я понимаю, у меня не будет денег чтобы сразу купить и видюху и процессор,
сначала приобрету видеокарту, затем поднакопив деньжат, возьму и проц, а уж потом и оперативную память....а для нового процессора понадобится новая материнская плата?

0

Да понадобится, уже смысла нет брать не двухядерный проц, значит скорее всего конро придется брать, а под него другую мать надо, да и оперативу тоже.

0

Не поможите ли найти прошивку биоса на видуху XFX 6600GT.

0

хорошо... кто скажет как разогнать GA-K8NE ? если без разгона все работает хоть 24 часа,а с разгоном на 1 мегагерц ну или скока там... 11. вообще убивает все через 5-10 минут работы и ресетится...

0

Чей-то Бот
Ну просто железная логика! :)))

0

Стоит ли менять Ati Radeon X1600 на SAPPHIRE ATI RADEON X1600 Pro 512Mb AGP???
Ответьте как можно быстрее

0

to Lemon
н@х такую видюху, это тоже самое что менять г...о на г...о
Если с доплатой то не меняй. Толку не будет.

0

Если прошить видуху через биос будут ли артефакты в играх, а то я разгонял через драйвер Nvidia NGO, прибавляешь больше 500/1000 хоть чуть, в игре начинает моргать зеленым местами. Кстати видуха 6600GT от XFX 128mb

0

А есть хотя бы какая нибудь прибризительная инфа о дате выхода G80 или R600?

0

Если учесть, что оба графических решения будут поддерживать DirectX 10, который появится только в Windows Vista, назначить анонс этих видеочипов на первую половину 2007 года было бы разумно.

0

6600GT близок по цене с Ati 1600XT, как думаете на че стоит менять ?

0

Я бы поменял на 7600 GS, если есть еще деньги- то 7600 GT, а ллучше еще :) денег и 1800 GTO... ИМХО.

0

Платы на базе RD600 с тремя PCIe 16X, предназначенные для процессоров Intel, всё ещё находятся в стадии разработки, ATI переносит выход всего на несколько недель, но не отменяет его. ATI продолжает демонстрировать, что ее отношения с Intel не ухудшились. Платы RD600 должны быть быстрее самого лучшего чипсета Intel i975. Многие производители материнских плат ждут того момента, когда же они увидят результаты долгой работы над RD600. Но компании не любят рисковать, поэтому материнские платы на основе RD600 появятся только, когда будет полностью завершена разработка. Задержка может составить от месяца до шести недель.
Сказали что должна в октябре выйти.
Но меня насторожила вот эта строка .....материнские платы на основе RD600 появятся только, когда будет полностью завершена разработка. Задержка может составить от месяца до шести недель.
Это означает что под эту видеокарту надо будет специально(ую) материнскую плату покупать?

0

DeeFo
>Это означает что под эту видеокарту надо будет специально(ую) материнскую плату покупать?
Ты о чем вообще? Прочитай свой пост внимательно. RD600 это чипсет для материнских плат, а не видеокарта. Видеокарты имеют обозначение R600, а не RD600.

0

Народ, вот вопрос: Что лучше, Радеон Х800GTO(2), или GeForse 7600GS? Насколько я знаю, Radeonы эти лучше шиной памяти (256 у радеонов и 128 у джифорика) и типом памяти (DDR3 у этих радеонов, и DDR2 у джифорика). Зато, GeForse 7600GS берёт шейдером (3.0 против 2.0b у радеонов), что не маловажно конечно. И не знаю, что выбрать... Цена примерно одна и та-же.
Просто денег немного, мобилу стырили, а она мне всё-же нужна, много на покупку новой потратил (относительно, Sony Ericson k-310i) Нашёл в прайсе XFX GeForse 7600GS 512Mb. И думаю.... Минус у XFX - это неприличные цены за их карточки (5100 рубликов за 7600GS)

0

Лучче 7600ГС. Как раз из-за шейдеров во внешнем виде огромная разница. А по скорости, думаю примерно равны

0

По скорости... не знаю, с учётом что такой мощный упор на память делают Х800ГТО, что насчёт скорости, мне кажется Джифорик 7600ГС уступает, пусть не очень много. Просто видно по харакиермстикам. А шейдер, да, это конечно важно. Для Висты это ещё понадобится, да и для игр тоже. Что меня успокаивает в 7600ГС - шейдер, и довольно неплохой перевес в скорости над Радеоном Х1600про, это для меня тоже важно.

0
ЗАГРУЗИТЬ ВСЕ КОММЕНТАРИИ