Все о видеокартах v2.0 {closed}

Продолжим (а то трафик жалко =)
Предыдущая тема

Комментарии: 335
Тема закрыта. Публикация новых комментариев отключена.

Ну давайте продолжим, отдам право первого вопроса себе.

Скажем, какая есть альтернатива у ATi против GeForce 7600GT AGP? И что будет лучше по соотношению ценакачество?

0

Чей-то Бот
Насколько я помню ATI после X1600 pro от AGP отказалась совсем...

0

Как так отказалась??? я недавно у нас маге видел

0

видать последние партии распродают.
Надо будет обрадовать друга, он как раз хотел X1300Pro взять (кажется), теперь ему придется всеменять в своем компе (и память и HDD тоже, так как на AMD в силу своего ослиного упорства переходить не хочет), чтобы сделать нормальный апгрейд. А вообще он настолько тупой, что думает взять проц под Soc478 P4 3.0GHz и думает что тогда у него будет мощный комп!..

0

DarK TundeR
Если я сказал отказалась, это не значит что они вдруг все взяли и исчезли из всех магазинов и складов =) Я говорю о том что будующие чипы и нынешние чипсеты ATI под AGP выходить не будут -и максимум что можно купить на AGP у ATI - 1600 Pro.

Чей-то Бот
Да уж сочуствую твоему другу. Выложить за древний проц 200 уе, когда за те же бабки можно уже взять связки A64 3200+ и мать A8N-E - и которые в совокупности будут быстрее.. ))

0

У nVidia наверно скоро вообще не будет AGP карт т.к. компания IBM перестает выпускать HSI для nVidia

0

Ребят я одно не могу понять какая разница между дирикто 9с и 10

0

DirectX 10 ещё никто не видел. Поэтому, нечего гадать.

0

Хотел спросит на сколько лет хватит Radeon 1800xt 512 mb

0

Народ помогите !!!!
Стоит дома gf 6600 128mb одни говорят хорошая другие что не очень.
Заморочили блин .
Сейчас играю в OBLIVION (TES 4 :OBLIVION).
Есть смысл менять или нет. И если есть то на ЧТО????

0

2han1
В принципе, есть смысл махнуть. Вот только скока у тя денег на это?

0

Да видюха у тебя не крутая лучше продай её добавь денег и купи 7900 GT-GTX или лучше Radeon 1900 XTX 512 mb ну конечно же если финансы не поют романсы

0

2han1
Смотря какими средствами располагаешь...
И ещё... Конфигурацию напиши.

0

Ребят на сколько лет хватит такая конфа Proc 3.0 ghz Video Radeon 1800xt 512 mb operativki 1 gig
Ну оперативки я современем добавлять буду

0

Jiki nik
Хватит пока что-нибудь не сгорит.

0

Слушайте подскажите какую видео покупать, я соберался купить сдвоенную, но тут встает вопрос ати или н видео..

0

Все будет зависеть от материнки. SLI поддерживают только материнки на чипсетах nVidia. Crossfire на чипсетах Intel и ATI.

0

Jiki Nik
Че ты паришься? Людям голову морочишь, сначала сос воими G80 и DirectX10, теперь вот на сока те лет хватит. Откуда мы знаем? Это смотря как ты рассматривешь свой лимит "хватит".
Вообще X1800XT 512Mb реальная видюха, а гиг оперативки скоро будет маловато проц 3Ггц уже маловато.
Тем более он наверное не угонится за такой видюхой.

Насчет GF6600 128 метров. Тебе говорят что она хорошая те, кто купил однажды FX и до сих пор не знает, как далеко ушел прогресс. Если есть хотя тысяч пять бери новую видюху

0

Короч у меня Ge-Force 6200 FX, хотел бы узнать на что способна эта модель, но как!!! мож кто знает

0

а кто нибудь может сказать, сколько примерно будут стоить видеокарты поддерживающие DirectX 10?

0

Видюхи поддерживающие дирикт 10 будут стоить в размере 700-800 уе

0

Wint.S
GeForce 6200 - это тот же самый 6600LE. В каких-то там ревизиях чипа была возможность разблокировки конвейеров, чтобы получить полноценную 6600. Но в каких именно - не знаю, не увлекался. Ну и конечно, если шина памяти разрядностью 64 бит, то 6600 никак не получить. А вообще, если честно видяшка слабенькая.
Staff
Если выбирать между Crossfire и SLI, то я бы выбрал последний вариант. Сейчас в продаже есть недорогие (2000-2500 р.) материнки на чипсете nForce 4 SLI. Соответствующие решения для Crossfire на мой взгляд дороже, да и мороки с ними больше. В качестве SLI-видеокарт могу порекомендовать GeForce 7600GS DDR3 Sonic (около 4000 р. каждая). На двух таких разогнанных карточках некоторые без проблем набирают 10000 попок в 3DMark05. Да и вообще SLI сейчас показывает неплохие результаты.
DeeFo
Я думаю в сериях Radeon X2xxx и GeForce 8xxx будут и неочень дорогие видеокарты, имеющие аппаратную поддержку DirectX10 (например что-то типа Radeon X2600 Pro и какой-нибудь GeForce 8600 GS). Ну и цена где-то 250-300$.

0

У меня сейчас:
Корпус V-Tech Gaming 823CK Silver
МПлата S-775 Intel D945PSNLK
Процессор Intel Pentium 4 Prescott 630 3.0 GHz [OEM]
2 Модуля DIMM 512 Mb Samsung
Видеоадаптер 128Mb ASUS 6600GT TD RTL

Я тогда лучше подожду выхода видеокарт с поддержкой DirectX 10 и куплю, а пока копить буду.Да заодно и на оперативку может хватит.

0

Jiki Nik

У нас тут нормальный форум без обезянничества. Если ты хочешь че-то спросить - спрашивай, но не надо повторять вопрос по десять раз, от этого ответ не изменится. И не смей меня обзывать. Если я сказал, что ты уже порядком зафлудил форум своими догадками хватит ли тебе твоего абстрактног будущего компа на три года или нет, значит это так. Никто не знает в какую сторону потечет индустрия завтра и тем более послезавтра.
Sony вон тоже обещела революцию в плане производительности PS3, говоря что ее мощности хватит на десять лет. И что, по ее заявлениям видюха там стоит уровня GF 6800 Ultra SLI. Сейчас уже есть довольно доступные видеокарты которые сделают такой СЛИ. А она еще не вышла! Так что заканчивай тормозить, никто не знает ответа на твои вопросы

0

Shader 3.0
Джи Форсе 6600ЛЕ - не 6200, а слабее. Обрезанная по вершинным и пиксельным конвеерам. И большей тактовой частотой и частотой РамДак делу тут не поможешь. Почему её назвали 6600 - загадка. Видяшка эта примерно на уровене Радеон 9600.

0

Syzygy
Джи Форсе 6600ЛЕ - не 6200, а слабее. Обрезанная по вершинным и пиксельным конвеерам.

И 6600LE и 6200 обе обрезанные по вершинным процессорам и пиксельным конвейерам. Это разные названия почти одной и той же видеокарты (ну немного отличаются частотами и возможно разоядностью шины памяти). А при чём тут частота "РамДак" я совсем не понял. Она у обеих карточек 400 МГц. Если конечно имелось ввиду именно RAMDAC (Random Acces Memory Digital to Analog Converter, т. е. цифро-аналоговый преобразователь).

0

Вообще то извеняюсь,но как я помню 6200 основан на НВ 44,и позиционировался как продукт низжего класса...а 6600ЛЕ это НВ 43,тока с заблокированными конвеерами,так что считаю,что преспективным была юы покупка 6600 ле ,так как ее и погнать хорошенько можно,да и переделать тоже есть шанс ;)

0

Ребят помогите что лучше жифорс 7900 гт 256 мб или радик 1800 икст 512 мб да и сколько каждая видюха
потребляет энергии

0

Поледняя, по-моему, лучше... И энергии потребляет больше.
Вообще, вся линейка X1800-X1900 потребляет неоправданно много энергии...
ЗЫ
Стоит присмотреться к X1900XT. Стоит, конечно, подороже Х1800ХТ, но при этом имеет 48 блоков пиксельных конвееров... Сам хочу поменять свою 7800GT на X1900XT. А может, потрачу деньги на девушку...)))

0

Слушай а сколько ват потребляет Geforce 7900 gt 256 mb да и хотел спросит ну поточнее что точно лучше
радик или жираф

0

если есть деньги,то бери Радеон! там тебе и 512 мб для будущего,и так нормальная карта!!!

0

Всё равно компьютер собираешь новый... Поэтому бери б/п примерно на 500Вт. Не прогадаешь...
Вот я взял на 430 Вт и теперь жалею (

0

Ребят не могли бы вы подделтся опытом копления бабла как быстро деньги накопить мне ещё надо 18 косых рассчитаваю на один месяц всё накопить то есть до конца июля то есть я хочу узнать как вот быстро накопить а то если честно то нет во мне специальной как говорится жилки копить бабло

0

Иди пахать на стройку =)))) щас меж прочм эта работа именно на кароткое время и хорошо оплачивается,так что дерзай ;) а у родителей не интересно клянчить,лучше самому накопить,заработать и купить,ведь потом ощущение даже лучше,что вот именно ты это купил =)

0

слушай стройка это глупости так как у нас нет не какой стройки с банком тоже беда ладно у меня батя препринимател ну делает холодильники на дому он может принести справку о зароботке а ещё надо двоих с собой типов брать что в случае твоей смерти они отдавали бы быбки а где я таковых найду

0

Я читал што у 7950 будет не полная подержка 4 шейдеров как это панимать Неполная?

0

Неполная значит, что часть функций не будет функционировать.

0

а чё 7950 будет поддерживать дирикт икс 10 и шейдера 4 если да то сколько она стоить будет

0

А где читал о 7950? На официальном сайте никакого упоминания о поддержке шейдеров 4.0. Конечно там говорится о СайнФХ, но только в контесте.

0

Джик-Ник...да устройся куда угодно,главное чтоб деньги были,нето будешь искать искать,а потом вообще нефига не найдешь,лучше щас на какой нить работе работай,а походу ищи до июля,вдруг че нить другое найдешь,где платят лучше,вот и июль будешь работать на той работе + у тебя еще будут выручены деньги со своей старой работы...логично думаю...да и вообще блин...тут сист. требования обсуждаем а не работу =)

0

Вообщем вот ТТХ этой видюхи.

Суперскалярная архитектура графических процессоров нового поколения
Обеспечивает вдвое более высокую скорость работы шейдеров по сравнению с предыдущим поколением, поднимая игровую производительность на новые уровни.


Полная поддержка Microsoft® DirectX® 9.0 ShaderModel 3.0
Стандарт для современных ПК и приставок нового поколения поддерживает сложные эффекты кинематографического качества. Графические процессоры NVIDIA позволяют полностью реализовать возможности Shader Model 3.0, включая VTF, гарантируя полную совместимость и высокую производительность для всех приложений DirectX 9.


Технология NVIDIA® CineFX™ 4.0:
Передовые визуальные эффекты на высоких скоростях. Полноценная поддержка Microsoft® DirectX® 9.0 Shader Model 3.0 позволяет создавать невероятные и сложные спецэффекты. Кроме того, шейдерная архитектура нового поколения упрощает обработку текстур, обеспечивая быстрый и плавный игровой процесс.


Технология NVIDIA® SLI™1
NVIDIA SLI* - это революционная технология, позволяющая гибко масштабировать графическую производительность за счет установки нескольких графических решений NVIDIA в одной системе с NVIDIA nForce SLI MCP. Технология SLI просто необходима сегодня для производительной PCI Express® графики, так как она значительно повышает скорость в современных самых популярных играх.


*Поддержка SLI для GeForce 7950 GX2 бдет доступна в будущей версии драйвера NVIDIAForceWare. Подробнее смотрите на сайте ru.slizone.com.


Технология NVIDIA® Intellisample™ 4.0
Максимально быстрое сглаживание обеспечивает ультра реалистичные визуальные эффекты, отсутствие "лесенки" на границах объектов и высокие частоты кадров. Визуальное качество повышается еще больше благодаря алгоритму со смещенной решеткой, фильтру из 128 сэмплов, анизотропной фильтрации 16x и поддержке суперсэмплинга и мультисэмплинга с учетом прозрачности.


Поддержка HDR рендеринга
Передовые световые эффекты делают окружения более реалистичными. Основанная на технологии OpenEXR от Industrial Light & Magic (http://www.openexr.com/) поддержка 64-битных текстур позволяет реализовать современные визуальные эффекты в широком динамическом диапазоне с помощью операций с плавающей точкой при затенении, фильтрации, наложении и смешивании текстур.


HDCPReady
Воспроизведение HD DVD, Blu-ray Disc и другого защищенного контента в высоких разрешениях с поддержкой HDCP (защита цифрового HD контента).


Технология NVIDIA® PureVideo™2
Сочетание высокоточных видео процессоров и программного NVIDIA DVD декодера обеспечивает беспрецедентную четкость картинки, плавное видео, точные цвета и точное масштабирование изображения для всех типов видео контента, что позволяет построить на базе вашего ПК домашний кинотеатр высокого уровня.


Программируемый видео процессор2
Программируемая технология PureVideo обеспечивает поддержку новых видео форматов по мере их выхода.


Аппаратное ускорение декодирования2
Плавное воспроизведение H.264, WMV, and MPEG-2 высокого и стандартного разрешения при минимальной нагрузке на CPU.


Пространственно-временной деинтерлейсинг2
Более плавное воспроизведение видео и DVD на дисплеях с прогрессивной разверткой обеспечивает четкие и яркие изображения, не уступающие домашним кинотеатрам.


Высококачественное масштабирование
Позволяет масштабировать изображения низкого разрешения для вашего монитора, поддерживая четкость и яркость картинки, и снижать разрешение без появления мерцания и потери детализации.


Коррекция цвета видео2
Коррекция цветовых отличий RGB и ТВ мониторов с гарантией, что изображения не будут слишком темными или пересвеченными, независимо от формата видео и монитора.


Интегрированный TV выход:
Обеспечивает подключение к телевизорам высокой и стандартной четкости через Composite/S-Video/Component и DVI разъемы.


Технология NVIDIA® UltraShadow™ II
Повышает производительность в таких продвинутых играх, как DOOM 3 от id Software, которые содержат много сложных сцен с многочисленными источниками света и объектами.


128-битные вычислений студийного качества
128-битные вычисления студийного качества во всем конвейере устраняют дефекты изображения из-за низкой точности и гарантируют лучшее качество даже для самых требовательных приложений.


32-битная точность цвета
Повышенное качество изображения без ущерба производительности.


Унифицированная архитектура драйвера (UDA) NVIDIAForceWare:
Обеспечивает рекордную совместимость, надежность и стабильность для широчайшего круга игр и приложений. ForceWare обеспечивает лучшие возможности для всех пользователей и постоянную возможность обновления функций и повышения производительности в течение срока службы NVIDIA GeForce.


Оптимизация и поддержка OpenGL 2.0
Гарантирует наилучшую производительность и совместимость со всеми приложениями OpenGL.


Технология DigitalVibranceControl (DVC) 3.0
Позволяет пользователям регулировать цветопередачу для компенсации условий освещения рабочего места и особенностей монитора, позволяя отображать яркие и калиброванные цвета в любых условиях.


Сертификация PCIExpress
Совместимость с архитектурой PCI Express нового поколения. Новая шина удваивает полосу пропускания AGP 8x, обеспечивая скорость до 4GB/s в обоих направлениях.


Два 400 МГц RAMDAC конвертера
Высокопроизводительные RAMDAC-конвертеры с поддержкой двух мониторов QXGA на высочайших частотах кадров до 2048x1536@85Гц.


Два двухканальных DVI разъема
Позволяет подключать плоские дисплеи с самой большой диагональю и в высочайших разрешениях до 2560x1600.


90нм процесс производства
Повышает производительность за счет более высоких частот смены кадров.


Высокоскоростной интерфейс памяти GDDR3
Поддержка 1GB быстрой памяти GDDR3 гарантирует плавную смену кадров даже в самых передовых играх и приложениях.


Поддержка Microsoft® WindowsVista™
Архитектура третьего поколения графических процессоров NVIDIA создана для Windows Vista и обеспечит будущей ОС наилучшие возможности 3D графического пользовательского интерфейса.

0
Image Hosted by ImageShack.us
Image Hosted by ImageShack.us

2 Syzygy
Приколно, но забыли написать, что такая, я не побоюсь этого слова наимощнейшая видеокарта, (а в SLI это будет вообще гипермонстр) не способна поддерживать HDR+FSAA. Ну и ещё порадовала фраза о "продвинутых" играх как DOOM 3. Наверное это просто шутка от nVIDIA.

0

Помогите поустанавливал все версии драйверов для GeForce 6600 GT от ASUS: 77.76
77.77 84.12 84.21 91.31 серавно артефакты остаются (в Прица Персии 2
вообше играть невозможно) причем при новых драйверах когда пытаюсь записать
ченибудь на Тв Тюнере нажимаю запись и картинка станится такой темной шо почти ничего
не видно. Уж незнаю мож надо Windows переустановить , кстати материнка
(ASUS P4V800D-X) имеет AGP и PCI-Express слоты, но PCI-E x16 (x4 mode only)
мож в этом вся проблема ?

0

слушай а радеон 1800 икст 512 мб поддерживает виста да и вот я хочу взять в кредит видяху и проц как там всё оформлять не подскажеш

0

Про кредит - это тебе на другой форум...

0

На какой другой вы чтоли не можете посоветовать

0

Jiki nik
А кто тебе то кредит даст? =)) у тя че работа есть? И постоянный заработок не менее 3 тыс рублей? Это родители пусть заморачиваются - а они уже сами все оформят..

0

Jiki nik
А может ну её - эту Х1800ХТ? Может возьмёшь X1800GTO? Она от ХТ отстаёт процентов на 25, зато цена уже упала до смешной цифры - около 6000 р. А ХТ в полтора раза дороже. Да к тому же ещё и обладает бОльшим тепловыделением и имеет двухслотовую довольно шумную систему охлаждения. Может действительно не стоит брать столь сильную видеокарту на пороге выхода DirectX10? Я сам через месяц-другой собираюсь взять X1800GTO и если ты хочешь потратить деньги более рационально, то и тебе её советую.
P. S. Ещё GTO потребляет меньше энергии, т. е. БП нужен поскромней (но всё равно не менее 400 Вт).

0

слушай напиши характеристики 1800gto потом попрёт ли у меня виста смогу ли я играть в Crysis UT 2007 и.тд и насколько примерно лет хватит эта видюха

0

В Crysis и UT2007 ты и на GeForce 6200 сможешь поиграть. C 7 FPS...

0

Не мне на нормальных настройкаж и шоб не тормозило

0

народ, на 9600 есть поддержка HDR?

0

Нет,так как нету 3-их шейдеров....хотя поддержка может быть прогрманой,но это совсем нето,и процессора жрет много

0

to Jiki nik
ATI Radeon X1800 GTO
----------------------------
Наименование графического процессора R520
Техпроцесс, мкм 0.09
Площадь ядра, кв.мм 288
Число транзисторов, млн. 321
Частоты граф. проц./память 500/1000 МГц
Разрядность шины обмена с памятью 256 bit
Число пиксельных конвейеров, шт. 12
Число вершинных процессоров, шт. 8
Поддержка версий Pixel и Vertex Shaders 3
Пиковая потребляемая мощность в 3D режиме работы, W >75
Требования к мощности блока питания, W ~ 400 (500 для CrossFire)
Размеры видеокарты эталонного дизайна, мм. 205 x 100 x 16
А теперь главное. Разблокировка 4-ёх конвейеров (т. е. переделка в полноценную Х1800ХL) представляетя сейчас возможной только в видеокартах из арсенала Power Color (хотя и здесь 100%-ой гарантии конечно же нет). Все остальные фирмы давно уже производят X1800GTO на чипе имеющем физически 12 конвейеров и шанс, покупая X1800GTO, попасть на X1800XL с заблокированной четвёркой конвейеров практически равен нулю. :( Все платы выполнены по референсному дизайну, поэтому лучше брать ту, что дешевле (или Power Color, если найдёшь). Этой видеокарты тебе должно, я думаю, свободно хватить на год. А потом можешь прикупить что-то с поддержкой 10-ого директа. И виста, и Crysis, и UT2007 пойдут нормалёк (только без 4-ых шейдеров, хотя я не думаю что в этих играх будут хоть какие-то визуальные различия между 3-ми и 4-ми).

0

Пацаны я окладываю апгред на 3 месеца думаю может через три месяца появится родимый G80

0

во, я тоже( может и не G80, но с поддержкой Висты DirectX 10 и Шейдеров 4-х), а сколько она примерно будет стоить, такая видюха? я уже спрашивал, но ктото говорит 200-300$ ктото 700-800$!, хотелось бы знать более оределённую цену

0

Последнее время достали вопрсами о стоимости видеокарт на чипах R600 и G80.

0

Вам на ebay.com - обсуждайте там цены на то чего нет с такими же сочуствующими =))

Вот требования на Висту -

Windows Vista Capable PC - то есть минимальная конфа что бы установить Vista -

# Современный процессор с тактовой частотой не менее 800 МГц;
# 512 Мб оперативной памяти;
# Графический процессор с поддержкой DirectX 9.

Vista Premium Ready что бы со всеми наворотами -

# 32-битный или 64-битный процессор с частотой 1 ГГц;
# 1 Гб оперативной памяти;
# Графический процессор с поддержкой Windows Aero (DirectX 9 и Pixel Shader 2.0, не менее 32 бит на пиксель);
# 128 Мб графической памяти;
# Жёсткий диск объёмом не менее 40 Гб с 15 Гб свободного места;
# Оптический привод DVD-ROM;
# Средства воспроизведения звука;
# Средства доступа к сети Интернет.

Надо отметить, что не все из этих требований являются обязательными именно в первозданном виде. Например, минимальный объём графической памяти фактически может варьироваться от 64 Мб до 256 Мб, в зависимости от необходимого максимального разрешения. Видеокарта с 64 Мб памяти будет обеспечивать поддержку разрешений до 1280х1024. 128 Мб видеопамяти уже осилят разрешения от 1280х1024 до 1800x1280. Наконец, 256 Мб видеопамяти позволят поддерживать разрешения свыше 1800х1280 или эквивалентного режима, соответствующего суммарному количеству пикселей 2304000 штук. Кроме того, видеокарта должна обеспечивать минимальную пропускную способность интерфейса памяти, определяемую утилитой Windows Vista Upgrade Advisor. По предварительным данным, она не должна быть ниже 1800 Мб/с. Для геймеров не лишним будет установить еще один гигабайт памяти в систему...

0

Jiki nik
Поздравляю с принятием разумного решения! А почему именно g80? У R600 поддержка 4-ых шейдеров то будет получше.

0

Да потомучто денег наверное на R600 не хватит я даже незнаю сколько будет стоить G80

0

Всем большое спасибо за совет!!!!!!!!!!!!!
Если кому интерестно конфа получите:
Мать--- EPoX (9npa3j) nVidia nForse4 chipset socket-939 w/2.0 GTs Hyper Transport (ну и так далее )
Процесор --- Atlon 64 3000+
Графический адаптер --- nVidia GeForse 6600 128 Mb ( Просто 6600 без каких либо приставок)
Оперативная память ---3 x 512 Ram Kingstone PC 3200 + 1024 Ram Kingstone PC3200
AC/DC --- 350w (Уже не помню чей) . Но новый. Моё слабоё место для замены видюхи.

Поскриптум.

Люди Вы все не глупые так что не подумайте что хочу обидеть. Вы всегда говорите о оборудовании которого
в магазинах не сыскать ДАЖЕ в очень крупных магазинах . Нельзя ли быть более приближеным к нашим
ассортиментам и ценам. Для справки живу под Питером.

0

Джик ник...а ты сначала дождись а потом говори...вот напокупаете себе все Г80 ,не будет он поддерживать 4-ых шейдереов,и вдруг будет слабее Р600 при такой же цене ,и будете все ногти грысть....нафиг...че спешить надо куда то ?))) подожди....все уже знают о твоей конфе....все,суперский комп будет....тока терпение....поверь мне,я уже познал.что такое спешить с выбором видюхи пару лет назад,поэтому терпение....и плиииззз...ну не говори так много о своей конфе.... =))) она хорошая,и все это знают =)

0

Чувствуется мне, с WIndows vista игры будут тормозно идти. Если только для работы винды нужно 512мб ОЗУ.

0

G-man,
ржу ни магу! Во у них лольная конфа для Висты:
Windows Vista Capable PC - то есть минимальная конфа что бы установить Vista -

# Современный процессор с тактовой частотой не менее 800 МГц;


Ооо! Наверное очень современный проц нужен, чтобы было аж 800МГц
LOL:)

0

Пацаны чё посоветуете в когце июля у меня будет примерно 15 косых что делать продолжать копить или добавить и чё нить нормалное купить

0

Да ребят и хотел спросит вчера переустанавливал операционку и при копирование файлов написало невозможно скопировать какойто файл в чём это может быть дело я знаю что я не по теме но пожалуйста помогите

0

Jiki nik
Копи дальше - в конце июля будет процессорный бум - сейчас уж точно бессмысленно че то покупать... Ошибка при копировании может быть вызывана тем, что ты либо не отформатировал диск перед установкой, либо носитель попортился...

0

всмысле процесорный бум чё то стремает меня этот процесорный бум и так процессора дорогие

0

Ребят какие есть преположения насчёт видяхи geforce 8.......

0

скажите примерную цену жирафа 8осьмого а то и незнаю сколько копить

0

Jiki nik
Сколько раз ты уже это спрашивал?

0

Джик Ник...цена по моему мнению будет на долларов 90-10 ( R600) дороже х1900хтх по началу,а когда уберут с прилавок х1900хтх и всякое такое,цена ясное дело упадяет...ну пойми....ну зачем юрать видео сразу когда она выходит ?!-ты че...хай энд сразу собираешся брать что ли ? - нпафиг все деньги на комп тратить ???!!! =) - купил лучше уж тогда Мидл Энд карту под ДХ 10 потом,а она я уверен по мощности будет примерно как 7800гтх...и будешь радоваться и потратишь меньше...ты че....заметишь разницу у себя ооочень большую между 40 фпс и 60 фпс... ?!-игра летает как и на 40 так и на 60! нафиг блин спешить епт....по моему мнению,раз ты так озабочен конфой своей уж тогда делай планы на такой.... Конрой Е6600 (2.4) Мать -Abit AB9 , видюху - что то среднее из ДХ 10 , оперативки 2 гига...жесткий 200гигов....все...я считаю что апгрейд тебе такой обойдется в баксов 1200 ,но хватит на долго и с умом

0

Корче мать и опера у меня есть осталось проц и видяху вот в июле незнаю возму проц три слихуям ну кпримеру 3.2-3.0 итого останется тысяч десять на видяху а там уже буду добовлять бабла

0

Народец вот вам всем миленькие мои профисиональный советик для видюхи , если хотите избавится от всех геморов и наконец прекратить обсуждать эти бесмысленые заседания по поводу ой у меня это лагае , у меня то тормазит , игруха тормазит советую брать уже 7950GX2 c гигтарчиком памяти , ооо вот эта красотка всех парвет и вообще лутще брать всегда карточки от nvidia потомучто многие игрущки заточины под nvidia,
nvidia всегда была красоткой номер 1 ура ура ура , я лично щас пощел пахать на полную катущку я так покумекал за 2 месячищка хотябы кусочков 25 отарву и обнемуся с красоткой 7950gx2 и буду делать ням ням так с кризисами с сплинтарами целами и со всеми вкуснастями уууууухххааааа :)

0

И будешь ты это делать с Кризисами совсем не в полной красе,не на максемалке =)

0

Накуй 2 месяца пахать? чтобы одну видуху купить? Песец.

0

"Ведь в жизни каждому своё..." (с)

0

Спешу тебя обрадовать, Чебурашка.
Те скрины, что сейчас показывает КрайТек - Кризис, сделанный на DX9c!
Версия под 10 Директ появится нескоро (скорее всего с выходом g80. R600) так что дажде на GF 7950GX ты не будешь играть на максималках - просто будешь летать на заниженно-высоких.
Сожалею, брат

0

Cheburashka
Ты тока не забудь под нее купить БП на 1000 ватт (хрен найдешь и стоит больше 300 уе) и проц хотя бы уровня X2 4600+ или 4800+ а то тупо простаивать будет видяха то... Так что 25 штук эт мало...

0

Подскажите мне плиз, вот если сейчас брать видеокарту на 512 Мб, то какую лучше? Имею ввиду, чтобы было норм соотношение цены и качества, ну, просто например за то, что она новая, крутая и тока вышла не переплачивать :Р И надо, чтобы ее хватило надольше :)

0

Cheеtah
512 Mb оправдано тока на топ-решениях типа 7900 GTX или X1800 XT или X1900 XTX. На остальных видяхах - это пустая реклама - там лучше смотреть решения 128-256 mb. Скажи скока у тя бабок - посмотрим...

0

Ну бабок у меня хз скока, просто родителей на успешное окончание надо попросить купить че нить :) Вот и хочу присмотреть себе видюху какую нить, чтобы надолго тока хватило, чтобы в Crysis мона было спок поиграть :)

0

Как понимать "хз скока"?
Всмысле будет до фига или наоборот могут обломать?

0

Всмысле, что мне надо сначала выбрать че мне надо, а потом уже договариваться с родителями :)
Ну вы можете считать что дофига или чуть поменьше чем дофига :)

0

Будешь брать только видеокарту? Тогда говори конфигурацию компьютера.

0

О я тоже наверное возьму на 512 mb 1800 xt а то 30 тыщ у меня нету на жираф 8осьмой

0

У каждого свои понятия "до фига"

Но думаю тебе повезло - начинай продумывать.

0

Мой комп сейчас: Процессор - AMD Athlon 64 Processor 3200+, 1 Гб оперативы(две по 512), потом буду брать еще, материнка nForce4. Чето еще сказать? ;)
2 Чей-то Бот, вот я и прошу народ помочь мне в выборе :)

0

бери видюху х1800гто или х1900гт не ошибешся ;) а если уж фанат Джифорсов...то 7600гт или же 7900гт ,все эти карты пропрционально равны,но правда в сравнении х1800гто и 7600гт ,первый выигрывает за счет возможносмти разблокировки конвееров,и 256-битной шины,хотя цена у него слегка больше чем у 7600 гт ,так что если не хочешь тратиться на х1900гт или 7900гт ,то бери х1800гто не ошибешся ;)

0

Вот пацаны в нащем магзике есть PCI-E Gigabytе GV-NX79T256DB(-RH) GeForce 7900GT 256mb Dual DVI TV-out RTL её цена 10950 как думаете взять не взять смогу ли я поиграть в Crysis splinter cell 4 и.тд На красивых настройках ну воопщем стоит ли её покупать

0

2Pendalf2005 все равно у тебя в посте много "или" :)Мне интересно конкретно, что чем лучше :)

0

Cheеtah
Выбирай из списка (чем дальше в списке, тем мощнее).
ATI: X1800 GTO, X1800 XL, X1900 GT (новенькая так что в продаже пока есть не везде), X1900XT.
nVIDIA: 7600 GT, 7800 GT, 7900 GT.
Брать самые последние топовые решения неоправдано дорого. Такие видеокарты предназначены как правило для дeби... эээ для энтузиастов.
P. S. To All
Сегодня у знакомого на старенькой материнке (сокет А) тестили 6800LE. В паре с Athlon XP 2000+ в 3DMark03 набрала 6150 попугаев. Видюха работала в режиме AGP2x. Для такой системки в 2003-ем марке резалт нормальный, но в играх конкретные тормоза. Любопытно, что прожора NV40 завёлся на БП 300 Вт (в системнике работали ещё 2 дополнительных корпусных вентилятора). БП фирменный - Powerman (видно всё-таки вещь).

0

В таком случае, относится ли 7900 GT к последним топовым моделям за новизну которых надо переплачивать?

0

Бери ATi RAdeon Sapphire X1800XT 512Mb.
Не пожалеешь - и памяти с запасом на будущее и все что нужно привердливому геймеру, каких здесь немало (ну типа версия DirectX 9.0c, а не 9,0b + shd model 3 и фирменные технологии от Sapphire) Плюс Сапфировую версию можно найти тысяч за 10-11, что не так дорого относительно тех же 7900GT, 7800GTX

0

Хм..тогда можете ли вы описать тут различия между 7900 GT и x1800xt? ;) Понять хочу че чем лучше..)

0

Чип Radeon X1800 XT
RAMDAC 400 МГц - 2 шт., 10 бит на канал.
PCI Express 16x PCI-E
Тип памяти GDDR3
800x600 200 Гц
1024х768 200 Гц
1280х1024 160 Гц
1600х1200 120 Гц
1920х1080 120 Гц
1920х1200 100 Гц
1920х1440 90 Гц
2048х1536 85 Гц
Разрядность шины памяти 256 бит
Охлаждение Медный радиатор с вентилятором на лицевой стороне платы.
Частота чипа 625 МГц
Частота памяти 750 МГц (1.5 ГГц DDR)
Кол-во пиксельных конвейеров 16, по 1 TMU на каждом
Поддержка API DirectX 9.0c и OpenGL 2.0
Требования к системе (минимальные) Процессор Intel Pentium 4, AMD Athlon или выше, RAM 128 Мб
Интерфейс 2 выхода DVI-I, 1 переходник на D-Sub в комплекте.
TV in S-video, RCA через переходник (Rage Theater 213RT)
TV out S-video, RCA или Компонентный (RCA Y Pb Pr) через переходник
Поддержка ОС Windows XP, Windows 2000, Windows Media Center Edition
Размеры упаковки (измерено в НИКСе) 24.3 х 16.5 х 4 см
Вес брутто (измерено в НИКСе) 1.04 кг


А вот 7900 gt графический процессор NVIDIA GeForce 7900 GT;
частота ядра 500 МГц;
частота памяти 1400 МГц;
512 Мбайт GDDR3 1,4 нс графической памяти;
разрядность интерфейса памяти 256 бит;
графический интерфейс PCI Express x16;
400 МГц чип RAMDAC;
поддержка двух DVI-I разъемов;
максимальное поддерживаемое разрешение HDTV 1920 X 1080i

0

Ясненько..тогда задам вот еще такой вопрос: А вот к примеру как вы думаете Crysis будет идти на высоких настройках на 7900 GT 256 Мб?

0

Млин. Щас комп новый брать хочу. А вот заинтриговали меня эти видухи с поддержкой Dx10. Конечно первыми в этом классе выйдут топовые решения. Так, что ждать наверно придтся долго чтобы купить видуху с PS 4.0 по приемлемой цене?

или не ипать мозги и взять х1800хт?

0

Да бери своего радика да и немучайся в кризис ты сможеш поиграть

0

Пока этот Кризис выйдет появятся уже какие-нибудь G90 и R700. Сталкер вон до сих пор не вышел, а болтают про него уже давно.

0

Мля ну и покупай свой G90 если ты такой больной может завтра будет G150 и чё за железом не угонишся покупай то на что бабла хватает

0

Chetach :

Возьми 7900GTX c 512 метрами на этой красотке nvidia все летать будет :)

0

Вообще то Аолександр говорит.что надо терпеть Джик Ник , зачем спешить щас ? =))) куда то убежит х1800хт ?!)))-его еще с продаж не сняли,так что если че то и не будет устраивать в новых видюхах,то тогда можно будет и спокойно купить этот х1800хт , так бац там будут щешевые и мощные модели ?! 9пример 7600гт по сравнению с 6800 ультра) ,а все...деньги уплочены,а раставаться жаль =)

0

Cheburashka
Да, только учти что HDR+AA на nVIDIA не работает, ни на каких.

0

Ну сколько можно ждать я заипался жди пока выйдет карта потом жди пока она подешевеит потом опять под неё блок питания купи процессор купи оперативки жестак и ещё чё нить понадобится

0

Shader 3:
Тоесть хочещь сказать я в Ghost recon advanced warfihgter не поиграю с HDR+cантиалисингом

0

Ага, nVidia не поддерживает одновременное использование HDR и AA. Вероятно для этих технологий задествуются одни и те же блоки. Интересно, унаследует ли G80 этот недостаток.

0

Мне он не нужен ) (антиализинг)
Я недавно с урезанного FX-a слез... Поэтому не привык.)

0

Народец я на этой неделке еду за новой видюхой вот все не как не могу определиться толи 7900gtx толи x1900xtx но всеже меня красотка nvidia к себе склонает а вы бы реально чево взяли бы ? хотя у ридика есть подержка hdr+antialising ну прям не знаю а на 7950 забил до лутщих времен )

0

Пацаны чё мне взять какую видюху

0

У Риддика, как я помню ХДР вообще нет. Только простенький овербрайт.

0

"красотка nvidia к себе склонает"
Вот-вот и меня склонила... Микростаровсая маркетинговая уловка. (когда покупал FX5700LE).

0

Я бы когда брал такую Мощную видюху,все таки взял бы АТИ ,так как щас на этой видюхе вполне все идет безупречно,и поэтмоу думаю ,что удовольствие от HDR + AA ты получишь огромное,а этого нет у конкурента,да и х1900хтх чуток да быстрее в новых играх...причем какой толк от офигенной проивзодительности,если качесвто наполную незя врубить ( я о HDR +AA) ,так что я бы выбрал АТИ!!!

Джик Ник,ну если не в терпежь , то х1800хт твой выбор,карта вроди не плохая,хотя я бы подождал бы х1900гт ,но х1800хт тоже очень хороша,хай-энд все таки однако,и еще подишевел вроди как...так что у тя есть выбор....или чуток подождать х1900гт (равен конкуренту 7900гт,но с приимущесвтом использования ХДР + сглаживание). Но я бы повторяю...не спешил бы...так как как уже говорил,на этом прогорел =)))

0

Pendalf2005:

а посаветуй плиз от какова производителя лутще брать ати x1900xtx ?

0

HIS , Saphire , Asus , Gigabyte...эти фирмы рекомендую,однако насчет последнего не знаю...для АТИ лучше всего ХИС или Сапфир....
2 Джик Ник... термином High Dynamic Range (HDR) называют рендеринг в широком динамическом диапазоне. То есть, модель, например освещения, описывается не в палитре RGB, а реальными физическими величинами. Конечно, монитор все равно будет выводить на экран то же самое RGB, но при повышенной точности расчетов можно реализовывать массу эффектов, повышающих реалистичность картинки. Основное предназначение HDR в данной игре, да и вообще во всех играх на сегодняшний день – это физически правильное отображение ярких источников света (солнце, огонь), направленных прямо на камеру. Это только один из аспектов применения HDR, но даже его вполне достаточно, чтобы полностью оправдать его существование. Особенно отлично он смотрится при моделировании яркого солнечного света.( www.overclockers.ru) HDR доустпен тока на 3-их шейдерах,на этом эффекте построен практически весь Обливион, так же он ооочень ярко используетсяв халф лайф : Первый Эпизод...а насчет конкретного примера могу сказать так...ну вот скажем сидишь ты в своей Комнате ,она закрыта занавеской,и вот ты открываешь и весь свет из окна словно обрушивается на тебя,полторы секунды солнце для тебя имеееет слишком большую яркость,однако через время это проходит....с помощъю этого эффекта терь разрабы грамотно могут делать перемену суток в играх , а так же,в играх очень много тунелей ,где после них идет свет ;) а вообще почему Нвидия неможет работать вместе с ХДР и сглаживанием....ну точно не знаю, но походу она че то не так делает с текстурами вида ФП 16

0

Jiki nik
HDR - технология динамического изменения света - "на пальцах" - когда заходишь с яркого света в темную комнату - то сначала кажется совсем темно - а потом глаза привыкают и начинаешь лучше различать обстановку. Или наоборот когда из тьмы на свет выходишь глаза привыкнуть должны. HDR позволяет реализовывать это в играх.

Cheburashka
Поищи от HIS - может найдешь в Blizzard Edition - с фреоновой системой охлаждения - стоит не сильно дороже - зато в разгоне пригодится... Вообще однозначно сказать что X1900 XTX лучше - сложно. У Nvidia и 7900 GTX традиционно быстродействие в OpenGL - в играх типа FEAR, Quake4 разрыв между карточками иногда доходит до 15-20 fps. Тут нужно решать что тебе самому нужно..

0

Ya tut vlezu so svoim vorosom!
Nedavno kupil videokartu (x1600pro 512 AGP Sapfire) tak vrode vsyo v poryadke, no inogda proskakivayut strannie glyuki v vide pomeh na monike (bistrie gopezontalnie poloci, kak analogovaya pomeha) kogda proishodit smena videorezima ili primenenie kakih nibud' parametrov. I pri zagruzke poyavlyaetsya strannaya pauza (dolgaya) c migayuschim kursorom naverhu, plus ko vsemu, mne kazhetsya, poyavilis' dergan'ya v igrach (osobenno v doom3). Vozmoshno blok pitaniya slabobat no hotelos' uznat' vozmozhnuyu prichinu potochney. Zaranie blagodaren za pomosch'.

P4 2,4
matherboard Intel
1024 (2*512)
300watt blok pitaniya
2*dvd (1- brener)
2*HDD (80, 160)

Staraya videokarta 9500 128 Sapfire - rabotala bez glyukov i problem (sgarela)

0

Блок питания надо мощнее. Для PCI-E X1600 Pro MSI рекомендует 350W и выше, но это наверно для одного жесткого диска и одного DVD. Так что тебе наверно надо 400-450W.

0

kak na schyot Sharkoon SHA450-8P za 50 euro! I na kakie vestchi nuzhno smotret' pri vibore (Stekera, vsya muynya=)

0

Чуваки у меня стоит Nvidia Geforce 7800 GT Duo для него SLI надо включать?(так как вроде это одна карта но в компе определяется как две) Да и если да то как включить SLI?

0

G-Man
У Nvidia и 7900 GTX традиционно быстродействие в OpenGL - в играх типа FEAR, Quake4

А, так они на OpenGL!!!А я-т голову ломал, почему у меня на моем RAd9600XT FEAR на max летает, а похожие игры (ДУМ 3) тормозит на минимуме.
Кстати, а 9600 серия какой Директ поддерживает?8,1?

Allfa
Nedavno kupil videokartu (x1600pro 512 AGP Sapfire) tak vrode vsyo v poryadke

Это ты где Х1600pro с 512 Мбайтами памяти да еще под AGP нашел? Сапфир делает таких мутантов?

0

Отец Викториус
СЛИ - никакой не режим для двух карт. Это режим для двух процессоров.

Цитата:
" 9600 серия какой Директ поддерживает?8,1?"
Видеокарты фирмы АТИ с версии 9500 поддерживают ДиректХ 9.0(в различных вариациях).
Цитата:
" RAd9600XT FEAR на max летает," - бред.

0

Syzygy
Ты че камрад? SLI - это технология Nvidia позволяющая обьединять Два графических процессора (две видеокарты) для совместной обработки видео. Причем тут CPU? - на вот читай и не позорься - http://ru.slizone.com/page/slizone_learn.html

Витебс -
Он же сказал у него 7800 GT Duo - это одна из раработока ASUS - видяха с двумя граф чипами 7800 GT.

Click-beetle
Нет у тебя он так должно определятся - самими драйверами. Так как этот тип SLI реализован на одной карте...

0

У меня на радике 9550 с горем пополам на средних настройках с разрешением 800х600.

0

г-ман, я думаю он имел ввиду как раз графические процессоре, но на одной карте. Хотя не понятно нихрена :-|

0

Сигизи,
ты сам один сплошной бред. Сболтнуть такую херню про СЛИ может только ламер, про ФЕАР - отвечаю летает - только лишь переменовал екзе файл и все! Свободно 25fps без противников и 19-25fps с противниками, согласись для моего компа это как раз и значит - летает!

0

Боже мой! Сигизи, почитал тут твой профайл и ужаснулся. ТЫ полнейший пессимист и единоличник по жизни. Все твои посты до единого несут только противоречащий, отрицающий и спорющий характер. Ты там психуешь по мелочам на кждом шагу, неудивительно, что ты, никого не слушая, до сих пор не знаешь, что такое SLI...

Sorry
за оффтоп, но не удержался - бывают же люди...

0

Lord Alucard
Ты где нить видел граф. процессоры без видеокарты? =)) На одной карте в SLI два граф процессора объединены тока 7950GX2 и у ASUS на 7800 GT Duo (ну еще есть парочка разработок аналогичных у MSI) - так что для обычных юзверей SLI - это прежде всего объединение двух видеокарт в одной системе - как и сказал Витебс...

0

г-ман, видел тока на картинках)

0

G-man
Цитата:
"Ты че камрад? SLI - это технология Nvidia позволяющая обьединять Два графических процессора (две видеокарты) для совместной обработки видео. Причем тут CPU? - на вот читай и не позорься - http://ru.slizone.com/page/slizone_learn.html"
В принципе за меня уже ответили:
Цитата:
" имел ввиду как раз графические процессоре, но на одной карте."
Кстати интересна твоя фраза про
Цитата:
"это технология Nvidia позволяющая обьединять Два графических процессора" ? Я сказал по другому?

Чей-то Бот
Цитата:
"Сболтнуть такую херню про СЛИ может только ламер"
Только ламер не может знать о разработках видеокарт на двух процессорах.
Цитата:
"ФЕАР - отвечаю летает - только лишь переменовал екзе файл и все! Свободно 25fps без противников и 19-25fps с противниками, согласись для моего компа это как раз и значит - летает!" Тогда нужно говорить, что "у меня с 25 фпс идёт", а не "летает". Кстати порог восприятия около 60 фпс(при нём уже никаких тормозов заметить не удастся.

Цитата:
" так что для обычных юзверей SLI - это прежде всего объединение двух видеокарт в одной системе" У обычных юзеров Билл Гейтс всегда виноват. Но мы ведь вроде обсуждаем технологии, а не то , как из воспринимают обычные юзеры?

0

Не могу решить чё купить Radeon 1800 xt 7900gt или дождатся G80

0

Jiki nik
Лучше просто убиться об стену. И не задавать один вопрос по несколько раз, да и при том, что на него уже ответили.
А ещё лучше дождаться G150. представляешь ,какая мощная видюха будет.
По теме:
Покупай 7900, но это моё ИМХО.

0

Syzygy
тады надо было и грить - граф. процессоров =)

0

Jiki nik :

Бери x1900xtx это самое профисиональное рещение на сегоднящний денек , я себе этого красавца поеду брать в эту суботу :)

0

7900 говориш а сколько она питания требует зиги

0

Чебурашка а тебе везёт а мне покупать через месец но мне не одну видяху надо мне ещё и проц нужен

0

G-man
Ну если обсуждая технологию СЛИ, и говоря о графических картах трудно догадаться, что речь идёт о ГРАФИЧЕСКОМ процессоре, то я уже не знаю, как говорить-то...
Jiki nik
Питания она требует стандартно - 12 В. Наверное имелось ввиду сколько она потребляет мощности? Честно говоря не помню, но вроде блок питания должен быть минимум на 400Вт.

0

2Alexandr82
Ti dumaesh, tchto vse mai glyuki iz za bloka pitaniya?

-Бери FSP-
takuyu firmu ya ne nashol v nashem magazine. :( vobschem ya uzhe zakazal Sharkoon SHA450-8P (zhdat' net motschi) pomozhet - nepomozhet, a v hozyaystve sgodit'sya!

0

400 ват это для всего системника да и насколько хватит 7900 gt 256mb

0

Я говорю про блок питания ,который рекомендуется использовать с этой видюхой.
Насколько хватит её никто не скажет, ибо завтра могут начать появляться игры, которые будут тормозить на 7950 Квад СЛИ. Но примерно на года два вполне, потом будет нужно снижать разрешение и качество картинки в играх(хотя и в существующих выкрутить на максимум всё не удастся)

0

То есть её хватит все игры два года молотить а потом у же будут не все работать и приведи пример какие допустим игры я несмогу выставить намксималки да и я иммел виду для всего в целом сколько нужно ват то есть для всех запчастей

0

Спасибо G-man . Только все же мне хочется знать ак SLI для видеокарт включается.

0

Jiki nik
Бери больше 500, не ошибёшься...

0

Ладно скоко стоит 500 ват да и смогу ли я насладится всеми прелестими висты

0

Jiki nik
Смотря от кого брать будешь. Если от какой-нить там Gembird, то около штуки. Однако советую все же от FSP. Это будет пару штук, может чуть больше.

0

Слышай а на такой видеокарте я порву висту

0

Click-beetle
Поищи на THG.ru - в разделе видеокарты там был обзор твоей видяхи очень подробный...

0

Пацаны я не потеме хотел спросить купил X-men 3 игры а она падла как много солдат так она тормозит
ну как бы секунд на 10-15 зависает картинка звук есть а картинки виснет потом развиснет потом опять виснет ну короче вот так вот моё железо Radeon 9600 oper 512 mb proc 2.4 ghz в чём проблема может быть

0

порог восприятия - 40 fps.

хммм... а чё х1900гт такая дешёвая? чё в ней такого урезано)))??

0

Lord Alucard

Суди сам -

ATI Radeon X1900 GT
Ядро R580
Техпроцесс (мкм) 0.09
Транзисторов (млн) 384
Частота работы ядра 575 (500 для 2D)
Частота работы памяти (DDR) 600 (1200)
Шина и тип памяти GDDR3 256 Bit
Пиксельных конвейеров 36
Вершинных конвейеров 8
Pixel Shaders 3.0
Vertex Shaders 3.0
DirectX 9.0c
Anti-Aliasing (Max) MS-6x
ANISO (Max) 16x Quality
Объем памяти 256
Интерфейс PCI-E
RAMDAC 2x400

Урезанны пиксельные конвееры (на старших - 48). В играх X1900 GT свободно обходит 7900 GT и X1800 XT.

0

п осравнению у нее заблокированы 4 текстурника и 8 пиксельных конвеера...но не задача попробывать их разлоисть ;)

0

Lord Alucard
60. 60. 60. Ибо при сорока вполне можно сказать, что это меньше 60. А вот при 70 фпс уже не сможешь сказать сколько показывает 70 или уже 170.

0

Вообще-то вроде не 48 конвейеров, а 48 блоков конвееров...
У X1900XT и X1900XTX 16 конвейеров, каждый из которых разбит на 3 блока.
Или я не прав...

0

Слушайте пацаны а не будет ли такой лажы что если я приобрету Radeon x 1900 xt ну с шейдерами 3.0
игры будут штопать по четвёртые шейдера

0

Будет...
И вымрут эти видюхи как вымерли в своё время Titanium-ы.
И как сейчас вымирает X** серия.

0

Jiki nik
У меня сейчас в руках журнал UPGRADE от 14 июня 2004 г. В журнале есть неплохая статейка про "нового" графического монстра от nVidia - GeForce 6800 Ultra. Одним из главных отличий от Х800ХТ (кстати в журнале про неё тоже есть неплохая статья) является поддержка тогда ещё непонятной и загадочной штуковины под названием Shader Model 3.0. Тогда ещё не было широко доступных приложений, использующих 3-и шейдеры и поэтому было почти всё равно что брать - Х800ХТ или 6800 Ultra. Реальная надобность в карте с поддержкой 3-их шейдеров появилась лишь весной этого года (ИМХО), т. е. почти через 2 года. Т. к. топовые (тогда ещё) решения одного из гигантов графического рынка (канадской компании АТИ) не поддерживали эти 3-и шейдеры, то разработчики игр особенно и не спешили на них перебираться. Похоже что ситуация повторяется. Только на этот раз не будет поддерживать новую версию шейдеров продукция nVidia (это пока не официальная инфа, но всё же настрораживает). Так что разрабы тоже особенно то и не будут спешить переходить на Shader Model 4.0. Ситуацию, однако, может изменить политика Microsoft, направленная на эффективное "проталкивание" своей новой ОС. И одним из главных аргументов, я думаю, станет многообразие игр, использующих новую версию DirectX. Так что если не хочешь выкладывать сейчас больших денег за видеокарту, которая где-нибудь через год уже "устареет", то возьми сейчас что-нибудь не шибко дорогое, а потом через год поменяешь с доплатой на видюху с поддержкой 4-ых шейдеров. Я бы тебе посоветовал сейчас X1800 GTO (около 6000 р.) или X1900 GT (около 9000 р.). Производительности этих видеокарт тебе вполне хватит на год (особенно X1900 GT) даже для современных, весьма требовательных игр.

0

2 Midnight , это пиксельные конвееры,тока их часто называют так "блоки" ,я тоже не раз заблуждался,однако сравнив описание нескольких сайтов Пиксельные Блоки = Пиксельные конвееры , а 16 , это у них текстурные блоки (о х1900хт)

0

О черт!
Совсем запутался с этими блоками и конвеерами.
Разве блок не объединяет несколько конвееров?
По=моему у 1900 48 конвееров, потому что если блоков (по три конва в каждом) то конвееров будет аж эээ 144. Значит не может такого быть.

0

Не ребят так не годится я лучше буду копить на G80 да а кто нить знает хотяб сколько примерно стоит G80
да и ешё нормальный будет проц на 3.0 двухядерный

0

хухах!
б*я, ржунимагу!
ну блииин!
G-Man, я понимаю, ты добрый человек и все такое, но *хухахаха!* тебе не надоело в триста пятьдесят седьмой раз отвечать сколько стоит g80??? *хахахахахаха!*
Даже не знаю над кемщас ржу - над тупостью jiki nik'а или над бедным модератором Железного *да, тебя*, которому приходится все это терпеть и с умным видом в триста пятьдесят восьмой раз отвечать, сколько стоит g80.
хахаха!*
пойду водички попью - мож успокоюсь

0

Jiki nik
Ты это спрашиваешь в 80% своих постов...

0

Да блин лучше купить Ps 3 чем твои советы и консультации слушать тебе надо консультировать сусликов где им норки рыть а не видеокарты то одну возми то вторую то третью то дождись G80

0

Jiki nik
Проблема тут только в том что ты сам не знаешь чего хочешь. Хочешь апгрейд - делай. А не пускайся в пространственные рассуждения. Какой бы ход ты не сделал, чего бы не ждал и не выгадывал - все равно ни за какие деньги не получится сделать апгрейд что бы его хватило на 10 лет вперед. Все равно будешь менять. Хочешь видяху? Скажи сумму - и мы тебе скажем - че купить. Хош проц - теперь сиди жди конца июля - обидно будет купить проц на месяц раньше и заплатить за него в два раза больше. И еще пойди на любой перацкий развал и купи себе за 100 ре последнюю бету вожделенной Висты - и убедись что она будет работать даже на твоей текущей машине.

0

Jiki nik :

Бери x1900xtx это самое профисиональное рещение на сегоднящний денек :) я не стерпел и уже взял ууххааааа этот красавчик лутще чем 7900gtx там можно HDR+antialising делать ууххаааа щас вот в Oblivion рублюся на полных настройках ууууххааааа красатища ооооо :)

0

/\ /\
|| ||
|| ||
|| ||
|| ||

Нет, серьезно, только по-настоящему профессиональный человек может в сотый раз вдалбливать jik nik про пространственные рассуждения, ты сам не знаешь чего хочешь, Какой бы ход ты не сделал и таму подобное и при этом сохранять совершенно непринужденный тон дружеского разговора. У нас поистине замечательный модер (не обольщайся джи-мен...)


Насчет летнего бума процессоров.
Ты говоришь они сильно подешевеют с приходом AM2 и Conroe. На твой взгляд сколько будут стоить вкупе Amd X2 3800+, блок питания на 400-420Вт и материнка от ASRock, та которая держит AGP и PCI-E (опять забыл как называется).
Ответьте плиз срочно - сижу жду вашего ответа, трачу деньги на инет по кредитной системе - 25 рублей в час)............

0

Ну вот именно я и спрашиваю чё взять я блин просто нехочу купить видяху с поддержкой шейдеров третих
а завтра будут четвёртые и игры под четвёртые штопать начнут вот я и хочу узнать какую мне видяху взять
да и слышал то что благодаря висты какойто будет прогрес игр или чёто в этом роде так я и хотел спросить этот прогресс не повлияет так что бы много файтингов выходило на пк да и ещё хотел у вас спросить я вам писал какую систему буду покупать ну всмысле проц там видяху и будет ли у меня виста нормуль работать вот все мои вопросы стоит ли ша покупать видяху если да то какую хватит ли моего проца года на два будут ли у меня игры в будущем не тормозить ну всмысли сплинтер сёлы кризисы хало 2 анреал торнаменты 2007 и так далее и не будит ли у меня тормозить виста а то я так заипался что аж хотел соньку 3 прокупать ну всё вроде все мои вопросы

0

я блин просто нехочу купить видяху с поддержкой шейдеров третих
а завтра будут четвёртые и игры под четвёртые штопать начнут


Прикинь, а послезавтра пятые шейдера будут и игры то же с пятыми шейдерами, круто, правда?

0

блин уже чирик кредитного инета наверное потратил!
Только не отправляйте меня на Яндекс.Маркет...

0

Чей-то Бот
платы от ASrock и так особо никогда дорогими не были (вообще к слову это бюджетное подразделение ASUS) - s939-DUAL-sata2 и сейчас в районе 70 уе стоит - вряд ли опустится ниже 60. Процы - как я уже говорил - X2 3800+ порядка 160 уе - причем тока ща прочитал - 28 июня - судный день AMD - за месяц до выхода Concore - снимают с производства почти все процы под s939 и s754 - а последняя партия этих процов отправится в магазины 31 декабря 2006 года. Так что удешевление может произойти и раньше... БП на 420 ватт стоит в среднем 50-60 уе..

Jiki nik
Не бывает так что бы игры выходящие через год тормозили на текущих мейнстримовских видеокартах. Такого никогда не было. А значит купив то что сейчас этот самый мейнстрим возглавляет - тот же 7900 GT - в ближайший год-полтора можешь точно не волноватся - все должно работать и пахать.

0

Народ побскажите стои ли менять дрова для x1900xtx с 6.4 на 6.5 вот щас выщли ?

0

Тут недавно чел писал что у него радик 1900 xtx и на сколько у тебя бп стоит и заскоко ты его покупал

0

стоп джи мэн модер так да эта самый заипатый модер котырых я видел сколько он мне советов давал другой бы накуй послал и написал бы тут пару одинаковы строк забанил бы _опу

0

БП взял себе качественый от очень знаменитой фирмачки Hiper-R на 580W все нармалек пащет , если будещь брать БП бери Hiper они очень хорощие а если карточку бери x1900xtx и забей про полную подержку щейдеров 4 такие карточки еще не скоро появятся :)

Подержи фирмачку ati :)

0

а поменьше блок питания взять нельзя да позволить радика 1900xtx купить не смогу а 1900xt смогу да и ещё хватит ли 500 ват и сколько будет стоить

0

Jiki nik:

Понемаещь тебе запас в ватах нужен не стоит брать БП слабенький , для оптимальной работы системы надо БП 450W минемум , это я если ты себе будещь ставить даже x1900xt он тоже жрет до хрена , а БП стоит ну допустим Hiper-R 110$ , советик не бери меньще БП ты себе карточку спалищь :)

0

Чебурашка ты у нас богатенький займи денег под проценты

0

Jiki nik:

Красавчик я щас сам бомжую вон пожертвовал последним рубликом на x1900xtx :)

0

Да блин почём ты покупал свою видяху

0

На горбущечки брал 16092 руб .98 коп

0

М-да... У нас X1900GT стоит 10500 р. Может, поменять свою 7800ГТ на неё...

0

а какая разница между Radeon 1900xtx 512 mb i 1800xt 512 mb А

0

Jiki nik
Суди сам -

Radeon X1900XTX
Видеоакселератор Radeon X1900XTX
Ядро R580
Техпроцесс (мкм) 0.09
Транзисторов (млн) 384
Частота работы ядра 650
Частота работы памяти (DDR) 775 (1550)
Шина и тип памяти GDDR3 256 Bit
ПСП (Гб/с) 49.6
Пиксельных конвейеров 48
TMU на конвейер 16 (всего)
Текстур за такт 16
Текстур за проход 16
Вершинных конвейеров 8
Pixel Shaders 3.0
Vertex Shaders 3.0
Fill Rate (Mpix/s) 31200
Fill Rate (Mtex/s) 10400
DirectX 9.0c
Anti-Aliasing (Max) MS-6x
ANISO (Max) 16x Quality
Объем памяти 512
Интерфейс PCI-E
RAMDAC 2x400

Radeon X1800XT 512MB
Видеоакселератор Radeon X1800XT 512MB
Ядро R520
Техпроцесс (мкм) 0.09
Транзисторов (млн) 321
Частота работы ядра 625
Частота работы памяти (DDR) 750 (1500)
Шина и тип памяти GDDR3 256 Bit
ПСП (Гб/с) 48
Пиксельных конвейеров 16
TMU на конвейер 1
Текстур за такт 16
Текстур за проход 16
Вершинных конвейеров 8
Pixel Shaders 3.0
Vertex Shaders 3.0
Fill Rate (Mpix/s) 10000
Fill Rate (Mtex/s) 10000
DirectX 9.0c
Anti-Aliasing (Max) MS-6x
ANISO (Max) 16x Quality
Объем памяти 512
Интерфейс PCI-E
RAMDAC 2x400

Разница очень большая.

0

Так ладно спасибо а можно тогда узнать характеристику Radon 1900xt 512 mb

0

Тип ЦП Intel Pentium 4E, 3000 MHz (15 x 200)
Системная плата Asus P4P800-E Deluxe (5 PCI, 1 AGP, 1 WiFi, 4 DDR DIMM, Audio, Gigabit LAN, IEEE-1394)
Чипсет системной платы Intel Springdale i865PE
Системная память 1024 Мб (DDR SDRAM)

Посоветуйте пожалуйста AGP видеокарту под данную конфигурацию, дабы получить более менее сбалансированную систему, желательно из семейства NVIDIA ?
Благодарю за помощь.

0

Cheburashka писал:
Народ побскажите стои ли менять дрова для x1900xtx с 6.4 на 6.5 вот щас выщли ?
Вроде Catalyst 6.5 оптимизирован под Обливион. Если в игре глюки с текстурками, то стоит. А вообще Обливион нудноват (ИМХО). Кроме графики и физики там ничего нет. :( Советую попробовать Ghost Recon (очень реалистичная графа).
P. S. Всё же рад что ты купил Х1900ХТХ, а не 7950GX2.

0

Shader 3:

Хе-Хе я ghost третий ждал с его первой разработке юбики рулят , игруха класс не че нелагает просто класс и в обливион щас гоняю тоже все класс идет а дровищки стоят 6.4 думаю менять 6.5 :)

0

Мне Ghost Recon 3 вообще не понравился. Нет той атмосферы, присущей первой части...
Да и графика там не ахти... Уж чего вы в нём нашли?

0

Из Agp думаю разумный вариант будет AGP 256mb ASUS N6600/ TD (GeForce-6600) DVI,TV out и цена 110 уе ещё можеш радеончик поставить вот такой правдв подороже AGP 256mb ATI (Sapphire) Radeon x1600Pro DDR DVI TV out 150 уе ну вроде всё самое нормальное под Agp на сегоднешний день

0

Позавчера купил себе X1800GTO, рад был как слон! Ну и грех был не попробовать разогнать и включить конвееры!
И, ЧУДО произошло, конвееры открылись!!!!!!!!!!!!!! Их наличие подтвердил RivaTuner И Ati Tool! Но для этого пришлось прошить её модифицированным биосом, программой AtiWinflash. Ссылка на BIOS : http://cp.people.overclockers.ru/cgi-bin/dl.pl?id=15217&filename=Saphire_X1800GTO.zip ( Bios называеться gtomod.bin) Затем конечно разгон после всех проведённых эксперементов удалось добиться 567Mhz по ядру и 1226Mhz по памяти, и это на памяти с временем выроботки 2.0 без поднятия напряжения!!! Всё проделанное позволило получить 3600 балов в 3DMark 06!!!
Видюха просто класс!!!! всем советую, даже без включённных конвееров это КРУТЕЙШАЯ видеокарта на свои деньги!!!!!!!!!!!!
Температура на ней в норме более 70 градусов не было ни разу! И шумит вполне умеренно, по сравнению с моей прошлой X800GTO FireBlade - эта просто воплащение тишины!!!

0

Мои поздравления:)
А брал карточку за сколько?

0

Брал за 6700руб. Карта кстати от Sapphire!

0

Инструкция по установке

Под AGP сегодня один вариант 6800 GS - другого нет (тем более есть возможность разлочки конвееров). На 6600 и всякие 1600 pro не разменивайся - сегодня пустая трата денег...

0

JikNik
другой бы накуй послал и написал бы тут пару одинаковы строк забанил бы

И честно говоря, правильно бы сделал.

G-Man
Не в обиду те.
А почему блок питания по твоему 50 уе? НА том же Маркете Яндекса есть 420Ватт за 800 рублев! От фирмы Gembird, кажется.
И с выходом AM2 что все остальные процы АМД снимет? И x2 3800+ и всю линейку X2 и даже FX 51-55????!!!!! Че за?

0

Чей-то Бот
Я имел ввиду хороший БП, а не северокитайский треш Гемберд =)) Что то типа Hipper, FSP, Zalman или Thermaltake - к которым хоть оборудование не страшно подключать...
Снимет да, это нормально. В продаже они еще будут по любому до середины 2007 года - им же нужно как то двигать вперед sAM2... Intel делает абсолютно то же самое, кстати...

0

Люди, скажити что-нить насчёт этой видюхи:256 Mb Galaxy GF 7600 GT 128bit DDR3 DVI TV-out.

0

Хорошая видяха - если найдешь с Zalman овским охлаждением - вообще отлично...

0

Во, че я тут на днях подумал.
Мое представление технологий объединения нескольких графических процессоров видится мне провальным. Если вспомнить пословицу "Все новое – это хорошо забытое старое", то можно предположить, что технология Scalable Link Interfaces от nVidia и CrossFire от ATi не имеют светлого будущего по нескольким причинам. Во-первых, для рядового обывателя покупка SLI или Crossfire системы обойдется довольно дорого. Такие компьютеры обычно собирают из двух топовых видеокарт, так как, например объединять сегодня в Crossfire две X800 не имеет смысла, потому что такой же производительности можно достичь, купив X1800/1900XT за гораздо меньшие деньги. К тому же объединение двух видеокарт вовсе не гарантирует вам прирост производительности в два раза. Такой результат – как Идеальный газ или Абсолютный ноль в физике, сегодня недостижим. В среднем компьютер ускорится процентов на 60-70, а денег вы поратите гораздо больше. К тому же для этих технологий требуются чипсетыс поддержкой данной функции на материнский плате, которые стоят еще на порядок дороже аналогичных материнских плат без приставки SLI в конце.
Во-вторых, я уверен, что вскоре разработчики откажутся от этого также, как отказались от двухпроцессорных систем в пользу многоядерности. Скорее всего уже через несколько лет у нас будут видеокарты с двумя GPU, которые не будут стоить бешеных денег и останутся такими же доступными, совместимыми с тем же PCI-E X16.
Вообще, взглянув сегодня на рынок комплектующих для ПК можно убедится в том, что сейчас происходит возвращение к началам, причем тем началам, которые были забыты из-за своей ненужности. В частности, все мы уже знаем об ускорителях физики, ставящихся в отдельный слот. Вот бред! Все это уже было еще во времена 3Dfx, когда выпускались отдельные карты для обработки трехмерных изображений. Вскоре все это стали объединять на одном видеоадаптере. На нем также стояла (и стоит прошу заметить посей день) собственная память и процессор.
Значит, у всех этих ускорителей физики, также как и у дополнительных видеокарт просто нет будущего. Место им на серверных станциях. Рядовые геймеры наверняка лет через шесть-семь увидят выход эдакого мульти-адаптера, включающий в себя Очень мощную видюху, ускоритель физики с собственным процессором на борту, который легко обойдет по мощности современные модели CPU ну и конечно несколько гигабайт видеопамяти. Ставиться все это чудо будет в новый слот, никак не PCI-E x16, значит всяким мечтателям, типа Jiki Nik, не светит собрать комп, которого хватит на десять лет.

0

G-Man
Глянь-ка сюда.
FSP, 400Ватт - 35 долларов.
Никак не 60...
Нормальный блок?


Edit
Во!
Круто!
Еще нашел! Глянь сюда http://shop.runet.ru/good/59499.html

0

Чей-то Бот
По порядку. технология SLI у 3Dfx (называлась к слову так же) - пользовалась значительым успехом. Ей помешало -
1. Очень высокая стоимость (тогда подобные решения сразу были ориентированны на hi-end сектор рынка - 2D карта плюс два акселлератора - стоили более 1500 уе и не меньше)
2. Отмирание - так как SLI у 3dfx представлял собой обьединение 2D карты и 3D акслеллераторов - с появлением Vodoo Banshee - по сути первой карты со встроенным 3D акселлератором - как то глупо стало покупать 2D карты - а сам 3dfx просто не пожелал развивать технологию дальше (из-за появления очень зубастых конкурентов).
3. Отрицание технологий подобных SLI другими игроками на рынке того времени.
Что мы имеем сегодня? - собрать SLI систему можно в среднем за 570 уе - причем в стоимость входят и проц, и мать, и видяхи (см. на игромании была заметочка). Сегодняшним производителям удалось то, что не удалось 3dfx - возвести массовость многопоточности - сделать ее доступной любому, а не только толстосумам. Да пока ощутимого прироста технологии по сравнению с одиночными видеокартами не дают - но ведь технологиям то по сути всего то полтора года. Это очень короткий срок. Еще слишком мало опыта у программистов и разработчиков в этом деле. Так как за многопоточность зубами держутся все игроки рынка видеокарт - можно сказать точно что технология не умрет. Это не откат к прошлому - это как раз яркое подтверждение того самого закона Гордона Мура - а вернее следствию из него - о том что в определенный момент разработчикам процессора приходится задумыватся над иным способом повышения производительности из-за ущербности современных технологий.
Карты с двумя GPU - вот это как раз очень сомнительное явление. Обьединение двух GPU на одной карте - штука сложная и дорогая - а по сути это все тот же SLI - кстати о материнках - средненькую мать с SLI можно купить за 115-120 баков - это не на много дороже обычных материнок.

Ускорители физики - по сути математические сопроцессоры - существовали и существуют поныне и не только в эпоху 3dfx. Их существование зависит только от рнка софта - смогут ли разработчики предолжить то, что сможет нагрузить этот самый FPU. А вот мысль о слиянии видео и FPU - вполне адекватна - при постепенном снижении уровня техпроцесса - наверняка производители отважутся на обьединение процессоров - как это было, когда процессоры PentiumIII объединили в себе и кеш и сопроцессоры...

Блок какой то подозрительно дешевый... то ли он из OEM поставок, то ли просто снимался ушлыми торговцами с готовых корпусов Thermaltake (на сколько я помню в серии Kandalf используются именно такие)

0

G-ман, а можно х1900гт до частот х1900хт разогнать? или в этом пока нету смысла?


midnight, у нас кстати тоже х1900гт 10500 стоит.

0

Вот-вот...
А то 7800GT меня начинает выводить из себя... Только ещё мне придётся, наверное, покупать б/п помощнее (сейчас 430 Вт Термалтейк).

0

Сколько поддерживает радеон 1900xt пиксельных конвейров

0
Image Hosted by ImageShack.us
Image Hosted by ImageShack.us
Image Hosted by ImageShack.us
Image Hosted by ImageShack.us

Tomas Anderson
П-О-З-Д-Р-А-В-Л-Я-Ю!!!
А чего Sapphire то взял? Там вроде бы разлачивались лишь самые первые партии. Да и GeCube или Power Color дешевле. Я вроде слышал что сейчас только в их GTO иногда попадаются XL. Тем не менее искренне за тебя рад. То, что даже без разлочки эта видюха просто СУПЕР за свои деньги, думаю, знают многие. Я и сам собираюсь её взять. Только брать наверно буду от GeCube за 6000 р. Кстати при разгоне в такую жару побольше уделяй внимание охлаждению мосфетам. Они у X1800GTO расположены под длинным радиатором:

P. S. К тебе ещё такой вопросик - обязательно ли для нормального определения этой видеокарточки иметь последнюю Риву (16-ую)? А то у меня 15.8, может она сгодится?

0

Спасибо но я джики ник а чики нык

0

Да и хотел спросить когда эта карточка подешивеет

0

я вот тут подумал. Может лучше вместо х1900гт взять 2 7600гт в сли? и какой блок питания это утянет?
ATX 550W FSP ATX-550-60PLN (28+8) такой пойдёт?

0

Чебурашка не все богатые как ты вот я допустим беру радик 1900 xt

0

jiki nik :

оо молодец тоже класная карточка бери бери )

0

Тот же X1900XTX, только частоты чуть пониже...

0

Пацаны а скоко надо питания для радика 1900 икст

0

Ну 480 хватит для всего системника и сколько он будет стоить

0

to Shader 3.0
Riva нужна всё-таки 16, но она весит всего 1Mb, так что думаю скачать проблем возникнуть не должно. И насчёт мосфетов не парься, я сразу как купил X1800GTO сразу поставил вентилятор снизу на обдув. И то что конвееры открылись - это и правда ЧУДО, т.к. даже на overclockers.ru в самом начале темы написано: "FAQ по X1800GTO
Разблокировка конвееров невозможна! Эверест не правильно показывает число конвейеров!"
http://forums.overclockers.ru/viewtopic.php?t=136059
Так что скорее всего мне попался просто один из первых образцов, так я его заказал в середине мая, и он лежал в магазине до тех пор пока я не накопил нужную сумму и не купил эту видеокарту!!!

0

Ну чё мне никто не скажет то?

2х7600GT SLI будут лучше одной x1900GT?

0

Lord Alucard
Судя по тестам с оверов - 2 7600 GT в SLI круче чем один X1900GT - причем разница приличная - где то 15-20 fps.

0

Стоят они дороже на 2/2,5 тысячи рублей.
К тому же у них одно премущество. Их можно купить по очереди, если сразу не всей суммы)

0

Какая видюха лучше 512Mb PCI-E X1900XT VIVO 2xDVI [Sapphire part number: 102-A52025] OEM 14000р
или 256Mb PCI-E 7900GT VIVO 2xDVI [MSI NX7900GT-VT2D256E] Retail 11000р
Вообще я всегда брал видеокарты nvidia и даже для этог взял Asus a8n sli так что теперь ломаю голову че брать или nvidia и через пол годика докупить вторую или ATI........

0

Lord Alucard
Лучше покупать сразу обе и желательно не только от одной фирмы, но и из одной партии - что бы избежать всяких неприятностей в виде различных версий биос на картах... Я бы взял парочку от MSI - охлаждение там супер...

0

Хочу взять вот так:
мб: Socket 939 NVIDIA nForce4 SLI Foxconn NF4SK8AA-8KRS
цпу: пока не определился, хочу брать после понижения цен. Но это будет атлончег х2
видухи: PCI Express 256Mb GeForce PCX 7600GT Sparkle SP-PX76GDH DDR3 (128 bit) HDTV DVI RTL (на данный момент 2 этих видеокарты обойдутся в 13732р.)

а вот блок питания к этому всему какой понадобится?
550w будет достаточно?

0

Pantamo, сравнивать GT и XT - это кощунство.
512мб 7900 GTX - но она стоит дороже. порядка 20

0

Пацаны значит радик 1900 икст лучше 7900 гт

0

jiki nik:

Дружище конечно лутще бери радик , он побыстрей будет да и сможещь одновременно играть HDR+Antialising , а на 7900gtx такой финчи нетущки )

0
Image Hosted by ImageShack.us
Image Hosted by ImageShack.us
Image Hosted by ImageShack.us
Image Hosted by ImageShack.us

Tomas Anderson
Про небольшие размеры Riva Tuner я действительно подзабыл (Unwinder'у огромный респект, не смотря на наши с ним разногласия на счёт NV41/42). Попозже обязательно скачаю. А насчёт мосфетов - это я ещё на оверах спрашивал (как раз в той ветке, ссылку на которую ты дал). Я тоже думаю прикупить 90 мм-ый вентиль для дополнительного охлаждения X1800GTO (как только куплю саму видеокарту). А насчёт предзаказа видеокарты - это ты конечно схитрил.
Lord Alucard
Если есть возможность, то бери лучше 7600 GT от MSI. У них на этой карточке охлаждение действительно просто отличное. А вообще две 7600 GT в SLI будут на уровне 7900 GTX. Так что у тебя очень мощная сиситемка должна получиться.

0

Народец добренький скажите как мне лутще качать дровищки Catalysm 6.5 для x1900xtx , там есть просто драйверок и еще с подержкой контрол центра , как мне лутще качать полный пакет или только display driver ?

0

Слушайте а серьёзно говорят что люди смотрели на скрин с шейдерами 4 он просто сказка а скрин игры с шейдерами 3 как на плэхи 1 по сравнению с шейдерами 4

0

2 Chrburashka

Если будешь качать полный пакет, то будет все на английском. Надо скачать Display Driver Only. А дальше на выбор русский Catalyst Control Center или прогу ATI Tray Tools.

0

alexandr82:

а как вообще полный пакетик работает ? он там не глючит не чево или от язычков не чево не зависит ? я просто хотел скачать полный пакетик чисто с сайтика www.ati.com :)

0

Ребята помогите пожалуйста что у меня за трабла когда устанавливаю игру она зависает при установке потом я поставил виндовс икспи устанавливать ну он перд началом установки ну чето собирает ну там ещё написоно нажмите ф6 для восстановления ну да ладно потом комп типа переггружается и в верхнем левом углу мигает ну тюре ну так и должно буть тоесть она помигает и начинается установка винды а уменя она мигает бессконечно и дисковод заглухает ранее замечалось на старом дисководе потом у меня полетел блок питания и мне знакомый радиомеханик поставил какуюта шняжку ну и блок вроде стал включать камп помле этого я стал замечать на старом дисководе такие траблы ну у меня разлетался дисковод и я подумал на него шас купил новый дисковод и опять такие траблы да к статьи старый дисковод у меня работал до поломки блока питания вроде без всяких трабл в чём эта проблема и как это лечить помогите пожалуйста люди добрые

0
Image Hosted by ImageShack.us
Image Hosted by ImageShack.us

Cheburashka
В этом месяце должны выйти дрова Catalyst 6.6. Если проблемы со скачиванием 6.5, то можешь дождаться этих.
To All
Люботыный эксперимент сейчас провёл (особенно будет полезен ламеркам, гонющимся за мегабайтами памяти на видеокарте). Решил я чего-то установить давно забытый DOOM3. Поставил, запустил, вроде всё летает. Потом решил посмотреть на глюки в режиме "Ультра качества" (у моей видеокарты всего то 128 МБ памяти). Выбрал режим "Ультра", тут конечно же появилось предупреждающее сообщение о том, что для выбранного режима нужно 500 МБ видеопамяти (т. к. используются несжатые текстуры), но я нажал "всё равно продолжить" и перезапустил игру. И что же я потом увидел? На максимальных настройках в режиме "Ультра", 1024х768, 4хАА fraps показывал стабильно 30-60 fps. Вот так то, товарищи. Выводы делайте сами. Скажу лишь одно - не ведитесь на всякие там 6600 LE 512MB. Это полнейший развод, что ещё раз доказывает мой эксперимент.
P. S. полный конфиг - Athlon 64 3000+, 1,5 GB Ram, 6800 LE 128MB.

0

Ребятушки я знаю что я не по теме но помогите

0

Пацаны ну в чём может быть трабла может питания не хватает как это узнать

0

Да,млин.... Читаю ветку - обзавидовался, стока бабла у людей такие крутые карточки покупать. Я могу пока только мечтать. :-(((

0

Иди отсюда глаза свои не мазоль

0

Сегодня просматривал прайс Ультры. Был весьма удивлён. Вот некоторые примеры:
256Mb PCI-E X1800 XT VIVO 2xDVI [Sapphire part number 102-A52004] Retail 8500 р.
256Mb PCI-E X1900GT TV 2xDVI [Sapphire part-number] Retail 9000 р.
512Mb PCI-E X1900XT VIVO 2xDVI [Powercolor] Retail 13000 р.
512Mb PCI-E X1900XTX VIVO 2xDVI [Sapphire 102-A52021] OEM 15500 р.
256Mb PCI-E 7800GTX TV 2xDVI [Chaintech] Retail 13000 р.
256Mb PCI-E 7900GT VIVO 2xDVI [MSI NX7900GT-VT2D256E] Retail 10500 р.
512Mb PCI-E 7900GTX TV 2xDVI [Leadtek PX7900GTX-TDH512 256bit] Retail 15800 р.
А теперь сравните цены на видеокарты-конкуренты: X1800 XT vs 7800 GTX, X1900 GT vs 7900 GT, X1900XTX vs 7900GTX. X1900 GT дешевле 7900GT на 1500 р., а X1800 XT дешевле 7800 GTX 256MB аж на (!) 4500 р. Да уж, с такими ценами ATI вполне может претендовать на лавры народной любимицы (ИМХО).
З. Ы. Что-то неладное творится последнее время с графическим рынком.

0

Слушайте ребят а такой проц нормульный BOX Pentium-D 930 3,0 GHz, LGA775/ 2x2MB-800MHz EM64T BX80553 930

0

Нед....греется и слабый...ну почему незя подождать АМД Х2 подешевшего ??!?!?!??! =((((( а если не хочешь ждать,то пожалуста...бери этот,который просирает обычному 3400 + (Атлону) ,а то и 3200+...(даже в тесте где используется многоядерность (я о Обливионе) 930-ый тока 3200+ смог сделать,а до 3400+ не хватало,и это при том,что он двудяерный и просирает одноядерному!

0

Да у меня материнка не поддерживает проц у меня написоно Intel pentium D LGA775 pentium D proccesor
кроме процессора Д других мне покупать не стоит смысла так как он не подойдёт

0
0

6600Gt лучше 6600 gt бери но лучше взял бы 7600 гт N6600GT TOP LIMITED EDITION/TD/128M GeForce 6600 GT - будет иметь частоты 550/1100 МГц, сверх быструю память 1.6 нс GDDR-3 объемом 128 Мб, и хорошую систему охлаждения - медный кулер;
N6600GT/TD/128M GeForce 6600 GT, - этот вариант не значительно отличается от прошлого, он имеет менее быструю память(GDDR-3 объемом 128 Мб), частоты ядра и памяти 500/900 МГц соответсвенно;
N6600/TD/128M GeForce 6600 - карта имеет частоты 300/550 МГц и память DDR объемом 128Мб (TSOP);
N6600/TD/256M GeForce 6600 - на этой модификации установленно 256МБ памяти, работающие на 500 МГЦ, а остальные данные не отличаются от предыдущей карты.

0

Gringo7
Ну не все так уж просто - далеко не все 6600 GT имеют медный куллер, память хоть и DDR3 но не такая уж быстрая - за совокупную цену можно взять 7600 GS - карту куда как более быструю, с отличным разгонным потенциалом и тепловыделением гораздо ниже чем у 6600. А младшая шестая серия жифорсов - это позавчерашний день - да и переплачивать за всякие TOP и Limited Edition - глупо...

0

Gringo7
У 6600 частоты 300/500 МГц (чип/память соответственно), у6600 GT - 500/1000 МГц. А вообще "FX 6600" не существуют, просто некоторые "грамотеи" в прайс листах своих фирм по-прежнему пишут FX, совсем не подозревая, что GeForce 6 уже не относится к этой серии.

0

Ребят я давненько задавался вопросом на счёт сколько впс примерно будет выдавать Crysis на такой конфе proc 3.0 opearativki 1 gig ddr2 video radeon x1900 xt 512 mb

0

shader 3.0, когда игре не хватает видеопамяти, то она начинает использовать оперативку. А у тебя 1,5 гигабайта ОЗУ. вот на 512мб ты бы запустить в таком режиме не смог.

0

Ребят у меня нормулно поставится виста а

0

Lord Alucard
вот на 512мб ты бы запустить в таком режиме не смог.
Да и с 1024 МБ такой режим не играбелен - постоянный своп просто выводит из себя. Но ведь, если использовать оперативную память (кстати подобная технология у АТИ называется Hyper Memory, у nVIDIA - не помню) под текстуры, то это должно здорово снизить быстродействие (видеопамять, которая находится рядышком с ГП работает на частоте 700 МГц DDR, а оперативная память, расположенная совсем на другой плате - на частоте 400 DDR). Поэтому сильное падение производительности неизбежно, а у меня что с высоким качеством текстур, что с ультра качеством - разницы практически нет. Так что думаю под 500 МБ видеопамяти разрабы имели ввиду очень мощную видеокарту, т. е. топовую, для которой 512 МБ памяти - оправдано. Шутники. Но тест ещё раз проведу (в высоком и ультра качестве), более внимательно.

0

У nVidia эта технология называется Turbo Cache...

Меня мучает вопрос: сколько пиксельных конвееров у X1900ХТ (ХТХ)? 16 или всё-таки 48???

0

недолго плакать осталось месяцок

0
Image Hosted by ImageShack.us
Image Hosted by ImageShack.us

Lord Alucard
Ещё разок потестил. Фрапс показывает прибавку около 5-10 фпс при переходе от режима ульра к режиму высокого качества текстур. Всё равно ничтожно мало. Ведь у видяхи 128 метров памяти, а разрабы говорят о необходимости 500МБ.
Jiki nik
Да без проблем.

0

а меня мучает вопрос, какой мне блок питания надо под две 7600gt?????

0

Jiki nik
Мой последний пост посвещался ответу на твой вопрос Ребят у меня нормулно поставится виста а.
Midnight
16 - текстурников, 48 - пиксельных конвейеров.

0

я знаю что для двух 7900gtx мин надо 500W , а они соотвественно больще двух 7600 может надо 640W )

0

Да нет... Везде пишут 48 БЛОКОВ пиксельных конвееров.

0

Да шейдер 3 а я та думал бабла займёш хех

0

Слушайте пацаны а на какую настроку я смогу замутить кризис со свое конфой которую я собираюсь брать

0

Какой комп можно собрать на 30000р.
мать-gigabyte 915p
проц.-celeron d(330)2600
видео x800gto 256mb
оперативы 1gb
Что лучше 2х7600gt или x1900xtx?

0

Пацаны какой камп нужен что бы увидеть красату кризиса моего хватит

0

Midnight
Вся 1900 серия имеет 48 конвееров, ну кроме GTO, но там их разлочить можно.

Jiki Nik
Crysis
у тя потянет на ура на максимальных настройках с выключенными аппаратно 4-мы шейдерами и эффектами DirectX10.
Плюс возможно будет подтормаживать при большом скоплении врагов в округе, так как CPU на 3GHz (Intel?) сегодня слабоват.
НУ а так можешь бльше е париться и бежать в магазин

0

Спасибо но чё у меня мать другого проца не может потянуть ну наверно не подойде атлоновский да и графика у меня будет как на скринах

0

Ребят а чё теперь все игры будут требователны как кризис да и сколько будет стоит жираф восьмой ещё не известно а

0

Нет не все игры будут так требовательны как кризис еще по крайней мере два года.
Вспомни, когда был сезон Великих Экшенов Современности, вышли Far Cry, Painkiller, DOOM 3 и HL2.
Да там была инновационная и революционная графика, но до сих пор больше половины выходящих сегодня игр (да что там почти все за исключением хитов) и рядом не стояли с этими монстрами. На этих играх вот уже два года как тестят системы, как mainstream так и хай-енд, просто такие эпические игры как Crysis к своему выходу опережают индустрию на пару годков, вот и все. Поэтому купив сейчас такую систему как ты хочешь ты будешь нормально играть во все игры на максималках, ну а с монстрами типа Кризиса и Анреала 3 придется-таки потерпеть отсутствие четвертых шейдеров и не самую высокую графику.

0

Ну я б не сказал, что Painkiller был такой уж революционной игрой

0

Ребят а я видел скрин ну где обсуждают кризис там такая красота и облака и море и джунгли и солнце на моей системе можно будет такое увидеть ну хотяб батьку показать вот батя не зря мы купили такое видео

0

Слушайте пацаны в чём может быть трабла вот у меня игруха San andreas падла тормозит хотя раньше не тормозила

0

А вот черт знает в чем.
У меня тоже раньше не тормозила ВООБЩЕ.
А теперь 11 кадров в секунду!
Так и не вылечил этот глюк, поэтому в нее больше не играю

0

Ребят можете мне на вышеуказаные вопросы ответить

0

Были оглашены минимальные системные требования Crisys -

2 ггц проц
1024 mb памяти
Видеокарта с поддержкой PS 2.0 с объемом памяти 256 mb

Рекомендуемые -

Мультипроцессор (2 и более ядер)
2 ггб RAM
Видеокарта с поддержкой PS 4.0 и обьемом памяти 512 mb и выше...

0

НУ про проц - это херня.
Сам могу подтвердить. Сейчас все игры уже требуют не меньше 2 гигагерц, а у меня Cel1700 все так же их вободно запускает, правдо ятнет не очень

0

Запускает из-за наличия инструкций SSE.

0

Ребят а какое железо нужно чтоб в кризис на среднемаксимальных поиграть да и какая там будет картинка на шейдерах 3

0

Ребят помогите ответо смогу ли я увидеть такую картинку на Radeon x1900 xt 512mb

0

Вот картинка http://forums.playground.ru/crysis/115969/

0

ИМХО, ты её и на G80 не увидишь...
Фотошоп рулит )

0

Слышь, да ты уже запарил тут всех изрядно.
ОТКУДА НАМ ЗНАТЬ???? МЫ ЧТО, МЛЯ, В НЕГО ИГРАЛИ???

0
ЗАГРУЗИТЬ ВСЕ КОММЕНТАРИИ