nVIDIA GT200 vs AMD (ATI) RV770

Комментарии: 484
Тема закрыта. Публикация новых комментариев отключена.

Ну теоретически R700 тоже должен жару дать)))

0

Помотрим как оно это всё в реальности будет...

0

теоретически ати всегда жару дает , а на пркатике фтопке горит

0

Интересно , будет ли этим видюхам хватать 600ватт бп

0

ZaetsUA
30-40% улучшения по сравнению с rv670 это ОЧЕНЬ мало.. Это уровень 8800gts 512- 8800gtx// С таким быстродействием для АТИ это будет снова провал... Надо чтоб они были на уровне 8800ultra ..

0

M Schumacher

Может ты хотел сказать начиная от уровня ULTRы, и выше, ибо уровень ULTRA уже не актуально!)

0

Для этой видюхи подойдёт такой конфиг.
P35LD Deluxe
2GB RAM(купил 8ГБ.но не купил 64-битную опероционнку.)
Core 2 quad 6600QX 2.4Ghz (разогнан до 2.93Ггц.)
600W-ый блок питания.(Если надо то поменяю аж до 800 или 900 вольт.)

0

В-А-Й-Л-О
Не актуально?? В низких разрешениях и без сглаживания да, у неё производительность как у 8800gt - но при нормальных разрешениях и сглаживании она способна спорить и с 9800gx2 (8800gts sli) . Всё таки 384битная шина даёт о себе знать. Ultra даже на сегодня является одной из лучших карт способных тянуть и сглаживание и нормальное разрешение. А не эти Огрызки на g92 которые загибаются на высоких разрешениях. И памяти кстате у неё больше - а это тоже важно -я писал в соседней теме что у меня на 8800gts 512 памяти в Crysis не хватает.

Золотой волк
Мощность БП измеряется в Ваттах... Вольты это напряжение.

0

Золотой волк
но не купил 64-битную опероционнку.
150р. в палатке...
Или у тебя все по честному? ;)

600W-ый блок питания
Есть БП у которых ватты, а есть у которых вата... У тебя какой?

0

M Schumacher

Не надо говорить что чип G92 это огрызок....Он выпускался не для высоких разрешений поэтому он справляется,+цена-производительность=всё потходит! ULtra до сех пор стоит у барыг начиная от 12-16тыщ, не учитывая что уже почти как два года вышла.

PS: Вопрос к тебе. Что-же ты ультру не взял, а взял "огрызок" 8800gts 512?))))

0

В-А-Й-Л-О
ЦЕНА!!! Но!!! Кто мешал Нвидии поставить на g92 память с 384 битной шиной?? Я не говорю что чип плохой а про то что Нвидиа сама берёт и ухудшает свои карты ддля того чтоб заработать побольше, Поставилаб нормальную память и 8800gt былаб мощнее чем ультра процентов на 10. Вот про что я!

0

M Schumacher

Кароче спорить можно, вечно!))
Лично против ультры я ничего не иммею, но цена уж слишком высокая!

0

DDDR5 имеет рабочюю частоту порядко 4х ГГЦ. Но если будет шина 256бита то она конечно Очень сильно урежет производительность, И она будет немногим лучше чем GDDR3 у которой рабочии частоты - 2 - 2.3 ГГЦ.

p.s. я не говорил что будет очередная лажа..

0

конечно будет. Тока нет такой карты 8800gx2 //

0

Скорее всего практически сразу после 9900gtx - АТИ тоже очень быстро собирается выпустить 4870x2
А вот предварительный тест 4870 в сравнении с 9800gx2 http://www.3dnews.ru/news/radeon_hd_4870_protiv_geforce_9800_gx2_v_crisys_sluhi/

Как пишут доверять этому можно так как тот сайт что выложил тест в прошлом так же угадал с быстродействием предыдущих карт.

0

M Schumacher
Я бы не стал думать ,что 256 бит будут ограничивать память GDDR5 , поскольку Нвидиа заявляет , что при переходе на эту память также урежет шину у GT200 до 256 бит , т.к у GDDR5 очень высокая пропускная способность и 512 бит будут избыточно. Читал на оверах , возможно конечно пока слухи.

По поводу твоей ссылки , хотелось бы верить что все будет так , ну уж че то слишком сильный прирост производительности для Радеон , не сходится с информациями о 40% при переходе от RV670. Ну будем верить в лучшее :)))

0

Guide
Первый раз такое слышу и ничего подобного не читал. А читал вот что - что они её не ставят так как 512битная шина дорого обходится по деньгам. Пока что большая пропускная способность шины никому не мешала))) ДА и теоритически 512бит шина всегда будет лучше чем 256 какаябы память не была.
У GDDR5 ещё большая пропускная способность а значит что шина 256бит будет ещё более критична чем на GDDR3 / А ставить её будут только из соображений экономии.

0

Жду видюху!
Узнать бы ,сколько будут стоить две GT200?(Geforce 9900GTX x2)
У меня вот на неё только накопилось 55000руб.
Если в Crysis на максе(без сгл.и без анизатропии)в разрешение 1280х1024 этот монстр
будет выдавать меньше 70-80фпс.то тогда я буду сидеть со старушкой Geforce 8800GT 512mb.
Буду ждать 10 серии.

0

если этот монстр не выдаст на 1600х1050 со сглаживанием и макс. антизатропией на вери хай 40fps тогда фтопку его

0

Самое лучшее разрешение для Crysis для нынешних видеокарт это 1152х864.
Выглядит как 1280х1024 только ступенчитость на дальних расстояниях больше и немного более размазано.

0

M Schumacher
Вот ссылка где прочитал про шину 256 бит - http://www.overclockers.ru/hardnews/28862.shtml

0

Guide

Я поражаюсь как люди читают ....

" Шина памяти будет расширена до 512 бит, тем самым будет достигнута приемлемая пропускная способность. Позднее, с переходом на быструю память типа GDDR-5, компания NVIDIA вернётся к более выгодной в производстве 256-битной шине. Её сужение будет компенсироваться высокими тактовыми частотами нового типа памяти. "

Золотой волк
Лучшей разрешение это 1680х1050 . При этом играю на Very High в XP на своей 8800gts 512/ И отлично.

0

M Schumacher
Это ты к чему про то как читают ? Если к тому , что я сказал , что шина 512 будет избыточна , да мальца приувеличил , конечно чем больше шина тем лучше.
Я не спорю , что шина поначалу будет 512 бит , да так и есть. Я лиш сказал , что со временем Нвидиа перейдет на шину 256 бит. Помоему это ты говориш о не целесообразности использования GDDR5 с шиной 256 бит , я же лиш сказал (своими словами) о том , что написано "Её сужение будет компенсироваться высокими тактовыми частотами нового типа памяти".

0

Guide
03.05.08 21:11 "при переходе на эту память также урежет шину у GT200 до 256 бит , т.к у GDDR5 очень высокая пропускная способность и 512 бит будут избыточно" - Вот что ты написал, что якоюы 512бит будут избыточными.
А 256 бит конечно нецелесообразно использовать на такой отличной памяти - это тоже самое что на машину которая расходует 20литров на 100км поставить Бак объёмом 1литр ...

0

M Schumacher
Исходя из информации , которую мы с тобой прочитали , напрашивается вывод , что 256 бит c использованием GDDR 5 по увоню быстродействия не будет уступать 512 бит с GDDR 3 , поэтому думаю глупо рассуждать о целесообразности , GDDR 3 с использованием 128 бит шиной работала эффективней чем ddr2 с 256 бит.

0

Мля 40 fps на вери хай без сглаживания - это как раз результат будущего радеона, чё тут за дебошь устроили мол результат высокий так млять включи ты сгалживание по максу и просядит до 10 к.с.

0

Вот думаю как будет по ценам радики будут идти от 450$+ а nvidia будут идти от 600$+ (производительность радиков , как мне кажется будет на 20-30% меньше чем нвидиа , но цена будет сильно отличаться ) короче я наверное свою 8800gts 512 поменял бы на радик за 400$ чтобы он был хотя бы на 5-10% производительнее ультры.

0

Guide
То что она будет примерно как ddr3 с 512б это понятно. Но зачем тогда спрашивается продвигать новую БЫСТРУЮ память и ЗАМЕДЛЯТЬ её ??

0

Ну а зачем использовать дорогущую 512 бит шину , когда без потерь можно с таким же успехом 256 бит иметь. Чип то получится огромным и доргим , поэтому нужно будет его удешевлять , к тому же производство GDDR5 будет обходтся дешевле(ненамного) чем GDDR3 , в дальнейшем при смене архтектуры и переход на более тонкий тех процесс возможно вернут шину 512 бит. Опять же это все слухи и рассуждения , не факт что Нвидиа вообще уберет 512 бит шину если она будет давать ощутимый прирост по сравнению с 256 бит.

0

как это без потерь?? 256бит шина даст значительное ограничение в быстродействии gddr5 и уровень быстродействия будет как у gddr3/ И только с 512битной шиной gddr5 полностью сможет раскрыть свой потенциал.

0

M Schumacher
как это без потерь??

Без потерь относительно 512 бит с использованием Gddr3 , дешевле же использовать 256 бит с GDDR5 и получить такое же быстродействие.

0

Лучшей разрешение это 1680х1050 .
---------------------------------------------
Я говорю по производительности лучше 1152х864(только для мониторов с 1280х1024)

0

всегда хотел узнать! к примеру равна ли стоимость денег затраченных при производстве (на заводе) лажовой карты (Например 8500гт) и high-end (9900например??

0

ZaetsUA
M Schumacher абсолютно прав, если появиться быстрее тип памяти то неужели будут ставить 128 бит?? ето всеровно что 2+3, 3+2, 4+1 результат один - 5. надо же продвигаться?? и вобще, я думаю что для лучшей производительности не будет жалко добавить денег.
так что 512 GDDR5 ето было бы очень здорово, да так и будет, только позже.

Короче сделаем простой вывод из моих слов и перестаем это все по 10 раз обсуждать :компания Нвидиа собирается выпустить чип GT200 с разрядностью шины 512 бит , при этом используя память GDDR3 , впоследствии Нвидиа собирается перейти на память GDDR5 и для удешевления производства введет шину 256 бит(при условии , что сокрость от такой рокировки как минимум не снизится) , в дальнейшем если конкурентная обстановка будет жесткой нвидиа вполне возможно выпустит карту с 512 бит с использованием GDDR5(вполне вероятно она сделает это сразу , все будет зависеть от AMD/ATI на сколько их продукты будут конкурентно способными).

0

Le Shiffre
Если бы она была равна , лажовых карт бы просто не было :))) Отличий очень много : длина платы на которой располагается чип , кол-во слоев из которых сделана эта плата , кол-вом транзисторов в видеочипе , ширина шины , тип памяти используется абсолютно разный(чем она быстрее , тем дороже соответственно) , в более дорогих картах соответственно большее кол-во процессоров , текстурных блоков , блоков Rop , система охлаждения порой ставится дороже чем вся 8500 gt может стоить и еще очень много различных параметров. Как ты понимаеш это все берется не из воздуха и стоит денег , вот поэтому стоимость производства тоже разительно отличается.

0

Le Shiffre
между картами LOw end ( 8500) и high end (9800 ) конечно разница огромна. НО например если взять 8800gt и 9800gtx то там то как раз разницы практически нет. А тем более между gt и gts - очень часто карты среднего уровня - это специально ограниченые карты топ уровня - то есть берётся топ карта и у неё отключаются пару конвееров допустим. Это обычная практика.

0

Друзья! Вы хотите GDDR5-512bit, только какой проц это нормально сможет переварить? Процы 20-30 т.р. в расчет не брать.

0

AlexGL123
во 1х 512память даёт Огромную производительность в высоких разрешениях (не менее 1600х1200 и более) , в которых проц не важен так как на видюху ложится громадная нагрузка.
во 2х проц за 7тыс при среднем разгоне будет быстрее проца за 30тыс. И даже двуядерный wolfdale (5-7тыс) разогнанный до 4х ГГц по производительности будет равен q9650 ( 30тыс)

0

А нк все понял:)Спасибо:) GuideM Shumaher

0

надеюсь, что вот эта инфа не фейк http://www.overclockers.ru/hardnews/29190.shtml и оно правда будет 18 июня

народ, как думаете, какой бп нужен будет для одной 9900гтх (зову пока старым названием :) ) и для двух таких же? :) например от ФСП.. исходя из того, что и другие внутренности будут не пнем 3-им и ко.

2. и как думаете, каких размеров будет сие чудо и в какой корпус они собрались размещать 2 и 3 таких карты... в фулл-тавер я полагаю в любой влезет или нет? а что насчет миди? как думаете?

0

1) заявленное потребление - до 250W - значит одной нужно будет ватт 600 БП. А 2м 1000.
2) не думаю что очень длинными. Уж не длиннее 3870x2 .

0

1000? стало быть, если с запасом, то еще больше? мда.. фсп таких и не делает выше тыщи, Эверест на 1010 знаю

0

1000 уж точно хватит 2м видюхам причём с запасом. Делает Thermaltake , CoolerMaster , FPS тоже есть - KingCraft 1000w , Chieftec . Правда стоят порядка 200-250$ ))

0

угу я знаю цену, в прайсе санрайза глядел, там почти всегда в большом количестве Эверест 1010вт есть :) как раз у него разборное питание 24 пин, и как указано можно и 24+4 делать и 24+8 для мамок

0

а на сколько процентов 2 карты 9900гтх будут производительней, чем одна? может слай и не стоит того?

0

ну пока что sli в лучшем случае при великолепной оптимизации игры в дровах даёт прирост 60-70% Но таких случаев очень мало. Кроме того прирост наиболе существеннен в очень сложных режимах в которых и sli не выдаст играбельный фпс. В среднем же 30-50% прироста при том что платишь ещё 100% цены. SLI как и Crossfire всегда были технологиями для богатых энтузиастов , готовых платить кучу денег за небольшой прирост.

Но если 9900gtx (GTX 280 ) - название пока что не определено точно - будет реально в 2 раза быстрее 8й серии то никакого sli просто не потребуется. Crysis будет летать под DX10 со сглаживанием . Остальные игры и подавно.

0

NightKeeper
В кризисе с разрешения 1280X960 /1024 идет очень большая нагрузка на видеокарту , процессор уходит на второй план , ну у тебя вполне нормальный проц.

0

M Schumacher, небось и игр-то мало, поддерживающих слай? или все новые поддерживают? а сам-то ты как к слаю относишься?

0

поддерживают то практически все. Вопрос в том - как они его поддерживают. Проблема sli - ты не сможешь нормально поиграть в новую игру пока не выйдут дрова с оптимизацией под конкретно эту игру. До этого придётся довольствоваться скоростью одной. А бывает что sli медленнее чем одна))

Против. Можно покупать только если много денег. А так всегда лучше купить полностью новую видюху чем докупать ещё одну старую и ставить в SLI/ Если покупать так это sli из новейших ТОПОВ. Но денег немеряно нужно. И получишь + 30-40 % производительности в среднем и дох*я понтов.

0

скорей бы вышли карты с чипом gt 200, тогда я смогу найти за 100 у.е уже некому не нужную 9800GX2 и построить quad-sli :)!

0

Rohen
Еще не забудь материнку сменить , на nforce 790i или 780i. Вот только они стоят не дешевле 6-7 тысяч.

0

Guide
Еще не забудь материнку сменить , на nforce 790i или 780i.
материнку я сменю как только появится Hidrid power для intel, а то придётся на один свет работать!
Вот только они стоят не дешевле 6-7 тысяч.
на это дело мани я уже отложил!

0

Всего за месяц до своего выхода видеокарты, основанные на чипе GT200 от NVIDIA: GeForce GTX 280 и GeForce GTX 260 наконец-то раскрыли свои спецификации.

GeForce GTX 280:
- Интерфейс видеопамяти 512-бит
- 1024 МБ видеопамяти типа GDDR3
- 240 потоковых процессоров
- PCIe 2.0
- SLI (3-Way SLI не поддерживается)
- DirectX 10.0 и OpenGL 2.1
- Поддержка технологии PhysX
- Цена $500

GeForce GTX 260:
- Интерфейс видеопамяти 448-бит
- 896 МБ видеопамяти типа GDDR3
- 192 потоковых процессора
- PCIe 2.0
- SLI (3-Way SLI не поддерживается)
- DirectX 10.0 и OpenGL 2.1
- Поддержка технологии PhysX
- Цена $400

Обе видеокарты должны появиться 18 июня 2008 года.

0

Alexandr82
это правда?! )) где взял, дай ссылоку пож )) респект) 1 гиг это круто...

0

Самый прикол что с DX10.1 похоже снова облом, nVidia так и не может переделать архитектуру.

0

странно, а чего они частоты не указали ни одну..

0

Celestial Spirit aka MeitDeist
Видимо частоты не сильно будут отличаться от нынешних , архитектура то похоже останется той же , просто увеличат кол-во унифицированых блоков , тестурных блоков и блоков Rop.

0

так как они будут 55nm то думаю частоты будут выше чем у g92 .

0

если частоты будут такими же или чуть выше.. тогда что сделает ее одну быстрее, чем гх2?

0

2Alexandr82 Если немного подумать , то Дх10.1 на сей день наф никому не нужен!Это факт...
- SLI (3-Way SLI не поддерживается) и правильно , т к это понты для барыг...)Лучше бы они вообще отказались от SLI и сосредоточили все силы на улучшении производительности одиночных своих карт...всё равно в играх куча ошибок из за этих SLI...

0

Привет всем!!!
В железе не очень разбараюсь GTX280 на сколько будет мощнее чем GTX 260.

0

...Yakuza...
быстрее будет где то на 18 - 20% не больше.
dx10.1 - это фигня, до сих пор dx10 толком к играм не прикрутили, а вот sli штука полезная (3-Way SLI это извращение - имхо), я лично ошибок из за sli ни в одной игре не заметил - это гон чистой воды. просто некотрые игры не держат sli, а в некотрых его надо в дровах врубать, или например в lost planet в настройках самой игры!
лично я ждал большего от gt200, если указанные выше спецификации правдивы, мне кажется нет смысла слезать с 8800/9800

0

Celestial Spirit aka MeitDeist
Примерно тоже самое , что делает 8800GTS производительнее чем 8800GT кол-во универсальных процессоров. В GT200 обещают около 240 универсальных процессоров ,120 текстурных блоков и увеличенное число ROP(не помню сколько точно)

0

2Sanderland
>>а вот sli штука полезная >> Чем она полезная? обоснуй? Только не так ..."что SLI позвол неск картами текстуры обрабатывать"... а так чтоб все поняли

0

кстати, а радеон ддр5 туфта полная, где-то читал, что при своих заоблачных частотах будет лучше 9800гтх всего на 30 процентов, 280 порвет ее как молодую, впрочем как всегда

0

Celestial Spirit aka MeitDeist
Для карты ценой в 300 баксов помоему будет неплохим вариантом как думаеш? АМД позиционирует свои карты RV770 для среднего ценового сегмента , Nvidia же будет стоить 500$ само собой она должна порвать ее , AMD же будет противопоставлять ей 4870X2.

А как всегда это как не расскажеш историю , видеокарт полследних 4 лет и данные как Нвидиа постоянно их рвала ? В большинстве случаев картина была обратной.

0

хD угу, назови тогда, какая одночиповая карта Ати лучше одночиповой Нвидии? не будем спорить, я всегда за нвидию

0

Написал бы сразу : я фанат нвидиа , мне глубоко нас..ть , что она выпускает , я всегда буду покупать ее.
Подожди я сначала хочу услышать ответ на свой вопрос ты сказал как всегда , мне стало интересно , может я и правда чего-то незнаю , хотелось бы узнать чего-то нового или посмеяться :))))

ладно отвечу бегло на твой вопрос , если брать серию 8800 GT ,GTS,GTX то никакая одночиповая карта на данный момент у АТИ не лучше и более того слабее, но помоему история проивостояния АТИ и Нвидиа напоминает мне несколько больше чем 1.5 года.

0

важно ведь, что сейчас, а не что было) честно говоря я железом не интересовался до определенного времени вообще, поэтому хз что там и как было) ты спросишь, с чего я тогда говорю о том, чего не знаю? а хз) всегда наталкивался на то, мол нвидия всегда лучше) слава Ктулху, что она лучше) не нрав мне ати

0

Celestial Spirit aka MeitDeist

Я впринципе так и понял , хорошо , что ты это сам сказал и мне не пришлось с пеной у рта и фыркая искать все тесты :))))
Безусловно важно , что сейчас и то , что Нвидиа доминирует. Просто поверь , были времена когда Нвидиа сидела на достаточно жестком подсосе ,а в основном всегда держался паритет , но флагманские карты АТи считались самыми быстрыми практически во всех линейках , но 8800 изменили эту тенденцию , посмотрим что будет дальше. У Нвидиа есть одно несомненное преимущестов - это ее бренд и даже если она выпустить хламишко это не помешает ей по крайней мере удержать половину рынка. АТи лиш однажды смогла обойти Нвидиа и завоевать 52 % рынка , во время противостояния самых удачныхв истории Ати карт серии 9... против самой провальной серии у Нвидиа FX 5...

0

У АТИ не задались лишь серии 2ххх и 3ххх ( но так как они одно и тоже то можно сказать что её не удалась только одна последняя архитектура.). А вот до этого серии x1xxx , x850 и та серия, 9ххх все они были мощнее конкурентов от нвидии. 9800pro(xt) рвала FX5900 , x850xt рвала 6800 , а 1900xtx хоть и не прям рвала но была получше чем 7я серия нвидии.

Я сам всегда за АТИ. НО к сожалению в данный момент лучше покупать нвидиа (хотя не во всех сегментах)

0

Последняя удачная линейка АТИ это девятитысячники - 9600, 9800 и т д(они даже брали верх над 5ой линейкой gforce) тут с M Schumacher согласен - остальные линейки АТИ туфта за которую не стоит платить деньги...и это так

0

интересно во что вы будете играть на такой видюхе

0

Sergey067
А x850xt и 1900xtx тоже туфта??? Они обе превосъодиле конкурентов от нвидии. Особенно x850xt

0

Sergey067
Языком молоть токо ненадо , то о чем незнаеш , я могу с таким же успехом сказать , что линейки gEforce 6... и 7... полная туфта и могу это мотивировать . Как сказал M Schumacher Radeon X850XT в легкую рвала 6800 просто не оставляя не единого шанса , 1900XTX были примерно на равных с 7900GTX , но 1900XT в щепки рвала 7900GT , 1900GT был примерно на одном уровне с 7900GS , про серию 1950 вообще говорить не стоит лучшая серия карт под DX 9 , к тому же ни одна карта Geforce 7-й серии не могла одновременно поддерживать в играх AA+AF+HDR(тоесть только два режима)) и по качеству картинки получался слив полнейший. Нвидиа же рулила в среднем сегменте 7600GT очень долгое время не имела себе конкурента по соотношению цена производительность и линейка карт 7800 была также отличной вышла намного раньше конкурентов и обладдал отличной производительностью АТИ лиш только через несколько месяцев сделал ответ на флагман (который опять же оказался чуть быстрее чем Geforce). Так , что прежде чем брызгать слюнями лучше пойти тесты проштудировать лишний раз , я не понимаю откуда у фанатов Нвидиа берутся эти мифы про то , что их ненаглядные geforce рвали всех и всюду ? ИЛи вам беслатные бейсболки выдают при покупке ?

0

гм.. на оверлокерах написано мол 280 будет быстрее своего предшественника на 50 процентов, я так полагаю это 9800гтх? т.е она не будет мощнее чем гх2? ( хорошо хоть 512 бит и гиг памяти, большие разрешения хоть силить норм будет

0

Celestial Spirit aka MeitDeist
Неизветсно быстрее кого , возможно имеется ввиду как раз 9800GX2 , если это так , то это будет очень мегамощная карта , если же мощнее чем 9800GTX , то впринципе тоже будет неплохо , но тогда им будет сложно бороться с 4870X2 , конечно нвидиа вполне может сделать и двухчиповый вариант , но уровень TDP будет зашкаливать.

0

плюс пицот тыщ миллионаф тебе!)) прям порадовал, надеюсь это правда)

0

Celestial Spirit aka MeitDeist
gx2 далеко не в 2раза мощнее чем gtx/ А всего на 50-60% в зависимости от оптимизации SLI/

0

это к чему щас было? я такого даже не писал

0

GT 200 рвет квад слай из 2х 9800GX2 по оффициальным данным, как сообщает Nvidia. То есть R780 ему не конкурент = ))

0

откуда такая инфа? гт200 это обще.. гтх 280 одна рвет куад или как?

0

MisterGold, "GT 200 рвет квад слай из 2х 9800GX2..."

Ссылку дай, пожалуйста.

0

Celestial Spirit aka MeitDeist
К этому посту - 22.05.08 18:50

0

в смысле? там я не писал, что она рвет 2 гх2 х_х

0

Ты сказал что GTX280 будет на 50% быстрее 9800gtx / И потом сказал что значит она не будет мощнее gx2 -то есть ты дал понять что gx2 быстрее чем 9800gtx более чем на 50%. Вот я и написал что разница между ними макс. 50% не более. Поэтому GTX280 будет либо равна либо сильнее ( скорее всего ) чем gx2/

0

я не писал, что она на 50% быстрее имено 9800gtx,я лишь предположил, а товарищ NightKeeper указал, что гтх 280 будет мощнее гх2 в 2 раза... а не чуть сильнее ее

0

ну мы все тут предполагаем)) Пока оффиц. инфы не будет и первых тестов.

0

я искренне верю в правдивость инфы NightKeeper'a +)

0

//офф-топ, да простит меня Отец Викториус
чтоб новую тему не создавать :) вот в Мск есть тц Горбушко, также оно имеет сайт горубушко.ру, там есть система поиска, ввожу определенный товар, интересующий меня, выдает большой список от разных компаний и ссылки на них, я так полагаю все, что показало, все это можно купить без проблем в ТЦ Горбушко?

0

Можно. Вот только нужно ли там покупать???? ))

0

покупать комплектующие надо в нормальных фирмах - Sunrise , Oldi (я там брал - отличная фирма) , USN , ULTRA (под вопросом - серым торговала недавно). - Эти магазины во 1х являются официальными поставщиками закупают скорее всего прям у производителя. Во 2х - это гарантия. А всякие левые лавочки которыми кишат рынки типа горбушки и савёловской - мало того что там дороже, при этом есть большая вероятность купить - а) серый товар б) б.у товар тоже возможен в) товар с некоторыми недостатками. При этом их гарантия производится не в специализированных фирменных центрах а прям у них.. И к тому же нет гарантии что эта фирма будет существовать через пол года.
НА Гарбушке или Савёловском можно разве что ещё покупать в отделениях крупных кампаний (там есть USN , Polaris (очень дорогая и далеко не самая лучшая) , ещё какие-то менее известные ). Но лучше покупать в самих этих магазинах.
Вот я покупал практически всё в ОЛди - цена на 100р выше санрайза (в котором самые низкие цены практически на всё) - зато нормальная гарантия (а не санрайзовская 6+24* ), нет таких очередей и самое главное - это один из немногих (если не единственный магазин) спокойно возвращающий товар (MoneyBack) в течении 2х недель. Я им корпус вернул и видюху ( она была с небольшим браком - они её просто проверили на наличие повреждений с моей стороны и спокойно вернули деньги вообще без вопросов. ) А вот в других фирмах ты купил - и всё - досвиданье - попробуй хоть чтонибудь хотябы обменять... Толлько через защиту прав потребителей и писания заявлений)..

0

олди олди.. там нету материнки га-ех38-дс4, там нету корпус Кулер Мастер Нвидия эдишн, там редко бывает моник 245т причем ebq, а не cebq, не знаю различаются ли. В Санрайзе моник лучше не брать. А где брать, если нету в Олди и Ф_центре? нигде. Кулеров в Санрайзе вообще нет.ок, бОльшая часть купится в Санрайзе, кроме моника, кулеров, материнки, видюхи (ее наверно там не будет), оперативки мб. Остальное быть может в Мейджине, Олди, главно чтоб еще колонки были. И главная проблема найти этот моник и чтобы проверяли на битые пиксили. Надеюсь у Самсунгов они очень и очень редко.

0

Celestial Spirit aka MeitDeist

245 - там различия в наличии колонок насколько я помню. Они хреновые так что лукчше без них. Какая именно с колонками я не помню.

В Санрайзе впринципе у них правила нормальные - платишь 300р и проверяешь - не понравился можешь полностью возвратить - так говорила менеджер (она даже звонила начальству уточнять - и даже сказала что + к этой услуге доп гарантия на бит пикселы в течении 10дней). НО сами сборщики (которые подключает и следят пока ты тестишь - они наоборот нивкакую .. Говоят - меняем только если есть битые). Короче надо просто подойти вначале на ресепшн и уточнить там - прям прямым вопросом. И можно смело брать - если что у тебя будет защита . По-крайней мере ты можешь там его тестить 30мин.

В USN очень неплохо с тестом - там тебе никто не мешает - тоже хоть пол часа тесть - можешь попросить принести новый (там проверка прям на выдаче на складе - всё близко). И пока ты не распишешься уже о получении товара - всегда можешь полностью отказаться - думаю там лучшее место для покупки. Я там откказался от Samsung 226bw - он там был на не самсунговской матрице со всеми вытекающими недостатками) - спокойно вернул. А Asus 222u там небыло ,поэтому пришлось связываться с санрайзом.
Советую присмотреться к USN в покупке моника - там хоть и немного дороже но с проверкой проблем нет.

В Олди моник лучше не покупать - на выдаче постоянно торопят ..

А ты что хотел - всё купить в одном месте? Я покупку растянул на неделю аж.. В основном всё в ОЛди (но там в первый день многого небыло -докупил через пару дней как тока завезли). Моник в санрайзе вместе с кулером и корпусом . И нормально.
А вот всякие Мейджины честно не рекомендую.

Я тестил самсунг 226bw 2 раза - в USN и санрайзе - оба были с битыми (причём вылезли только минут через 5-10...
245T вроде более элитная модель и вроде они должны делать более качественно.. Но из-за большого размера ему положено по гарантии большее допустимое кол-во битых. Да и теоретически у 24" на 30% больше вероятности битых чем у 22 например , так как площадь и кол-во пикселей больше.

Так что советую моник брать либо в Санрайзе (с предварительным уточнением) либо в USN/


P/S ДАвай прекращать флуд.... А то забанят ещё)))

0

24" больше битых? неа) ни у кого у этих самсунгов нет)) Мейджин норм, чел один постоянно закупает для компании именно там. ЮСН это что? можно сайт? Санрайз по проверке пикселей гавно. Из рассказов покупателей: дают моник и шнур, берешь свой ноут, которого нет и подключаешь, берешь прогу которой нет и тестишь. Не понравился, проходишь 800 метров со всеми поворотами за другим. В итоге платишь деньги за разрешение потестить на территории магазина, не более того.

0

Celestial Spirit aka MeitDeist
Чем больше размер и кол-во пикселей тем выше теоретическая вероятность битых пикселей.

НЕт. В санрайз ты платишь 300р - и идёшь в зал сборки - там тебе его подключают., включают ТФТ тест + можно свои кортинки с флешки посмотреть и тестишь до 30мин. Проверка достаточно хорошая. Единственная проблема это как я сказал в немного серых правилах - оффициально они возвращают тебе деньги в любой момент пока ты не подпишешь гарантию - но неофициально они дают указания персоналу как можно больше уператься . Надо просто вначале удостовериться об этом у менеджера. И всё -можно брать.

http://www.usn.ru/ один из крупнейших магазинов. Очень неплох - очень много там чего покупал - с гарантией вообще нет проблем - единственный маленький минус - цены не самые низкие но приемлемые.

0

М Schumacher, это я тебе не с потолка беру, а с отзывов покупателей юзавших услугу. Почти у ВСЕХ было именно так, как я написал. И меня такое не устраивает. Шанс, что будет как у тебя - 10%

0

это значит что они либо не ту услугу оплатили либо вообще не оплатили.
У всех так (на том же форуме санрайза куча отзывов) - платишь 300р и идёшь в сборочный зал и тестишь. Я так покупал. При мне там было таких же человек 6.
Разве тоько они изменили правмла за последний месяц. Но это можно узнать всё.

0

блин) я те покажу потом.. с их форума и взято, там все именно так, как я сказал; причем Санрайз может принести моник с битым пикселем, отвергнутый предыдущим покупателем, надо будет глянуть, что за Юсн такой, а если повезет и в Ф-центре он может быть.

0

в Фцентре я тоже смотрел. Но я незнаю сколько долго там можно тестить.

0

M Schumacher
с форума Санрайза..

Покупал монитор за 12к. очень жалел, что не взял ноут.
Особенно, когда увидел что входит в эти 300 рублей. мне просто дали кабель и мышку.... Я бы все равно сам проверял, но на тот момент меня это немного взбесило. Но к счастью ниодного битого не оказалось. (с)

ответ на выше ^ : честно говоря ни разу не видел такого
обычно сами подключали все и при тебе проверяли
кстати после такой проверки давалась доп. гарантия на битые пикселы, помоему в течении 10 дней или 14 (с)

А можно услышать комментарий сведущих лиц по такому вопросу: недавно покупал три монитора, естественно проверял их на месте своим буком, но на выдаче мне сказали, что "по новым правилам" если ноут битый, то на него сразу оформляется возврат и для того что бы все-таки получить монитор, нужно идти и заказывать его заново. Из трех мониторов один оказался с битым пикселем. Пришлось с этими двумя мониторами идти и заказывать еще один (это хорошо еще, что у меня кпп, так бы пришлось еще идти и забирать деньги за возврат, а потом стоять очередь, что бы оплатить новый моник, и т.д.). Раньше можно было до этой "процедуры" менять монитор 3 раза.
Такое ощущение, что администрация санрайз про на складочной, специально усложняет покупателям "жизнь", т.е. становиться все больше нововведений, таких как это (про монитор), расчитаных на психологию что ли. человек понимая, что ему предстоит, что бы поменять монитор уже лучше три раза смириться с этим проклятым битым пикселем... (с)




С платной услугой пробной эксплуатации
- оплачиваем товар + пробную эксплуатацию (300р)
- идем на выдачу
- получаем монитор
- расписываемся в накладной
- идем на сборку
- пробная эксплуатация производится совместно с работником отдела сборки с использованием программного и аппаратного обеспечения гипермаркета, общая продолжительность процесса не должна превышать 30 минут (в это время не включается время на обмен, возврат и т.п.). Подробно об услуге можно прочитать на соотв. страничке сайта. Неиспользованные попытки подбора на другие заказы не переносятся.
- если нашли битый пиксель, то получаем возвратную монитор + рекламацию о неисправности
- идем в НАШ С/Ц
- сдаем монитор и получаем документы
- идем на 5ю Выдачу и получаем новый монитор
- идем на сборку.... и т.д. до 3х штук

Не забывайте пожалуйста после совершения покупки заполнить гарантийный талон (у выхода выдачи №3).
Отдельно хочу подчеркнуть, что в услугу пробной эксплуатации (300р) входит замена двух мониторов (пробная эксплуатация, соотв. трех). Выбрать из уже проверенных мониторов нельзя.


M Schumacher, видишь сколько гемороя на заднице в этом посте, выделеным жирным? он стоит того? нет, никак... поэтому Санрайз при покупке моника не рулит, ни разу

0

НУ видишь как я и сказал - идёшь в отдел сборки и тестишь до 30мин. Что касается обмена - я тоже сказал- надо уточнять у менеджера.
Учитывая то что большинство магазинов вообще не проверяет либо проверяет 1минуту причём сами то санрайз не самый худший вариант.

0

мда, проверяют остальные магазины все, не надо быть таким наивным

я вижу ты на отзывы выше внимания вообще не обратил.. видишь то, что хочешь видеть?)

хорошо, санрайз.... ты купил моник, тебе его дали на выдаче, что ты делаешь дальше ,куда идешь, кому платишь? когда заплатишь кому-то 300 руб они сами будут тестить монитор? со СВОИМ ноутом и со СВОЕЙ прогой? что делать, если обнаружился битый пиксель? что еще за сервисный центр и где он находится? в самом санрайзе?

2. щас почитал там кое-че (не санрайз, а вообще), нагоняя себя в черные мысли опять.... у кого-то там материнка барахлит, комп перезагружается или не включается вообще... у кого 9800гтх барахлит, кричит мол игры виснуть у него всегда (в то время как у других работает нормально).... откуда эти проблемы я не понимаю? купил комп, собрал все, откуда там могут быть проблемы? драндулеты старые работают, новые нет, не может быть.... неужели когда я куплю комп, будут всякие проблемы зависаний, ребутов, невключения?
3. и как вообще поступать? везти все домой за 500 км в несобранном виде или же прийти к знакомым (они есть) собрать, установить виндус, драйвера к видюхе и т.п. все потестить, установить игру потестить и только потом, что все работает, со спокойной душой ехать домой?
надо в 1 день уложиться... на ночевку никто не пустит, места нету... хотя можно будет договориться :)

0

P.S: «научить» свои видеоадаптеры вычислять модели сворачивания белков, это они про что?? может про Физический движок PhysX??
Это они про то что человечеству нужна помощь от всех пользователей. Для разработки лекарств от самых страшных болезней нужны не детские мощьности которые взять особо негде. вот и предлагают сознательным гражданам (будущим пациэнтам) поделиться незанятыми мощями на благо всего мира... безвозмездно (те. даром). Основная задача расчётов - вычислять модели сворачивания белков. Никаких игрушек! всё серьёзно как рак лёгких! Ведь в недолёком будущем нас всех ждут неизлечимые недуги справится с которыми можно сейчас поделившись вычеслительной мощью своих видеокарт. Дилиться можно всем обладателям 8ххх серии от н видии и х16хх от Ати.

Давайте сдесь на форуме уточним что это и с чем его едят.. (PhysX)
Есть никого здесь не надо. Просто после покупки PhysX нВидиа встраевает физический ускоритель в свои карты нового поколения (гт200) и теперь покупать отдельно ускоритель не надо. У ати карта поддерживает расчёт физики от Хавок, так что новая война форматов.

0

NightKeeper

я думаю...
красавчег!

безсмысленный текст
ты ещё недорос до его понимания... а до тех пор - молчать и слушать. )))

мне кажется что Nvidia тоже его поддерживает
Ты из своих коментав глупости лучше убери... перекрестившись в начале.

но после этого появляется вопрос:
вот так из бредовых идей и возникают бредовые вопросы. Читай внимательней "безсмысленный текст"

Мне не интересны свои догадки.
и поменьше вслух сам собой разговаривай. а то без переводчика трудно : )

0

Celestial Spirit aka MeitDeist
Я не понимаю сути проблемы .. ТЫ сам в предыдущем посте даже выделил текст - там всё написано! НА выдаче говорищь что хочешь эту услугу - тебя посылают в сборку -там платишь 300р - тебе подключают и дают ТЕБЕ САМОМУ тестить, Причём ты можешь принести свой тест на флешке либо фото\графии. Тестишь до 30мин . Если есть хоть один битый - всё, без вопросов тдёшь в сервис центр (прям там -100метров) и выбираешь - либо сразу деньги либо ещё другой моник. А вот если нет битых но ты по каким-то причинам хочешь отказаться - как я уже писал выше - оффициально тоже можешь полность вернуть - но неофициально они стараются запутать тебя что якобы менять нельзя если нет битых. И как я сказал - чтобы небыло проблем- вначале перед покупкой подходишь к менеджеру и уточняешь. Я сам прошёл по этой схеме - брал ДВА моника - Samsung 226bw и Asus 222u - Самсунг не понравился именно данный экземпляр а АСус сказал что беру. НА что мне тестер ответил что так как на самсе нет битых - менять нельзя. Повезло что появился битый через 10мин. - и всё без проблем в сервис вернул. Потом подошёл спросил у менеджера - она вообще удивилась какого хрена они меня пытались обмануть - и сказала что В ЛЮБОЙ момент пока ты находишься в магазине и НЕ подписал ГАРАНТИЮ - можеш9ь полностью вернуть деньги!! Более того даётся доп гарантия в случае оплаты 300р за тест - дополнительная гарантия в теч 10дней на битые ( правда только по гарантийным случаем - то есть если вылезет то кол-во битых которое предусмотрено фирмой-изгодовителем по гарантии.).
ТАк было месяц назад. Единственно могли поменять - это я не знаю.

Это очень большая проблема - очень много комплектующих с браком - поэтому я и говорю не покупай на рынках!! Товар сортируется и весь спорный товар идёт на такие рынки мелким продавцам мелкими партиями. А крупные магазины больше следят за качеством и покупают не у оптовых продавцов (перекупщикам) а прям у изготовитля . У меня скока таких случаев было - первый комп когда брал - менял видюху - Radeon 9600 с проблемами был ,другой тоже с проблемами .. Потом сейчас вначале купил Zotac 8800gts - проблемы с непонятным отключением изображения.. И производительность меньше чем должна быть. И благодаря точго что купил в Олди - вернул и купил отличную MSI 8800gts/
Почему это просходит - всё просто - раньше лет 10назад комплектующие делались в Японии , США , в худшем случае малайзия. Они все были отличного качества (правда и цены повыше была). Потом начали делать в ТАйване - это уже намного хуже но всё равно нормальнывй были . Сейчас 80% комплектующих _поршивый Китай .. И чтобы не говорили продавцы о том что нет разницы - разница всегда есть. Китайские комплектующие - всегда хуже чем Японские допостим или американские. А тем более Харды и другие механические комплектующие с движущимися частями - их ВООБЩЕ нельзя покупать китайского производства. В китае своего металла очень мало и они его разбавляют и т.д. и у них все механические детали слабые!
Поэтому я ещё в 2003году когда брал первый комп - брал всё Тайвань - даже Хард пришлось взять более большой чем планировал ради НЕ китая. И всё работает по сей день без проблем. Единственно что было китайское это видеокарта - GeForce ti 4200 - сгорела через 6месяцев. Менял как выше писал на 9600 - сплошные недостатки. Потом взял 9800pro - вроде норм но всё равно не без проблем - прошлым летом появились жуткие артифакты от перегрева. Решил конечно но всё таки..
Сейчас конечно трудно уже найти не китай но всё равно такие вещи как проц и хард надо брать от нормальных производителей - у меня малайзия и сингапур соответственно.

Ты что ?? Хочешь купить и вести за 500км без проверки... Обязательно проверь!! С комплект. всегда такие проблемы - и без проверки везти - это тебе же боком выйдет.

p.s. Блин сорри за опечатки- никак не привыкну к новой клаве..

0

НА выдаче говорищь что хочешь эту услугу - тебя посылают в сборку -там платишь 300р - тебе подключают и дают ТЕБЕ САМОМУ тестить, Причём ты можешь принести свой тест на флешке либо фото\графии.
дык, они подключают к своему ноутбуку или куда там? а если не знаю, что и куда, почему я должен проги запускать, а не они?

по поводу брака, дык в санрайзе ж норм продают, как ты говоришь, магазин-то все-таки норм и закупает у производителя как раз

3. как ты узнаешь Китайц или нет? в прайсе об этом не сказано, я не в Москве живу, выбирать комплектующие неделями не могу, уложиться надо в один день, так что придеться брать, что имеют.
сомневаюсь, что сейчас на моем драндулете пятилетнем есть неКитай.. все работает прекрасно

С комплект. всегда такие проблемы
т.е. по-любому путь заказан на обмен? :/ мда...

0

ОНИ ПОДКЛЮЧАЕТ К СВОЕМУ КОМПУ В ЗАЛЕ СБОРКИ. Они тебе всё запустят - и ты тестишь.. Если очень хочешь - он сам протестит - но врятли он будет это делать более 2-3х минут.

Это не защитит от брака. Брак есть всегда и вездь. Вопрос в проценте этого брака.

Страну производителя я выяснял у менеджеров - либо уже на выдаче на самой комплект - пока не подписал - могу вернуть. Но мне важно было тольк опроц и хард . Всё остальное уже всё китай.

Ну не заказан но вероятность такого давольно таки велика. Брак может быть везде - битая память , видеокарта с браком , хард может полететь через день, на монике вообще битый пикесел может появиться хоть через 1минуту хоть через 2месяца. И никто от этого не застрахован. Очень сильно бояться этого не надо. Но иметь ввиду надо что есть такое дело.

0

>>Сейчас 80% комплектующих _поршивый Китай .. >>
не , ну почему? есть фирмы (американские, например) . Они производят комплектующие , а так как у себя сборку производить себе дороже - они покупают отделы в Китае и там всё собирается . Если б они это всё у себ делали - цены были бы повыше намного(и эти компании могли бы ,например, обонкротиться).Естесственно за качеством тоже следят.Не все производители хорошо делают свои вещи просто...
как аналогию можно привести пример с немецкими шахтёрами по добыче угля в Европе...

Даже не знаю , что является причиной ваших этих "бракафф" )) "криворукие " китайцы или обычная пыль)))

0

NVIDIA провела свою традиционную встречу со СМИ за закрытыми дверями. По данным британского ресурса The Inquirer, речь шла о новых ускорителях компании: GeForce GTX 280 и GTX 260. NVIDIA делилась окончательными спецификациями этих продуктов.

GeForce GTX 280 имеет 240 шейдерных процессоров, ядро работает на частоте 602 МГц, частота работы шейдерных блоков составляет 1296 МГц, а 1 Гб памяти GDDR3 (512-бит шина) — 2214 МГц. Карта обладает 32 блоками растеризации. Дополнительное питание ускорителя обеспечивается 6- и 9-контактными разъемами: максимальное энергопотребление карты составляет 236 Вт. Страшно представить, какой нужен блок питания, чтобы запустить систему с тремя такими картами, работающими в режиме SLI. Длина платы составляет 10,5 дюймов, а производительность — 933 Гигафлопа. Ранее предполагалось, что новые карты NVIDIA смогут преодолеть барьер в 1 Терафлоп, однако, видимо, из-за плохого выхода годных чипов, рабочую частоту GTX 280 пришлось снизить.

Что касается GTX 260, что количество шейдерных процессоров этой карты составляет 192, блоков растеризации — 24, объем памяти GDDR3 (448-бит шина) — 896 Мб, частота ядра и памяти — 576 МГц и 1998 МГц соответственно, максимальное энергопотребление — 182 Вт.

Площадь чипа GT200 очень большая — 576 мм2, что в 1,8 раза больше, чем размер чипа G92. К сожалению, по данным ресурса, выход годных кристаллов низкий, поэтому стоимость ускорителей на базе нового чипа будет очень высока: 600 $ — для GTX 280 и 450 $ — для GTX 260.

0

236 Вт??? ты не ошибся? у тя вообще хорошее зрение? не поверю пока на оверах тест не увижу...

0

это известно давно уже, 240-250вт, ну и норм... только буржуи для понта будут покупать 3 таких карты, одной достаточно, частота что-то маленькая... хм... значит она на производительность не влияет... какой смысл тогда разгона? хDD

M Schumacher, ясно, проц и хард говоришь, гм... надо будет глянуть, где сделан текущий мой хард...
т.е. где произведен товар абсолютно не зависит от фирмы? будь то сигейт, будь то хитачи, будто то макстор, будь то самсунг?

насчет пока не подписал гарантию, можно отказаться... это лишний геморой по действиям с деньгами, как я полагаю, сначало нужно оплатить весь заказ, а потом идти получать? если нет, тогда еще хуже геморой, исключать каким-то образом проц и хард... гиблое дело

1 день, максимум 2 (если ехать к кому-то с ночевкой, это разумеется в выходные все дело делать), чтобы все купить, установить и потестить... еще бы знать в чем проявляется брак материнки, видеокарты... :/

0

Sergey067
А ты думал сколько ? Давно говорилось , что уровень tdp будет лежать в диапазоне 220-240вт.

Celestial Spirit aka MeitDeist
частота что-то маленькая... хм... значит она на производительность не влияет... какой смысл тогда разгона? хDD


Написано же , что из-за низкого выхода годных частоту пришлось понизить. Естественно главное это архитектура , но частоты также важны.

0

Написано же , что из-за низкого выхода годных частоту пришлось понизить. Естественно главное это архитектура , но частоты также важны.
значит ей разгон не нужен, имхо

M Schumacher, вот я нашел бумажки по харду, Хитачи 80гб, сделано в Китае, исправно работает 4 года (покупался позже на год), никаких проблем не возникало никогда, даже по сей день; нашел упаковку от модулей памяти, опять же Сделано в Китае, работает исправно с момента покупки компа; бумажек по процу не нашел.. хм.. но наверно тоже Китай и опять же (удивительно? я думаю нет) работает исправно уже как 5 лет...

0

Celestial Spirit aka MeitDeist
значит ей разгон не нужен, имхо

Почему ненужен ? Думаеш сломается?

0

нет, просто если здесь проиводительность огромная идет не из-за частот, то их повышение много-то не даст, и стоит ли оно тогда повышения температуры на карте? я думаю нету
да и вообще, касательно разгона, разогнанные процы/видео не быстрее себя израсходуют? (не знаю, поэтому и спрашиваю)

0

Celestial Spirit aka MeitDeist
Ну мы же точно незнаем на сколкьо производительность будет поднимтаься от повышения частот , я думаю Нвидиа не от хорошей жизни решила их понизить , а из-за того что на данном этапе производства слишком велики риски убить видеокарту или TDP слишком растет, потому что производство еще не отточено до нужного уровня , когда производство наладиться то я уврен на 100 % частоты начнут расти , т.к их увеличение еще не в одном поколении карт никогда ни кому не мешало.

По поводу разгона , трудно сказать разгон без поднятия напряжения вообще практически никак не сказывается на сроках службы(примерно на 20 лет рассчитан процессор) , разгон с небольшим поднятием наряжения может отнять где-то лет 5(тоесть лет 15 проработает) , а вот экстримальный разгон может сократить срок службы процессора до 5-10 лет , но при нынешних темпах развития 5 лет для процессора уже достаточно много и он через 5 лет становится барахлом. У видеокарт все несколько проще , т.к в основном стандартный разгон производится без каких либо поднятий напряжений и делается достаточно просто , главное чтобы на карте стояло приличная система охлаждения и по сути при разумном разгоне и абсолютно стабильной работе видеокарты ее срок службы если и уменьшается то весьма незначительно( при таком разгоне производительность можно увеличить примерно на 10-15%)

0

Celestial Spirit aka MeitDeist
от фирмы изготовителя не зависит. Все механически подвижные детали китайского производства не советую покупать. Вот видеокарта это не так страшно -обычная печатная плата.

Это чисто мое мнение. У меня куча примеров из собственного опыта. К тому же не забывай - те комплектующие что делались 4-5лет назад были более качественными - компы были всё ещё давольно редкой высокотехнологичной дорогой техникой. А сейчас когда все фирмы добились максимальной удешевизны - стараются экономить на всё - это уже совершенно по-другому.

От разгона немного ухудшается время работы проца : Проц расчитан на работу в течении 15-20лет. Даже самый мощный разгон с невероятным поднятием напруги максимально уменьшит жизнь проца до 10лет - но тебе нужен будет этот проц через 10лет??? http://www.ferra.ru/online/processors/74114/page-2/ вот статья " вреден ли разгон" /
Видеокарта тоже не особо пострадает особенно если учесть что надобность видюхи исчезнет ещё раньше - года через 3-4..
Главное разгонять с умом. На жизнь проца и видеокарты влияют - температура и напряжение. ТАк как на видеокарте ты не можешь поднимать напругу то остаётся только температура - следи чтоб температура не выходила за пределы и всё будет отлично. Моя 8800gts 512 при разгоне до 770/1850/2100 греется макс 68град. При том что стандартная 8800gt греется до 100..

Я б не стал доверять инфе о частотах - особенно частота шейдеров - такого не может быть. Подождём пару недель и узнаем офф. инфу.

0

ну все равно, в общем, кроме китайского брать нечего :) а работоспособность там и проверится (проблема ночевки тока :)) ), мало кто жалуется на брак х_х

0

не , ребята вы можете говорить в пользу g200 хоть скок угодно ,но 240вт - это перебор... по-любому во всех вариантах. Тем более технологичнее чип и ,наоборот, же должно энергопотребление снижаться .... да и тем более в наше время , когда остро стоит вопрос о дефиците энергоресурсов и парниковом эффекте...а если кто захочет тройной сли поставить? эт чё блок на киловатт брать? во умора получается...c такими темпами скоро в квартире придётся свою комплектную подстанцию ставить и питать комп через неё...
всё , терь все надежды только на АТИ - на то что у них будет гораздо меньшее энергопотребление...

0

Sergey067
ЭТО фсе не 100% правдивая информация!!! Сколько можно гадать.. Потом возможно что вначале gt200 будет делаться на 65nm- отсюда и такие цифры. Но как только Нвидиа перейдёт на 55nm (уже летом - осенью) - энергопотреблене снизится на порядок вместе с температурой.

0

главное чтобы эффективность была такая же на первых картах... а остальное побоку...
3 карты для буржуев, значит киловатный блок им не проблема

0

энергопотребление должно быть 30-70 ватт в этом диапазоне(и то верхняя планка завышена)
Celestial Spirit aka MeitDeist не эффективность , а так сказать отдача производительности на ватт энергии , т е производительность на мощность или ,если грубо, FPS в играх на мощность (ессно делить) только по этому показателю можно судить о реальном КПД и эффективности карты...
все эти тесты по ФПС карт эт частично ерунда полная - вот если эти показатели поделить на потребл мощность карт - то вот это и будет достоверные результаты, так сказать "Удельный фпс карты"(FPS/W) =)))

0

ЫЫЫЫЫ! дааа... 3.14здец
http://overclockers.ru/hardnews/29279.shtml

И кому такое "чудо" надо? я б никогда не взял, даже , если б даром предлагали... чес слово не вру.Ну, разве что , если перепродать только :)

Radeon 4850 GDDR3 (RV770PRO): частотная формула 650/2290 МГц, 512/256 МБ GDDR3 памяти с 256-битной шиной, 480 конвейеров, 32 текстурных и 16 блоков растеризации, 55 нм техпроцесс, TDP энергопотребление - 110 Вт (<100 Вт для 256 МБ версии), рекомендованная розничная цена - $229/$199. Cамая топовая 4870 бут потреблять 150 Вт .
Ну эти цифры более нормальные нежели у нвидии ... 240Вт... этож надо же...хотя и 150Вт это немало...

0

Никто не в курсе, можно ли будет GTX 280 установить на плату с 680i чипсетом где PCI-Express 1.1 а не 2.0? Потеря скорости небольшая будет?

0

можно ли будет GTX 280 установить на плату с 680i чипсетом где PCI-Express 1.1 а не 2.0?
Да
Потеря скорости небольшая будет?
А вот это покажут тесты.

0

Я думаю HD4870 будет лучшим выбором в плане цена/производительность/потребляемая мощность

0

Вот новые нговости об потреблении gt200/ В 3dmark 06 он потребляет всего 147ватт. http://overclockers.ru/hardnews/29377.shtml ТАк что ни о каких 220 не может быть и речи.

0

2nokiacone 4850(если тесты не разочаруют)
4870 -конечно хорошая карта,не спорю, но дорогая :)
2M Schumacher
во 1х это в 3д марке
во вторых 147вт в среднем это тоже много.

тогда у АТИ потребление в это 3 д марке будет меньше ста => 70 в среднем

0

Sergey067
не думаю что 4850 будет стоить даже у нас дороже 10000.

3dmark практически так же нагружает что и игры. Максимум 170w потребления будет. А это очень немного. При том что 9800gtx и 8800gts 512 тоже потребляют до 150w/
К тому же для геймера, а тем более хардкорного геймера энергопотребление вообще не важно. ТАкие карты делаются не для тихих безкулерных малопотребляющих офисных ПК.
Одно дело если б она потребляла бы 300w -то тогда ещё былоб заметно, а така до 200w даже это вообще ничего такого. У меня люстра с 3мя 100ватными лампочками потребляет больше..

0

>>К тому же для геймера, а тем более хардкорного геймера энергопотребление вообще не важно. >>это тогда не геймер , а барыга...норм чел обычно сам за электроэнергию платит

3мя 100ватными - 300 вт , дык это ж лампы накаливания у них кпд высокий только на нагрев, а не на свет, не путай с компом....ты вот сравни с газоразрядными низкого давления- какое у них электропотребление

0

Sergey067
Какая разница. Я привёл пример что у меня люстра больше потребляет чем видеокарта да и комп в целом (около 300w) в бездействии уж точно. Про всякие электрочайники потребляющие киловат и более я уж и не говорю. Да и всё таки цены на электричество пока что сносные. Это в Европе все экономят.
На каких-то сайтах даже подсчитывали что типа 3-5ты руб в год чтоли на энергию дял компа. Точно не помню.
Но одно точно - человек , тратящий 16-20тыс на только видеокарту (gtx280) ( а значит и проц соответствующий и т.п ) не будет обращать внимания на это. Попробуй не согласиться... Мы ж не о видеокарте low-end говорим.

0

аааааааааааааааааааааа.............M Schumacher , я что про лампочки зря писал????!!!!!!!!!!!
ещё раз повторю - у лампочки накаливания почти вся энергия в тепло превращается. С этим согласны все. В компе по-другому - там надо добиваться максим производительности - много тепла в компе наф. никому не надо! Комп - это не обогреватель , это вычислителная машина(хотя при нынешних нанопроцессах от него(тепла) никуда не дется)
:(

low-end тут нипричём . Это касается всех людей .
>>Да и всё таки цены на электричество пока что сносные.>> =)) Greenpeace тя б порвал за такие речи.... =) Вчитайся ещё раз и проанализируй, что ты написал

И так на проц много тепла отходит, а тут ещё видеокарта ... скоро и чипсеты материнки такие начнут делать, что и на них кулер бут нужен...к чему этот комп мир катится...
так что к расходу электроэнергии надо бережно относится- это нвидии можно побалдеть на рынке - что с того - флагман производительности=> можно решение любые и нерациональные делать...
на самом деле расценки за электроэнергию совсем другие(учитывая дефицит её в ближ годы). Такие дешёвые тарифы - это для населения - чтоб заплатить смогли на свою скудненькую зарплату...

>>Это в Европе все экономят.>> Ещё одно качество почему НТР в Европе развивается такими высокими темпами, а не так как в России этой...

0

Sergey067
Мо говорим про потребляемую мощность. А куда она идёт пох. Люстра потребляет 300ватт в час. Видюха 170ват + КПД = 200-220ватт в час.

Что гринпис?? Электричество бесконечно и вырабатывать можно обсолютно безвредно.

Просто я тебя никак не пойму. Ты так печёшся об энергопотреблении как бдто мы живёт на марсе и у нас ограниченный резерв энергии. Ещё раз повторю - те 5тыс что ты потратишь на оплату энергопотребл. компа за год ничто по сравнению с 30-40тыс за сам комп.

А если уж беспокоиться то надо о нефти и загрязнении окруж. среды. А не о практически безвредном электричестве, к тому же и очень просто добываемому. ВОн во многих странах типа Голландии у каждого есть своя ветряная мельница, которая их полностью обеспечивает электричеством.

0

так ты и не понял...
>> Электричество бесконечно и вырабатывать можно обсолютно безвредно>>
уууу , оказывается мы не знаем , как сегодня получают электричество у нас).Даже на самых безвредных АЭС ,оно не бесследно для окр среды вырабатывается

и всё таки нельзя сопостовлять обогреватель с вычислительной техникой - у них совсем разные функции.Да это и не правильно вообще....Это фактически путать потери и полезную работу

0

Sergey067
То как у нас вырабатывают это уже проблемы этих людей. Впринципе Электрич. можно спокойн овырабатывать с помощью воды (гидростанции) и ветра (привёл пример -вообещ самое безвредное и лучшее) а так же из солнечного света . ЩАс можно уже даже купить солнечную батарею и она сможет содержать полностью малопотребляющий комп - даже статья на THG была.
Самое главное что способы безопасные есть и что оно неиссякаемо пока есь хотябы ветер и солнце..

Какая разница для чего и как оно используется. Факт в том что потребление есть и оно сопоставимо с люстрой. Я про это.
А если рассуждать как ты - то есть люди которые вообще чскажут что комп это х**ня и что нафыиг вообще он нужен и ещё энергию тратит.

0

неограниченное Солнце - это пустыня Сахара (там разве,что только ночью нет Солнца)
неогранич ветер - приполярные области ну и, может быть, пассаты какие в средних широтах
гидроэнергетика делится на 2 - безвредная и экологич чистая - та , которую гринпис хвалит и современная гидроэнергетика . современная гидроэнергетика - я бы не сказал, что она безвредна для окр среды, хотя более менее ...чище чем ТЭЦ
так, что стабильные источники на сег день - углеводородное топливо и Уран.

>>А если рассуждать как ты - то есть люди которые вообще чскажут что комп это х**ня и что нафыиг вообще он нужен и ещё энергию тратит.>>неееет, в компе тепло-это в большем случае потери от нагрева очень маленьких транзисторов - их нужно избегать, т е создавать 'умные' решения .В ламп ж накаливания от них же никуда не денешься - физика процессов там своя.а в компах их можно избежать. пример - та же АТИ.

0

Sergey067
АТИ карты стали меньше потреблять только с приходом 55nm/ До этого они жрали ппц.. К тому же сейчас АТИ меньше ещё жрут так как производительность не та что у нвидии . Нвидиа тоже должна перейти на 55nm так что энергопотребление уменьшится. Но сегодня главное мощность - а потребьление это уже на 2месте. Кому нужна будет видеокарта с производительностью 1600pro но потребляющая 10ватт..

Хочешь сказать ветер - ограниченный ресурс? Если он прекратится то жизнь исчезнет. Ненадо в крайности переходить про сахару и т.п. Во многих странах и у нас тоже используют ветряные мельницы - конечно в городе свою собственную не поставишь... Но те кто живут загородам ( а на западе таких большинство) - они спокойно могут поставить пару таких мельниц и будут обеспечены электричеством. Ветер есть практически всегда , особенно чем выше.

Солнечные батарее - прогресс очень большой - и уже через 5-10лет они реально будут способны обеспечивать электричеством.


p/s/ надо бы заканчивать оффтоп.. ТУт не форум гринписа..)))

0

Ребята, вас опять понесло... я щя присоеденюсь : )))
У нас, например, цены на электричество не позволяют легкомысленно относится к её экономии. Поэтому вопрос потребления стоит не на последнем месте. Меня тоже волнует прожорливость гт200, не только в плане потребления, но и в плане выделения тепла, которое нужно рассеивать. У меня сейчас 8800GTX греется так, дотрагиваться до неё опасно, и греет воздух в системнике как печка (несмотря на частичный выброс воздуха за корпус). Зимой можно особо не переживать, а что делать летом, когда у тебя неподолёку стоит гудящяя "печка" которую нельзя выключить, а только терпеть : (? Ведь из за такой карты нужно и блок питания помощьней (громче) брать и в корпус устанавливать доп вентеляцию, котороя тишены не прибавит. Вобщем я уже посматриваю на дополнительную систему (атом, например), для повседневного использования, что-бы без вентиляторов, и без обогревания... а то у меня серверной комноты нет и заводить её я пока не хочу.

Ветрянные мельнецы выробатывают совсем не дешёвое электричество, а использованное электричество выделяется в виде тепла и тоже не "радует" окружающюю среду... причём это и гринпис вы вспомните тогда когда у вас пойдёт град с куриное яйцо и каждый год дождями будет смывать пару первых этожей вместе с неспряттанным населением. Я уже не говорю про раковые заболевания, детей с откланениями у каждого второго, и об остальных "прелестях"...


зы. Цена за потребляемое ей электричество за 2 года (время её экплотации) может выльется в сумму её стоимости (500-600 евро) нах мне такие "подарки"?

0

Allfa
GTX280 будет потреблять уж не больше твоей нынешней 8800gtx . По карайней мере когда перейдёт на новый техпроцесс. Ведь 8800gtx вообще 80nm - отсюда громадное потребление и тепловыделение. ТАк что прогресс и в отношении этого не стоит на месте. Если ты купил 8800gtx то уж 280gtx будет намного лучше и в плане прожорливости.

0

Allfa, а ещё добавь к g200, что большинство электроэнергии на потери идёт , а не на производительность...А потери ЭЭ - это практически тоже самое, если дорогой 98 бензин смывать в унитаз...(аналогия слегка грубоватая, но наглядная)

M Schumacher и что? у g200 техпроцесс ещё меньше, а потребление ещё больше =))))))))))))
тем более, если g200 в сли вставить, то по материнке к g200(2-м) потекут такие токи, которые надёжности материнке не прибавят...

Единственный выход получения дешёвой элетроэнергии - построить станцию громадную на фотоэлементах где-нибудь в сахаре или сауд аравии. Только шейхи эти ,олени, строят всякие островные сооружения на море..., которые могут при обычном первом цунами в момент исчезнуть...=) Разве не каличи???Этот пример явно показывает жалкую сущность мусульманина

0

GTX280 будет потреблять уж не больше твоей нынешней 8800gtx .
8800GTX - 155 Watt
280GTX - 250 Watt
Тоесть 250, по твоему, не больше 155?!
По карайней мере когда перейдёт на новый техпроцесс.
По крайней мере если и будет потребление меньши меньше (скорей оно так и будет) то надо его померять для начяла, а то может частоты повысят и потребление ещё возрастёт. И если даже оно и опустится то не более чем на 50 ватт максимум... имхо конечно.

0

GTX280 будет потреблять уж не больше твоей нынешней 8800gtx

А если учесть разгон, то и до 300 докатит, а это мой текущий cтаренький БП=)))). не, оно опуститься...нвидия в минимуме 150 обещает...
А у АТИ 4870 максимум 140, в минимуме тогда где-то 70
у 4850 - макс 110, мин где-то ниже 60 наверное

"Политика энергосбережения" может АТИ из кризиса вытянуть - кто б мог подумать=)
Если АТИ продолжит такие энергосбер карты делать, может мои симпатии к ним и вернутся...

0

Sergey067
нвидия в минимуме 150 обещает...
А у АТИ 4870 максимум 140, в минимуме тогда где-то 70
у 4850 - макс 110, мин где-то ниже 60 наверное


Откуда данные?
Вчера видел заметку (не помню где)... GT280 в простое около 30W потребляет...

Но опять же ДО анонса гадать только можно...

0

про нвидия с оверклокеров
про ати - с другого сайта

вот облом =)
NVIDIA http://www.rosinvest.com/news/408561/
ATI http://www.thg.ru/technews/20080425_175026.html
по-любому 147 это много

0

M Schumacher 05.06.08 12:50
Видюха 170ват + КПД = 200-220ватт в час.
Как это КПД ты считаешь 30-50 ваттами ? вообще-то КПД(коэффициент полезного действия) измеряется процентами и как таковой мощности он не может потреблять...не вижу логики че-та ...
Вот, например, лампочка : её КПД ,к примеру, (я не знаю сколько точно) 20% , а остальные 80% - это не КПД , а энергия , которая ушла на нагрев окружающей среды.

______________
И вообще новые технологии должны быть направлены на уменьшение количества потребляемой мощности , а не наоборот ... зажралась н-видиа...

0

2nokiacone КПД это в % отношении та энергии , которая идёт на работу(производительность) карты . Остальное - потери в виде тепла... Скок надо 280gtx для её достаточной работы, чтобы считать - пёс его знает...так нвидия те и сказала=)))))

>>И вообще новые технологии должны быть направлены на уменьшение количества потребляемой мощности , а не наоборот ... зажралась н-видиа...>>

вот это я и доказываю, а мне говорят, что это фуфло

>>Вот, например, лампочка : её КПД ,к примеру, (я не знаю сколько точно) 20%>>
на световой поток? А не 5%???там же нить накала всё в тепло почти идёт...Получается так-как источник света лампочка невыгодна, а как обогрев для чего-то очень выгодна
20% кпд это наверное с зеркальным напылением лампочка...

>>это не КПД , а энергия , которая ушла на нагрев окружающей среды.>>
называй эту вещь потери мощности, а в количетвенном отношении по времени- потери энергии...

0

http://overclockers.ru/hardnews/29387.shtml
Если верить этой ссылке, то у АТИ не настолько плохи дела=) . 280gtx ессно их обгонит, если судить по потреблению ЭЭ - это понятное дело. Получается по удельной производительности (Fps/Watt ,так сказать) АТИ в выйгрыше, а если ещё и цены сравнить(+ поддержку дх10.1,пока толком никому ненужную, но это пока...) - то АТИ нанесёт Нвидии серьёзный удар по доле рынка=). Для первого этапа очень неплохо. ATI так держать!!! (если ,конечно , правдивую инфу распространили)...

и никуда не денется нвидия от снижения цен =)))))

0

Allfa
НУ откуда вы берёте 250w ?? В 3dmark она потребляет 147ватт. В играх уж не более 170. ДА и к тому же ДАВАЙТЕ ПОДОЖДЁМ ТЕСТОВ. Чего гадать. Для чего я ссылку на предвар. тесты выкладывал? 147ватт - это на сегодня самая правдивая инфа.
Никогда не поверю что 8800gtx потребляет столько же что и 8800gts 512 (80nm против 65nm)// У GTX потребление под 170-180.

nokiacone
КПД это полезное энергопотребление, а остальные 20-30% это энергия потраченная в пустую. Но она же потрачена! Вот я и прибавил к полезному потребелнию. Какая разница на что эта энергия ушла .Факт в потреблении налицо.

Sergey067
Это не должно быть первоочередной целью. ТЫ купишь карту, мощностью 8600gt но которая потребляет всего 10w ??? Не думаю.. Все орут - у меня то тормозит, у меня то тормозит. Для этого и делаются мощные карты. Прогресс должен идти. А потребление тоже очень сильно уменьшается. Сравните hd2900xt и hd3870 / Как только нвидиа перейдёт на 55nm ( а это произойдёт уже в конце лета) то у них тоже потребление опустится прилично.

0

НУ откуда вы берёте 250w ?
Официальные данные от производителя (нВидиа).
В 3dmark она потребляет 147ватт.
а 8800гтх 89watt... : )))
если ты незнал, я тебя просвещю, что 250 это максимальное потребление, а не в 3dmark. Чувствуешь разницу?
В играх уж не более 170.
Фантазии ценятся в летиратурной среде.
А и к тому же ДАВАЙТЕ ПОДОЖДЁМ ТЕСТОВ.
Вот это толковое предложение. Согласен.
147ватт - это на сегодня самая правдивая инфа.
Опят ферари коровами грузишь? Читай ответ на В 3dmark она потребляет 147ватт.

0

>>Sergey067
Это не должно быть первоочередной целью. ТЫ купишь карту, мощностью 8600gt но которая потребляет всего 10w ???>>
если величина потерь будет очень малой 10w , то я куплю эту карту(за разумную производительность, конечно , а не S3 trio PCI какую),т к она технологичнее и точка... только проблема в том , что эта 8600gt жрёт побольше.
% полезной мощности(КПД) карту не греет - на этой мощности карта обсчитывает текстуры
вообще в курсе почему нагреваются микросхемы(процы и т д)??? размер их микроскопически мал(сам говорил меньше вирусов транзисторы), при протекании даже очень малых знач тока - нагрев этих транзисторов увеличивается во много раз, т к их очень много. Помнишь формулу P=I^2 * R? потери пропорциональны квадрату тока=)))и также сопротивление полупроводника меняется , т к это нелинейный элемент. А реально необходимая мощность для счёта - намного меньше потерь!
>>Все орут - у меня то тормозит, у меня то тормозит. >>
да, согласен. сам видел таких челов. Только 99% из них - барыги , которые не знают , что такое файл подкачки и не могут се винду поставить

>>Как только нвидиа перейдёт на 55nm ( а это произойдёт уже в конце лета) то у них тоже потребление опустится прилично.>>
вот когда потери снизят-тогда и поговорим, а сча точка и всё

в кризисе 280gtx на полных (dx10 ну и 9.0с разница в общем не велика) ,наверное, бут потреблять где-то ~230-240 не меньше...

0

Sergey067
"да, согласен. сам видел таких челов. Только 99% из них - барыги , которые не знают , что такое файл подкачки и не могут се винду поставить"
Почему же?? Я например хочу чтоб Crysis шёл на 1680х1050 со сглаживанием 4х и с фильтрацией и выдавал 35-40фпс - тут проблема только в мощности. И так же у всех. Вот выйдет фаркрай 2 тоже неизвестно что будет. И кому нужны будут эти малопотребл. карты?
Как только будет 55nm то gtx280 будет потреблять максимум 140-150ватт как щас 8800gts 512/


Allfa
Вот ты тоже ещё преувеличивал про то что за 2года такая карта с потреблением 250w обойдётся 500-600евро (= 21000руб).

Считаем: 1квт/ч стоит примерно 1.6руб ( у меня так и думаю у всей Москвы). Значит 4часа работы видеокарты = 1.6руб.. В день допустим ты играешь 16часов )))) xD = 6.4руб в день за энергопотребление видеокарты. ( замечу что на разговоры по мобиле у тебя уходит раза в 3 больше минимум). Далее 6.4 x 365 x 2 = 4672 руб. ЗА 2года !!! Какие ты там 21тыщу насчитал..
Если для выс 7рублей в день жалко на видеокарту то вам явно не по силам купить комп даже за 20тыс... Так к чему эти разговоры?? Вы за разговоры по мобильному в год тратите тыс по 5-10 .

0

>>Как только будет 55nm то gtx280 будет потреблять максимум 140-150ватт>>
150w это мало? не думаю, потери тоже значительные...

>>Я например хочу чтоб Crysis шёл на 1680х1050 >> а я вообще в него играть не буду, поиграл - геймплей не понравился(может графа и ничё, но геймплей не понравился мне). Кризис типичный бенчмарк на момент создания дх10(почти).Да и к тому же этот кризис жутко не оптимизированный (по сравнению хотя бы с Assasin's creed или старенькой халфой2)


M Schumacher, твои расчёты ЭЭ тут ни к чему! ещё раз повторяю это цены на благо людей , чтоб могли заплатить за ЭЭ(пенсионеров и т д)
на самом деле цена топлива намного высока.это оценят , когда его почти не останется или когда окр среду до глоб потепления загрязнят. Взять ,например, этих "консольщиков" - на окр среду им пох.. , олени, блин. Человек не только красивое и умное создание, но ещё и слишком наглое

мне денег не жалко на карту нормальную. Но еслиб почти все эти 250w(70% хотя бы) шли на оработку инфы , а не на потери(нагрев), я бы такую карту купил
пусть хотя бы сделали TDP как у АТИ - анн нет уверенно чувствует на рынке нвидия зафиг технологии улучшать

0

Sergey067
"Да и к тому же этот кризис жутко не оптимизированный " - очень распространённое заблуждение. Тем более если учесть разницу в графе по сравнению с Ассасином и тем более халвой.. Crysis единственная на сегодня игра где всё честно делается полигонами а не фишками типа бампа и т.д.

Я вывожу/? Как вы меня выводите ))) Рассуждаете тут о том что 7руь это много , а 16000за видюху ничего такого..

"на самом деле цена топлива намного высока"
Блин ппц... Это не нефть ! Электричество будет пока возможна жизнь на планете. Как только исчезнут источники его добычи ( природные) то вам уже всё равно будет..
Блин вы сразу скажите если вы ярые гринписовцы.. Я конечно тоже всем за это, но не до такой же степени .. Что видеокарта потребляет АЖ 250w - ой какой ужас - это так вредно... Не ну просто смешно и уже достало... Или ты считаешь что такая видеокарта вносит хоть миллиардный процент в глоб. потепление?? А тем более в загрязнение. Да одно извержение вулкана (природное - так задумано) выбрасывает столько CO2 сколько все машины за несколько месяцев.

0

!!! Какие ты там 21тыщу насчитал..
Внимательно в профиль смотри. Меня московские цены на электричество не волнуют. У нас как раз, часть электричества вырабатывают "мельници"- а это в разы дороже.
1квт/ч стоит примерно 1.6руб ну ты юмарист : )))) нам бы ваши цены : )))

Причём хочу заметить, что в России цены на электричество занижены за счёт того, что за засерание окружающей среды у вас некто не платит, как и за много другое. Поэтому сейчас у вас дёшево, а ваши и наши дети потом за это расплачиваться будут. вспомним Чернобыль... зато электричество дешёвое.

В день допустим ты играешь 16часов
ещё прибавь что комп не выключается и качает, качает, качает... и играю я не только один. Конечно при закачках карта не на всю мощь работает, однако хотелось-бы чтобы жрала она поменьше.

0

Да одно извержение вулкана (природное - так задумано) выбрасывает столько CO2 сколько все машины за несколько месяцев.
Атомное производство уже намного повысила общий уровень радиации, а это - куча неизлечимых болезней!!! Причём ситуация всё хуже и хуже с каждым годом. Конечно не во всём виновата Атомная промышленность...

0

Allfa
Во всех развитых странах есть АЭС.

Я про атомную промышленность ни слова не сказал. Я говорил про выбросы от машин и про ваше мнение что от видеокарты тоже идёт вред..

Пока есть Солнце электричество будет всегда! Вот я о чём. А то что используют АЭС это уже вина чиновников, в меньшей степени недостаточная разваитость науки. НУ нечго - уже через 10 лет солнечная энергия будет давать хорошие результаты. Пока что просто КПД не высок. Но уже можно содержать малопотр. комп на одной солнечной энергии. Статья даже есть на THG

Электричество - энергия будущего, если его вырабатывать с помощью солнечной энергии. Вот о чём я.

0

Пока есть Солнце электричество будет всегда!
ага, тока цена за него пока в 5 раз больше.... купил карту за 500 евро и ещё 1000 отдал за электричество. прикольно : )

Во всех развитых странах есть АЭС.
А я разве утверждал обратное? там ещё есть и ТЭС и ГЭС и ещё куча других дорогих способов по добыче электроинергии. Ещё в этих странах платят 100 процентов за потраченное, а не 65.

лектричество - энергия будущего, если его вырабатывать с помощью солнечной энергии. Вот о чём я.
Платить кто будет?
... а пока хочется наблюдать холодные и не прожёрливые карты

0

>>Электричество - энергия будущего, если его вырабатывать с помощью солнечной энергии. Вот о чём я.>>
это выгодно , если его получать в пустыне сахара, да и то надо подстраиваться под цикл дня и ночи.

M Schumacher, ты никак понимать не хочешь, что все потреблённые 250вт израсходуются в никуда, чистые потери. на самом деле потребление намного меньше!реальное может каких ватт 20 от этих 250. Если б по твеому очень заблудшему мнению 250 использовались полезно, а не на потери(нагрев) - кулер бы нафиг был бы не нужен

>>Блин ппц... Это не нефть ! >>
вот у нас это как раз и нефть, ну и родимый газ от ГАЗпрома ...=) обломчик, да ?

0

Allfa
Я уже подсчитал - 5000 за 2года !!! ( при том заметь что она работает в пике! по 16часов! в сутки )))))

Кто платить будет? Когда сделают солнечные батареи с хорошим кпд - то хоть в космосе разверни пару гектаров - и снабжай всю страну.

Sergey067
ну и какая мне разница куда это ничтожное потребление идёт?? НУ плохо конечно что большая часть на нагрев - ну и что? Конец жизни?? Я уже вам подсчитал - 7руб в день . По сравнению с другими ценами мне плевать куда эти 7 руб уйдут при работе видеокарты в пике по 16часов в сутки. Я лучше побеспокоюсь о высоких ценах на продукты и топливо .

Электричество с помощью нефти ещё слава богу никто не дадумался добывать. От газа да есть такое. НО большинство от АЭС.


Какова моя главная мысль - технический прогресс - главное оружие в борьбе с загрязнением окр. среды, сохранения прир запасов и т.д включая рациональное использование энергии. ПОэтому я говорю - подожжите 55nm . ДУмаете АТИ что-то новое придумала что у неё карты так мало потребляют? Это всё от того что она уже как более полугода использует 55nm . А до этого у них была 2900xt - которая при в 2е меньшей производжительности чем gtx280 потребляла уж побольше 200w уж точно. ТО же будет когда нвидиа перейдёт на 55nm/
Поэтому надо стремиться с помощью прогресса добиваться результатов а не тем что призывать всех не покупать эти видюхи из-за того что видети ли они много потребляют..
При том что ещё не известно на 100% как будут обстоять дела.

0

кстати, если анонс 17 июня, когда карта поступит в продажу в России?

0

Я уже подсчитал - 5000 за 2года !!!
5тыщ евро?!!! класс : )))) Надеюсь ты считал по моим расценкам? Мне здаётся, что мои посты ты не читаешь внимательно и до сих пор не понял что я живу не в России и московские расценки меня не интересуют, тем более что в Рооссси платят за электричество только часть суммы!!!
то хоть в космосе разверни пару гектаров
ага по 10 евро за киловат : ))) ,
...отправить ремонтную бригаду - 60.000.000 баков, развернуть доп. конструкцию 120.000.000 баков - космический размах : ))))

Пока реальная альтернатива - это термоядерные реакторы (энергия солнца в "кармане") и то лет через 20. (в лучшем случае)

0

Товарищи "термоядерные реакторы" вы не слишком далеко от темы убежали. Что боитесь что геймеры всего мира схавают все мировое электричество мощными видеокартами... кто-нидь видел сколько жрут профессиональные карты... Моя Quadro на работе требует минимального блока на 1000 ват. Вот к этому мы и движемся))
Посмотрим на Интеловские какашки...которые якобы при хор. производительности будут тратить не 7, а 4 рубля за электричество))

0

Celestial Spirit aka MeitDeist
НАш рынок очень большой и важен для них. Думаю не позднее конца июня. В конце июля уже даже цены немного стабилизируются.

Allfa
А смысл в термоядерных?? Обыччное ядерное топливо - одной пробирки хватает на снабжение москвы на неделю.
Альтернатива это тогда водород - его дофига и энергии даёт ппц скока..( Расщипление )

НУ раз у тебя там цены ппц какие то твое дело. Но форум то русский и 95% тут живут в России, поэтому мои рассуждения и подсчитка более правильные.

ДА деже раз у тебя такие цены - ну и что? А например обогреватель ты решил включить зимой - 1киловат в час.. В 4раза больше чем видюха ( а реально в 8 , так как ты не постоянно играешь и она далеко не в пике работает)

0

>>Электричество с помощью нефти ещё слава богу никто не дадумался добывать. От газа да есть такое. НО большинство от АЭС.>>
ага , спец=))
а про газомазутные котлы не слышали?мазут -почти такой как нефть, только это шлак от перегонки, ещё хуже

>>НО большинство от АЭС>>
на западе , но не у нас это большинство...
а слышал ли ты, что АЭС свой ресурс имеет? и спустя нек промеж времени - её демонтируют и строят новую , можно в ремонт вложиться, но дешевле демонтировать и новую строить. демонтаж = постройке аэс , даже ещё больше

>>это термоядерные реакторы >>
через 1000 лет ,my dear, и никак не меньше... какие 20... =))))))))) все работы в этом направлении заморожены , благодаря олигархам и нефтяным магнатам мира...дааа а как хотелось бы термояд реакторов этих). Это не энергия солнца у нас в кармане, а мы в кармане у энергии солнца=))))))))

0

А например обогреватель ты решил включить зимой
Нет у нас обогревателей, у нас батареи в домах стоят, а на батареях - регуляторы : ) хочешь по теплей - "наболтай" : ))) Для нас электричество с потолка не сыплется.

А смысл в термоядерных??
Так ты не вкурсе : )) Ты наверно и не знаешь как "это" работает и с чем его "едят"?
Какой водород? Что ты фантазируешь? Обычное ядерное топлево - каменный век с вреднейшими последствиями, одной пробирки хватит пол города "засрать". ))) Хотя действительно, мы отдалились от темы!

А тема такая - 250 ватт для одной карты - это много!!! кроме России. )... а шума от неё (карты) то будет? Тестов ждать страшно : )

через 1000 лет ,my dear, и никак не меньше... какие 20...
Новости по телевизору смотреть надо чаще, юзать "поиск", газеты читать..., а не пропоганду... про Гагарина слышал?

0

термоядерную реакцию синтеза проводят , но она не стабильная и ,поэтому, вынуждены ограничиваться очень коротким временем. Увы, человечество не умеет контролировать энергию водорода, тем более нефтяные магнаты этому cпособствуют

хотя вот:
http://news.bbc.co.uk/hi/russian/sci/tech/newsid_1855000/1855802.stm

но всё равно не через 20 лет... 100-200 как минимум

0

В термоядерном реакторе невозможен неконтролируемый рост мощности и взрыв, нет выбросов углекислого газа и долгоживущих радиоактивных отходов, он не привлекателен для террористов, а запасов топлива для термоядерных реакций человечеству хватит на миллионы лет.

Проект ITER - уникальная форма международного сотрудничества России. Евросоюза, США, Японии, Канады, Южной Кореи, Китая. Индии. Создан и согласован инженерный проект термоядерного исследовательского комплекса, общая стоимость затрат на проект, научно-исследовательские и технологические работы приближается к двум миллиардам долларов. 28 июня 2005 года в Москве странами-участницами была подписана совместная декларация, где было решено сооружать реактор в ядерном центре Кадараш на юге Франции. Планируется, что реактор будет создан к 2012 году,

http://www.neftegaz.ru/lenta/show/67383/ (прочитай внимательно название сцилки : )))

100-200 как минимум
через 40 лет - промышленные масштабы.

Убедил?

0

мда=))) неожиданно то как). но навряд ли всё пойдёт как задумано - рановато пока что для человечества.не доросло до треб уровня

а мощность одного блока(реактора) этой станции какая будет?
мона построить на 5 мвт первый раз(от него толку мало), а можно неск тысяч Мвт - вот это дело...

>>через 40 лет - промышленные масштабы.>>
в пределах области франции какой, но не мировые ж

0

мда=))) неожиданно то как)
Будущще всегда наступает внезапно.

А в России даже зима наступает неажиданно... : )))

в пределах области франции какой, но не мировые ж
типо того. Во франции уже промышленные масщтабы термояда, а в остольном мире рост цен на уголь, драва, хворост...

0

самое интересное, что мир будет на термоядерные станции переходить, а у нас в Беларуси Лукашенко собирается АЭС строить через пару лет =))))))))))) прикол
>>рост цен на уголь, драва, хворост...>>
этим не добывают ЭЭ даже слабые пром страны мира)))

Интересно , как работать этот реактор бут: в спец отделе происх слияние атомов H, выраб куча энергии, энергия переводит воду в пар - а потом как в обычной ТЭЦ?
вода теплоноситель не очень для совр дел - придума ли б чтоб непосредственно реакция синтеза вырабатывала ЭЭ

0

прикол
Ну надоже с чегото начинать.... а то GT200 на носу, а страна не готова : (((

этим не добывают ЭЭ
Этим топят печки.

0

Sergey067
и что . АЭС строится и туда сразу закачивается ядерное топливо на 20-30лет. Так как добавить и остановить практически невозможно.

Чем же интересно лучше термоядерная энергия? Так же вредна .

Allfa
Что ж за страна если не секрет>

Водород это лучший источник энергии - их водорода объёмом всего в воздушный шар при расщиплении можно такую энергию получить что некула девать. При этом водорожа дох*я в отличии от урана и плутония и т.д.


Короче ребят давайте-ка завершать "всеформускую дисскуссию по проблемам развития энергетики (и ядерной энергетики в частоности) в России и других странах" ))) Мы от темы ппц ушли.. Был бы я админом давно нас забанил..)
Ждём первых тестов и посмотрим кто окажется прав. Ну а насчёт цен - кому везёт а кому нет.. Хотя в Европе хоть и цены выше но там и средняя зарплата далеко не 300-500$ ))) Так что..

0

Чем же интересно лучше термоядерная энергия? Так же вредна .
Читай внемательно мои коменты.
Что ж за страна если не секрет>
Евросоюз (поиск рулит!)

средняя зарплата далеко не 300-500$ )))
зато "жаба" душит также : )... а иногда и сильней. : (

0

>>и что . АЭС строится и туда сразу закачивается ядерное топливо на 20-30лет. Так как добавить и остановить практически невозможно.>>остановить можно, но аккуратно
>>Чем же интересно лучше термоядерная энергия? Так же вредна .>>не знаешь что это такое вообще. Как может быть обычная реакция объединения водорода с водородом и получ гелий быть вредна?

0

Allfa
Евросоюз это не страна. Он тоже разный - сравни Германию и какую нить Польшу..

В Европе люди 30% зарплаты тратят на питание и расплату за эл. и т.д. А в России бошьшинство до 80%.. ТАк что думаю что цена везде одинакова в проценте от доходов.

Sergey067
ну насчёт вредности могу ошибаться.

0

сравни Германию и какую нить Польшу..
пусть будет первое : ))) мог бы и сам найти в гугле или яндексе. ты же не первый день.

В Европе люди 30% зарплаты тратят на питание

Тут приоритеты другие.... дом, яхта, друзья.... а друзья нынче ох как дорого стоят : )

0

Allfa
ну тогда не вижу проблем с дороговизной..

Для европейца эти цены мизерны. И большую часть своих доходов он тратит на то что ты сказал. Дело не в приорететах а в уровне зарплат к покупательской способности. ты ж не скажешь что Европейцы специально голодают , чтоь купить газонокосилку...
Просто цены на продукты в Москве европейские, а зарплаты в разы меньше.

0

Ребята, ну ведь 250 ват - это рекорд!!! Причем далеко не радостный. Зачем они так с нами? Я бы ихние руки, да в ихние бы попы...

Интел с АМД за каждый ват борются - выше сотки не берут (для домашних). А эти.... слов нет, одни матюки, ДВЕСТИПЯТДЕСЯТВАТТ!!! Ужастьнах!

0

дык к тому ещё чистое тепло , которое наф никому не надо!
вот будет облом , когда многие от g200 отвернутся... дешёвенькие будут g200. Кстати так и надо чем энергоэкономичная технология тем дороже:
та же параллель с лампами под сокет E27. лампы накаливания вообще почти ничего не стоят , а газоразрядные под Е27 сокет намного дороже , но с высоким КПД. Так и с чипами должно быть! монополисты нвидия-хрен кто твоё г возьмёт!

0

Allfa
Как это Интел и особено АМД не берут выше 100??? А Q6600 ? А Q9XXX в разгоне. Про АМД вообще молчу. НАсколько помню 6400+ потребляет 130w

0

M Schumacher.
сейчас у А Q6600 95 ватт. ну некоторые 130. А разгон тут непричём.
Про АМД вообще...
130 выт это не "вобще", !ВОБЩЕ! - это 200 ватт, а 250ватт - пипец который не лечится. )
Тем более в тех же играх, 4х ядерный проц редко нагружен до 70 процентов.
Почему проци стораются держать рубеж и держат его (130 ватт), а у нВидии тормозов нет? А если в сли 4 карты???? Как они их охлаждать собераются - Водянка как норма жизни или увелечением оборотов вентилей выше 2000 + в системник пару доп вентилей?

зы. Для проца продуманно хорошее место для вентиляции, воэможность установить огромные вентиляторы и тд... а у видеокарт ничего этого нет. Куда они их гонят? какие 250? Жадность моск весь сьела?

0

Allfa
У меня 8800gts 512 - по спецификациям нвидии у неё в пике до 150W - и что? При непрерываной игре в Crysis греется всего до 68 для ГПУ и 50 для памяти на штатном кулере - бесшумном кстате.

Просто вы так рассуждаете что именно Нвидиа такая плохая - совсем не беспокоится. А об недавней АТИ забываете. Я же говорю - подождите 2месяца до 55nm и будет и вам счастье.

Хорошее место для вентиляции?? Чем же оно так хорошо. На видюху при желании устанавливают процессорные кулеры.

В разгоне любой 4ядерник уйдёт за 120w

0

>>А если в сли 4 карты???? Как они их охлаждать собераются >>
какая вода уже на N2 надо переходить ...

или тот , который 3 этажный для 9800gtx . Так с этим 3этажным и в сли карты не войдут

0

думаю тот кто будет заморачиваться с 3way SLI - заядлый бенчер и у него найдётся азот и для видюх и для проца.

0

В разгоне любой 4ядерник уйдёт за 120w
А в гт200 в разгоне и в сли за 700ватт уйдут.
...а если их в Квад? и всё в разгон под фрионом? как думаешь, 2000 ват будут "жрать"? или больше?

Хорошее место для вентиляции?? Чем же оно так хорошо.
Всем.

0

Allfa
НУ самому не смешно?? Значит у тебя арифметика такова - одна gt200 - 250w , две уже почему-то 700w а четыре уже аж 2000w /// ТЫ хоть не приувеличивал бы так... Подумают считать не умеешь))

0

Подумают считать не умеешь))
А разгон?! Разве там не написано? Читай внимательней....а разгон под фрионом?!!!

0

ладно, не надо тут ссориться ... есть подозрения , что g200 абсолютно не оверклокерскими будут из-за своих потерь в окр среду(У амдшки был пример - последний проц Athlon XP barton - абсолютная ересь, тот же thoroughbred только cache-512 кб, а тепла выдавал немерено , даже в покое) Такими решениями зимой на крайнем севере жилище отапливать-хоть как-то кпд будет выше

0

Сколько монадобеца GT200 БП с запасом???

0

скажите а анонс 18 июня и вобше с разгоном хватит бп 800w

0

800w уж точно хватит с запасом)) Вся система с gt200 будет потреблять не более 450w

0

если на одну - 600 вполне хватит, ты чё это M Schumacher опять =)))(даже 1 с запасом будет). 250w(g200)+350W .350W для остальной комплектухи это гром цифра , даже на разгон проца хватит
800W - это уже на 2 карты в сли(с запасом) 250х2(g200)+300W тоже достаточно много остаётся
вы чего это ,народ? идите и гляньте скока остальная комплектуха потребляет

0

Sergey067
так яж написал что вся система не более 450w будет потреблять. А 800w - я же тоже написал - с запасом!
И не надо забывать что БП с заявленными 600w не может выдавать и близко 600w/ макс 530-540 выдаст .

0

Сколько монадобеца GT200 БП с запасом???
http://www.overclockers.ru/hardnews/29436.shtml
"Для одиночной GeForce GTX 280 производитель рекомендует использовать блок питания мощностью не менее 550 Вт, обладающий нагрузочной способностью по линии +12 В не менее 40 А."

Вся система с gt200 будет потреблять не более 450w
)))

...ну и тест в нагрузочку. http://www.overclockers.ru/images/news/2008/06/09/bench_01.jpg

0

Allfa
тест абсолютно ничего не даёт.. В 3dmark' ах 3870x2 рвёт ультру на 30-40% .. А в реале что..

0

M Schumacher
За неимением лучшего...

тест абсолютно ничего не даёт..
Словосочетание "абсолютно ничего не" нужно заменить на "немного".

В 3dmark' ах 3870x2 рвёт ультру на 30-40% .. А в реале что..
Вот теперь делаем умозрительную поправку.
Судя по тесту, 06 марке (1280х1024) разница 15 процентов, а где-то и ультра впереди, максимальный разрыв - 35%. а не 30-40.

То понятно, что для представления полной картины придётся ждать полноценных тестов. Но надо же както начинать мерять piski?

0

Ну так что вы думаете что будет лучше GTX280 или Radeon 4870???
И насколько будет лучше???

0

...Yakuza...
А смысл в том что мы думаем?? НАдо тестов ждать - нормальных в играх.
ВОт один такой уже появился - Crysis DX10 1920x1200 на GTX280 выдаёт 36 фпс !!!! - ЭТо больше чем ТРИ!!! 8800Ultra // Если так то видюха будет просто зверь! Не думаю что hd4870 сможет и близко такое показать. http://www.overclockers.ru/hardnews/29444.shtml

0

насчет Кризиса я просто в шоке..) имба карта)

0

с3.14жжено с оверлокеров, все читали наверно

"Поток новостей о видеокартах серии GeForce GTX 2x0 становится таким плотным, что невольно приходится объединять в одном сообщении несколько информационных поводов. Например, на страницах сайта The Inquirer появилась информация о том, что NVIDIA в очередной раз пересмотрела сроки анонса этих видеокарт. В частности, GeForce GTX 280 будет представлена 16 июня, в продажу она поступит 17 июня, а видеокарты GeForce GTX 260 начнут поставляться 26 июня.

Сайт Fudzilla утверждает, что рекомендованные цены на GeForce GTX 280 и GeForce GTX 260 будут снижены до $499 и $399 соответственно, поскольку видеокарты Radeon HD 4870 могут представлять угрозу для новинок NVIDIA. Турецкий ресурс DonanimHaber сообщает, что компания EVGA готовит к анонсу по пять версий GeForce GTX 280 и GeForce GTX 260 соответственно, старшие из которых будут оснащаться медным водоблоком.

Британский ресурс The Inquirer также публикует результаты тестов видеокарт на базе чипа GT200, которые получены в системе на базе процессора Core 2 Extreme QX9650 (3.0 ГГц). Их можно попытаться сравнить с результатами тестов Radeon HD 4850, либо спрогнозировать уровень быстродействия Radeon HD 4870, который примерно на 30% выше. Если это утверждение справедливо, то Radeon HD 4870 действительно может представлять опасность для видеокарт на базе чипа GT200 в некоторых видах тестов.



Наконец, "гвоздём программы" становится результат тестирования трёх видеокарт GeForce GTX 280 в связке 3-Way SLI, опубликованный на страницах сайта VR-Zone. При разгоне центрального процессора Core 2 Extreme QX9650 с частоты 3.0 ГГц до 4.0 ГГц результат удалось улучшить с P17759 до P21350. Сингапурские коллеги обещают порадовать нас новыми результатами тестов видеокарт GeForce GTX 280, в данный момент идёт приём заявок на условия тестирования."



500 долларов рекомендованная вместо 650? хм... отлично, это к лучшему :))

пускай они хоть что говорят, но 280 будет лучше, чем ихняя ати...
про 3 вей слай это они слишком, кому оно надо-то :) вон, как говорил M Schumacher в теме по соседству, лучше делать так, чем тратиться бесмысленно на целых 3 карты, а потом плакать

0

Поясню : "делать так" это постоянный апгрейд - вышло что-то новое и действительно помогающее - покупаешь (старое продаёшь). Холть каждые пол года если будут видюхи так клепать .

0

Celestial Spirit aka MeitDeist [Asmodian]
пускай они хоть что говорят, но 280 будет лучше, чем ихняя ати...

А они это кто ? :))))

Я надеюсь , что Радеон окажутся отличными картами и обязательно куплю , для меня это лучший выбор чем ихняя Geforce (правда радеон тоже не наша , но я так соблюдаю заданный разговорный стиль :))) )

0

^)) они, кто-то, хз :) кто статью писал
потом в другом месте была старая инфа мод соперником 280 будет двухчиповая ати, это каким мне интересно образом они сравнивают одночиповую и двучиповую? :/
не не, пусть истинные фаны ати покупают ее :) все равно она не будет проиводительней 280 намного, к тому же и шина слабая :)

0

Celestial Spirit aka MeitDeist [Asmodian]


Они вроде как и не утверждают , что радеон будет производительнее чем Geforce , просто по соотношению цена производительность карты Ати хорошо себя показывают , поэтому Нвидиа и идет на снижение цен. По поводу сравения двухчиповой карты с одночиповой , ну собственно почему бы и нет :
1. Цена на двухчповую карту предположитльно будет 499$ , столько же сколько и у GTX 280.
2. Уровень TDP GTX 280 около 240watt , у двухчиповой карты обещают в этом же районе.
Как видиш хотябы по этим показателям можно сравнивать эти карты , а уж сколько она там имееет графических ядер это уже дело третье , все решает цена/производительность , а мы выбираем что нам за наши деньги лучше купить.

0

Guide
Ну как сказать. HD3870 стоит в Москве так же как и 8800gt при том что радион слабее минимум на 20%.
А hd3870 x2 стоит 10тыс - за эти деньги лучше купить 9800gtx . ТАк как X2 показывает себя хорошо далеко не во всех играх и имеет КУЧУ проблем с дровами и оптимизацией.

0

M Schumacher

Ну Радеон стоит все таки на 20-25$ дешевле чем 8800GT , плюс все радеоны что референсные , что с оригинальной системой охлаждения , достаточно тихие и эффективные в работе . чего не скажеш о рефересных картах 8800GT , у которых охлаждение очень шумное и не эффективное , все форумы засыпаны о проблемах с охлажднием данных карт ( в продаже конечно можно найти Gainward Bliss и еще несколько карт с нестандартным охлаждением по умеренным ценам , но это порой не просто )

Про 3870X2 согласен , но в плане ценовой политики Ати полюбому будет позиционировать свой продукт дешевле чем 280GTX , т.к цену эту объявляли до планов снижения цен на карты Нвидиа , может и дрова получше сделают , чтобы хоть Crossfire работал в играх лучше.

0

http://www.ixbt.com/news/hard/index.shtml?10/61/62 Вот - оказывается не только gt200 будет много жрать...

Guide
В санрайз цены одинаковы. А 8800gt с референсным кулером покупают только незнающие люди. А так с нормальными кулерами их навалом. И по цене той же.

да , чёт 8800gt подорожали чтоли.. Но всё равно конкурент по производительности с hd3870 это 9600gt/ А он уж точно не дороже стоит. В любом случае выбор есть - и у АТИ и у Нвидии в этом диапазоне.

0

GeForce GTX 280 и GTX 260: уточенные цены и сроки выхода
http://www.ixbt.com/news/hard/index.shtml?10/61/69

0

понятно, ничего не подешевело, будет стоить где-то 21 тыщу, наверно :) я надеюсь чуть поменьше

0

Почему 21?? 650$ = 15500р - значит у нас будет тыс 18-19 не более.

0

21к - это я просто боюсь, что новость с пг про эту 21к на каком-то буржуйском левом сайте может оказаться правдой :/

0

M Schumacher

Эх.. Красотища..


Прости не оценил :))))
Вот тесты опять же пока не официальные : http://www.ixbt.com/news/hard/index.shtml?10/61/90

0

Эх.. Красотища..
по-моему, кто-то тут противник слай :)

0

Celestial Spirit aka MeitDeist [Asmodian]
я про саму видюху.. Аж три gt200// Потом я противник Рациональности использования 3х видюх.

0

Guide
что-то это фейк насчет Кризиса, 280 не может выдавать фпс ниже, чем на вшивой 9800гх2, были же тесты Кризиса уже, где на Висте и при Максе (или очень высоком, хз) на разрешении 1920 на 1200 выдавало вполне игрвабельные 36 фпс, в то время как 3 ультры всего 32 фпс, 9800гх2 такой не покажет, тогда с какого хрена мне интересно на средних фпс у 280 тут ниже, чем гх...

0

Ребята, завтра снимается запрет на публикацию тестов и всего остольного. Считай платину прорвёт. Вот тогда начитаемся и тестов под всеми настройками, осями и играми. Тогда и поговорим на счёт производительности.

0

что-то это фейк насчет Кризиса

Просто драва еще сыроваты...

0

Просто драва еще сыроваты...
не, ну тестили же в другом месте, нормально ж было

Ребята, завтра снимается запрет на публикацию тестов и всего остольного. Считай платину прорвёт. Вот тогда начитаемся и тестов и всего остольного плд всеми настройками, осями и играми. Вот тогда и поговорим на счёт производительности.
ага, ждемс

0

Celestial Spirit aka MeitDeist [Asmodian]

Я не могу судить , может фейк , а может и нет. Может и там тесты не вменяемые были ??? Зачем 3 Ультры тетстить , когда 2 видеокарты в кризисе работают не на всю мощь , очередной пиар , остается дождаться анонса карт и номральных тетсов.

0

>>остается дождаться анонса карт и номральных тетсов>>
в этот вторник уже выпуск, cкоро и посмотрим на тесты

0

тут чел хочет зачем-то брать 2 8800гтс в слай (наверно не знает все минусы слая), денег у него на 280 нету.. дак вот, разве 260 (одна) не будет актуальней и производительней, чем 2 8800 за ту же цену?

0

с учётом матери на 780i, 790i это будет дороже на 100-150$ //

0

что дороже? вариант со слай? а по производительности как?)

0

Celestial Spirit aka MeitDeist [Asmodian]

Да откуда пока знать как по производительности ??? Тестов то нету , плюс слай не везде работает или работает плохо , но думаю там где слай отлично маштабируется то 2X 8800ГТС должны быть быстрее чем 260.

0

Проблема в том что SLI хорошо масштабируется там где не надо - в старых играх (так как оптимизация под них была сделана). И таким играм и одной 8800gts сполна хватает. А вот в новых играх (которые соответственно оптимизировать сполна никто не успел) толку от SLI мало. И в таки х играх однозначно будет лучше 1 но мощная современная карта.

0

M Schumacher, это точно.
Надеюсь это был убедительный факт о слабой стороне SLI(crossfire) для его фанатов

Потому что реально - выпустили игрушку новую сначала, потом появляются глюки с SLI(crossfire) , затем нвидия(ATI) их подтверждает => и только потом клепают очередной пофикшенный драйвер о работе в SLI(crossfire). Так было и так всегда будет.
Если кто не верит - я ж говорю посмотрите багфикс новых дров от АТI => только и видно сплошные поправки в режиме crossfire.

вот release notes на catalyst 8.5: http://www.radeon.ru/drivers/catalyst_85_rn.html

у нвидии тоже самое

у 8800gt какой TDP???

0

ну да, выгоднее одну 280gtx поставить чем 2 8800gt - по энергии эффект тот же, а 280 наверняка круче должна быть , всёж таки g200

0

случайно заметил, что написав на русской раскладке GTX получается ПЕЧ)))

0

Елник
Это все заметили еще полтора года назад , это ее второе неоффициальное название.

0

ну да, выгоднее одну 280gtx поставить чем 2 8800gt - по энергии эффект тот же, а 280 наверняка круче должна быть , всёж таки g200
это ты к чему щас?
----------------
хы, они уже тестили 3 280 под азотом, а нафиг собсно оно надо.. под азотом, бенчеры-то.. номинала им не хватает... совсем зажрались) и проц до 5.6 разогнали.. согласен, это не 3 ггц номинал, но все равно :)

0

ни один тест не требует 5.6 такой частоты, даже тот кризис поменьше требует. Просто тупо проверяли на прочность карту под азотом =)

>>это ты к чему щас?>>
к тому , что 280gtx возможно и пошустрее 2 8800gt, а хотя тесты покажут.

0

Кстате показали тесты что Gtx280 спокойно на штатном охлаждении и штатной напруге разгоняется до 710/1500/2400 .. Вот это уже я понимаю частоты. А на Азоте с чатотой в 1000Мгц по ядру ты что - она такую мощь выдаст. И память они не поднимали напругу - так её тоже прогнать до 2600-2700 спокойно. Вот это будет монстр.. Crysis спокойно летать будет..Ведь чем мощнее ккарта тем заметнее прирост от разгона. Другое дело что жрать она будет ещё больше. Но это не проблема.

А Q9650 на 5600Мгц это ппц зверь...


Sergey067
Требовать то не требует - но фпс выше и в бенчах и тем более в играх.

0

>>Sergey067
Требовать то не требует - но фпс выше и в бенчах и тем более в играх.>>

азотное охлаждение...так конечно можно разогнать под таким охлаждением до 5.6 ....
только вот попробуй купи его, если сегодня и водное нормальное дорого обходится
c азотом и до 10 ггц догнать можно =))

>>Crysis спокойно летать будет..Ведь чем мощнее ккарта тем заметнее прирост от разгона. Другое дело что жрать она будет ещё больше. Но это не проблема.
>>
а счётчик-то ЭЭ как бегать будет ...=))))) получается летать будут 2 вещи как минимум - кризис и счётчик электроэнергии
кстати, а разве 8800gt плохо с кризисом справляется?

0

к тому , что 280gtx возможно и пошустрее 2 8800gt, а хотя тесты покажут.
мда, ясен пень что шустрее, может ты имел в виду 260, а не 280? о.О ибо одна 280 шустре трех ультр, а 8800гт по сравнению с ультрой - тьфу кака

0

ну да 260 gtx - у неё ж и потребление поменьше...но ненамного

кстати, а разве 8800gt плохо с кризисом справляется?

не, про директ10 пока молчим, я имею в виду директ9.0с на хр?
то , что 8800gt не очень держит директ10 ясень пень - восьмая серия geforce только-только получила этот API

0

кстати, а разве 8800gt плохо с кризисом справляется?
нука запусти на Висте на максе при сглаживании х4 на мониторе 24" и поведай результат...

0

Sergey067
Азотное охлаждение к твоему сведению дешевле обойдётся водного. нужен только стакан (1000р максимум) и азот (можно либо скинуться и купить на нескольких- чел балон на 10-20литров) - достать его нет проблем вообще. СТоить для одного человека будет 1000-2000 р. ТАк что всего 3тыс руб... А водянка нормальная от 6-8тыс. Вот только с азотом мороки больше - система должна быть постоянно лежачей , его надо доливать ну и небольшой пар будет идти постоянно...
ЗАто 5ггц для любого проца... А ущё можно на видео сделать и гнать!! толку будет очень много..


НУ так 8800gt на dx10 только в 1280 без сглаживания. А тут пожалуйчта 1920х1200 и с 4х AA //

0

вот в том то и дело - мороки больше. За такие деньги это вряд ли кому надо

0

Тесты Geforce 280GTX - http://www.ixbt.com/video3/gt200-part3.shtml#p1
http://www.3dnews.ru/video/gtx280/index3.htm

0

У нас уже продаётся! : )
GTX280 - 13 наименований
http://www.alternate.de/html/product/Grafikkarten_NVIDIA_PCIe/Gainward/GTX280/275155/?articleId=275155&showTecData=true#techData
GTX260 - 10 наименований
http://www.alternate.de/html/product/Grafikkarten_NVIDIA_PCIe/Xpertvision-Palit/GTX260/275327/?articleId=275327&showTecData=true#techData

если кому надо - обращяйтесь : )))

0

А кому надо? GTX280 на уровне 9800GX2, а стоит дороже. Скоро выйдут 4850 и 4870, которые скорей всего будут не на много медленнее, но зато намного дешевле. А к концу лета выйдет 4870x2, который скорей всего разорвет GTX280.

0

Sergey067
3тыс ??? 120$ за возможность без труда достичь 5ггц на проце?? Или ты выберешь за 8тыс среднее водяное охлаждение с в разы худшим охлаждением и своими проблемами с протечками и т.д.

0

Тесты на 3dnews очень радуют. gtx280 опережает два g92// А вот на Ixbt чёт результаты вообще странные - походу у них с дровами проблемы возникли.

НУ видюха просто классс.. Такие характеристики.. Представляю что будет хоть и в недоделанном но всётаки SLI .. ДАже если +40% производительности - то это будет просто невиданная мощь..
А что будет через несколько месяцев когда перейдут на 55nm// Во многом щас повторяется история G80 и G92/

0

Обзоры
http://forum.elitebastards.com/viewtopic.php?f=1&t=23129

0

Alexandr82, если ты убежден, что 280 равна позорной 9800гх2 думай как знаешь хD она 3.14зже ее, не хочешь не покупай, тя не заставляют, а кому нужна мощь - купят, лично я в августе куплю

0

шото тесты и правда не шибко крутые, но гх2 это считай 2 видео против одной, так что результаты вполне. я правда не понимаю, как 280 может работать хуже в ПроСтрите.. или у нее заточка под новые игры)

0

9800GX2 немного отстает в некоторых играх из-за того, что SLI не всегда эффективно работает. Учитывая что 9800GX2 почти на 200$ дешевле, кому нужен GTX280? Не говоря уже про то, что новинку часто обходят две 8800GT в SLI.

0

Вообщем карта получилась неоднозначной , как одночиповый продукт безусловно получился пекрасный , но вот на уровне 9800GX2 ничего сверхъестественного , как я предполагал , там где SLI работает прекрасно 9800GX2 быстрее . Да и 100% прироста производительности относительно 8800 обещанного Нвидиа не состоялось. , хотя в некоторых играх прирост очень даже впечатляет.

0

если сравнивать слай 3 280 мощнее, чем 2 гх2, если 2 280 уже не мощнее. но мне слай не нужен, 280 мой выбор. А там в 2010+ уже трехчиповые обещают) правда на ПиСиАй 3.0

0

M Schumacher, вот тебе пожалуйста, цена в Германии 550 евро, т.е 20 тыщ, выходит тот левый сайт был прав

0

посмотрим.. ТУт ещё ажиотаж в первую недулю-две. ПОтом утрясётся. Должно..

А так хоть и не 2х кратный но всёже по сравнению с 8800gts оченб большой прирост. Кроме того -не забывайте драва под gt200 ещё очень сырые. ТАк что через месяц как мне кажется в тестах она будет быстрее ещё процентов на 10-20. ДАже сейчас мы видим огромную разницу между тестами на Ixbt и 3dnews.

0

M Schumacher

Разница в етстах на ixbt и 3dnews вообще забавная , у одних GTX 280 слабее в крайзис у других быстрее , например на 3dnews 9800GX2 показывает очень низкий ре-тат относительно 280GTX , на ixbt все наоборот кому верить даже незнаю .

0

никому, надо это самим все проверять

0

кому верить даже незнаю
В наше время никому верить нельзя, порой даже самому себе. Вот мне... мне верить можно!

0

И ышо тест

http://www.thg.ru/graphic/geforce_gtx_260_280/index.html

0

старнные тесты, везде впереди гх2, да нафиг этот гх2 :)

0

Celestial Spirit aka MeitDeist [Asmodian]

Хорош ересь писать , чего странного в том , что GX2 впереди ??? Ясно было изначально , что там где SLI работает корректно в этих играх GX2 будет быстрее чем 280 GTX.

0

мда, слай не так уж и плох, как его малюют... %) это показывают многочисленные тесты...


внимание вопрос о.О

нынче гтх 260 в слай (почти за ту же цену вроде) будет лучше одной 280? О_О как на мелких разрешениях, так и на больших? (биты складываются ведь? их еще больше будет) гм... гм...

0

Celestial Spirit aka MeitDeist [Asmodian]

Проще взять 2 8800GTS , будет в большинстве случаев быстрее и энергопотребление ниже( чем у 2-х 260GTX) и стоимость дешевле чем GTX 260 , единственное материнка под SLI стоит немало.

0

вот именно, так что нафиг идет слай, лучше взять 280 :) пусть будет одночиповая мощь

в 260 в слай, если так посчитать по германскому сайту, будет 23.500 рублей, это на 3500 дороже, чем одна 280, + учесть прирост на цену к матери, + учесть прирост на цену к бп... ууу... нафиг этот слай

0

Celestial Spirit aka MeitDeist [Asmodian]

Не в обиду , но ты создаеш впечатления маразматика :))))
Нвидиа лоханулась выпустив 9800GX2 , теперь сама же не может ее переплюнуть , нечего было ерундой заниматься , лучше бы все силы бросили на GTX280(260) по крайней мере выпустили бы месяца на 2 раньше и все бы тащились какая мега видеокарта получилась , а теперь получается , что 9800GX2 в большинстве случаев быстрее и еще к тому же дешевле причем значительно.

Да поэтому проще взять 9800GX2 14500-15000р и не париться по поводу слай.

0

не, гх2 это я 100% брать не буду...
что-то мне не нравится этот германский сайт, слишком уж завышенные цены на все карты...
а если 260 одна будет стоить тыщ 10, что вряд ли, то лучше будет 2 260, чем одна 280 (повторяюсь уже, черт)... а так я все-таки хочу 280, одночиповая мощь х_х и нет проблем, где слай не оптимизирован х_х
да уж, цены в россии теперь интересуют как никогда, после их появляения можно сделать вывод, а если 2 260 будет шибко дороже, то одну 280, но не гх2

0

Celestial Spirit aka MeitDeist [Asmodian]

Помоему деньги на ветер , одночиповый слабак сел в лужу , 9800GX2 однозначно , если купиш одночипую дохлятину , лучше здесь не появляйся :))))

P.S на самом деле думаю через месяц видюха будет стоить баксов 700-750 тогда и можно брать , я бы честно сам взял 280GTX вместо 9800GX2 , все таки драйвера думаю еще сыроваты , процентов 10-15% производительности еще накинут , а 2-х чиповая все таки со своими проблемами :рывки в играх , неоптимизация под 2-х чиповость и прочее. Деньги если есть то бери конечно , возможно последний одночиповый флагман в истории человечества :)))) ( обновленный чип на 55нм не будет считаться)

0

Guide
Хорош ересь писать , чего странного в том , что GX2 впереди ??? Ясно было изначально , что там где SLI работает корректно в этих играх GX2 будет быстрее чем 280 GTX.
ну а там где нет поддержи SLI, с головой хватит и одного чипа G92!

судя по тестам, я в проигрыше не остался, купив в марте 9800GX2 :)

0

Товарищи не забывайте - чип gt200 абсолютно н.овый и нуждается в дровах!! Это так у всех новых видюх. Подождите когда выйдут норм дрова - минимум на 10% лучше будет производительность. А цена на gts280 должна быть такая же практически что и на 9800gx2 / А сейчас цены спекулятивные - чего вы хотите в первую же неделю выпуска карт??? Ажиотаж огромный - вот и цены такиеже. Через пару недель должно всё утрястись .

Потом ещё АТИ представит свои карта - говорят что hd4850 будет обеспечивать 75% производительности gtx280 при офф. стоимости в 199$ . HD4870 будет ещё мощнее. ТАк что это даст во 1х выбор - может будет лучше купить hd4870/ Во 2х цены на gtx280(260) нвидиа будет вынуждена понизить.

Guide
gx2 быстрее там где не надо - в оптимизированных играх годичной давности. Вот выдет новаая игра - и она в лужу сядет. И только через пол года нормально будет оптимизирована. Во 2х как я уже сказал - эти тесты ещё ничего не говорят. В 3х у gx2 есть так же проблемы sli - например резкие скачки фпс.

0

если купиш одночипую дохлятину , лучше здесь не появляйся :))))
это еще почему))

я буду в августе брать, ждать еще больше времени не буду, я и так сижу со старым компом (уж как 5 лет), котроый нихрена давно уже не тянет
по идее, я бы брал ее за 21 тыщу, ибо считал весь прайс с максимально возможными ценами из-за неналичия в магазах.... если она будет выше 21, стоит призадуматься) хотя вряд ли... так и будет... Асус 21 тыща... Лдитек 20 тыщ... и т.д. и т.п.... разогнанные Евги до 23 тыщ... всякие

0

M Schumacher
гх2 практически не подешевела, тыщи на 2 мб, и то, прошло уже 3 месяца почти
так что цена 280 будет висеть также долго и упорно, как когда-то на ультре :) она даже посмертно продавалась по макс цене :)
так что думаю розничная цена в России будет 20-21 тыщ (не считай разогнанных), в зависимости от фирмы, Асус как всегда самый дорогой

0

у GX небыло конкурентов от АТИ. !!! Конкуренция пораждает снижение цен. АТИ есои действительно будет как я сказал - то во 1х можно будет взять и hd4870 либо gxt280 по более приемлемой цене.

0

http://www.overclockers.ru/hardnews/29507.shtml вот про то что я говорил о цене и быстродействии hd4850

А вот и зря так . Фанатство здесь не уместно. Если будет действительно hd4850 такой производ. то значит hd4870 будет обеспечивать 85-90% быстродействия gtx280 при цене в 10-11 тыс..

0

шина 256 идет лесом, она сможет мне также хорошо работать на 24", как 280?

0

Celestial Spirit aka MeitDeist [Asmodian]
Во 1х у неё GDDR5! ВО 2х - какое отношение имеют паспортные данные?? HD2900 xt с 512 шиной ничего не могла ... НУжно не на характеристики смотреть а на производителльность. Ждать осталось недолго.

И как я уже сказал - ГЛавное Конкуренция!! БУдут решения АТИ конкурировать с GTX280 - покупателю будет лучше так как цены на последнюю заметно снизятся. Либо можно будет купить две hd4850 и получшить на 30% быстрее мощи чем gtx280 при меньшей цене. В эту инфу мне кажется можно верить .

0

Celestial Spirit aka MeitDeist [Asmodian]

Какая разница какая шина ??? Для конечного пользователя должна быть важна цена и производительность продукта.
АМД/АТИ это последняя надежда свободного незомбированного пиаром человечества , но тебя я чувствую уже не спасти :))))

0

причем шина? кто-то мне говорил, что от шины зависит успех на больших разрешениях...

радеоны разве хорошо работают в играх с эмблемой от нвидии? (их море)

кто там из ати конкурент 280? двухчиповый зверь 4870х2? это тоже конечно интересно

а как же слухи мол ати делать дрова не умеет и по этому ее карты гавно?

дак а толку от 4870х2? или может быть мощнее 280 по малой цене? :)) и зависит ли тогда наличие двух слотов х16 для кросфаир, или ей пох на слоты, как гх2 и она работает независимо от "1 слот как х16, другой нупский х4"?

0

А GX2 2 это лажа .. Все игры в которых её тестируют - вышли минимум 6мес назад - за это врямя дрова успели оптимизировать. Выйдет новая требовательная игра типа FarCry 2 и всё - GX2 нихрена не сможет. Только через 2-4месяца. А одночиповая сразу же будет выдавать всю мощь и без проблем.

0

это ты щас в пользу 280 говоришь.. а как же твои высказывания в пользу 4870х2? там тоже такой же "слай"

0

Celestial Spirit aka MeitDeist [Asmodian]
Да. Теоретически. Но я тебе привёл пример - HD2900xt(512шина) и 8800gts (256шина) - кто быстрее..

И ктому же по чистой производительности в гигафлопах АТИ наголову выше любой карты нвидии. 3870x2 имеет производительность в 1терафлоп.. А 8800Ultra около 500 гигафлоп. При этом x2 не то чтобы в 2раза мощнее - а вообще медленнее на 20-30% в соеднем. Вот вам и паспортные данные. Не всё от них зависит. HD3870 тоже по чистой производительности мощнее чем 8800gts ///

0

зато она где-то даже не включается, при включении фильтрации и сглаживания... поэтому доверие ати очень малое

0

Celestial Spirit aka MeitDeist [Asmodian]
Да конечно от шины в какой то мере зависит успех на больших разрешениях , но не только от нее , ну и от мощности самого чипа , от объема памяти и от пропускной способности самой памяти , еще пока что не известно точно , что лучше 512 бит GDDR3 или 256 бит GDDR5.

Им приходится там работать , ибо почти все известные игры выходят с логотипом Нвидиа , однако раньше это не мешало АТИ драть Нвидию в этих играх тоже , серия 8800 изменила эту тенденцию , надолго ли увидим.

Вроде как он обещается быть конкурентом , по предварительным данным он может оказаться на 30% процентов быстрее чем 9800GX2 , выводы делаем сами.

По поводу драйверов , они не так уж и плохи , в Нвидиа конечно они плучше , но не намного , в основном такую ахинею несут Нвидиавские подсосники , им не стоит доверять :))))

0

Celestial Spirit aka MeitDeist [Asmodian]
ДА. ( толкко не SLI а Crossfire) Но это если инфа верна. Если этот Crossfire будет на 30% мощнее gtx280. И стоить две HD3850 будут по - 450$ гдето. - вот тогда имеет смысл и даже очень. К тому же на Crossfire не надо тратить 400$ на мать.. Достаточно X38 за 200$ ( хотя про мать я не верно сказал -мы же о GX2 ..)

0

вот если будет на 30% мощнее, тогда да :) а так... такая же неоптимизированностть в кросфаере, где будешь ждать дров полгода для определенной игры, а стало быть нафиг оно надо?
тоже напряг от 3870х2 (или какая там у них), что не включается где-то при включении фильтрации и т.п. такое может быть и с 4870х2
да и как уже упомяналось, что 280 фпс почти стабильный, и не прыгает до критически малого, как бывает в гх2 и 4870х2 будущем :)


M Schumacher
я знаю, что кросфаир, поэтому слай и написан в кавычках
а мать уже выбрана, ga-ep35-ds4

0

Я считаю не стоит делать поспешных выводов. Надо ждать HD48xx и нормальных дров и под gt200 и под RV770 -и цены смотреть надо только после выхода Rv770/ Вот тогда и оченим всё правильно.

Да. НО за 450$ и болшей производительностью это можно ещё терпеть. Тем более что одна hd4850 будет заметно мощнее 8800gts (из чего состоит gx2) - поэтому в неоптимизированных играх будет лучше с HD 4850/ Замть я говорю о двух HD4850 а не о hd4870/

0

ну скачки ж фпс будут, ведь так?) и каким объемом там 4870х2 идет? запамятовал

а зачем мне 3***, 4870 и ничего нижее ее, раз уж на то пошло... что значит 2? оно не двухчиповое чтоли? О_О и 4870 тоже не двух? вроде ж двух все, или двойной кросфаир чтоли
я че-то уже не соображаю, про что вообще говоришь) запутал, то про одно, то про другое)

0

Celestial Spirit aka MeitDeist [Asmodian]

Он просто опечатки делат 4850 и 4870 одночиповые , 4870 X2 двухчиповая. Объем памяти 1гиг или 2 гига будет , пока точно незнаю .

Слышал , что АТИ возможно применит в 4870 X2 динамическую модель распределения памяти , тоесть если щас двухчиповые карты идут 512мб+512мб (тоесть на каждый чип) , то в 4870X2 1гб будет общим для 2-х чипов , неизвестно принесет ли это большую пользу , но покрайней мере что-то новенькое.

0

если есть одночиповые и двучиповые... нужен ли второй слот или все-таки нет?))
бред короче какой-то) когда там анонс 4870х2 и х1? вроде 18

0

Celestial Spirit aka MeitDeist [Asmodian]

если есть одночиповые и двучиповые... нужен ли второй слот или все-таки нет?))
бред короче какой-то) когда там анонс 4870х2 и х1? вроде 18



Нет слот нужен только один.
25 июня анонс 4850 и 4870 , а 4870 X2 выйдет только в августе.

0

http://www.thg.ru/graphic/geforce_gtx_260_280/geforce_gtx_260_280-05.html
Вот тут как раз и сказали что проблема с дровами существует.

А насчёт 9800gx2 - посмотрите во всех Новых играх типа Race Driver Grid - она садится просто в лужу -хуже чем одна 8800gts (9800gtx)... Вот с этим сталкиваются все "счастливые " обладаьели SLI и Crossfire/

Celestial Spirit aka MeitDeist [Asmodian]
Ошибся - конечно HD4850/ Просто она будет лучшим выбором я считаю - так как 4850 это таже 4870 просто с заниженными частотами- небольшой разгон и у тебя HD4870 по цене в 2раза дешевле... ( что было доказано в 3й серии на примере HD3850 и HD3870 )

HD4850 и HD4870 - одночиповые. Двучиповаые выйдут позжи и будут с приставкой X2 .
Я говорил и привёл инфу с сайта про Crossfire из ДВУХ одночиповых HD4850/

0

значит все-таки 280 лучше всех :) потому как, кто купит 4870х2, будет таким же "счастливым обладателем" :) тем более в августе, неее, в середине я буду комп покупать, значит 280

M Schumacher
не, я не хочу брать ати, хуже чем 280, хоть и дешевле.. я и планировал брать когда-то, в феврале еще, 2 8800гтс (нафиг слай), потом вышла 9800гх2, захотел ее (нафиг слай), потом слухи поползли про 9900, аля 280, захотел ее (и щас я тодже хочу ее), как раз будет нечто вроде гх2, правда не будет садиться в лужу



в общем, нужно брать 280 и ждать анонса трехчиповых :) правда это будет нескоро и придется менять даже материнку под писиай 3.0... :/

0

Celestial Spirit aka MeitDeist [Asmodian]
Почему лучше?? Что лучше 100% производительностии за 650$ или 75% за 200$ ( обе рекомендованные цены)??? А HD 4870 будет и того больше иметь производитеьность на уровне 85-90% от GTX280 при цене в 450$ /

Советую здраво оценивать карты АТи и Нвидии. Я сам больше поклонник Ати но взял 8800gts 512 так как достойного конкурента АТи не было. А сенйчас он намечается.
И кстате АТишные дрова мне больше нравятся чем эти нвидевские ..

0

слабее - это не конкурент, конкурент когда равен, а цена ниже :)
кто стоит 200? не понял.. или ты потяь обозначения путаешь :)

0

200$ рекомендованная цена HD4850 - 75% производительности GTX280 (650$ - рек. цена) . А HD4870 будет 85-90% производительности GXT280 при в Полтора раза меньшей цене ( 450$) Вот и думай что лучше.
Опять же если верить инфе про производительность новых АТи. Надо ждать до их анонса -всего-то ничего осталось.
Просто не стоит прям так боготворить GXT280 не зная конкурентов.

0
ЗАГРУЗИТЬ ВСЕ КОММЕНТАРИИ