Nvidia vs AMD (ATI) v.26

Продолжаем обсуждать противостояние карт Nvidia и AMD.

Предыдущая тема

Флудим в меру и без оскорблений.

Комментарии: 241
Тема закрыта. Публикация новых комментариев отключена.

Viki.Imperius
Я не гонюсь за "ультра" так то. Мне не нужны сглаживания типа "нагнуть видеокарту" и другие опции из этой оперы типа рендера в 4К для монитора 1080р (уберсэмплинги всякие),масштаба 200% и прочего,которые после активации УДВАИВАЮТ нагрузку и в два раза роняют ФПС.
И видеопамять юзается для текстур,а для этого не обязателен топовый чип,текстуры почти не нагружают сам процессор видео,его нагружают как раз таки сглаживания и прочие пост эффекты.
Для абсолютных ультра настроек всегда будут требоваться топы,но из этих настроек половина -бесполезная срань,которая тупо увеличивает нагрузку на видеокарту,слабо влияя на качество картинки.
А с другой стороны будь хоть квад слай из топов с 3 ГБ а текстуры ультра залочат только для 4 ГБ то будешь на квад слае играть не с максимальным качеством текстур.

6

Он и тут бред несёт, интелоинвидия головного мозга xD

6

Viki.Imperius
Это сейчас. Полгода назад говорили что 1 ГБ в видюшке за глаза,а сейчас это мыльные минимальные текстуры в настройках игры..

5

Axel28rus CSKA fan
"интелоинвидия головного мозга" + ))

5

mr.Sirocco
Так 280х тоже MSI.
Просто она с 6 гигами единственная пока (кроме титанов) взять чтобы не париться больше о требованиях видеопамяти...хотя подожду лучше трошки,пока не выкатят 6 гиговых побольше,а это произойдёт скоро ,почему то я уверен.
http://www.citilink.ru/catalog/computers_and_notebooks/parts/videocards/?available=1&f=a:1:{i:0;s:11:%22304_296d1gb%22;}

4

SUSUL1
У ASUS и MSI лучшие карты, + еще у ZOTAC, EVGA и Inno3D.

4

Бомбардировщик
просто палит не успевают в гарантийку нести с их 12 месяцами гарантии

у гигабайта обороты перекручены слишком, вентилятор гудит + высокие частоты = нужен хороший корпус. многие, кто берут, скручивают обороты и частоты вниз.
имхо, асус самое норм. от мси еще иногда попадаются хорошие

4

Vinni-Pukh
Чем тебе не нравится температура в 82 градуса по чипу?

4

Пасани,подумываю о РАДЕОНЕ

Спойлер

(уж больно у них ядрёные характеристики по дешёвой цене) ,например 280х с 6 гигами стоит всего 14 900,а там и шина 300 с членом бит и т.п.) А игор с физиксом что то не видать на горизонте вообще,печально...

какие подводные камни?

3

Viki.Imperius
У Палита качество отличное. Палит дёшев за счёт простоты и отсутствия каких-либо переходников в комплекте,сама упаковка простая,марка без претензий на крутизну,охлаждение без свистоперделок (притом хорошее).
Но опять же это не относится к топам от палит - в них есть и переходники и свистоперделки.
В то же время гигабайт со своими свистоперделками виндфорсами по гарантии отдают только в путь.
Палит по качеству лучше гигабайта,сапфира и точки обзора.
Чтобы не быть голословным - только что посмотрел гарантийку в ситилинке - ПАЛИТ 73 модели, из них НОЛЬ ремонтных в продаже.
Сапфир там вообще чуть ли не половина из ремонта,гигабайт всего две,но недавно там было их дохрена.

3

SUSUL1
Карты от Gigabyte дермище полное,никогда от них карту не куплю больше

3

Vinni-Pukh
Дроссели пищат почти во всех видеокартах....Много фпс,включайте вертикальную синхронизацию....и будет тишина...
А ручками можно залезть в MSI Afterburner и выставить ручное управление....
И еще,не думали,что корпус Ваш унылый какаш с никакущим охлаждением,захламленный проводами и пылью..а гигабайт получается виновата...

3

Ага, этот парень мне тоже нравится. Определённо.

3

Vinni-Pukh
Хороший вброс, но теперь моя очередь. Всю жизнь не было боязни ни красного, ни зелёного цветов. Первая была от АМД, а название, к сожалению, не помню. Дальше, через год, перешёл на gt 7600 и сидел на ней вплоть до начала 2011. После была кардинальная смена системника и вот у меня стала gtx 560ti. Был доволен этой картой и до сих пор хорошие воспоминания о ней. Через год сменил на 7970. Решил посмотреть, правду ли жирафобои говорят о кривых драйверах. В общем, сейчас у меня всё ещё 7970 и тянет она всё на ультра без сглаживания, а в некоторых с мсаа 2х при 40 фпс. Я ей доволен безмерно, проблем не знал, драйвера ровные. Сколько тестов было, а работала она в своё время в большинстве игр не хуже 680, а часто и лучше. Шина же 384 бит, ну. И стоила она 15 к, как и 680 в то время. Спасибо за внимание.

З.Ы. Да, рассказчик из меня никакой. Стена текста вдвое меньше(

3

Vinni-Pukh
была 8600 GT, прожила вроде 2 года, потом чип отвалился, осадок остался, хотя там вся серия летела

из 8 серии проблема отвала чипа, в основном, касалась GTX 8800/Ultra, GTS 8800.

Была очень не приятная проблема, которую не смог решить, это подключение через HDMI, почему-то были полоски, как не старался, как не гуглиль, решение проблемы не нашел.

черные полосы по периметру экрана? Боже ж мой, это решается в 2 клика в драйвере - настройки масштабирования, выставить вместо 15% - 0%. ))

3

30GamesADay
в WD ни одно из сглаживаний в фулл хд не грузит память более 3,5 гб, чтобы так перегрузить память нужно более высокое разрешение - но тут ты правильно заметил, падение производительности упирается в мощность самого гпу, а не в обьём памяти, ибо для комфортной игры в 2к и 4к разрешениях с максимально выкрученным сглаживание нужны либо двучиповые карты, либо слай/кроссфаир.

3

30GamesADay
температурки на зеленых всегда выше,как реф так и нереф)
На протяжении всего времени, которое я вижу вас на форуме, вы утверждаете обратное. А тут прям откровение какое-то. Нелогично всё так. Или это я всё время что-то упускаю ?

3

30GamesADay
моя 970 от гиги Г1 крайне редко в играх до 69 прогревается,обычно не выше 61,и это при стандартных оборотах
Не моя,а мой обрезочек,над которым весь мир смеется)))

3

30GamesADay
В ВД, кстати так же можно память грузить свыше 3,5 гб. я тестил с загрукой в 3500 мб и 3600+ мб то есть когда задействовался второй кусок памяти карты - точно так же никаких фризов и катастрофического падениея фпса, просто идёт вполне приемлемое понижение количества кадров, зависящее от задействования более высоких настроек, а не от забитости памяти.
Да и мордор кстати память грузит на 4 гб, без фризов так же, супер пупер хд тектур пак я не ставил, а вот разрешение выше фулл хд ставил, и ничего катасрофического никогда не замечал.

ПС. честно говоря я когда увидел новость про беду с памятью то сначала подумал что это проблема только более дешёвых карточек от менее топовых брендов.... так как в течении срока использования карты не раз видел как она использовала всю память...

3

вот я и не стал брать - GTX 980 чувствовал, должны еще выкатить GTX 980 Ti на полноценном максвелл GM200 с 6Гб GDDR5 и с не урезанной 384-битной шиной, и вот оно, говорят что в конце лета запускают в продажу, причем с открытой PCB платой т.е. бренды начнут пилить свои нерефы, думою надо брать... обязательно надо брать какого-нибудь разогнанного монстра, поскольку дальше, все как-то так, неопределенно... и в смысле мировой экономики - финансов, курса валют, так и в смысле технологий... да еще и Хуанг тут поднапустил туману со своим то ли Вольтай то ли Паскалем фиг разберешь, бормочет про какой-то новый интерфейс NVLink ненавязчиво намекая на то, что дескать с переходим на архитектуру нового поколения, шине PCI-E уже пора на пенсию, а я только что прикупил новую материнку... в общем, надо брать GTX 980 Ti а дальше - будем посмотреть.

3

если выбирать из r9 290 то лучше всего vapor-x

2

Viki.Imperius
Они требуют столько видео потому что у консолей память и видео и озу это одно и то же,поэтому в случае портирования могут тупо всё перекинуть в видеопамять и затребовать хоть 6 ГБ ,при этом все игры ОЗУ вообще не требуют,максимум берут 2 Гб с хвостиком,даже на 64 бит. Вот что реал не имеет смысла,так это ОЗУ более 8 гигов для игр и повседневных задач.
да даже 6 хватит,но пихать три планки это не кошерно.
Я просто подожду пока выйдут карты мощнее с 6 гигами.всё равно эти чипы памяти стоят копейки и добавляют к цене не сильно много.

2

Нужно сразу напомнить об одной простой и важной особенности: Nvidia и AMD – это производители графических процессоров для видеокарт. А производителями, непосредственно, готовых решений в виде видеокарт, являются те компании, которые, непосредственно, собирают и комплектуют свои продукты чипами (процессорами) Radeon и Geforce.

2

Vinni-Pukh
Gigabyte делает отличные карты,уже 4 от них и никаких проблем,у вас,наверно,ручки кривоваты..А вот с MSI были проблемы,CO не справлялась...

2

30GamesADay
970vs290 спорный вопрос, ибо тут решает не теоретическая производительность карты, а оптимизация под нее игрушки

2

-Сергей Викторович-
СВ...Подожди новых 300,не пори горячку,сейчас брать обрубки или старье не вижу смысла)))
2 года сидишь на печке своей,и еще посидишь пару месяцев...Как выпустят красные карты,тогда видно будет,что брать)))Как раз может почку оставишь себе)))

2

30GamesADay
тем более и 3 Гб за глаза....Ты как обычно прав,вот только ты играешь на макс и с 50+fps....
лови какашку...

Будешь снижать настройки?
И так поголовно,WD,shadow of mordor,DL и тд..Короче,куда приложили руку зеленые и сами же обосрались..
И не надо писать,что это неоптимизированное гуано...

2

30GamesADay
хм. а что твоя 970 не использует 4 гб памяти?? что то я не пойму твоих последних комментов...

2

30GamesADay
ну а ты читаешь что я пишу?) с колдой беда в патчах, скорее всего. Сам протестить не могу ибо нет данной игры, да и не будет.) а про 4к и х8 сглаживание я тебе просто написал, в качестве примера того, как можно забить всю память...
ПС- ты текст то про юнити заметил вообще?) эсли даже она не фризит и выдаёт играбельный фпс при использовании 4 гб памяти - то о какой колде вообще можно говорить то?)

2

Vinni-Pukh
Шикарная производительность по тестам

ага. аж в 1.5 раза быстрее 970 и всего то в 3 раза дороже. :)

2


по слухам, выход на рынок GTX 980 Ti состоится в мае этого года, все заявленные ранее характеристики остаются в силе, отличия от GTX TITAN X лишь в уменьшенном объеме видеопамяти - 6Гб вместо 12-ти TITAN X, различия явно незначительные в смысле производительности, из-за чего, видимо, ценник на GTX 980 Ti все же поднимут повыше (печалька) поскольку, опять же по слухам, в разработке находится еще одна модель графического ускорителя верхней модельной линейки NVIDIA GeForce GTX 980 Metal на базе все того же GM204 т.е. усечённого варианта GM200 что и в GTX 980 смысл появления GTX 980 Metal - занять нишу в ценовом диапазоне между GTX 980 и GTX 980 Ti будучи дороже первой и дешевле второй соответственно...

2

SUSUL1
DX12 наконец то воплотил в жизнь идею которая уже лет 8 витала в головах людей, так что он обречен на успех.
Другой вопрос в том, будет ли ПО иметь такую же "врожденную совместимость" с DX12 как железо. Скорее нет чем да. И если это так, что можно будет сидеть на православной 7 пока не выйдет софта с поддержкой DX12.

А почему вы не допускаете, что разделение данных будет происходить на уровне процессора?
Оно и так и так будет идти на уровне процессора, только это значения не имеет. Если все видеокарты будут объеденные в общий пул видео памяти, им так или иначе будет необходимо обращаться к памяти друг друга, скажем GPU1 будет обращаться к vMem2. А для этого требуется соединение 2ух карты которое способно прокачивать через себя дату с производительностью сопоставимой с производительностью шины памяти на карте (а это 300+ ГБ/с)

2

Товарищ модератор, поскольку обсуждать особо нечего (очень уж все демократично по ценникам расползлись) то может кините ссылок на анонсированные новинки?

1

Бомбардировщик
CrytеK
R9 290x только если переводить на воду или брать MSI R9 290x LIGHTNING, а то при стабильно повышенных частотах она у тебя в полной нагрузке будет очень горячая, а MSI до 85 греется в 6 часовом отрезке только

1

Viki.Imperius

я видеокарточку менять ближе к весне буду. Сейчас мне и печ670 за глаза.

1

Vinni-Pukh
Вот для тебя Асус лучшие карты, а у меня когда то 1600pro погорела, с тех пор асус не люблю
Гигабайт пока не подводил, да и MSI то же

1

2014 год.Метро2033:

2011год.Метро2033:

6970=R290x???
Или я что-то упустил?

1

30GamesADay
А что делать, если ты не играешь в Драгонэйдж, а игра, которая тормозит на втоей карте не продалась тиражом более 6млн копий и разработчики драйверов не торопятся ее фиксить?
ЗЫ
В этот раз как то АМД решили вперед уйти в техпроцессе и первыми выпустить 20нм чипы, по предварительным тестам R9 390х прибавили процентов 20

1

Нет,я конечно все понимаю.....
http://pcnews.ru/articles/bocka_meda__2_obzor_i_testirovanie_videokarty_msi_geforce_gtx_980_gaming-596038.html
но разницу порядка 15 тысяч переплачивать за 980 против 290х.......В некоторых играх разницы нет вообще,а в большинстве разница меньше 10%..290х везде выдает более чем играбельные кадры на мах...и это видеокарта считай прошлого поколения...И с разницей в 80% стоимости....

1

Vinni-Pukh
Уважаю ваш выбор и приверженность зеленому лагерю. Я как-бы из красных "с детства" и тоже не вижу никаких надобностей менять лагерь )) Ваше краткое знакомство с "красной" картой лишь мимолетное впечатление человека, привыкшего к другому (интерфейс, настройки). У меня совершенно нет жалоб на якобы кривые драйвера AMD, наоборот, даже по последним играм (выпущенным с поддержкой технологий Nvidia) гораздо больше жалоб в форумах на глюки и драйвера от зеленых. Выпускают их очень часто, что конечно неплохо, работают над ошибками, но я особо вообще не испытывал критичных проблем с новыми играми, что раньше, что сейчас. Драйвера ставятся и работают нормально, а как они вообще могут плохо ставиться? Запустил, установил, что еще-то нужно? Ну для установки свежих всегда отдельно удаляю старые, проблем никогда не знал.
"что бы насладится эффектами шерсти, листьев,дыма и т.д.." не обязательно нужны карты от Nvidia, что у AMD эти эффекты отсутствуют ? Вы заблуждаетесь, просто используется другой физический движек. Конечно есть некоторые игры, где спецом используется закрытый физикс от Nvidia и не реализуются особые эффекты на "красных", что думаю со стороны разработчиков не корректно по отношению к пользователям AMD. Или как эффект волос в последней Ларе Крофт, наоборот не поддерживаемый зелеными. А вообще конечно конкуренция - двигатель прогресса, пусть соревнуются, в выигрыше все-равно мы ))

30GamesADay
"у них есть плохие модели как 290х,но есть отличные модели как 290.." - ну просто наповал убил )))) Бегу менять на 290 ))

1

Деня Шепард
Отлично в сравнении с чем с 970 или с 290?С чем вы сравнивали???

1

Vinni-Pukh
Да вообще эту тему просто можно назвать - Дело вкуса )) У каждого производителя и разработчика есть свои плюсы и минусы, а вообщем между красными и зелеными - паритет. По покупке больше думаю дело привычки роль играет, а потом уже все остальное.

1

mister611
Почему? Я например люблю участвовать в срачах, intel vs amd, nvidia vs amd это прикольно))) Но больше люблю PC VS Concole :)

1

Vinni-Pukh
Я вам кинул этот сайт,потому что вы ему верите...Есть множество других...

1

30GamesADay
была инфа, что проблемы с памятью заключаются в том, кто эту память поставлял для сборки.
сегодня протестил 970 в ассасине, при фулл хд разрешении на ультра настройках с txaa сглаживанием карта использовала 3965 Мб памяти, при всём при этом фпс держался в районе 35 кадров - по мне так норм результат для юнити то... Уж не знаю либо мне попался "хороший" экземпляр, либо на картах Асуса вообще нет данной проблемы с памятью...

1

970 ГТх это лучшая видюха для игр, цена и качество, а самое главное энергопотребление вообще её делают конфеткой, от 980 не сильное отствание, зато цена почти в 2 раза дешевле. АМД полюбому в совокупности дороже выйдет, из-за необходимости более мощьного БП да и тепловыделение больше. Даже новые Р9 3ХХ всёравно хавают в 2 раза больше. Значит всёравно в разгоне будут уступать.

1

Ace of Spades
ну как я понял такое тестирование не корректно, ибо те приложения которые грузят карту на 4 гб и так просаживают фпс очень сильно, и проблема памяти тут совершено не при чём. Проводили сравнение с памятью гтх 980, где нет такой проблемы, тестили разрешия которые грузили память до 3,5 гб и которые грузили более 3,5 гб - потом выводили процент падения фпс, и вот именно так и выходит 3-5%.

1

-Сергей Викторович-
неизвестно же еще ничего...Пишут только,что 380Х будет мощнее процентов на 40 290Х...А есть же 390)))Ну не будем о грустном...
В этом году есть смысл ждать только ведьму и жта,вторая играется на консолях,так что думаю проблем не будет,да и подождать осталось месяц-полтора...
З.ы..Думаю тоже в марте на днюху сделать себе подарок...Ток почку жалко)))

1

30GamesADay
подождать 980tiC ума сошел что ли,покупать сестру огрызка,я уверен,они и тут,что-нить начудят,впрочем,как обычно...
Если 380Хмощнее на 40%,то что говорить о 390Х,думаю 50+%,тут думаю даже титан2 сдуется...Ну не будем гадать..Поживем-увидим...

1

30GamesADay
Нет уважаемый нивидиямозга у вас...780ti уже сосет по кол-ву памяти,ах,ну я же забыл,вы снижаете настройки и разницы не замечаете...680 сливала всегда 7970,а после всем известных дров,стала наравне с 7950..Вопросы...???
Заметно мощнее,ну рассмешил...

1

30GamesADay
Гы-Гы Жертва маркетинга бред несешь !
ничего выдающегося как раз таки у интела DDD +5 проц каждый год)
в играх (больших)2015 чет не видно i3 одни i5,i7 и fx
слив i3 ситуация та же что и в 2009 когда на пенек 4 положили большой х**, а на атлон x2 нет
любая видюха реф греется само по себе неплохо 80+
а не реф ну там по разному
7970 порвет в разгоне 680
7950 порвет в разгоне 760\670

1

30GamesADay
Мне вот интересно, у вас была хоть одна карта от амд ? Что-то меня терзают смутные сомнения, что это ваше мнение основано не на личном опыте, а на каких-то сумасшедших фобиях красных цветов.
dobro4insky
680 сливать может и не сливала, но при цене на 2-3 к дороже была уж точно не быстрее.

1

http://www.rg.ru/2015/02/10/windows10-secrets-site.html

Новость правда про виндовс 10, но вот последний абзац удивил
"...по данным тестов, Windows 10 предложит владельцам ПК более производительную графику на видеокартах с поддержкой DirectX 12. Для карт Nvidia графическая производительность возрастет на 150 процентов, для AMD - на 400 процентов."
Это Майкрософт и АМД на на это поколение спелись?! Интел и NV деньгу зажадничали?

1

MunchkiN 616
Если верить новостям, то 10ка тянет на глобальный сервиспак к Win8...
Интересно, прокатит ли обновление пиратки до лицензии...

1

Vinni-Pukh
Вот и пусть титаники покупают те кто на заднем плане.
Титаник из прошлой серии тоже считался самым мощным одночипом, пока не вышла 780ti. А самое стрёмное что титаник так и не подешевел на фоне 780ti.
Вывод: огромная переплата за бренд, понты и распальцовку.

1

Титан это имиджевая карта для NV, как правильно заметил Vinni-Pukh Хуанг делает ее не для потребителей, а для себя, для того чтобы показать как его компания крута. Здесь не важно сколько она стоит, не важно даже то, поступит она в продажу или нет. Важно то что они пацаны вообще ребята ее сделали, что она быстрее топовой карты от AMD (ну на данный момент, пока fiji не вышли, уж точно), что на ней 100500гб памяти, и то что на ней стоит большой и очень зеленый логотип Nvidia. Эта штука сделана для того чтобы рекламировать всю компанию и продавать в первую очередь не себя, а другие карты NV.

Это была объективная часть. А мое личное субъективное ощушение следующее:
Те кто сильно коментирует подобные релизы, в особенности цену новинки, были бы первые среди покупателей таких карт, будь у них достаточно денег. Собсвтенно их отсутствие и вызывает основной резонанс. "Они предлогают товар который я хочу но по той цене которую я не хочу за него платить!"
А всем остальным собстенно паралельно.

1

DartMaul
Старые титаны были универсальны и классны, а вот в титан Х вырублены fp64 блоки крайне важные для проф задач, то есть это полностью игровая карта, а новый титан по тестам лишь на 20% быстрее чем 980, тогда кому нужна эта игровая карта за 100 000 если можно взять две 980 за 70 и получить на 30% больше производительности? Даже от титана Z был свой прок так как двучип на одной карте и универсал для игр и проф задач, но даже если он не оправдывал свою цену и при таких возможностях, то титан Х не оправдяает тем более так как этих преимуществ у него нет

1

ну касательно титаника х, карта интересна только своими гигами. для тру компа ваше в любом случае понадобится 2 такие поняши а то и более. да и ваще брать ее как одиночное решение смысла как нет и дело тут не в цене. а так вещь имиджевая как марсы и евга.
потом короче у нвидии почти всегда тупо плохо заделана память. 580 680 780 и их двучипы. все эти карты имеют недобор памяти так что связки из них быстро устаревают. у радеонов 6ххх 7ххх итд с этим всегда был относительный порядок. поэтому мне нвидиа не слишком нравицо.
потом короче связка из 2х тетанов по прежнему актуальное решение для фул чд (и еще как минимум год будет таковой оставаться) а не 680х2 690х2 (боже упаси) даж 780х2. а одночиповая карта как ни крути карта либо на один сезон либо банально не тащит так что какая там карта на 10% быстрее у какой там шинка 256 бит смыслу ваще не имеет об этом и сказ.

1

Betafix_

отличия от GTX TITAN X лишь в уменьшенном объеме видеопамяти - 6Гб вместо 12-ти TITAN X, различия явно незначительные в смысле производительности, из-за чего, видимо, ценник на GTX 980 Ti все же поднимут повыше (печалька)

Почему то сразу вспомнилась статья - Обзор GeForce GTX 780: уберите от экрана владельцев GTX TITAN

1

W3aMisterWinner
А не страшно гнать такую карту на постоянку?!
Как купил один раз HD6950 так излечился от этой ерунды, одно дело когда у тебя выбор 27 или 32 ФПС, а другое дело, когда 100 или 110 и тебе абсолютно пофигу на лишние 10%
А если карта опускалась ниже 45 на очень высоких/высоких, то я просто фильтрацию уберу.
Мне в Фурии наоборот больше нравится возможность ограничения кадров и ее DP1.4a.
В следующем году может подкоплю средств на монитор поддерживающий freesync и карту Fury без Х

1

DartMaul
Мне одному кажется или этим должны заниматься "красные"

1

SUSUL1
Интересно, каким образом можно обойти такие фундаментальные аппаратные ограничения при помощи программного обеспечения? А ни как. Видеокартам в таком режиме по любому нужно будет пользоваться памятью соседних карт, сами подумайте, какое иначе может быть сложение памяти, если видеокарты не имеют доступ сразу ко всему объёму памяти? Бессмыслица же получается.
В любом случае PCI-E не способен обеспечить необходимую пропускную способность для того чтобы одна видеокарта могла читать и записывать память соседней видеокарты. Это и является тем самым фундаментальным ограничением для режимов SLI и CF.
Разумеется память можно суммировать, но не в рамках режимов SLI или CF. Это уже другая технология с крайне низкой пропускной способностью, которая не позволит играть в игры. Вот для специализированного софта, где нужен большой объём памяти этот режим пойдёт.
Если DX12 и позволит суммировать память в сугубо игровых высокопроизводительных режимах (вряд ли это будут старые-добрые SLI и CF, это будет абсолютно другая технология, пусть даже и называться будет по прежнему), то по любому с серьёзными ограничениями на аппаратном уровне, которые будет невозможно преодолеть программно.

1

SUSUL1
"Раньше абсурдным считалось иметь больше 256кб памяти"
Неправда. Это очень сильное преувеличение. Ведущие айтишники-первопроходцы всегда знали что количество бит памяти всегда будет увеличиваться в геометрической прогрессии, так как фактически нет никаких фундаментальных ограничений (с момента изобретения первого полупроводникового транзистора) в увеличении объёма памяти и всё в первую очередь зависит от роста потребностей, и только потом от технологического прогресса. Так что не надо сравнивать попу с пальцем.
Фактически объём памяти упирается в маркетинг. Каким образом? Всё просто: сегодня продаём винты на 40ГБ, получаем прибыль, через пару лет на 120ГБ, опять получаем прибыль, ещё через пару лет на 500ГБ и так далее. Отличная стратегия для получения постоянной прибыли.

"К сожалению не могу найти нормального описания работы этой фишки"
И не найдёте, так как эта "фишка" не поддаётся логике.

1

SUSUL1
Накидайте мне пожалуйста популярных цитат на основе которых можно построить опровержение последний части вот этого поста:
http://forums.playground.ru/hardware/video/nvidia_vs_amd_ati_v_26-839037/#comment-13630090

1

SUSUL1
Вспоминается куплет из песни "Прогулки по воде"

Объясни мне сейчас, пожалей дурака,
А распятье оставь на потом.
Онемел спаситель и топнул в сердцах
По водной глади ногой:
Ты и верно дурак, и Андрей, в слезах,
Побрел с пескарями домой.


Даже если вы не смогли ни в аналогию с этим куплетом, ни в мой пост на который я только что сослался, есть еще более простое объяснение (которое кстати содержится в последней строчке вышеупомянутого поста)
Как бы не изменились технологии, одна вещь остается неизменной: никто никогда не будет тратить ресурсы на создание технологии которая никому не нужна.
Подобные разработки стоят больших денег, поэтому прежде чем задаться вопросом "как?" нужно найти убедительный ответ на вопрос "зачем?". А в данном случаи он отсутствует.

1

SUSUL1
Потому, что никто не будет делать разрешения для масс, которое впринципе не работает на одной карте.
За последние 5 лет в каждом новом поколении видеокарт присутствует модель с расширенным объемом памяти, который в 99.9% случаев совершенно избыточен (я имею ввиду 6гиговую 7970 8гиговую 290х и т.д.)
Наклепать на видяху больше памяти очень просто, а создать технологию эффективной работы всех GPU со всей памятью очень сложно. Какой смысл заморачиваться?

1

SUSUL1
Во первых, избыточным может быть количество памяти. Разрешение избыточным быть не может так как каким бы оно ни было, используется целиком.
Во вторых, на 4к видеопамяти на актуальных картах хватает за глаза. Можно даже 3 моника по4к каждый вкорячить. GPU правда подавится а вот памяти хватит.

Небольшой оффтоп
Уважаемый SUSUL1 мы уже не раз имели с вами длительные беседы которые заканчивались моими объяснениями на пальцах с которыми вы соглашались, и про силу тока в видяхе (где вы четко продемонстрировали свое незнание аппаратной части), и про охлад (разницу водянки и воздушки) и прочее. Может не будем продолжать, тем более вы на отрез отказываетесь читать аргументы других участников дискуссии и все время повторяете "ну технология уже еще не вышла!".


Это же две разные технологии вывода, у SLI полосы, у Кроса - квадарты...
Этой новости уже пол года. И то она на уровня байки. Как бы то ни было, микрософт может сделать что угодно, но если кто нибудь AMD или NV захотят этот сломать, они это сделают.
Да и потом реализовать одновременную работу 2ух разных видях куда проще чем сложить их память.
И да, и CF и SLI реализуются на разных алгоритмах дробления кадры по видяхам.

Как только оно появилось поклонники HD то же возмущались на тему "кому это нужно"
Оно вначале появилось а потом те у кого нет на это денег начали возмущаться зачем это надо. Это происходит всегда.

1

Бомбардировщик
Чудес не бывает.
Паилт выезжает за счет более дешевых компонентов.
В то же время Виндфорсы гигабайт подстрекают народ "разогнать" карту. Отсюда и погорельцы.

0

Vinni-Pukh
Не поверишь, я того же мнения об Асусе=)

0

lookaway
У любой карты(и электроники вообще,будет телевизор или смартфон) 12 месяц гарантии в странах СНГ.

0

Никогда не выделял особо любимого вендора, брал то что нравится. Про Асус ничего плохого сказать не могу. Стоят в кроссе 2 280х с трехслотовым директ ку 2, не топ. В разгоне 1200 по ядру, 6500 по памяти. Тихо и вполне себе шустро

0

lookaway
Это значит серый воз(из Европы) в Россию. 12 месяцев
SUSUL1
У меня как-то 8600 от асус прогорела, и ?
dobro4insky
Как мои руки влияют на трещащие дроссели и температуру 82 по чипу у 770 ?

0

Vinni-Pukh
Тут надо не на производителя смотреть, а на конкретную модели карты.
Не референсные системы охлаждения от гигабайт, Palt, MSI и ASUS имеют отличия в считанные градусы

0

SUSUL1
Считанные градусы это 1-5 . У 770 у меня было 82 градуса, а такой же идентичной карты от MSI всего 65

0

Vinni-Pukh
С каких пор видеокарта и ее СО это неделимое целое?

0

Vinni-Pukh
А что за можель карты то у тебя была? Не референс случайно?

DartMaul
А какова совместимость СО сторнних производителей с картами?
Велик ли шанс ее переустановит на 1-2 поколения следующи карт? А то с процессорами более менее стандартизированы отверстия под куллер, а вот как с видео дела обстоят?

0

SUSUL1
А какова совместимость СО сторнних производителей с картами?
Да практически абсолютная. Я помню только 7970 и еще какуюто АМДшку из 5ой серии к которым нужны были или дополнительные крепежи или спец версии кастомных кулеров, и то потом что у них кристалл находился под 45 градусов относительно печатной платы.

Велик ли шанс ее переустановит на 1-2 поколения следующи карт?
Более чем, о том собственно и речь.

а вот как с видео дела обстоят?
Вот бенчили бы вы - знали бы что на ве видяхи всего 2 типоразмера крепежных отверстий. СтаканЫ то не будешь под каждую карту покупать они по 200$/штука.


Я в общем то както уже писал на эту тему, что куда проще купить кастомный кулер за 3 рубля, и пользовать его годами. Мало того что он скорее всего будет эффективнее любого предустановленного охлаждения, так вы еще сможете съэкономит в последующем приобретая новую карту не переплачивая за охлад.

0

SUSUL1
Аналогичная ситуация с 290х...она у всех спокойно греется под 90, MSI же держит ее в полной нагрузке в течении 6+ часов не выше 85, а просто в тестах 78.

0

Vinni-Pukh
Никогда бы не подумал о проблемах с этой системой СО, она вроде яляется одной из замых эффективных.
У меня с такой СО HD7950 стоит, никаких проблем нет с шумом.
С другой стороны шуметь может не только видеокарта, но и блок питания.
У меня на компе (что с Феномом) он шумит громче пылесоса и постукивает! (возможно придется скоро вертушку менять)

0

Den-z2011
Да, ты бы лучше ссылки выложил, а то картинки не удались
А вообще не видно, включен ли физикс?
Если да, то карта банально процессором тормозиться

0

SUSUL1
Ссылки?В легкую:
Май 2011:
http://www.overclockers.ru/lab/41588_9/V_pogone_za_proizvoditelnostju_videokarty._Maj_2011.html#21

Сентябрь 2014:
http://www.overclockers.ru/lab/64041/Svodnoe_testirovanie_videokart_AMD_i_NVIDIA_v_igrah_Metro_2033_Metro_Last_Light_i_Metro_Redux.html
Карты разного уровня,а работают с минимальной разницей.Как так?

0

Den-z2011
Да очевидно игра в процессор упирается
Уж слишком мала разница между 1080 и 1024

0

Viki.Imperius
Да?И что же в графоне изменили?Запили скриншоты,если можно

0

Вставлю свое никому ненужную копейку в тему.
Всю жизнь сижу на NVIDIA, самая первая была 8600 GT, прожила вроде 2 года, потом чип отвалился, осадок остался, хотя там вся серия летела. Потом была 250 gts, очень был доволен, быстрая, холодная. Потом была 660 , так же очень был доволен, хоть и шина 192 бит ничем жить не мешала, 770 и 970. Не вижу смысла пересаживаться. NVIDIA драйвера хорошие, ставятся без проблем. Пишут о 50 % прибавке в играх, не верю. Ни разу ни в одной игре не было артефактов, все просто шикарно. Знакомство с AMD у меня было только одно, попалась под руку видеокарта 7870, по производительности тогда была не плоха, но корявое управление драйверами ( как мне показалось ) было ужасно. Была очень не приятная проблема, которую не смог решить, это подключение через HDMI, почему-то были полоски, как не старался, как не гуглиль, решение проблемы не нашел.
По поводу стоимости, но для меня вменяемая цена за карту 400 бачей. 980 сейчас дорого стоит, ибо лучший одиночный чип стоит, выйдет 980 Ti или R9 390X цена снизится.
GeForce Experience - программа бред полнейший(как аналог от AMD), разгон не видит, настройки наоборот хуже ставит, лучше в ручную. Хоть подцветочку карты регулировать можно . Shadow Play - программа шикарная, в отличии от fraps или бандика, снимает видео без потери качества и производительность.
Кто-то говорит что кому надо "потребление энергии" ? Ну у меня например очень слабый БП, ему уже 6 год будет, который вряд ли вытянет 7970 например или R9 280X , R9 290 и т.д. А 970 и в будущем без проблем потянет 1070 GTX и т.д.
NVIDIA physix - работает он в пару игр, ну и что? 1 игра в год для меня достаточна что бы насладится эффектами шерсти, листьев,дыма и т.д..
970vs290 спорный вопрос, ибо тут решает не теоретическая производительность карты, а оптимизация под нее игрушки
Сколько тестов, а работает хуже, и работает 50 на 50 против R9 290X. И не пойму этот бред с 4К, хороший аргумент где красные лучше работают, зачем он вообще нужен ? Если есть 1080р и сглаживание? Если ни один толком одиночный чип не может вытянуть 4К, а 2160р только топовые решения.
По поводу эпопеи с мелкой шиной у зеленых, зачем она широкая нужна ? Вот у R9 290X например 512, а она хуже 780 Ti работает, а владельцам 280 GTX вряд ли сейчас хорошо живется с такой шиной.
Вот сейчас главный аргумент красных: "а у нас карты в 2 раза дешевле!!11". А стоит задуматься, а это вообще хорошо ? А то случится ( а возможно так и будет ) банкротство. Причина демпинг. Продают ниже своей себестоимости ради заполнения рынка, а сейчас так и есть с процессорами. Спасибо за внимание.
Единственное что меня немного смущает это плохая производительность в OpenGL, но там красные славятся, возможно в далеком будущем что-то будет.

0

Askia19
Мой вброс по круче твоего)
черные полосы по периметру экрана? Боже ж мой, это решается в 2 клика в драйвере - настройки масштабирования, выставить вместо 15% - 0%. ))
В этом и проблема, все делал, рылся часа так два, а потом психанул и через DVI сделал

0

mister611
Драйвера ставятся и работают нормально, а как они вообще могут плохо ставиться?
Просто дело вот в чем, при смени видеокарты, нужно ставить заново драйвера от AMD. А вот у зеленых не надо, вставил карту, включил,перезагрузил и профит.
Вы заблуждаетесь, просто используется другой физический движек.
Ну конечно, я же про NVIDIA Physics.
Ваше краткое знакомство с "красной" картой лишь мимолетное впечатление человека, привыкшего к другому (интерфейс, настройки).
Именно! Вот интерфейс каталиста, мне показался очень пафосным, много дизайна и мало практичности, а вот у зеленых минимализм, хоть не красивый, но простой.

0

Деня Шепард
Ох и откуда же мы такие умные вылезли...Да еще и обрубки советовать...Вам батенька в тему,как все хорошо идет на 660 огрызке,а не здесь людей учить...

0

Да, все отлично идет, и не надо мне басни рассказывать. Пользуюсь 2 года и менять не собираюсь.

0

30GamesADay
290х референт горячая и не гонится на воздухе вовсе. Другое дело MSI R9 290x LIGHTNING - на воздухе две карты работали у меня 2 месяца на частотах 1150 / 1450 без напряга и макс температурой 82 градуса. После замены воздуха на сво, температура в среднем упала на 4-5 градусов, а частоты при это стабильны 1250/1650.

0

Деня Шепард
Покупаем ACU ставим на макс,смотрим слайд шоу и бежим к мамке просить денег на новую видеокарту....
И хватит уже...Карта ваша,поколения динозавров...Вышла 760 и 960...Стоит задуматься...

0

dobro4insky
Покупаем ACU ставим на макс
это говно юбисофта у всех тормозит.
И хватит уже...Карта ваша,поколения динозавров уже
Карта динозавров это 480, даже 580, и то нород сидит на них, и играет в 40-50 кадров,на средних высоких настройках

0

Vinni-Pukh
ой,давайте не будем,все нормально играется на макс...На 660ti слайд шоу,наблюдал лично...
Да можно кучу игр привести,где 660 сольется с треском,она когда еще 7850 сдавала..Так вот 7850сейчас уже даалеко не айс,а эта затычка и подавно

0

Деня Шепард
Вы бред советуете , а он бред пишет)))
dobro4insky
ой,давайте не будем,все нормально играется на макс...На 660ti слайд шоу,наблюдал лично...
Да можно кучу игр привести,где 660 сольется с треском,она когда еще 7850 сдавала..Так вот 7850сейчас уже даалеко не айс,а эта затычка и подавно

На максимальных и при MSAA X8 может и сольется, а в любой игре при 1080р и средне-высокие можно вполне играть в 40-50 кадров , а может даже и 60 будет

0

dobro4insky
Мне 26 лет, я работаю и не плохо зарабатываю, у меня жена и дочке годик 11 числа годик исполнился, а платить за то что не имеет смысла это глупо. Тем более за R290. A ACU у всех идет крыло, но тем не менее я играл в нее на средних и 30-40FPS было.

0

Vinni-Pukh
http://gamegpu.ru/test-video-cards/igry-2014-goda-protiv-sovremennykh-videokart.html
Вопросы?

0

Vinni-Pukh
"Покупаем ACU ставим на макс
это говно юбисофта у всех тормозит.
" - да ну не у всех, не надо сгущать. Спецом установил и проверил, вывалив все на макс, кроме сглаживания (всегда на 2-ке оставляю, для Full достаточно) - игра идет поразительно гладко, никаких страшилок про нее сам не смог подтвердить. Правда чет не затянула, красивая но не интересная, как для меня. Вот "блек флаг" -да... попробовал в свое время и сразу купил, до последних титров наслаждался процессом игры, быстрым перемещением даже почти не пользовался ))

0

dobro4insky
Лол. Опять у вас двойные стандарты, то вы не верите в чудеса этого сайта, то вы сами кидаете. То есть вы считаете что 50-55 кадров,для такой говенный графики это норма?
mister611
Она у меня на 970 выдает 50-60, я не верю что для такой графики, моя карта выше выдать фпс не может. А по игре,да, часть слабая. Черный флаг был интереснее от ГГ до геймплея.

0

dobro4insky
То есть вы считаете что 50-55 кадров,для такой говенный графики это норма?
Вы ответите ?

0

Vinni-Pukh
Ответить на что?Вы сначала сформулируйте без ошибок...Потом скажите, откуда взяли 50-55 кадров...Если для своей/моей видеокарты,то да в ACU это довольно приличный показатель... И где вы там увидели плохую графику...?
Я, например, ее там не видел...А ссылку выложил,чтобы показать,как 660 сливает всем играм прошедшего года...

0

dobro4insky
Да, графика хороша, но на средних при FullHD на Asus 660ti она идет на ура при 30-40FPS. Если бы сам не играл то и не врал бы.

0

Vinni-Pukh
Она у меня на 970 выдает 50-60
И не просидает совсем? Это на каких-же настройках и сглаживании она выдает 50-60 фпс на печи 970? Хотелось бы поподробнее

0

30GamesADay
ну ты подумай какие были говнокомпы когда вышел выркрафт. и даже на тот момент по системным игра была слабой. для школия. даже если там что то улучшили за прошедшие века то очень незначительно для сист требований. там просто плохая оптимизация как в большинстве стаых игор. там аи задумывается.
я даже открою страшную пека тайну. но это тайна. тссс.
короче если взять современный комп. ну тогда мой ку 9650 4 ггц и поставить туда радеон 1600 со старыми дровами разогнать и пустить 3д марк 2001. то он пройдет все тесты на максимум не ниже 600 фпс. только тест натур там будет медленно. 60-80 гдето.
если поставить 3870 то он будет идти с посадками до 300-400фпс в натур будет 500-600 а сами тесты будут под 800-900
если поставить 4870х2 то просадки уже составят до 300 фпс при 999 в среднем
результатов 285 не помню.
а если 690гтх жыфорс... ну вы понеле, посоны... до 120 фпс средний так же 999.
то есть 4870х2 быстрей 690. только никому не рассказывайте, а то зеленые бомбонут. наверно у нвидии трешопамять.

0

30GamesADay
Ну понятно что дело не в том какая компания разрабатывала системы охлаждения, но для всех этих компаний чипы памяти поставляют разные поставщики, как я понял, и одно время ходила инфа что беда может заключатся именно в том, какой поставщик предоставил память...
Ну юнити с fxaa не задействует 4gb, только макс сглаживание загружает память полностью. А вообще помониторил разные ресурсы, сейчас много тестов выложили на эту тему. Что можно сказать, во общем то проблема несколько раздута, в процентом соотношении по потере количества фпс, 970 теряет 3% максим 5% фпса при использовании 4 gb памяти. Вот как то так)

0

Антон Астахов
В мечтах.

Спойлер

обратите на объем памяти и фпс. падение почти на 50 %

0

Антон Астахов
Я лично тестировал карту в WD. Выбрал WD потому что там текстуры не падают на производительность железа, а отгружаются только в видеопамять (с) gamegpu. Сперва поставил MSAA X8 и текстуры "высоко". Фпс 38-45. Все гладко, загрузка видеопамяти 3 500. Ни одного фриза,подвисания и т.д.Потом поставил текстуры ультра и оставил MSAA X8, чтобы фпс был тем же, там такое слайдшоу началось, фризы,подвисания. Вывод делайте сами.

0

Ace of Spades
хм, наверное будет проще, если ты сам почитаешь, то что я пытаюсь рассказать, ибо у меня не получается донести мысль) не помню ресурс правда, где наткнулся на это тестирование, попробуй погуглить, мб найдёшь. Так вот суть в том, что даже если бы у гтх 970 была такая же цельная память как и у гтх 980 то фпс бы просаживалось, ибо ультра текстуры и фулл сглаживания сильно сажают фпс, тут не в памяти дело совершенно не в том как разбита память у 970. вот в том тестирование как раз выявляли тот процент просадки фпс который возникает у 970 из за использования раздельный слотов памяти, и у них получилось 3-5%. ну то есть разрешение фулл хд, ну допустим, память грузится менее 3,5 гб - они взяли гтх 980 и гтх 970 замерили фпс, потом выставили 4к разрешие - память и там и там загрузилась более 3,5 гб и фпс естесвенно просел и там и там. Но % соотношении он же должен был просеть одинаково. да у 980 он был больше изначально и соответсвенно в 4к он и должен быть больше, но % падение от разрешения фулл хд до 4к должно же быть одинаковым. ну так вот, не помню точные проценты, да и они же разные в разных играх, на 980 фпс упал на 41% - ну то есть некое эталанное проседание фпса при разрешении 4к, следовательно если бы и у гтх 970 была такая же цельная память как и гтх 980 он так же должен был просесть на 41%. повторюсь фпс изначально конечно разный, но % просадки же должен быть одинаковым, ну так вот, а в тестировании они выявили что у гтх 970 он просел на 44% то есть на 3% больше - так вот именно эти 3% и есть разница из за использования 2-х разделов памяти.

P.S. Если хочешь сам проверить их слова, не имея 980 естественно, то замеряй фпс при использовании ну скажем 3 450 мб памяти и 3 600 мб памяти - по твоим тестам выходит что фпс должен проседать просто нереально дико, но лично я такого никогда не замечал, в том же ассасине или ВД как раз такая рубежная загрузка памяти. А то что приводишь в пример ты, ну когда грузится все 4 гб -это перебор для адекватного теста, ибо вообще не известно сколько памяти нужно для адекватного тестирования. мб ультра настройки в твоем тесте и х8 сглаживание "схавали" бы 6 гб памяти -и такие дикие просадки и фризы не из за использования гтх 970 двух слотов памяти а вообще из за того, что 4 гб памяти недостаточно для такого теста...

0

Ace of Spades
Хм ну вот сейчас начал тестить ВД, смотри что выходит при фулл хд разрешении, текстуры ультра, всё ост ультра тоже, и тхаа сглаживании память грузилась на 3529 мб фпс при этом был 54-60.) а знаешь что было дальше?) при разрешении 2715*1527 и временном смаа сглаживании память загрузилась всего на 3314 мб а фпс при этом упал до 44-50 кадров - вот так то) так что, как я и говорил падение фпса при задейсвовании более ресурсоёмких текстур/разрешений вообще никак не связано с использованием картой её объёма памяти...)

0

Антон Астахов
Что-то я туплю. Я хочу вам донести, что драйвер ограничевает работу только в 3,5 Гб, из-за чего фризы в играх из-за нехватки памяти

0

Ace of Spades
хм, у меня вроде не ограничивает. вот сейчас добивай ватч догс, смотри что выходит, х8 мсаа - само по себе сглаживание - это провал. причём полнейший и безоговорочный. Вот что у меня получилось - разрешение 2715*1527 всё ультра и текстуры и настройки при х8 мсаа фпс 15-19, фризы - вообщем ужас как ты и говорил, а при х4 тхаа сглаживании фпс 35+...)) вот такие дела, без фризов вообще) при всё при этом карта и там и там грузится на 3700 мб памяти)

0

Коротко о положении дел в последние месяцы.
Для тех кто знаком с буржуйским диалектом, разумеется.

0

Я к марту планирую карточку брать. Наверное. Если удастся продать печень, или почку))
Рассматриваю к покупке 780Ti. GTX970 у нас стоит столько же. Только вот пусть хуанг идет лесом со своим огрызком)

0

Долго работаю с видеокартами...
ATI конечно молодцы, пытаются держаться на рынке развлечений... В целом - норм, но до уровня Nvidia им банально не хватает решимости и мозгов, хотя финансы позволяют ( но увы придется заводы переоснащать, а это более геморно, чем сделать принципиально новую видяху ).

Nvidia шикарны, но козлы уродские, ибо цены заламливают - это вся претензия к Nvidia.

0

dobro4insky

посмотрим, что там гта 5 покажет)
Пока же, в этот зомбоапокалипсис играю даже на своей печке нормально. Патч 1.2.1. убрал все фризы, 40-50 фпс, иногда до 30 просадки. Нормально впринципе.
R9 380 вроде в апреле-мае обещают? хз, может стоит подождать. Но она. судя по всему, будет на старом техпроцессе, жрать под 300 вт будет, как крокодил, блин.

0

dobro4insky

упс, я имел ввиду именно 390, не 380. 390х к концу года на новом техпроцесе вроде как планируют.

0

30GamesADay
а я помню эти времена смотрел какойто обзор,и там даже лозунг был 680 на стероидах слегка выиграла 7970 в зачёте,наравне с 7950 говоришь?у вас амд мозга!
Так было до выхода каталист 12.11 бета.

мусье невежда,довожу к сведению,рефы от амд греются до 90-94
Какой человек в здравом уме будет брать референс и оставлять его со стандартным охлаждением ?

нету фобии красных цветов-я даже сделаю свич к 2016 на zen/r9 480-90x если они будут разрывать интел/нвидиа при одинаковой цене...
Звучит прямо как одолжение кому-то делаете, ей богу.

Да, опять же к слову о температурах, моя 7970 выше 73 градусов ещё не грелась. Ну если только в чём-то подобном фурмарк, мси комбустор.Там до 78-80. У ребят с 670/680 в своё время были точно такие же результаты. У особо везучих они ещё и сильнее грелись. Да, при всём этом у меня всегда охлаждение на 40% оборотов стоит.

0

30GamesADay
с кем не бывает)))И я вообще не понимаю зачем 970ой 4гб Запускаем любую игру на макс и выкладываем?

0

30GamesADay
Что ты мне скриншоты и заключения с фу сайта кидаешь....Кинь свой скрин,а я свой и посмотрим..)))

0

30GamesADay
в юнити протести, разрешение 2560*1440 всё ультра. все "фишки" нвидии, типа мягких теней и hbao+ включены естесвенно, сглаживание fxaa - мне всё это дело грузило карту свыше 4000 мб, фпс при этом был в районе 35 кадров, точно такой же фпс карта выдавала при фулл хд но txaa сглаживании, а грузилась при этом на 3500 мб.
нет у 970 проблемы с памятью и фризами от этого) Да у неё разбита память на 2 сектора, и первый на 3,5 гб в приоритете, а второй она использует, когда не хватает первого, использует с задержкой, но эту задержку можно заметить только при рендеренге видео. притом в очень высоком качестве, но даже тогда всё в большей степени упирается в пощность проца, то что у тебя начинает жутко лагать при 4 гб памяти - это уже не памяти дело, а мощности самой карточки, либо кривости пиратки колды))

ПС. в примере с колдой все же думаю дело в непропатченности версии, но а так конечно может быть дело и в мощности карты, если выкрутить 4к разрешение и х8 сглаживание -то память то так же забьётся на все 4 гб - но фпс будет не играбельным же) можно говорить что и это "проблема памяти..."

0

http://www.3dnews.ru/909226?from=most-commented-index
Не, ну нормальные шины памяти. Наркоманские, правда, немного.

0

SUSUL1

на печ670 вин 10 пока ничего выдающегося не выдает) Более того, в Dying Light производительность ниже, чем на 8.1.

0

-Сергей Викторович-
Ну так она на DX11, а тут речь про 12й идет. Думаю для него и игры надо будет заново делать или патчами добивать поддержку. В общем будет та же история, что и с DX10 и WinXP...

0

SUSUL1
Ну так она на DX11, а тут речь про 12й идет

забавно, но и карты 6хх серии откуда то имеют буст при дх12))
http://www.overclockers.ua/news/software/2015-02-10/115205/

0

-Сергей Викторович-
А разве они не заявляли, что карты будут поддерживать DX12 при его выходе?!
Я тут заинтересовался поддержкой этого DX на HD7950 и нашел такую запись
http://www.sapphiretech.com/presentation/product/product_index.aspx?pid=1841&lid=1
"DirectX® 12
The tessellation performance on AMD Radeon R7/ R9 series is up to 2X faster than the previous generation, and DirectCompute performance is also faster to accelerate advanced post-processing, filtering, and anti-aliasing techniques. Direct X12 games has never looked this good.
* Based on preliminary DirectX 12 specifications as of July, 2014, AMD’s GCN-based products are expected to support DirectX 12 upon its release. The DirectX 12 specification and support for it are subject to change without notice.".
Возможно что и зеленые смогут его поддерживать

0

Из того, что на сегодняшний день анонсировал Microsoft на тему DX12, это изменение процессорных алгоритмов обработки Direct3D движка. Не имеет никакого отношения к видеокарте.

0

SUSUL1
пока насколько мне известно (хотя я за новостями активно не слежу) не сформирована спецефика дх12
есть только всякие крутые термины типа воксельной ги, которая рабодает под фактическое апи дх11
таким образом можно утверждать что все современные карты с шм5.0+ будут работать с дх12 так или иначе
а для этого можно сходить на форум вачдогса и почитать массовые школьные боли. у меня гф 9800 поддерживает дх11. вот скриншот.
весь вопрос будет ли дх12 иметь в обозримом будущем поддержку некой новой архитектуры гпу. и когда это все появится.

0

MunchkiN 616
Если я праильно понимаю, то основное отличие DX12 будет не в библиотеках, а именно в оптимизации на аппаратном уровне.
По поводу специфики, то наверняка она уже сформирована, только не раскрыта, до выхода 10

0

SUSUL1
скорее отличие будет именно в библиотеке а следовательно это отразится и на производительности. я не програмичт и потому не могу помыслить как можно выжать из текущего железа еще больше. чисто на пальцах чтоб обеспечить оптимизацию под современный жпу должен быть больший параллелизм для этого должно быть меньше сообщающихся патчей. это в свою очередь предполагает больше бесполезной для конечного результата работы где будет учитываться большее количество исходов для некоторого действия. это хорошо тк видюхи круты тот же радеон под 3000шп а современные библиотеки хоть и работают с большим кпд но в рамках такой архитектуры это означает что карта работает реже и хуже.
если будет наблюдатся общий подогрев карт и взрывы убогих турбо-нерефенсов с неспешными пропеллерами я был прав
но скорее всего там что-то более простое.

интерес именно дх12 пока что в том что это первый на моей памяти дх не предполагающий новое поколение шм тк дх11=50шм дх10=4.0шм дх9с=3.0шм дх9=20 итд. пока новой архитектуры анонсировано не было и все отмалчиваются будет ли она и когда и в какой версии дх.
а то так купишь кросс-слай а он через устарел

0

SUSUL1
причем тут дх и виндовс?
вот например то что стоит в висте и 7 по дефолу это дх10. однако волшебным обновлением библиотеки дх дх10 превращается в 11. а винду я никогда не обновлял. боли только с парой программ, которые и то, думаю можно портировать не обновляя внду сп1-2 итд.
виндовс 10 и дх12 это скорей всего маркетинговый ход для продвижения нового продукта.
я же говорил об аппаратном устройстве жпу тк видюху на новую архитекту не обновить.
прим хп-виста дх9-10 и карты того времени. но ситуация сейчас обратная.

0

наваял тут небольшую заметку о свежекупленной печ 970
http://www.playground.ru/blogs/other/geforce_gtx_670_vs_geforce_gtx_970_benchmarks-134070/

0

-Сергей Викторович-
Передрали ролик который я постил в этой теме 2 недели назад, как не стыдно!

0

-Сергей Викторович-
Эта видеокарта не пойдет в массу, нвидиа хотела сделать самый мощный чип и лучше конкурента , и она это сделала, цена отходит на задний план

0

Географ_Нагибатор
Лично я еще не видел официальных спеков этой карты, так что не буду комментировать вычислительную мощность с 2ной точностью.
На тему кому надо, я знаю людей которые купили 4 780ых, потом купили 4 титана, а еще через пол года купили 4 780Ti, причем исключительно для бенчей, в игры они не играют. Так что не надо переживать за целевую аудиторию.

ТитанZ кстати можно было перепаять в 2чиповую теслу.

0

DartMaul
В максвеле изначально нет FP64, поэтому хуанг решил перескочить сразу на паскаль когда выкатит новые quadro

0

Vinni-Pukh
Уверен что через пол года хуанг выкатит 980 ти с такой же мощностью и в два раза ниже ценой

0

Географ_Нагибатор
и? Вернет титаны и перепрошьет их в 1080 Ti , дальше то что? Сейчас есть самая быстрая карта и это главное, все остальное второстепенно

0

Как уже было сказано выше, титаники нужны Nvidia чтобы показать свою зелёную крутость и продвинуть свой зелёный бренд. А для рядовых покупателей топовых видеокарт, у них есть чуть менее мощные, но гораздо более дешёвые варианты, в виде *80/*80ti. Спасибо им за 980 и за ту цену, по которой она мне обошлась на старте продаж (24990). Хотя, изначально, хотел взять полноценный нереф 290Хэ, от Асуса за 19990, но манящий зелёный цвет вывел меня на верный путь. Ни секунды не жалел о своём выборе в пользу 980.
Мда, было время, красный одночиповый топ стоил меньше 20к. Даже нереф 780 можно было приобрести за 16-17к.

Географ_Нагибатор
"Уверен что через пол года хуанг выкатит 980 ти с такой же мощностью и в два раза ниже ценой"
Так и будет, как это уже было с 700 серией. И, скорее всего, это станет традицией для всех будущих серий.

0

Betafix_
и вот оно, говорят что в конце лета запускают

на осень перенесли. А там и до зимы недалеко)

0

-Сергей Викторович-...на осень перенесли. А там и до зимы недалеко)
Да, перенесли. Только, вроде бы все наоборот - перенесли с осени на конец лета, т.е. точной даты пока что никто не называет, в любом случаи все будет зависеть от даты старта продаж AMD Radeon R9 300 серии...

0

тут АМД новость выкатили, похоже они с SK Hynix разработали что то прорывное в технологии графической памяти
http://www.3dnews.ru/914360

0

SUSUL1
Хоспате как же вы утомили со своим HBM, 3D Nand и прочими названиями одного и того же.
Это всего лишь новая упаковка все тех же DRAM чипов, их просто сложили вертикально в пачку один на один, и все. Она не станет от этого работать быстрее, частота не вырастет а пропускная способность вовсе не упирается в чип: она упирается в ширину шины контролера памяти.

GeForce GTX 780: уберите от экрана владельцев GTX TITAN
Вы видимо имели ввиду 780Ti. Хотя впрочем, ничего нового ©

0

DartMaul
Простым сложением в пачку они бы не добились такого уменьшения размера чипа и повышения его эффективности

0

SUSUL1
Простым сложением в пачку они бы не добились такого уменьшения размера чипа и повышения его эффективности
Да вы что? Вам просто показали что чип стал меньше в ширину и длину. А то что он стал больше в высоту как бы не показали. Объем (физический) элементов то особо не изменился.
А энергоэффективность это тех процесс и возможность использовать меньше контактов. Да и потом кому вообще до нее есть дело? МООООЩЬ вот что важно.

0

DartMaul
Интересно, а если выйдет квантовый процессор, как вы будете разгонять скорость света?
А мощь, дело относительное...
Если правильно подобрать тесты, то какой нибудь А-10 7700 в номинале порвет разогнанный до 7ГГц Xeon

0

SUSUL1
Если правильно подобрать тесты, то какой нибудь А-10 7700 в номинале порвет разогнанный до 7ГГц Xeon
У меня аж в одном месте зудит от любопытства как я хочу на это посмотреть.

0

DartMaul
спросите отдел маркетинга АМД.
Они нас радовали красивыми картинками работы технологии openCL=)

0

SUSUL1
CL они считают на графическом ядре, не иначе, это как бы даже не процессорный тест)

0

DartMaul
Ну должен же древний х86 в конце концов умереть=)

0

Vinni-Pukh
Какая блин 12.1, если ещё 12 есть только в Win 10?

0

Vinni-Pukh
так для DX12.1 нужен 10-тый винт...или ты уже установил, что-ли? ведь пока что доступна лишь инсайдерская превьюшка, а в ней одни косяки, до первого сервис-пака на 10-тку можно забить...

0

Betafix_Я
Я поставлю, нету никакой проблемы

0

Betafix_
про косяки талдычат те, кто лишь краем уха что-то где-то слышали; поставил в первый же день, в октябре, основной и единственной системой, никаких, ни малейших проблем, уж с играми-то точно..

0

jeorje
к тому же, на сегодняшний момент, под Win10 нет ни драйверов чипсета Intel/AMD ни драйверов USB 2.0/3.0/3.1 ни LAN ни BIOS в конце-то концов, нет драйвера Intel Rapid что важно, поскольку, после гибернации могут случатся, скажем так - "странности"... по сути нет ничего, ни у одного из производителей (материнских плат, имеется в виду) в общем, устанавливается Win10 на свой страх и риск (в превьюшке так и пишется) т.ч. на счет "супер стабильности" я бы особо не распространялся =)

0

-Сергей Викторович-
Ну рассказывайте,модератор,как до жизни такой SLIшной докатились...Все Вам попугаев мало...Как, кстати, температуры карт?косяков много с дровами...Что с разгоном,частоты же разные,подгоняли...Фоту вышлите,интересно посмотреть на свободное место в корпусе...Есть ли пресловутые микрофризы в играх и общее впечатление...

0

-Сергей Викторович-
DartMaul
А у NVIDIA же меньше масштабируемость SLI, чем crossa ? Или уже что-то изменилось ?

0

dobro4insky
как до жизни такой SLIшной докатились...Все Вам попугаев мало...

не. не попугаев. Меня, скажем так, несколько расстроило, что карточка, ценою 23к не выдает хороший фпс в таких играх как ГТА 5 (там, где много травы, фпс легко мог упасть до 35, как нефиг делать) и в Ведьмак 2 (на запредельном качестве в замесах те же 35-40 фпс.. Подвернулась возможность купить вторую (продал душу дьяволу и печень) - купил. Тем более давно хотелось опробовать, что такое мультигпу от нвидиа (с кроссом опыт уже был)..

Как, кстати, температуры карт?

без разгона: 76 гр. верхняя, 70 гр. нижняя в хевене. С разгоном: 79-80 гр. верхняя, 72 гр. нижняя в хевене. Разгон с повышением лимита и напруги в МСИ АБ.
Походу пора менять корпус :(

частоты же разные,подгоняли

частоты у карт изначально одинаковые. Вторая лучше гонится. Но гнал я обе карты до 1504/7800. С разгоном проблемы возникли на уровне драйверов. Обо всем этом я расскажу позже, когда приеду на работу)

косяков много с дровами...
Есть ли пресловутые микрофризы в играх и общее впечатление...


обо всем этом чуть позже))

Фоту вышлите

пожалуйста

вотъ

общее впечатление...

об этом говорить ой как рано. Еще не разобрался со всем и не потестил как следует..

0

dobro4insky
косяков много с дровами...

начну с самого начала. Изначально столкнулся с проблемой на стадии, кто бы мог подумать, мостика слай. Воткнул карты, воткнул мостик, включил ПК. Запустил панель управления драйвера. Галочки активации слай были неактивны. Т.к. у меня стояла винда десятка 10074 и, судя по некоторым комментам, слай в ней не работал, я решил что проблема в этом и поставил винду 8.1 (итак намеревался ее ставить в принципе). Однако, и там все было так же: неактивна опция включения слая, хотя карты определялись нормально обе. Решил "поиграться" с мостиком. Просто перевернул его и воткнул и слай теперь стало возможно включить в дровах. Довольно странно, ведь там на обоих концах моста контакты идентичны. Вобщем, вроде бы все окей, но оказалось, что не окей. При попытке запустить бенч 3дмарка и хевена сразу увидел артефакты изображения.. Вобщем, проблема оказалась все в том же мосте - более сильно прижал его (хотя куда там еще сильнее, он итак плотно садится на контакты), и артефакты пропали, венчи заработали как надо.
Прирост от слая в бенчах солидный (только в тяжелых режимах, в легких в проц упирается сразу).
Погонял в фаркрай 4 с полчасика. Прирост приличный, 80-90%. Если раньше из сглаживания ставил SMAA, ибо при MSAA x4 фпс был в пределах 40-55, то сейчас влупил MSAA x4 и получил 70-90 фпс. В фаркрае все плавненько, нет рывков никаких. Карты без разгона греются по 77/70 гр., соответственно. Вроде бы все окей. Однако вчера вот решил поиграть в гта 5. Запустил, вроде все ок, Но смутила странная нагрузка гпу: верхняя карта грузилась на 92-98%, нижняя на 45-60% и грелись карты не так сильно - 71/65 всего то. В игре выставил мсаа х4, фпс высокий, в пустыне в траве ниже 48 не опускается (раньше до 30-35 там падал и это без сглаживания).. Потом словил проблемку: играл в миссию где тревор взбешенный приезжает в свой аэропорт и улетает на самолете на кладбище. Так вот, когда подъехал к ангару, словил сильнейшие фризы. Фризы были и дальше во время полета туда и во время полета обратно. Вышел из игры, стал мутить с разгоном. Выставил 1504/7800 (обе карты по отдельности легко берут эту частоту), однако в бенчах словил проблемы - вылеты драйвера и цветные экраны. У меня стоял самый последний драйвер 353.06, в котором якобы хуанг вернул чуток фпс кеплерам. Решил поставить более ранние, анонсированные конкретно для гта 5. Но он, сволочь, не работал в ведьмаке 3 - памятуя о том, что меня просил Винни пух запустить ведьмака 3, запустил, но слай там не работал. Установил следующие драйвера по счету, анонсированные для ведьмака 3. Слай там в витчере заработал. Игра летает с высоким фпс, даде волосикс не помеха. Правда. побегал я только в начпльной локации минут 10-15, не более, покатался на коняшке, порубил пару бандюг и стаю волков.. Далее запустил ГТА 5. Ну и что бы вы подумали - теперь в игре оба гпу грузятся одинаково - на 93%, температура карт повысилась в игре, фризов никаких было - ту самую миссию прошел снова полностью, все окей.. С разгонами еще не мутил на этих драйверах, пошел спать. Сегодня и на выходных буду экспериментировать.
Собственно, проблема с двумя последними драйверами жифорс общеизвестна. Форумы на оверах завалены жалобами со стабильностью. Особенно жалуются обладатели максвеллов, у людей драйвер падает прямо в винде и без разгонов даже. Так же вылетает драйвер и в хроме с вкл. аппаратным ускорением. В играх тоже вылеты. Вобщем, гореть хуангу в аду)))
зы: забыл написать. Я сейчас играю в ведьмака 2, хочу пройти сперва его, поэтому в третьего не играю. Так вот, прирост от слая во втором ведьмаке почти 2-х кратный. Если раньше я играл на запредельном качестве и получал свои 50-57 фпс в городе и около 35-40 в замесах, то теперь в городе 90-100, в замесах ниже 60 не видел, обычно выше.

зы: забыл добавить. До этого с месяц сидел на винде десятке и проблем не знал. Там у нее свой драйвер. версия отличная от этих проблемных, специальная для десятки.

0

-Сергей Викторович-
завалены жалобами со стабильностью. Особенно жалуются обладатели максвеллов, у людей драйвер падает прямо в винде и без разгонов даже.
Пользуешься хромом, а тут бац и вылет драйвера на пустом месте. Но такая проблема меня обошла, но в ведьмаке 3 драйвер вышебал. Короче, завидую вам, сли 970 это мощь :)
4К пробовали ?

0

Vinni-Pukh
4К пробовали ?

был бы монитор такой - попробовал бы)
DSR не предлагать, это то еще говно, только картинку портит..

0

-Сергей Викторович-
DSR не предлагать, это то еще говно, только картинку портит..
Хз, шикарная картинка.
Как я понял вы довольны ?

0

Vinni-Pukh
Как я понял вы довольны ?

чем? дсром?)) нет.
Слаем? Еще не понял. У меня сейчас проблема с разгоном на этих новых драйверах.. Либо я чего то не знаю в хитростях разгона слая.. Надо разобраться сперва с этим. Потом буду тестировать в играх, проверять как оно работает, чудо-юдо это..

0

-Сергей Викторович-
отпишитесь как будет производительность в играх, микрофризы , загрузка памяти и т.д., интересно

0

Vinni-Pukh

когда со всем разберусь и потестирую, обязательно напишу. Возможно бложик запилю с результатами тестов.. Если будет время и желание..

0

главная проблема SLI/Cross заключается в программном обеспечение и в маркетинговом эгоизме разработчиков GPU чипов, причем, как nvidia так и amd! это я уже понял на собственном опыте...
т. е. до тех пор, пока видеокарта актуальна, все относительно стабильно: SLI/Cross - дает весьма ощутимый прирост производительности, практически удваивая FPS в играх, в синтетических тестах, и т.д. и т.п. но как только, GPU разработчики переходят на новый модельный ряд, или что еще хуже, на новый техпроцесс, то они тут же, тупо, начинают игнорировать оптимизацию графического драйвера для карт предыдущего поколения, как я понимаю, исключительно в маркетинговых целях, что конечно же сказывается и на системах с одним графическим ускорителем, но не так критично, к тому же, если у вас, например, какая-нибудь топовая Ti которую можно гнать до упора! в случаи же с SLI/Cross при условии, что эта связка не из топовых карт верхней линейки, а чуть пониже, как в моем случаи (была пара MSI GTX570 через год перешел на пару ASUS GTX670 потом надоело) так вот, в таком случаи, все совсем грустно=((

т. ч. если вы обладатель связки SLI или Cross обновлять ее приходится каждый год (проверенно на личном опыте) в противном же случаи, резкое падение эффективной производительности неизбежно, тоже касается и двухчиповых монстров, т.к. через год, они становятся никому ненужными, в смысле программного обеспечения, разработчики о них просто забывают (очень обидно) правда, если есть деньги, то это не проблема...

0

Betafix_
не читайте никаких газет, все драйвера от Win8 подходят абсолютно..

0

jeorje
ну когда-то же они напишут дровишки, или нет?
или они скажут : "...да ну его нн-нафиг, кому оно нн-надо, оно ведь и от восьмерки все перекрестно подходит"

Спойлер

я вот гляжу у вас asus deluxe на p55 чипсете, а он и Win8-то официально не поддерживает, если я правильно помню, а вы уж и на десятку замахнулись, или в профиле инфа неточная?

0

Betafix_
графические уже пишут; мамка всё та же, действительно, win8 не значится, я об этом давно забыл и совершенно не задумывался; восьмёрка - её я установил незадолго до появления 8.1 - не кашляла совершенно, и десятка стоит как влитая; вообще-то, чем дальше, тем всё меньше принципиальной разницы между виндами..

0

Betafix_
Виндовс, это такая громоздкая фигня, что она тащит за собой совместимость чуть ли не с PPGA370=)
У меня на AMD 780 чипсете вполне нормально прошел тест на совместимость с Вин10=)

0

Вот же АМД затейники!
Все встраивают и встраивают.
Теперь встроили чипы памяти в одну схему с процессорным кристаллом
http://www.overclockers.ru/hardnews/69397/izuchaem-anatomiju-videokarty-radeon-r9-fury-x.html
Причем чип такой здоровый вышел, что рядышком на этой плате свободно влезли бы 8 ядер ZEN=)
И АМД могли вы выпустить супер портативный игровой комп=)
Ну или консоль нового поколения, с такой начинкой они бы задвинули всех.
Интересно, а почему консоли не хотят водяное охлаждение использовать?

0


вы видели этот радиатор, вернее, этот расширительный бочек, который они пришпандорили над радиатором - да им же убить можно! у меня fulltower и я даже не представляю, куда бы я все это впихнул...а вы говорите: "портативный игровой комп..."

Спойлер

опять же, сейчас у многих, как раз в этих местах стоят хорошие вентиляторы, у меня в частности (Corsair; SP120/AF140) пришлось бы это все выбрасывать - жалко!

з.ы. к тому же, меня смущает внутренний диаметр капроновых трубок циркуляции хладагента - на мой взгляд, они несколько узковаты для эффективного охлаждения даже CPU, не говоря уже о чипе GPU - учитывая то что, внутри у них теперь еще и память с шиной аж на целых 4096-bit что явно не способствует улучшенному охлаждению кристалла...

0

SUSUL1 "...Виндовс, это такая громоздкая фигня, что она тащит за собой совместимость чуть ли не с PPGA370"
а у меня, в свое время (в 2006 г.) была плата ASUS на чипсете NVIDIA nForce 430 MCP дык не хотела работать под WinVista пришлось ставить "левый" неофициальный патч... помню что качал на фиг знает каком-то сайте.

SUSUL1 "...У меня на AMD 780 чипсете вполне нормально прошел тест на совместимость с Вин10=)"
у вас в личке, мат.плата ASUS M5A97 R2.0 это ведь AMD 970 - первое упоминание о ней в amazon.com: 11 августа 2012 г. - т.е. не такая уж и древняя.

0

я думаю коли амд начала ставить на референты видеокарт водоблок прим 295х2 и эта фури
это последний выдох
конечно у радеонов были всякие атомик токсик с водой у нвидиа подобные так же были но если не будет нормального воздушного охлаждения вряд ли это заделает карты пригодными. а ресурс для воздушки вроде есть тк карта сама по себе небольшая не будет теоретической проблемой установить обое стороннюю турбину либо особо толстый и длинный радиатор.
вот только вряд ли кто то будет это делать да и карта вряд ли будет сильно популярной. хотя она там и быстрее самого титана и дешевле.

0

MunchkiN 616
Вроде у Fury будет воздушное и она будет по цене 980, вот она выглядит интересной

0

RevIO2RUS
посмотрим что там будет. но скорей всего там будет урезанная модель и на ее же основе урезанный двучип.

0

MunchkiN 616
Оказалось, что FuryX по цене 980ti почти везде ему сливает, а где-то в разрешении 1080р, на котором играет большинство, он сливает разогнанной 980, что даёт понять, что даже Fury по цене 980 окажется не очень...

0

RevIO2RUS
Пруфы, тесты? Или сам на бегу из школы придумал?

0

Betafix_
У меня первый комп был на Cele ron 433, я его только в этом году выкинул, как и Nforce4 c цокертом A939, как физически устаревшие (умерли все HDD с 80pin разъемом а новых таких уже не купить)
А дома у предков трудится материнская плата, на чипсете 790GXBE (я ее случайно 780 обозвал), и там комфортно работала Win8. Более того, через эту материнку я устанавливал одно время Windows7, поскольку USB мыши и клава на GA-990xa-UD3 (почившей с миром) отказались опознаваться виндовсом.
Более того, на Nforce4 А-939 c Атлоном 3600+ вполне успешно успела поработать Vista (но не более месяца, конденсаторы сдохли на плате)

0

7Rain7
Тесты уже есть в интернете... Хотя там действительно идёт разница большая между тестами, как и сказал SUSUL1, так что беру свои слова назад, нужно ещё подождать.
SUSUL1
Ну, как мне кажется, там тоже есть несколько минусов в обзоре, как я понял там всё тестировалось с номинальными частотами, что не есть гуд, так как 900-я серия гонится огого как, ну и отсутствие 1080p, хотя никто и не говорил на презентации, что карточка для fullhd.

0

я ожидаю что карта будет быстрее в 4к и 8к разрешении. однако если у нее хватит памяти тк именно этого стоит ожидать от увеличения пропускной способности. ну и некоторого ускорения работы в целом в зависимости от той частоты, с которой работает гп и насколько он можен прокормить и насувать эту память.
так же более интересно как карта покажет себя в мгпу. там я вангую глубикий спад и сильное снижение производительности при 4гпу
в остальном на фул чд и ниже в кросс фаере это будут весьма унылые карты.

0

MunchkiN 616
Интересно, как карта может быть унылой в fulHD, если она уверенно тащит в 4к и выше

0

W3aMisterWinner
Ну перед этим я гляну тесты Zen Может АМД поможет переход на 14нм
Меня больше веселят люби, которые берут "игровые" сборки с процессором типа i7-i7 5960 и видеокартой GTX750ти=)
Ну и тесты DX12 надо подождать. Глядишь и i3 сможет 980 раскачивать.

0

n0t1hing
Хорошие тесты, особенно ведьмак порадовал. один в один повторяет график 980Ти на 4к.
В остальных где то отстает, где то выигрывает
В HD конечно отстает, но кто будет обращать внимание на разницу между 95 и 98 ФПС?
И это на морально устаревшей винде, с ее кривым DX11 и устаревшем диспетчере задач.

0

DartMaul
У вас уже есть в планах тест 4 Фурии в кросе?
На оверах есть информация, что DX12 наконец то позволит складывать объемы видеопамяти и глядишь 4Гб перестанут быть узким место на сверх больших разрешениях

0

DartMaul
не думал что все так плохо))

0

DartMaul
А почему вы не допускаете, что разделение данных будет происходить на уровне процессора?
В любом случае осалось ровно 30 дней до выхода вин 10 и сеть снова взорвется от обилия различных тестов и священных войн обожателей православной Win7 и некромантов - восхваляющих Win10=)

0

попытка суммировать память видеокарт это верный путь в тар-тар
как уже было сказано пропускная способность экспресс слишком низкая а их контроллеров еще ниже. в случае много видеокарт производительность ваще просядет до уровня усб если они не будут взаимодействовать между собой эффективно. во вторых программно нужен будет особый прендрендер чтоб разбить уровень рассчитать на нем освещение и сложить обратно. таким образом растет количество отложенных операций и поджиданий одного гпу другим.
второй вариант уже был реализован в практическом устройстве. даже если разбивкой будет заниматься процессор очень крутой типа и7 5960х то ему придется в реальном времени компилировать шейдеры под геометрию и прочее чтоб опять таки разбить сцену и отправить пакеты по видеокартам а затем сложить. причем это не будет удвоением памяти а прибавлением по 40-60% от объемов. и скорость для отложженных шейдеров типа отражения текстурками - будет улетать в черную дыру. скорость будет ничтожной.
так очень пека удивлюсь если такое будет. а если и будет я поставлю под вопрос эффективность посравннию с асинхронными методами.
так что на современном железе такое точно не возможно. тут нужна совершенно другая пека.
лучшобы просто производители разрешили объединять по 8 чипов-видеокарт в мультигпу

0

MunchkiN 616
Бeломорканал
А зачем память суммировать?! Каждая карта вырисовывает свой фрагмент сцены независимо и на момент вывода изображения оно сшивается.
Все просто=)
Пусть на это вопрос ответ нам лучше создатели DX12 расскажут=)

0

SUSUL1
это тебе кажится все просто
а на ид тех 5 вон вроде до сих пор не могут шалтая болтая с динамическим полным освещением собрать. даже на одной видекарте там ничего не сливается. графон только сливается.

0

SUSUL1
Возможно наконец то исчезнет вечная проблема с синхронизацияей вывода квадратов и полос
Если вы по горизонтальные разрывы которые лечатся vsync'ом, то это вообще из другой оперы, сюда никак не относится.

Думаю разработчики софта сумели найти выход из этой ситуации без перекачки огромного объема данных от карты к карте.
В общем то то, что сказал ув. Бeломорканал, от себя вспомню лишь старый добрый анекдот:
"Сколько программистов нужно чтобы вкрутить лампочку?
Нисколько, это аппаратная проблема!"


Вообще, DX12 призван обеспечить низкоуровневый доступ к видеокартам. Это позволит кратно сократить программную обработку запросов к GPU. Главная идея в том чтобы обойти ботлнек, который создается этой программной обработкой, и делается это потому, что обойти иначе его нельзя.
Проблема общей памяти же не направлена на решение ботлнека, так как объем памяти легко наращивается. (в сегменте проф. крафических ускорителей и GPGPU уже во всю штампуют карты с 16+GB на борту)
Сложность реализации этой задумки просто не оправдывается тем что получится на выходе.

Все просто=)
Да вы что?
Чтобы ваша архи-гениальная концепция заработала, необходимо заранее знать, какая часть картинки будет содержать какие объекты. Но этого сделать невозможно лишь по той простой причине, что картинка вечно движется, и двигает ее пользователь, так как хочет. Конечно вы наверняка можете сказать что каждый кадр может дробиться произвольно, и каждая карта будет рисовать только те объекты, текстуры которых будут у нее в памяти, но это 1) потребует просто нереально сложного алгоритма, в первую очередь который вхлам перегрузит проц. 2) в сущности бесполезно так как сцены постоянно меняются 3) в такой схеме реализация идеи Z буфера (который позволяет не рисовать текстуры, которые лежат на более низких слоях, и закрыты другими текстурами с более высоких слоев) будет крайне затруднена, так как или придется одной карте ждать другую, чтобы рисовать слои начиная с самого верхнего, или тратить кучу дополнительных ресурсов в никуда рисуя все слои целиком. В любом случаи ведет к значительной потере производительности.
Но главный вопрос - зачем это нужно? Ради чего? Какой смысл?

0


не думаю что DX12 все так просто удвоит... но, уверен что DX12 точно будет поддерживать новую шину передачи данных - высокоскоростное внутреннее соединение NVIDIA NVLINK если я правильно понимаю, архитектура Pascal уже будет ее поддерживать аппаратно, пока что на уровне игровых серверов, а начиная с архитектуры Volta - шину NVLink запустят в массы... это, конечно, по самым оптимистическим прогнозам т.е. в том случаи, если it индустрия благополучно переживет весну 2016 г.

0

SUSUL1
"А зачем память суммировать?! Каждая карта вырисовывает свой фрагмент сцены независимо и на момент вывода изображения оно сшивается."
Ага, то есть каждая видеокарта будет наделена способностями экстрасенса и хрустальным шаром, дабы заблаговременно предугадывать действия игрока и запрашивать именно тот набор файлов, который нужен ей для отрисовки своей половины\своего очередного кадра. Не уже ли абсурдность Вашего предположения не очевидна? Отсутствие логики на лицо.
Даже если предположить что видеокарта действительно экстрасенс и обладает хрустальным шаром (можно даже взять в пример скрипт), хорошенько подумав можно придти к выводу что пока наборы памяти видеокарт разобщены (не суммируются) толку это не даст, так как видеокарты будут обрабатывать одну и ту же сцену и, соответственно, использовать одинаковые файлы (стандартный режим SLI\CF). Не будут же они, на пример, отрезать от текстуры ту часть которая попала в ихнюю часть кадра, а лишнее просто выкидывать из памяти. Для этого нужны алгоритмы, сложность которых даже невозможно представить.

0

Бeломорканал
Ну почему же сразу абсурдна?! Раньше абсурдным считалось иметь больше 256кб памяти=)
К сожалению не могу найти нормального описания работы этой фишки... Для меня абсурден сам факт возможности такого...

0

W3aMisterWinner
Кросс - не лучшая идея. Это я как обладатель могу сказать. Очень долго приходится ждать cross-профилей для игр. К примеру, тот же ведьмак или распечальный Watch Dogs, при выключении второй карты работали гораздо лучше. С 2мя периодически мерцают текстуры. Подумываю о замене на что-то одно и топовое.

0

SUSUL1
Вам русским языком объясняют что увеличить объём памяти на одной видеокарте гораздо проще и выгоднее (себестоимость не особо увеличится, а деньги с покупателя будут драть по полной), чем создавать новую шину, новые контроллеры и т.д. для того чтобы всего лишь суммировать память нескольких (хотя бы двух) видеокарт.
А Вы, в свою очередь, гнёте свою линию, про разрешение, объём памяти и прочее, короче не в тему.
Технология суммирования памяти будет, в этом никто и не сомневается, дело в том что она не пойдёт в массовое использование, о ней либо забудут, либо на её основе разработают новые технологии и методики для не игровых режимов. Возможно данную технологию оставят "на потом", на пример до разработки нового PCI-E и новых контроллеров, способных поддерживать нужную пропускную способность.
Короче, иди жарь своих пескарей.

0

Бeломорканал
Я просто перемалываю то, чего начитался из интернета=)
И философски рассуждаю.
Я не программист отладчик mikrosoft, чтоб делать авторитетные заявления, что "это невозможно"
Вы просто посмотрите на картину с произодительностью, что мы наблюдаем на тестах. Самые мощные одночипы начинают захлебываться. Системные требования к играм вернулись к своему росту. Одного Титана уж мало, чтоб поиграть в 3 монитора по 4к. И судя по описанию DX12 они что то радикально изменили в алгоритмах обработки видео в несколько GPU
http://www.overclock3d.net/articles/gpu_displays/amd_explains_dx12_multi_gpu_benefits/1
Вот тут есть слайды с упоминанием технологии единой памяти. И как я понял тут речь идет о новом принципе использования графических процессоров. Возможно они включили технологии, которые принимались ранее в менфрэймах. Ведь они как то решают проблему единой памяти .

И не будем забывать, что Майки возлагают большие амбиции на WIn10, сделав его единой ОС для любителей и професионалов, и даже обещают поддержку андроидных приложений, что такой, большой шах на территорию ГУГЛ

0

Всем привет) вот хочу обновить немного систему и начать с видюхи. на данный момент система такова)
AMD Athlon II X4 645
ASUS 6850 DC /2DIS/1GD5/V2
4gb ddr3 1333mhz
Western Digital Blue 1TB 7200rpm 64mb
ASRock N68C-S UCC
Сhieftec 500w ctg-500-80p
так вот я боюсь что мой блок питания не потянет хоть нареканий на него сейчас нет.
хочу приобрести 7950 просто стремно купить а потом она будит просто лежать пока не куплю новый блок питания. или лучше купить 7870. в минимальных требованиях к видеокартам 500 ват написано все подходит.
с временем и остальное обновлю до конца года) надеюсь.
Нужны советы потянет ли блок питания?!

0

Нашел сравнение производительности Fury X с dx11 и mantle

0

dobro4insky
покупка позапрошлого поколения видеокарты себя оправдывает с полна) потому что цена для меня подходит примерно 100 евро. это примерно 2600-3000 за видеокарту.
как я и написал что начал обновлять пк и начал именно с видюхи. потому как сейчас это даст мне максимальный результат. немного позже поставлю и озу +4гб и сменю мать с процом. но нужно начинать с чего то. смотря на многие тесты что блока питания должно хватить.
мой процессор уже устарел я не спорю с этим. раскроет или не раскроет это не важно это так как буду менять с временен. если у вас есть возможность купить все и сразу то это очень хорошо у меня нет такой возможности сейчас. и будит узкое место в системе процессор но это будит уже вопрос времени.
детали буду покупать б/у

0

nekros.777
100 евро=6300р, если это за 7970, то это супер цена, учитывая что она быстрее r9 380 за 15000)

0

nekros.777
Вам надо указать модель блока питания.
Некоторые 500Вт блоки вполне потянут 220Вт HD7970
Особенно учитывая ваш не прожорливый процессор

0

я хочу приобрести 7950.
почитав много тестов и статей понял что все должно норм работать.
вот все заказал и просто жду доставки. потом отпишу.

0

купил поставил все загрузилось поставил. как только идет нагрузка на видеокарту ну зайду в игру или в формарк то система тухнет(( значит не хватает питания.

0

SUSUL1
CHIEFTEC CTG-500-80P http://hard.rozetka.com.ua/chieftec_ctg-500-80p/p110143/?gclid=Cj0KEQjw2v2sBRCazKGu3tSFz64BEiQAKIE1hvw9s52vXA76K9zcJvjxwKVNVILh408Iba7Muo0qWJUaAkQm8P8HAQ#tab=characteristics вот такой.

0

nekros.777
В самый край ему HD7950 с ее 220 Вт пикового энергопортебления.й У него 2 ветки по 20А, как правило одна идет на процессор и материнскую плату, а вторая на видеокарту. так что 220 Вт теоретически он выдаст по линии видеокарты
Только не гони карту, а то может выбивать по перегрузки линии

0

SUSUL1
Я заменил блок питания на Chieftec GPS-650A8 650W http://hard.rozetka.com.ua/chieftec_gps-650a8_650_w/p262579/?gclid=Cj0KEQjw_YKtBRC7zZjFp8bF_foBEiQAfyigc6qrzADLdEMYKXIc1CBKcb-fEtCPs-4jI_lD0KetXPYaAp_F8P8HAQ
все работает нормально)тихо холодно и я доволен)

0

продолжим тут: http://forums.playground.ru/hardware/video/nvidia_vs_amd_ati_v_27-871834/

0

Наконец то в моем городе появилась возможность заказать GTX970.
Референс от палит - 15200, нереф от него же - 15800.
А вот нереференс от гигабайта уже 19600, асусь - 21500. Всего то)

-1

ваше есть такое дело что новый драйвер нв обычно ухудшает производительность старой карты
как каким образом не совсем ясно. наглядно было бы в 3д марке но он живет своей жизнью и уже давно нв оптимизировала свои дрова чтобы было конкурентам в марке. по этому поводу был метагалактический срачь кстати.
от себе скажу что я драва очень редка меняю. ра в год наверно где-та. и вот когда вышел срачдогс он у меня в принципе неплохо работал но когда я поставил дрова чтоб было сли производительность игори резко ухудшилась. полагаю ежели у меня был бы 780ти все нормальна бы было.

-1

у зеленых драйвер оформлен хуже чам какалист. очень мнго фигни плохо сгруппировано а профили для разных программ ваше как то не доработано на мой взгляд. там правда есть затычка експиренс но я ей не пользуюсь. а то вот понадобицо отключить аф и будешь долго долго нашаривать там.
но нада сказать что драйвер там нормально работает. в некоторых играх он мудро отключает то то делает артефакты и глюки.

-1

Я не сравнивал, я играю. BF4 на макс 40-60FPS, Hardline Beta так же но на высоких, а что еще должно тормозить? Я не задрот-школьник типа тебя, мне хватает 40FPS для комфортной игры.

-1

VANOMАS
нет. ну или разве в связке с интел атом
30GamesADay
очень не факт что асу упирается конкретно в производительность гпу памяти. там происходит стриминг текстур и меша на лету поэтому - пук. ваще нада рассчитывать примерные узлы консоли и узлы пека умножая последний в несколько раз. современные пека страдают сейчас преимущественно низкой пропускной способностью. тут получается либо лга 2011 либо серваки. либо там действително кривая оптимизация чтобы покрыть которую потребуется весьма и весьма футуристическое железо.
да и если проблема лежит где-то в гпу памяти будут наблюдаться просадки как на чипе так и на процессоре.

-1

если предположить что во всех новых играх не уступает топу 780тай

предполагай-не предполагай, но 780Ti быстрее 970. Ее производительность между 970 и 980. Кое где на равне с 980 идет..

-1

Поздравляю всех владельцев 900 серии, у нас полнейшая поддержка DX 12.1 (ранее говорили, что не полная)

-1

VITYA_KOLYADENKO
12.1 это последняя совершенная версия 12-го

-1

Ну и батхерт разгорелся после тестов Фурии=)
На одних сайтах она сливает чуть ли 980, на других уверенно теснит самого Титана в 4к разрешении.
Интересно, когда будут тесты в 2-3 монитора 4к? Что там будет? Не заломает ли Фурия топов?
Тест на оверах считаю провальным. Очень ограниченный и поверхностный
http://www.hardwareluxx.ru/index.php/artikel/hardware/grafikkarten/35117-amd-radeon-r9-fury-x-test.html?start=21
Вот тут интереснее будет, тем более, оставлены пустые страницы для дополнительных материалов и новых тестов.

Как бы там не было Фури уверенно отвесила пинка безоговорочным топам зеленых и мерзко топчется по пяткам, и это на бетадрайверах.

Кстати, новый тип памяти это совместная разработка АМД и Никс. Будет ли Хуанг отстегивать им за использование их памяти в следующих картах от NV?

-1

RevIO2RUS
Честно говоря, я не вижу смысла в разгоне продуктов такого уровня.\
1. они избыточно мощны
2. Страх спалить к чертям собачьим=) Они и так сделаны "на грани", и вытаскивать их еще чуть чуть за... Боюсь это может привести к ускоренному выходу из строя. а я не DartMaul, чтоб развлекаться с сервисными центрами с томиком прав потребителя=)

-1

DartMaul
Думаю разработчики софта сумели найти выход из этой ситуации без перекачки огромного объема данных от карты к карте.
Будем посмотреть на описание методики. Возможно наконец то исчезнет вечная проблема с синхронизацияей вывода квадратов и полос

-1

в теории можно заделать синхронную работу карт причем даже разных уровней и поколений
для этого некий процессор или апу, но скорей всего ппу должен получить от драйвера состояние дел у видеокарты по объему занятой памяти и задействованному объему шейдеров и памяти. затем он должен заделать сцену в некотором софтварном режиме и разрезать ее на части, руководствуясь данными о видеокартах. затем он должен собрать подпрограммы пакетов шейдеров на кадр к каждой видеокарте. однако видеокарты не смогут полностью распилить сцену а лишь будут обрабатывать какой-то ее большой кусок. и так будет происходить с каждым отложенным методом рендера. а это всякие буферы рендера освещения итп. их обычно штук 7 наверно заканчивая антиаляйзингом. в конце процессор просто сложит сцену с уже пробилденным там видеокартами освещением и перекрытиями прозрачности и отправит на один из видео выходов карт.
значительные минусы это гигантская нагрузка на процессор и шину. гигантская задержка времени на воспроизведение кадра. общая низкая эффективность и ожидание окончания одной карты и процессора другой карты.
те карты будут использоваться как шейдерные конвейры и текстурные операции
а собственно где это применять - а нигде. в кинцо давно используются какие-то свои алгоритмы которые имеют мало общего с графоном. эффективность работы с системы будет снижаться при повышении мощности какрт а так же их количестве. от сюда вывод что эффективность будет только при использовании карт начального и офисного сегмента.
а аудитория у этого школьники которые ставят 2+2+8гигабайт озу в свои пекарни и таки мечтают прибавть к какой-нибудь 250 жифорсе скажем 740 а потом еще 1010 какую-нибудь. этож будет целых 5 гигов!
поэтому и аудитории то нет.
может какой гений конечно и напишет такой хитроумный алгоритм как для х86 процессоров но дело это крайне далекого будущего.

-1

Бeломорканал
Да ,я ошибся, по поводу количества килобайт=)
Но вот несколько популярных фраз, которые должны сбить ваш скептитизм
«Я пересек эту страну вдоль и поперек и разговаривал с лучшими умами, и я могу вас заверить, что обработка данных — это причуда, о которой забудут уже через год».
Редактор издательства Prentice Hall, 1957 год.
«Вряд ли кому-то придет в голову установить компьютер дома».
Кен Олсен, 1977 год.
«640КБ должно быть достаточно для каждого» (640K ought to be enough for anybody) — фраза, приписывается Биллу Гейтсу, , 1981
«32-битную операционную систему мы не выпустим никогда».
Билл Гейтс, 1989 год.
«Через два года о спаме никто и не вспомнит».
Билл Гейтс, 2004 год.

Как видите, они тогда сильно ошибались, хотя были куда более "в теме"=)

-1

DartMaul
«Я пересек эту страну вдоль и поперек и разговаривал с лучшими умами, и я могу вас заверить, что обработка данных — это причуда, о которой забудут уже через год».
Редактор издательства Prentice Hall, 1957 год.

Ведь описание технологии еще не вышло, а вы ее уже отвергнете!

-1

DartMaul
НУ почему же подобная технология никому не нужна?
Может они разрабатывали ее на технологии 24к разрешения. 8к мониторы уже входят в наши будни, как недавно входили 4к. Или это побочный продукт какой нибудь еще разработки.

-1

DartMaul
а 4к это не избыточно?!
Как только оно появилось поклонники HD то же возмущались на тему "кому это нужно"
И почему вы думаете, что они эту технологию создавали для пользователей, а не для какого нибудь
специализированного приложения. И потом уже внедряют готовую наработку.
О ужас! Сайты обещают даже такую ересь!
Это же две разные технологии вывода, у SLI полосы, у Кроса - квадарты...
Либо сайты врут нагло, либо Майкрософт сделало реальный прорыв в новом DX12

DX12 Позволяет Cross-SLI между AMD и Nvidia графических
Read more: http://wccftech.com/dx12-nvidia-amd-asynchronous-multigpu/#ixzz3eiBuI4Zi

-1

DartMaul
"Оно вначале появилось а потом те у кого нет на это денег начали возмущаться зачем это надо. Это происходит всегда."
ну так маркетинг не стоит на месте=)
еще недавно мы удивлялись 1420х1024, потом стало нормой 1980х1080, сегодня нормой становится 4к... долго ли этот формат для нас будет "диковинкой"?
Ведь уже во всю идут новости о матрицах на 8к, в то время как 4к становится ноутбучным форматом.

-1

nekros.777
Все что Вы спрашиваете,имеет место быть,только Вам 2 вопроса....Первый-зачем брать видеокарту позапрошлого поколения?Второй-Как Вы думаете,Ваш процессор раскроет ее?Я глубоко сомневаюсь,ибо разогнанный,он с трудом раскрывал 7870...Как-то так...Вместо 7970 можно взять R9 280/X?блока хватит,если там остались честные 500W,хотя верится в это с трудом....

-1

Для 4К разрешения карт ещё не вышло, так что обсуждать нечего!

-2

SUSUL1
Ну когда у конкурентов в виде MSI температура 65 вроде, и во много раз тише видеокарта. Тогда,да, мне не нравятся 82 С
И еще,не думали,что корпус Ваш унылый какаш с никакущим охлаждением,захламленный проводами и пылью..а гигабайт получается виновата...
Ну я так например не думаю. Достаточно Z12 + доп кулер на дно корпуса.
Дроссели пищат почти во всех видеокартах....
Ну не так отчетливо слышно, как у гиге.

-2

Nvidia <3
Одна из причин Панель Управления Nvidia много гибких настроек и при этом всё очень просто что даже обычный юзер поймёт. GeForce Experience поможет тем кто не поймёт просто оптимизировать игру как надо опираясь на Производительность или Качество.

-2

Ребята, не трахайте друг другу мозг. Берите Intel i5/i7 +GeForce GTX660 или выше, и все будет работать отлично. AMD конечно дешевле, но бесплатный сыр только в мышеловке.

-2

Вообще все это странно, программа говорит что кеш у 970 все таки подрезан, а зеленые говорят, что все в порядке, а это ошибка утилиты.
Сообщение о предположительно урезанном объёме кэша L2 до 1.792 кбайт, хотя у GPU GM204 объём кэша составляет 2.048 кбайт, тоже, скорее всего, является результатом ошибки утилиты. Если верить NVIDIA, GeForce GTX 970 обладает полностью адресуемой видеопамятью объёмом 4 Гбайт GDDR5 и 2 Мбайт кэша L2. В случае GeForce GTX 970 память поделена на разделы по 3.548 Мбайт и 512 Мбайт, которые в сумме составляют 4 Гбайт – это подтверждается официально. Причина меньшей отзывчивости раздела 512 Мбайт конкретно не называется, но, скорее всего, причина кроется в отсутствии нескольких SMM. Из-за разницы по времени между США и Европой американская команда только начала обсуждение проблемы с нашей редакцией, так что со временем, возможно, мы представим дополнительные сведения.

Драйвер пытается ограничить игры 3,5 Гбайт, он добавляет 512 Мбайт памяти только в случае необходимости, как указывает NVIDIA. Но при этом все 4 Гбайт памяти являются адресуемыми, игры могут использовать полный объём памяти. Если при этом и наблюдается падение производительности, оно составляет 1-4 процента. Большая разница по производительности связана не с памятью, а с различием в архитектуре (разное количество потоковых процессоров и т.д.).

Вообще не понятно, если потеря производительности всего 1-4 процента при использовании всех 4Гб, тогда зачем драйвер ограничивает работу в 3,5 ?

-2

TITAN X - вот убийца новых новинок от AMD. Шикарная производительность по тестам, интересно, какая еще скорость при 1500 Мгц будет.

-2

SUSUL1
У вас уже есть в планах тест 4 Фурии в кросе?
Нет, я слишком сильно расстроен AMD за hawaii

На оверах есть информация, что DX12 наконец то позволит складывать объемы видеопамяти
Не очень люблю этот ресурс. В любом случаи, чтобы "склеить" память разных видях нужно в первую очередь обеспечить между ними очень широкую и быструю шину. PCI-E x16 v3.0 не обеспечивает даже половины пропускной способности шины памяти современной карты, так что объединение памяти упирается уже как минимум в аппаратную проблему.

Абабков Денис
Красные в латексе и с кляпом во рту.

Shadows3D
Ну а как иначе, титаны то бесследно не проходят.

-2

Странно, я уже год почти на паре 290х сижу, уже менять пора скоро, а вы все собираетесь, обсуждаете...
И да, если уж говорить о цене, то 40 рублей за 1$ любую версию 290х оснащает ценником от лайтов.

-6