i7-7700k + gtx 1080ti низкая производительность

  • Здравствуйте!
    Столкнувшись с посадками FPS в некоторых играх решил посмотреть тесты данной связки в играх на Youtube. К моему удивлению результаты в тестах оказались значительно превосходящими мою систему. Коротко о ней (подробнее в профиле)

    i7-7700k, Gigabyte GeForce GTX 1080ti, 16 gb RAM, Win 10 Pro x64 (лицензия), БП на 750W, играю в 1920х1080.

    Постараюсь быть краток о сути проблемы:
    Началось все с того что в Crysis 3 после входа в купол свободы FPS просел со стабильных 60 до 30-40. В целях найти ответ была создана эта тема: forums.playground.ru/crysis_3/tech/crysis_3_gtx1..

    В этой теме люди активно делились со мной тестами похожих систем в различных играх. В одном из таких тестов (видео) демонстировался третий ведьмак, где мной были замечены 100-110 ФПС в Новиграде. В свою очередь я в Новиграде имею 75-80 ФПС максимум, на тех же (максимально возможных) настройках. Игра лицензия.

    Удивившись такой разнице решил погуглить и другие из имеющихся у меня в данный момент игр. Очередь дошла до DA: Inqusition. Наткнулся я на видео с абсолютно идентичной системой: чтобы облегчить всем жизнь скажу, что средний ФПС в данном видео 110-130 кадров на максимальных настройках в full HD. У меня такого и подавно не было, а теперь подробнее.

    Решив что дело в кривой винде (с win 10 я столкнулся впервые после того как обновил компьютер) я задумал что единственным решением может быть попытка чистой установки системы. Переустановил систему, и накатил единственную на данный момент всю ту же Dragon Age Inquisition (на данный момент параллельно качается третий ведьмак).

    По итогам переустановки винды... нихрена не изменилось.
    Собственно скрин из ОЭД MSI Afterburner - как оно есть. Настройки ультра, сглаживания и тд, все на максимум, в общем выше некуда - так же как и в тесте на Youtube.

    Спойлер


    Как видите, загрузка GPU - 99%, дальше ФПСу расти некуда. В чем причина разницы моей производительности с производительностью точной такой же системы в тестах - для меня остается загадкой, именно поэтому обращаюсь за вашей помощью.

    От себя следующее: Обратил внимание в ОЭД на строку LIM1: Voltage. Погуглил, в рунете совершенно нет информации на этот счет, а вот за бугром маленько нашлось. Означает эта хрень то, что якобы карта достигла лимита потребления напряжения и дальше производительности расти некуда (причем этот лимит не связан с БП, это какой то хер знает какой лимит, по крайней мере я в этом понимаю недостаточно). Забугорные рекомендации просты - через MSI Afterburner приподнять Core Voltage на 10-20%. Сделал на 10, не помогло, не изменилось ровным счетом ничего. Даже показалось что FPS упал на пару единиц. Выше повышать не стал, боюсь что этим можно что нибудь сжечь, в оверлокинге понимаю не больше обезьяны.

    В общем, друзья, нужна ваша помощь, в чем дело не знаю. Почему производительность так низка, хотя может быть выше? (судя по тестам прилично так выше).
  • Спойлер

    Steam докачал третьего Ведьмака, поэтому спешу прикрепить скриншот. Все тот же Lim Voltage, все тот же более низкий ФПС нежели в аналогичных системах. Настройки ультра.
  • в этом видео у чувака 1080ти разогнанная по самое не могу и по памяти ещё, но вряд ли может это дать разницу в 40 и более кадров, проверь сначала всё что я тебе в личку написал и посмотри в биосе в настройках если стоит какая-нибудь херня типа intel virtualization отруби её нахрен
  • удали жифорс экспириенс
    смори на частоты во время загрузок
    в крайнем случае можно рассмотреть такую тему чтоб жетско залочить видеокарту на некоторою частоту но это значит она будет бешено жарить и в простое
    хотя мне как то до этих 60+ фпс
    так же в таких тестах например может быть отключено нвида ао, ультра качество мип пам отрицательный уд и не форсирована анизатропия 16
    и обычно так бюджетные игровые системы заявляют типа 60 фпс а со всем этим барахлом должно быть 45-50 к примеру
    второй момент это тесты котором можно доверять и смотреть сколько там какая видеокарта отбивает
  • в мси аб выстави показатели только частот гпу и памяти, загрузку ГП, лимит энергопотребления, частоту проца, в общем для удобства оформи мси аб как я себе сделал, псомотри на моих видосах. Щас запустил андромеду в 1080р на максах и масштабом до разрешения 29хх на 16хх скока-то там, т.е. выше 1440р, но ниже 2160р так у меня карта при загрузке 99% скидывала частоты до 1686 мгц даже, но фпс был при этом 70-88 фпс. проверяй всё что в биосе стоит. И да, если качал с инета shadow of War с ультра текстурами, то запусти её и выставь там масштаб разрешения до почти 4к, там потребление видеопамяти 10 и выше гиг выходит, заодно проверишь сколько реально гигабайт у твоей карты, вот мой видос
  • Steve Taller написал:
    вряд ли может это дать разницу в 40 и более кадров

    Именно так
    MunchkiN 616 написал:
    удали жифорс экспириенс

    Его итак нет. Винда девственная как святая Тереза в день своего рождения.
    MunchkiN 616 написал:
    хотя мне как то до этих 60+ фпс

    Мне тоже похер, вот только проблема в том что если сейчас карта работает на пределах и упирается в какой то там вольтаж, то что будет с ней через год? Если пусть она хоть на 99% грузится при 60 ФПС, лишь бы стабильно, но уже завтра выйдет какая нибудь игра в которой "запаса" на производительность не будет, из-за непонятной программной херни. Если это проблема в карте, я хочу разобраться с ней сейчас и сдать по гарантии (пока она не истекла), а не спустя еще год понять что чет моя GTX 1080ti слабее чем другие GTX 1080ti но при этом не иметь возможности чтото с ней сделать.
    MunchkiN 616 написал:
    так же в таких тестах например может быть отключено нвида ао, ультра качество мип пам отрицательный уд и не форсирована анизатропия 16

    Вообще в большинстве роликов автор сначала демонстирует какие настройки выставлены в меню игры, так что сомнений в настройках не возникает.
    MunchkiN 616 написал:
    можно доверять и смотреть сколько там какая видеокарта отбивает

    Доверяю Steve Taller, у него видеокарта такая же как у меня (не просто GTX 1080ti, а именно Gigabyte GTX 1080ti gaming OC, тобишь точь в точь модель), и вот у него проблема наоборот, другого характера (тротлинг при длительной нагрузке по пределу энергопотребления выше 100%)
    Steve Taller написал:
    проверяй всё что в биосе стоит

    Проверил. Биос у меня конечно пиндец, в смысле слишком какой то охеренный он и заумный, куча всяких приблуд но.... ни малейшего упоминания GPU так такового. Если где-то и есть вольтаж, то он имеет отношение либо к CPU, либо к RAM, либо к чипсету, кулерам и USB портал. о GPU опять же ни слова. Исковырял каждую строчку, вошел в каждую "ветку", упоминанию GPU нет. То же самое касается и инструкции материнской платы. Там GPU упоминается только там где описывается как настроить SLI в BIOS. у меня SLI нет. Кстати как ты и сказал проверил чтоб плата точно стояла в нужном PCI-E разъме. Все верно, стоит в х16-м, не в х8 и не в х4, поэтому рамс с портом исключаю.

    Короче какую херню заметил сейчас играя в DA Inqusition. У моей видеокарты с момента покупки начиная с нагрузки 75-80% свистят дросели. Чем ближе нагрузка к 100% и выше FPS тем соответственно свистят сильнее (в бенчмарке 3D mark для мобилок, там где ФПС 3000+ писк дроселей вообще на ультразвук похож). С момента покупки пытался поменять карту, но мне отказали в сервисе мол этот звук лежит в пределах заявленой производителем нормы (до 35 дицибел) поэтому идите нахер. В конечном итоге забил и привык.
    А сегодня разбираясь с этой темой и играя в DA заметил вот что. Возвращаясь к мониторингу показателя LIM в MSI Afterburner. Когда нагрузка видеокарты меньше 75% дросели не свистят, и LIM показывает - No Load. Но стоит нагрузке достичь того момента когда дросели начинают свистеть, LIM моментально переходит с no load на Voltage. Как только нагрузка уменьшается (например если посмотреть в пол) и дросели затихают - Voltage исчезает и снова появляется no load. Проверял несколько раз взглядами в пол/в даль, совпадение исключено, тут действительно прямая зависимость. Lim - Voltage когда дросели свистят, и Lim - no load когда они молчат. Начинаю подозревать что свист дроселей всетаки влияет на производительность, а не так как принято считать, но это лишь теория.
  • fatallezzz
    Какая частота у монитора?
  • fatallezzz
    У меня есть подозрения на настройки электропитания (в самой Винде выставь режим "максимальная производительность"). БИОС содержит очень много всяких настроек по процессору(почитал мануал от твоей мамки). Помониторь в АИДЕ64 вольтаж и частоту проца при появлении просадок. Вполне может быть включена очередная технология энергосбережения в БИОСЕ.
    гейм ДВР отключал?
    Писк дросселей на видеокарте это норма, по этому поводу не парься.
  • Я бы не стал ставить макс производительность в электропитании. Если это сделать, то проц не будет сбрасывать частоты до 800мгц и частоты карты до 200мгц по чипу и 400 по памяти.
  • Salvador Gunzerker написал:
    Какая частота у монитора?

    60 герц
    Ryazancev написал:
    в самой Винде выставь режим "максимальная производительность"

    стоит
    Ryazancev написал:
    Помониторь в АИДЕ64 вольтаж и частоту проца при появлении просадок

    у меня нет просадок, просто моя система выдает максимальную производительность НИЖЕ чем выдают ТАКИЕ ЖЕ СИСТЕМЫ. Грубо говоря моя 7700k+GTX1080ti выдает 85 ФПС в ведьмаке, у соседа 7700k+GTX 1080ti (абсолютно такие же, без разгона) выдают 120-140 ФПС все в том же ведьмаке. Это как если бы у вас была Lada и у вашего соседа точно такая же Lada. Ваша Lada разгоняется до 100 километров в час и обсирается, а Lada соседа разгоняется до 150 километров в час и еще терпит. НО ВАШИ ЛАДЫ СОВЕРШЕННО ОДИНАКОВЫЕ. я надеюсь суть вопроса ясна.
    Ryazancev написал:
    Вполне может быть включена очередная технология энергосбережения в БИОСЕ

    Тоже на них думал. Но промониторил все что мог. в Винде - высокая производительность. В биосе - Hight Perfomanse. Всякие экомоды и прочая шляпа - выключены.
    Ryazancev написал:
    Писк дросселей на видеокарте это норма, по этому поводу не парься

    А я и не парился на самом деле, до тех пор пока не увидел что показатель LIM в MSI AB меняется на Voltage одновременно с появлением писка.
    callmegod написал:
    проц не будет сбрасывать частоты до 800мгц и частоты карты до 200мгц по чипу и 400 по памяти.

    Пусть не сбрасывает. Есть пить он от этого больше не просит. С температурами и шумом системы у меня проблем нет.
  • callmegod
    У меня на стареньком фикусе FX 8350 стоит в Винде макс. производительность. И все частоты сбрасывает и на видюшке, и на процессоре (в простое). Предполагаю на другой платформе будет аналогично.
    fatallezzz
    Game DVR отключен правильно?
  • Доверяю Gecid.com, читаю их лет 10, они много видеокарт тестят, и писк дросселей у них, насколько я помню, не вел к падению производительности. По теме - промониторь все частоты проца и видеокарты под нагрузкой, авось что-то перегревается. Оперативка в двухканальном режиме ? Если нет, возможно, из-за нее просадка есть. Говоришь, винда чистая - дрова она сама поставила на видеокарту ? Если да, попробуй поставить последние дрова, поиграйся с настройками в дровах (хотя вряд ли поможет последнее, но все таки кто знает), разные версии дров поустанавливай. Так же почитай обзоры своего БП, так как некачественные БП могут давать даже половину от своей заявленной мощности, возможно, компонентам не хватает питания (хотя при разгоне при нехватке питания комп скорее выключится, но проверить БП на всякий не лишне будет).
  • Ryazancev написал:
    Game DVR отключен правильно?

    Слушай, друг, сейчас понял, что нет. Я с виндой десятой как говорил ранее, не так давно столкнулся и поэтому всех ее тонкостей еще не знаю, но после твоего коммента загуглил что это за хер, и предположил что он вполне себе может быть включен (как минимум потомучто при запуске игр винда высылает всякие уведомления типа нажмите Win+G чтобы начать стримить, сделать скриншот и тд).
    Сейчас уже нет возможности проверить, но обязательно проверю. Неужели эта штука настолько может жрать?
  • fatallezzz
    Да, друг, ещё как может жрать! Будешь отключать, не забудь её выпилить и в реестре на всякий случай. Отрубай её везде. Я даже Икс бокс удалил.
  • Ryazancev написал:
    Будешь отключать, не забудь её выпилить и в реестре на всякий случай.

    Нашел вот эту тему forums.playground.ru/software/windows/windows_10.. завтра выпилю так, как описано здесь. О результатах отпишусь, естественно. Огромное спасибо за дельный совет.

    ---VENOM--- написал:
    авось что-то перегревается

    60 градусов максимум. Тротлинга нет. И не предвидится.
    ---VENOM--- написал:
    винда чистая - дрова она сама поставила на видеокарту

    Вообще сама, центр обновлений качает же их. Но нет, центр обновлений скачал далеко не последние (хз почему), последние докачал самостоятельно с сайта нвидии. Дрова на чипсеты и прочую хрень материнской платы и прочего железа загружены с официального сайта производителя Gigabyte
    ---VENOM--- написал:
    Оперативка в двухканальном режиме ?

    Да, в двухканальном. Две платы по 8 гигов в разных слотах. Стоят в соответствии с инструкцией к материнской плате (там все подробно нарисовано). В последующем подтверждено в AIDA 64.
    ---VENOM--- написал:
    поиграйся с настройками в дровах (хотя вряд ли поможет последнее, но все таки кто знает)

    Че только не делал в этой панеле управления нвидиа. Уже задолбался после каждого изменения того или иного "глобального параметра" игры перезапускать) Ничего не помогает)
    ---VENOM--- написал:
    Так же почитай обзоры своего БП, так как некачественные БП могут давать даже половину от своей заявленной мощности, возможно, компонентам не хватает питания (хотя при разгоне при нехватке питания комп скорее выключится, но проверить БП на всякий не лишне будет).

    Все правильно сказал, будь проблемы с БП комп бы просто не работал нормально. Выключался и тд. БП на 750 ват, сумарное потребление всех комплектующих у меня 491 ват. Запас отличный я считаю, дело не в БП. Да и гарантийник БП на официальном сайте корсаиров отлично прошел проверку.
  • fatallezzz
    не в настройках игры а в установках драйвера
    и проблема 60+ что там все может быть довольно запутано и плохо объяснимо из-за влияния различных факторов
  • Когда всё поотключаешь на великолепной 10ке и если результата не будет, попробуй 7ку поставить. На 7ке конечно не настолько больше фпс выдаёт, по сравнению с 10ой. Но чем чёрт не шутит. Винду не долго переустановить.
  • fatallezzz
    Монитор слабый. При подключении через HDMI частота обновления упрется в 60Гц. Нужен DisplayPort и монитор под стать системному блоку.
  • An__ei написал:
    ужен DisplayPort и монитор под стать системному блоку.

    Тоже грешил на DVI-I, однако Steve Taller тоже играет через него же, на такой же видеокарте как у меня (идентичной модели от Gigabyte). У него таких проблем с монитором нет.

    Сегодня к вечеру постараюсь сделать видеоролики с нескольких игр чтобы Вам наглядно продемонстрировать загрузку системы.
  • fatallezzz
    Частота GTX 1080ti - 2025/2050MHz, в зависимости от версии. Ни у тебя, ни в видео, этой частоты нет. Она ещё и скачет, чего быть не должно в принципе.
    Нагрузка ЦП у тебя 37%. В видео 40-60%, скорее всего разгон.
    Процессор слабоват для этой видеокарты, он её не раскрывает, даже с разгоном. Поэтому такая не стабильная работа.
  • Gera95 написал:
    Процессор слабоват для этой видеокарты, он её не раскрывает, даже с разгоном

    если процессор слабоват, то почему он загружен на 37% а видеокарта на 99, а не наоборот? Давайте вот без этой нелепой фигни, этого процессора с головой на 3 таких карты хватит, тем более для FullHD.
  • Ryazancev написал:
    Отрубай её везде

    В общем XBox DVR была отключена... В реестре в том числе. Дописал дополнительное значение в реестр, ничего не изменилось, прироста производительности нет чуть больше чем вообще.
    Попробовал подключить комп к другому монитору, правда все через тот же DVI-I. Новый монитор древнота - 1280х1024, естественно от понижения разрешения FPS чуть подрос, но несущественно (в ведьмак 3 +-10 ФПС). Сейчас думаю где можно попробовать на пробу взять монитор в DisplayPort, попробовать через него... Идеи если честно уже заканчиваются.
  • Gera95
    Процессор слабоват для этой видеокарты, он её не раскрывает, даже с разгоном. Поэтому такая не стабильная работа.
    Что за бред ты написал))) Сам то понял? Мой проц i7-6700K (разогнанный) как не фиг дело раскрывает две 1080 разогнанные. У него проблема совсем не в этом!
    Для особо избранных:
    Проц за двадцать кусков, против проца за 120 кусков)))
    Спойлер

    Можешь взять хоть стоядерный проц, в результате его производительность будет на уровне i7-6700k, 7700k играх вкупе с топовой видяхой!
    Это случайно не ты был, когда шёл мега адавый баттл с VOVAN WOLF по поводу процов? Ты типа предлагал вхерачить этот кусок дерьма (2066) от которого толку минус ноль в играх)
  • fatallezzz
    Давайте вот без этой нелепой фигни, этого процессора с головой на 3 таких карты хватит, тем более для FullHD.
    Подобные бараны тебе тут ещё не такое посоветуют!
    Ты пробовал разрешения менять?
    Как обстоит ситуация в других играх????
  • Gera95
    бред не пиши "не раскрывает". Хотя бы прочитай элементарную мат. часть, что делает проц. в видеоиграх, а что видеокарта
  • Gera95

    У меня проц такой же, причём идеально работает с двумя двух ядерными видеокартами! (Quad SLI)
    Если ты подобное пишешь, то вначале обратись к ютубу))))))))))

  • fatallezzz написал:
    Сегодня к вечеру постараюсь сделать видеоролики с нескольких игр чтобы Вам наглядно продемонстрировать загрузку системы.

    не иби вола с монитором, я тебе сразу сказал монитор тут не при чём и никак не может влиять на фпс

    fatallezzz написал:
    В общем XBox DVR была отключена... В реестре в том числе. Дописал дополнительное значение в реестр, ничего не изменилось, прироста производительности нет чуть больше чем вообще.

    я ж тебе русским языком написал никуда не лазить и ничего не отключать, не вносить никаких изменений в реестр, верни всё как было пока помнишь как это сделать

    ТРИБУН Мышивурии написал:
    Мой проц i7-6700K (разогнанный) как не фиг дело раскрывает две 1080 разогнанные. У него проблема совсем не в этом!

    это в нынешних играх, в тех играх, которым не будет хватать 8 потоков он уже ничего не раскроет и будут просадки по загрузке видео и кстати видел на ютубе видос того же кризис 3 с 7700к и 1080 обычной, там тоже в процессорозависимых моментах падала загрузка видеокарты
  • fatallezzz написал:
    если процессор слабоват, то почему он загружен на 37% а видеокарта на 99, а не наоборот?

    Нормальный процессор, бенч 1080р:



    Мой процессор i5 7640X + GTX 980ti, 4К.
    Фоллаут4 + моды деревья трава с ЛОДами дальности


    Масс Эффект Андромеда, Ультра настройки + HDR


    Чушь? У меня на четырёх-ядерном четырех-поточном ЦП, в 4К нагрузка как у тебя в 1080р.
    Очень хороший процессор у тебя, очень. :)
    Для моего ЦП видеокарта слабовата для 4К, нужна получше. Но тогда придётся брать и процессор получше, т.к i5 7640X ни туда и ни сюда, скорее как переходный с 1080р.
  • W_A_R_P 73
    запиши свой видос с крайзисом 3 где входишь джунгли и посмотри на свой фпс, покажи мониторинг загрузки проца и видеокарт, титан-Z это карта на которой два чипа и между ними уже слай, две видяхи таких это как бы реально квад слай, далеко не все игровые движки нормально тянут SLI и имеют 100% прирост, средняя масштабируемость 60-70%, но это ощутимо, прирост от 3-й карты ну ещё процентов 15 в лучшем случае, 4-я карта как мёртвому припарка. Одна твоя титан-Z уступает одной 1080 процентов эдак на 40-45
  • это в нынешних играх, в тех играх, которым не будет хватать 8 потоков он уже ничего не раскроет и будут просадки по загрузке видео и кстати видел на ютубе видос того же кризис 3 с 7700к и 1080 обычной, там тоже в процессорозависимых моментах падала загрузка видеокарты
    Нууууу, в те игры, в которые я играю этих восьми потоков будет ещё хватать, ох, как много лет ещё. Не одно поколение видях за это время сменю.
    моментах падала загрузка видеокарты
    Что касается загрузки видеокарт, то я ставлю большие разрешения в играх, чтоб она всегда была на 99-100%, а проц пусть в это время отдыхает. А если честно, то мне как то пофиг) Я обычно смотрю количество фпс и температуру, а на остальное с большой колокольни)
  • W_A_R_P 73
    Кризис 3 на более мощных картах, в 4к и то они не на 99% прогружаются, более 2х видях в пару для игр это фанатство
  • John Mullins
    Я помню, что как то мы сравнивали производительность в играх. Два Титана z против двух 1080. Так по производительности два титана, как две 1080ti, то есть всё же получше процентов на 27-30, чем две 1080. Но не в этом дело. Они когда вышли то? Причём такие матёрые, что могут равняться с современными мега топами) Ещё даже Максвелла в помине не было, не было 4k, а мощность их была по тем временам, ну, просто ядерно-бомбической!!!! Всё тоже самое, как давным-давно с моими бывшими gtx 295-ыми. Подобные видяхи опережают время. Таких примеров очень мало.
  • ТРИБУН Мышивурии
    та ну, не городи ерунды. Один титан Z это два титана блэк на одной плате, но похуже, чем два титана блэк отдельно, один титан Блэк это что-то около 780ти + 5-7%, единственное что в титане-Z это 12 гигов памяти, а частоты чипа там ваще днищенские, мощность самого чипа уже давно недостаточная, одна 1080 урывает процентов на 70 две 780ти, ну а два титана блэк она урывает процентов на 60. И что твоя гтх 295? у меня самого были две гтх 275 в слае, хватило на 4 года где-то и то только потому что в развитии игр был период застоя, почти всё что выходило работало под ДХ9 или Дх10 изредка, они две уступали гтх 580-ке, а когда купил потом одну гтх 670 так она одна их уделывала по самые помидоры
  • John Mullins
    Вот ты опять всё напутал, как тогда, когда говорил много лет назад, что две gtx 480-ые лучше, чем одна 590-ая, хотя она была чуть мощнее, чем две 580-ые.
    А теперь ты пишешь, что два блэка, как один мега Титан Z. Я на 100% уверен, а так же знаю, что это не так) Почему?
    Как сейчас помню мощность двух 980-ых (до Паскалей они у меня стояли) Так вот, по видосам ютуба, а потом уже в реальности (знакомый купил на барахолке по дешману Титан Z) в каких то играх она была мощнее, а в каких то играх были мощнее две 980-ые. Короче, была ничья в производительности. А две 980-ые куда уж лучше, чем два Блэка.
    И что твоя гтх 295?
    Видяха была сверх мощная, а когда их две, так вообще лютая сверх комбинация. Метро аж летало) Хотя даже сейчас на современных картах, эта игра может не хило так и проседать. Была вот только одна проблема. Две 295-ые, ну ооочень много потребляли!( А потом как вышел 11Direx.... Ну ты понял)
  • ТРИБУН Мышивурии
    все двойные карты нвидии были похуже их отдельных, гтх 295 была похуже чем две гтх 260, гтх 590 была хуже, чем две гтх 580, титанZ хуже, чем два титна блэк. По сути двойные карты есть многочип, но на одной плате с небольшими урезаниями и с внутренним слаем, который если не работает, то считай у тебя пол карты. Две двойных карты считай 4-way sli, окромя метро и кризиса я не припоминаю игрушек, где была бы такая масштабируемость слая, при чём уже тестили много раз, если вторая карта даёт иногда и прирост 100%, то третья уже процентов 20, 4-я ещё меньше. Не могут две 980-ки быть хуже двух титанов блэк, значит тестили на разном оборудовании


  • титан-Z уступает даже 780ти слай

    www.hardwareluxx.ru/index.php/news/hardware/graf..
  • John Mullins
    Я тоже на днях смотрел этот видос!
    Блин, бред какой то. Я уже весь комп перерыл на те тэсты, которые сравнивал мощность титана и двух 980-х Там куча видосов была!
    (((
    Мало того, но я в сети нашёл ролики, где Титан z даже проигрывает двум 970-ым!!! Аль роликие фэйковые (а так же этот) Аль какие то гавённые драйвера поставили, что титан z проигрывает двум 780ti! Были тэсты, где, если титан z очень хорошо разогнать (без фанатизма), то его производительность будет, как у двух 980ti!!!!
    Короче, чтоб не устраивать срач спроси чувака сверху с его титанами. Пусть замутит видос, а там можно и посмотреть и сравнить два титана против четырёх 780ti/970/980
  • John Mullins
    Короче, пусть тот чувак с титанами сделает видос и тогда можно уже и сравнивать. Чего по напрасному балаболить.
    Ладно, что-то мы от темы отвлеклись, как думаешь чё за херня у топик стартера
    Ты имел ввиду автора темы?
    Я хочу, чтоб он другие игры проверил и отписался. Я написал ему об этом. А лучше пусть сделает видео их.
    Сам же знаешь причин может быть уйма.
    Раз он и винду менял и троянов нет, температура нормальная, БП позволителен, с разгоном не шаманил, то я бы в первую очередь прошил боис видяхи на самую последнюю версию (всегда так делал со своими всеми видяхами), а так же завёл бы эту тему на сайте overclockers ( там немало шарящих в разделе Паскалей)
    Второе. Покопался в биосе уже не видяхи, а самой материнки (в нём много, что можно намутить, если руки не оттуда растут)
    И третье, проверил бы правильно ли подключены пины на саму видяху.
  • ТРИБУН Мышивурии написал:
    первую очередь прошил боис видяхи

    Видяха прошита, но через базовую утилиту гигабайта. Не знаю, верно ли это сделано, возможно есть путь как для материнской платы - тобишь через флешку и сброс таблетки CMOS. Если наверняка знаете как прошить биос карты, буду рад если сообщите.
    ТРИБУН Мышивурии написал:
    так же завёл бы эту тему на сайте overclockers

    Пока до туда руки не дошли, завел тему на форуме гигабайта, но там народ трольный какой то. Понаафтопили всякой херни, по делу ничего не сказали.
    ТРИБУН Мышивурии написал:
    Покопался в биосе уже не видяхи, а самой материнки (в нём много, что можно намутить, если руки не оттуда растут)

    Покопался, и уже даже не раз перепрошил через полный сброс всего с вытаскиванием батарейки из платы (сброс CMOS). Все настройки биоса по умолчанию, вообще ничего там не трогал кроме языка.
    ТРИБУН Мышивурии написал:
    проверил бы правильно ли подключены пины на саму видяху.

    Проверил, вставлена в PCI-E x16, питание так же подведено корректно. Два шнурка к ней идут.
    Так же проверил оперативку еще раз - стоит 100% в двухканальном режиме в соответствии с инструкцией к материнской плате.

    ТРИБУН Мышивурии написал:
    А лучше пусть сделает видео их

    Тогда погнали. Сделал видео на то, что есть на компе на данный момент (много не успел накачать)... да и по факту, дабы убедиться в плачевности результатов - этого достаточно.
    Обо всем по порядку:

    Ведьмак 3

    Full HD, все настройки на ультра. Вертикальная синхронизация выключена. В панеле управления нвидиа вертикальная синхронизация - быстро.
    Как видите результат плачевный, часто бывают просадки ниже 60 ФПС.

    ДА: Инквизиция. Все те же самые максимальные настройки, все те же просадки и нестабильность. В конце перешел в другую локацию, там вообще 60 кадров нет.


    Prey. С коридорным шутером дела обстоят лучше. Полагаю они могли бы обстоять ЕЩЕ лучше.


    Прошу при просмотре всех обратить внимание на показатель LIM - VOLTAGE. Вот эта херня меня беспокоит больше всего.

    К слову говоря, в MSI Afterburner пробовал поднять вольтаж видеокарты выше текущего. Максиум что удалось 1.062 получить. Выше не поднимается, и соответственно изменений нет. Изменения между 1.043 и 1.062 ЕСТЬ - +3-5 ФПС. Полагаю если поднимать вольтаж еще, можно добиться больших результатов, но несмотря на увеличение ползунка в MSI - итоговый показатель не меняется. Предполагаю он ограничен где-то еще.

    Короче что делать я уже прям откровенно хер знает, в полном отчаянии. Хоть бери и неси карту менять, а не хотелось бы. В сервисе хер докажешь что что-то не так, в нашем городе тестить никто не будет, увезут хер знает куда, посмотрят, скажут - работает, и вернут через 45 дней. Лишнее мозгоипалово. Всетаки верю в то, что проблема где-то ан програмном уровне.
  • fatallezzz
    LIM - VOLTAGE это когда частота видеокарты упёрлась в вольтаж по ядру (может скидывать немного частоту). Когда LIM - power - это упор в энергопотребление. Чтоб не мигало надо повышать эти ограничения или блокировать частоты турбобуста.
  • странная ситуация реально, загрузка видяхи 99%, частоты тоже падают как и у меня, в ведьмаке 3 твой проц местами ваще под сотку грузится, т.е. потенциал его почти раскрыт, частота 4500 так и должна быть в стоке наверное, где-то мне кажется что-то в биосе и дело в материнке, а не в карте, я не думаю что в видяхе могут накрыться часть шейдерных блоков, но фпс у меня в новиграде в ведьмаке от сотки и выше. Ищи описание всех опций по работе проца и его напруге, если есть опция которая позволяет ОС регулировать напругу вырубай её к чертям
  • Посмотрел видео от GECID.com, где они сборку с 7700к и такой же видяхой тестят, только там 32 гб оперативки, и у них проц тоже грузится очень даже круто в городе в ведьмаке 3, поэтому я бы не стал на него грешить (хотя и отбрасывать возможность, что это он, не буду). Ради интереса можно попробовать его разогнать и посмотреть, на сколько фпс вырастет.
    А не проверял ли ты, это именно игры грузят систему или есть еще какое приложение, которое жрет комп во время игры ? И еще - прошил видяху через прогу гигабайта, а проблемы были и до прошивки ? Если нет - возможно, оно прошивку какую-то хреновую впарило, а если да - чет подозрение (лично у меня), что видеокарта ограничена чем-то. Опять же, либо ее биосом, либо чем-то еще, той же материнкой (может и ее биос обнови, авось поможет). Попробуй переставить оперативку в другие слоты, так сказать - почему бы и нет, все равно решения нету. И еще мысль - в той же gpu-z при загрузке видеокарты прога показывает, что используется 16 линий PCI-e ? Версия разьема в принципе не важна, а вот линий желательно не ограничивать.
  • fatallezzz
    Не видел описание SSD или HDD и точно в сата6 вставлен?
  • скинь частоты памяти и чипа на немного а что а вдруг.было что то похожее на 570 прокатило сидел до самой продажи
  • по поводу прошивки бивиса карты, а где вы этот самый бивис взяли-то? на сайтах вендоров их для видях нет, у меня прога гигабайтовская не нашла версии биос для шитья и написала чтоу меня всё ок, на кой хрен было шить карту??? Возможно прошил и угробил прошивкой. Я у себя запустил DA Inquisition, в кат-сценах 30 фпс, в игре в начале поиграл, в боях даже 120 фпс на максималках и карта не грузится выше 70%, видимо в-синк на быстро не даёт подняться фпс выше двухкратной частоты вертикальной развёртки монитора
  • странно, у меня на всех роликах что я снимаю карта достигает лимита энергопотребления сразу почти и он всегда 100%, а у тебя она то 65, то 72 и всё равно маленько троттлится, может тут ещё с БП что-то
  • fatallezzz написал:
    Ryazancev написал:
    в самой Винде выставь режим "максимальная производительность"

    а как такое включить на 10 ??? и еще ребята если отключина game DVR через меню игр, а через дополнительно реестр будет ли больше ФПС ???? ( видюха 1080)
  • jon-y
    Панель управления\Все элементы панели управления\Электропитание
    Надо ДВР выключать и в реестре тоже (контрольный в голову), отключение через меню не всегда помогает.
  • MSI прога , в ней разгон всего есть, есть ли ограничения( предупреждение или что то типо того) чтоб не спалить себе ?)
  • jon-y
    Обычно предупреждений нет (на некоторых видюшках есть программное ограничение разгона, которое можно обойти). У меня друг один раз спалил видюшку разгоном, другой друг оперативку спалил. У каждой железяки есть свои допуски, превышать которые опасно (вольтаж, тайминги памяти, температура). Просто о своей железяке лучше почитать, чтоб знать её нормативы (режимы работы), а потом потихоньку можно гнать, поочерёдно каждый узел.
  • fatallezzz
    Я понять не могу ЗАЧЕМ Вам при 2k (1920х1080) разрешении СГЛАЖИВАНИЕ. Убирайте его, и FPS вырастет, отмечают, что толку с него не особо, а FPS подъедает.
    Надо ли Вам 100+ кадров? Выкручивайте на 2,5k - 2560, и играйте.
    Если есть тройная буферизация - то же сносите. Ищите настройки, что съедают ВПУСТУЮ FPS.
    Ну и в конечном итоге на виндовс 10 нужно сносить все эти игровые службы, они только проблем создают.
    Дело не в процессоре - ТОЧНО. Графические настройки, лишние, что создают ненужную нагрузку, без серьёзных изменений.
  • jon-y написал:
    а как такое включить на 10 ??? и еще ребята если отключина game DVR через меню игр, а через дополнительно реестр будет ли больше ФПС ???? ( видюха 1080)

    не страдай ерундой, отключая всякие внутренние опции винды, это толку не даст, если у тебя не комп, а хлам тебе это не поможет, на нормальном железе разницы ты не ощутишь
  • VOVAN WOLF написал:
    Я понять не могу ЗАЧЕМ Вам при 2k (1920х1080) разрешении СГЛАЖИВАНИЕ. Убирайте его, и FPS вырастет, отмечают, что толку с него не особо, а FPS подъедает.

    сглажка убирает неровности и шероховатости поверхностей, в некоторых играх это улучшает визуально объекты, которые в далеке, убирает мыло

    VOVAN WOLF написал:
    Дело не в процессоре - ТОЧНО. Графические настройки, лишние, что создают ненужную нагрузку, без серьёзных изменений.

    В ведьмаке 3 в новиграде 7700к умудряется прогружаться местами под сотку на все 8 потоков, у меня средняя загрузка 55-60%, видяха робит по полной и фпс за сотку, а фаталеза он почему-то еле-еле до 70 доходит, но моя карта работает на лимите энергопотребления, а у него потребление энергии на 65-72%, либо что-то с мамкой, либо с БП. С настройками проца в биосе тоже может что-то не так
  • Steve Taller
    На 10-ой винде УЖЕ МНОГО жалоб было на счёт прог: " Отключение функции game DVR в Windows 10 существенно повышает производительность в играх." Так же лаги, то же из-за этой же фигни.
    Steve Taller написал:
    сглажка убирает неровности и шероховатости поверхностей

    Чем выше разрешение, тем менее заметные они. И в 2k разрешении можно снижать, без серьёзных изменений в картинке. Разницы, ПОРОЙ - ноль. Дак зачем тратить на это ресурсы видеокарты?
    Steve Taller написал:
    В ведьмаке 3 в новиграде 7700к умудряется прогружаться местами под сотку на все 8 потоков

    Ясен фиг, это город. Без лока кадров, с кучей НПС нагрузили процессор. И что дальше?
    Steve Taller написал:
    а фаталеза он почему-то еле-еле до 70 доходит

    Ясное дело, процессор под 100%, и видеокарта просела в загрузке, а FPS при этом достаточно высокий. Зачем вообще про это писать и парится?
    Steve Taller написал:
    а у него потребление энергии на 65-72%

    У меня точно так же. У любого, ЕСЛИ ПОСМОТРЕТЬ, будет точно так же. Идите учить из чего складывается энергопотребление, и как получить эту цифру в целом, что нужно помножить. И лимит энергопотребления там условность - 100%, число, которое можно изменить. Энергопотребление, по сути Ватты - Вольт*Ампер, и оно меняется с изменением вышеотмеченных чисел.
  • VOVAN WOLF написал:
    Ясное дело, процессор под 100%, и видеокарта просела в загрузке, а FPS при этом достаточно высокий. Зачем вообще про это писать и парится?

    в том-то и дело что видяха загружена всё равно на 99%, а фпс ниже, чем у меня, у меня в новиграде на тех же настройках от сотки и выше

    VOVAN WOLF написал:
    У меня точно так же. У любого, ЕСЛИ ПОСМОТРЕТЬ, будет точно так же. Идите учить из чего складывается энергопотребление, и как получить эту цифру в целом, что нужно помножить. И лимит энергопотребления там условность - 100%, число, которое можно изменить. Энергопотребление, по сути Ватты - Вольт*Ампер, и оно меняется с изменением вышеотмеченных чисел.

    да при чём тут это??? вот мой видос, обрати внимание на показатель GPU PWR, это предел энергопотребления, он у меня почти на максимуме всегда, т.е. видяха под нагрузкой как и положено потребляет свои 250 или сколько-то ватт, у ТС она потребляет почему-то меньше под той же нагрузкой чипа, вот я и думаю не БП ли там виноват
  • даже не знаю что сказать, но тот ролик где в ведьмаке 140 фпс там не референсная 1080ти, вернее она, но разогнанная и по частотам ГП и по памяти и как ни странно она там держит их и не троттлит, во-вторых там отключён хейрворкс и сглажка хейрворкса, но проц загружен как у тебя под завязку, значит его можно как бы исключить и косвенно предположить что мать тут тоже не при делах, хотя бы по процу. Остаётся видимо БП, видяха под нагрузкой на 99% должна и потреблять питалова соответственно, а у тебя она не допотребляет
  • Steve Taller написал:
    Остаётся видимо БП, видяха под нагрузкой на 99% должна и потреблять питалова соответственно, а у тебя она не допотребляет

    Как тогда можно объяснить показатели бенчмарков 3Д марк, которые находятся в норме?
    Да и если бы БП не хватало сил, система вероятнее отключалась бы, а не показывала 99% загрузки видика :(
  • Steve Taller написал:
    разогнанная и по частотам ГП и по памяти и как ни странно она там держит их и не троттлит, во-вторых там отключён хейрворкс и сглажка хейрворкса

    Разогнана она не так уж и сильно на самом деле, чтобы разницу в 70 ФПС давать. Хейрворкс да, можно на него списать 30 кадров. Но тем не менее.
  • fatallezzz написал:
    Да и если бы БП не хватало сил, система вероятнее отключалась бы, а не показывала 99% загрузки видика :(

    не факт, может именно не хватать питалова на карту, а на всё остальное хватать, там же питание проца, материнки и видяхи идёт по разным кабелям и разным линиям. БП на 750 ватт это конечно фиглиндос, у меня ещё в 2010-м году когда апгрейд делал брал БП на 850 кажись, так вот там у БП есть несколько гнёзд куда втыкаются кабеля к видеокарте, попробуй втыкнуть оба кабеля от видика в БП в другие гнёзда. У меня вообще БП на 1300ватт, там для видях 4 штуки гнёзд подключения. А вообще желательно твою карту попробовать на другой системе, хотя я больше грешу на БП
  • fatallezzz написал:
    Разогнана она не так уж и сильно на самом деле, чтобы разницу в 70 ФПС давать. Хейрворкс да, можно на него списать 30 кадров. Но тем не менее.

    разогнана она сильно, но разница в 70 фпс конечно это занадто. У меня там где у тебя 45-50, у меня 89-100, т.е. явно какая-то трабла у тебя, но где и в чём хз, меня смущает реально почему у тебя лимит энергопотребления достигается на 65%, но идёт троттлинг, У меня если лимит энергопотребления 65-70% как у тебя, то частоты ГП 1911-1949, а у тебя 1860-1878, т.е. карта замедляется. А у тебя МЭ Андромеда установлена? Если да, попробуй её запустить на максималках и масштабом до 1,5, запиши геймплей с мси АБ, судя по всему там у тебя вообще будет около 30 фпс
  • fatallezzz
    Да чушь он несёт про БП. Если бы были проблемы в нём, то синий экран ждал Вас.
    Как на счёт всех эти игровых функций в виндовс 10, снесли? А сглаживание, волосы отключили? Они съедают FPS (HairWorks OFF). Волосы много едят. Они умеют подобрать настройки правильно, сравнивайте, в том числе на вынос и буферизацию.
    В панели нвидиа то же не капались, не включали там чего лишнего? Смотри в сторону графики.
    троттлинг то же ЧУШЬ. Температуры норма.
  • fatallezzz написал:
    и гонят систему именно так - как она может.

    Вот это пригорело. :)
    Верно, только вывод не верный. Даже хай-энд системы, с i9, выдают такие нагрузки:


    Нет никаких 99% GPU, и быть не может. Это полный бред. И этот бред везде пишут, пытаются поднять частоту ядра, или как выше написали специально выставить большее разрешение. Любая система, по умолчанию, выставлена на параметр - качество. Перевести на параметр максимальная производительность можно настройками системы и видеокарты, для этого разгонять не нужно. Системные параметры в любой момент можно вернуть назад, к заводским параметрам, а вот разгон уже нет. Где сейчас будешь брать заводской BIOS для видеокарты, большой вопрос.
    А всё из-за чего, из-за того что кругом написан этот бред про 99%, и миллион фпс. Чем этого добиваются, это их проблемы, по умолчанию железо так не работает. Ты испортил видеокарту, скажи спасибо себе и тем товарищам которых ты слушал, про 99%.
  • fatallezzz
    Вон ещё один комик рассказывает про загрузку в 99%, что её быть не может. РЖАЧНЫЙ ТИП. Видать это локки с новым аккаунтом. Та ещё ригидная личность. Не знает даже по производительности на ядро, не говоря о настройках, что грузят процессор и видеокарту.
    Вот мой скрин, хайрворкс и сглаживание, с которого не особо профит. GTX 1080 + 4790k выдаёт 130-140 кадров. А с ним выдаёт 80 кадров.
    Скрин

    P.S. А сглаживание там не сильно режем. Энергопотребление при этом было не более 80%. Ещё выше комик накидывает чушь про энергопотребление.
    Разбирайтесь в программных и графических настройках. Может ещё моды какие стоят на графику?
    Ваша 1080TI на 30% мощнее, т.е. У Вас будет где-то да, порядка 170 кадров.
  • VOVAN WOLF
    В YouTube миллионы видео с нормальной нагрузкой CPU и GPU, это тоже локки комики и ригидные личности?
  • Короче пацаны мне удалось установить причину
    В общем, промониторив GPU-Z я обратил внимание на страку PCI-Express, где рядом горел знак вопроса. Там было написано, что карта поддерживает PCI-E x16 v3.0 а работает в PCI-E x1 v1.1!!!
    Я запустил пару игр для нагрузки и смотрел как меняется показатель. Максимум что удалось получить - он изменился под нагрузкой на PCI-E x1 v2,0

    Тогда я решил переткнуть карту во второй слот PCI-E на материнской плате (их у меня 3 штуки х16, х8, х4). Поставил в х8.
    После загрузки система не сразу определила драйвер, но через 5 минут нашла карту. GPU-Z показал что карта поддерживает PCI-E x16 v3.0 а работает в PCI-E x8 v 3.0.

    НО ЧТО С*КА САМОЕ ГЛАВНОЕ, ФПС АБСОЛЮТНО ВО ВСЕХ ИГРАХ ПОСЛЕ ЭТОГО ВЫРОС НА 40-50%!!!!
    Драгон Эйдж инквизишн, там где выдавала 55-60 ФПС показала 85-94!!!

    Сейчас меня интересует лишь единственный момент: Изменяется ли этот параметр програмно? Почему ГЛАВНЫЙ PCI-E платы не работает корректно? Уверен что в PCI-E x16 v 3.0. производительность будет ЕЩЕ ВЫШЕ!
    forum.ykt.ru/viewmsg.jsp?id=17996874 вот здесь человек столкнулся с той же проблемой, я почитал пути решения и оказалось что он купил новую материнскую плату потомучто сказали что на текущей какой то косяк с "боченками".
    Если у моей материнской платы тоже "косяк с бочонками" то ее надо переть в сервис. Но я хочу понять, точно ли это аппаратный косяк? Или всетаки параметры шины PCI-E где-то могут регулироваться?
  • Gera95
    Покажите мне его, и я разобью все Ваши доводы. Жаль, Вы не понимаете цифр, я же просил - ИДИТЕ УЧИТЕ, разбирайтесь для себя.
    Но нет, Вы продолжаете чушь молоть и минусы собирать. Где эти миллионы? Я догадываюсь, что сейчас видео будет с неинтересным i9 и gtx 1080TI в Вашем ущербном Фоллауте 4.

    fatallezzz
    СЕРЬЁЗНО? Вы воткнули видеокарту в слот PCI-E X4? Мда, во даёте.
    1) Разница между v2.0 и 3.0 - КОТ наплакал. Второе, разбирайтесь в версиях PCI-E и их скорости / разнице.
  • VOVAN WOLF написал:
    в слот PCI-E X4

    читать учитесь, в х8.

    Короче, ведьмак 3, видеокарта в PCI-E x8 v3.0. В лесу на ультре показатели 95-105 ФПС! Что было бы если бы корректно работал PCI-E x16 v 3.0? Была бы разница? Мануал матплаты рекомендует вставлять имено в PCI-E x16
  • VOVAN WOLF написал:
    Покажите мне его, и я разобью все Ваши доводы.







    Разбивай.
  • VOVAN WOLF
    VOVAN WOLF написал:
    Все они версии 3.0. Когда надо станет 3.0. В простое снижается. У меня так же.

    Ничего не снижается, при нормальной работе с заводскими частотами.
  • Gera95
    Единственно, что я сказал, ПОЛНЕЙШИЙ НЕОБРАЗОВАННЫЙ ..... Мозгов кот наплакал. Это нечто! i9 7900X - в своём уме.
    1) НАФИГ ОН МНЕ НУЖЕН
    2) Начал с ГТА 5, ДВЕ видеокарты, 100% загрузка видеокарты. Всё только упирается в FPS и производительность на ядро. У 7700k производительность на ядро больше на 5%. Суммарная производительность i9 7900X ЛИШЬ В СУММЕ БОЛЬШЕ, на деле она НАФИГ никому не нужна, поэтому в играх НЕТ смысла брать что то лучше, чем 7700k, или хороший выбор СЕЙЧАС 8700k.
    Сравнение

    />

    Нет, я такие глупости не терплю. УЧИМ УЖЕ, что и на что влияет, откуда берутся цифры загрузки процессора и видеокарты, а так же FPS в конечном итоге:
  • fatallezzz
    Скриншот GPU-Z сделай.
  • VOVAN WOLF
    Если вы считаете что PCI-E x16 и x8 для 1080ti значения не имеют, то вам сюда
    Здесь сравнение в 4к для Sli конечно, но тем не менее если в 4к разница в 10-15 ФПС, то извините меня в FullHD разница будет во все 30. Без Sli соответственно получим прирост порядка 20 ФПС (если брать функциональность SLI где нибудь в 60%)
    Gera95
  • fatallezzz
    Я же сказал, ЧТО В ПРОСТОЕ. У меня меняется, сам замечал.
    Меняется это значение:

    height="488.98477157360406" />

    fatallezzz написал:
    ПЛАТА СТОЯЛА В САМОМ ВЕРХНЕМ СЛОТЕ

    Я реально думал, что Вы в третий воткнули, он ведь ТОЧНО ТАКОЙ ЖЕ:
    Спойлер

    fatallezzz написал:
    Если вы воткнули свою 1080 в x8 разъем это не значит, что это правильно.

    У меня в верхнем стоит

    fatallezzz написал:
    А у меня получается что в х16 плата определяется как в х1

    Вот это проблема. Да, что там с драйверами на шину PCI?

    fatallezzz
    Опять двадцать пять! Она значение имеет лишь для таких вот железок. Для рядового пользователя, домашнего геймера - НЕТ. Ибо разница между x8 и x16 сводится к ничтожной цифре, тем более с ОДНОЙ видеокартой. Там SLI, там имеет значение, тут НЕТ.
    О X8 я ВООБЩЕ не говорю. Сам ставил и в X8 и Х16 - ДЛЯ ОДНОЙ карты разница НОЛЬ. Или всё же НИЧТОЖНАЯ.
    Хорош смотреть конское железо и SLI, там есть разница, на более приземлённом желез нет.
  • fatallezzz
    Частоту поднял, деньги назад не вернут.
    Для стандарта нужен БП 600W, может после разгона питания не хватает. Может быть мат.плата, но это вряд ли, если сбрасывает значит работает.
  • fatallezzz
    Кстати, связка, видео с разницей, там стоит i7 5960X. В SLI будет прирост, поскольку i7 5960X имеет максимальное количество каналов PCI Express - 40!
    Канал PCI Express (PCIe) состоит из двух пар каналов сигнализации, один из которых предназначен для приема, а другой - для передачи данных, и этот канал является базовым модулем шины PCIe. Число каналов PCI Express представляет собой общее число каналов, поддерживаемых процессором.
    У Вас же на 7700k - всего 16 каналов. Или, ЕСЛИ разделить то 8+8.
    Конечно, собирая железо SLI gtx 1080TI прирост будет от i7 5960X и его х16+х16 более заметным.
    Ребятки, что тут имеют SLI х8+х8, ничего не теряют, их БОЛЬШИНСТВО. Сам заморачивался этим, был у меня SLI. Были две gtx 670, это как одна 980 сейчас. В ведьмаке на максимуме с волосами было 40-45 кадров. Столько же и осталось, когда я выбросил их и заменил на 980.
    fatallezzz написал:
    то извините меня в FullHD разница будет во все 30

    Т.е. такого НЕ БУДЕТ. Сам сравнивал. Долгое время стояла во втором слоте.
    Это глупость, ибо тогда потеря от SLI в FullHD будет больше у ребят, но ведь никто ничего не пишет.
    Gera95
    Ну разобрались в Вашей "раскрываемости" и нагрузке на процессор и видеокарту, какие настойки и на что влияют. Надеюсь, что да, ибо бомбанул от той глупости, которую Вы мне накидали.
    Скрин выше GPU Z - всё меняется, сравниваем
  • Gera95 написал:
    Частоту поднял

    я ничего не разгонял, система работает в штаном режиме

    Gera95 написал:
    деньги назад не вернут

    а я не собираюсь деньги за видеокарту возвращать, проблема в материнке и ее PCI-E x16, это уже очевидно стало.
    Gera95 написал:
    Для стандарта нужен БП 600W, может после разгона питания не хватает

    Нет никакого разгона. БП у меня 750W.
    Gera95 написал:
    Может быть мат.плата

    А теперь уже точно ясно что это она. Вопрос в том че с этим делать. Нести в сервис и менять плату, или же это програмная проблема? Я конечно могу сидеть и играть от PCI-E X8, но спокойней от этого не будет. Когда отдаешь такие бабки за систему, хотелось бы чтобы она работала на все 100%, а не на X8/X16.
  • VOVAN WOLF написал:
    Т.е. такого НЕ БУДЕТ.

    И сколько же FPS теряется если GTX 1080ti установлена в PCI-E x8 вместо положенного ей PCI-e X16?
  • fatallezzz написал:
    Нет никакого разгона. БП у меня 750W.

    Базовая частота твоей видеокарты - 1481 МГц, у тебя 1519.

    fatallezzz написал:
    А теперь уже точно ясно что это она.

    Не факт. BIOS обновлял?
  • fatallezzz
    Считайте сами, я даже об этих цифрах и думать не хочу, уже проходил сам.
    Спойлер

    Спойлер

    Titan X запуск карты на x8 был примерно на 2-5% медленнее, чем при использовании x16.
    Во всех тестах, которые мы тестировали, GRID показал снижение производительности на 5% при работе на x8 по сравнению с x16.
    Вам даже думать не придётся на такой карте о этих НИЧТОЖНЫХ процентах. Ибо Вы упираетесь не в производительность шины, А в FPS максимальный, вертикальную синхронизацию. Вам терять нечего, ну будет не 110 кадров, а 108 кадров. Вся разница.

    Gera95
    У него Gygabyte GeForce GTX 1080ti GAMING OC у этой видеокарты Турбочастота - 1657, Минимальная частота работы видеочипа - 1480.
    Теперь УЧИМ, что такое ТУРБОЧАСТОТА и как она работает. Глядишь и выучите НАКОНЕЦ откуда все эти цифры. Понемногу, по чуть чуть. (турбобуст в помощь).
    У меня до 1950 вообще подлетает, хотя по спецификации турбо на 1847.
    Как и раньше, турбо-частота означает лишь среднюю частоту работы GPU для некоего набора игровых приложений и других 3D-задач, используемых в Nvidia, а реальная частота работы может быть и выше — она зависит от 3D-нагрузки и условий (температуры, потребления энергии и т.д.)
    Вот для чего нужна СЖО в SLI-е, ибо высокая температура снижает этот показатель. Частота может меняться.
    Теперь и это определение ВЫУЧИТЕ. Чуть чуть ещё умнее стали, чувствуете, как выросли?
    А самый интересный вопрос - ПРИ ЧЁМ ТУТ РАЗГОН? Как определять будем в сервисе, если у них она будет на стоковых работать, а профиль разгона ДОМА останется.
    Чудной Вы человек, очень чудной. Я буд-то говорю с самим собой, только в 16 лет, когда сам начинал с подобной фигни, то же так же ерунду рассказывал. Правда, в выборе железа, у меня было лучше.
  • John Mullins
    Сколь вам можно говорить, что Титан Z самая мощная видеокарта на сегодня, уступает она лишь 1080ti. Ей уже четыре года. Все ваши современные видяхи на год- на два (если нет SLI). Представьте сами, что будет с вашими топами через четыре -пять лет? Да даже, если взять Титан XP и Титан V. Скорее всего будут на помойке) Я в те годы уже мог ставить любые разрешения. Да что тогда! Я сейчас легко могу почти во всех играх выставить разрешение 4k и больше, тогда как ваши топы не могут в данный момент держать разрешение 8k при комфортном фпс (даже 4k держат и то только SLI-и), а также не смогут всеми любимое разрешение 4k держать через четыре года. Если провести анализ, то на сегодняшний момент, все ваши супер топы, это как gtx 770-780 для своего времени в плане производительности – то есть на год, а потом опять и опять менять видяхи. Эти же Титаны уже четыре года. Я всё ждал, когда в наше время будет, что-то на подобие Титана Z, то есть, чтоб он разрывал две 1080ti в лёт и опережал всё игровое время, как в моём случае! Тот же Титан v по производительности хуже двух 1080! Мой один Титан по производительности, как четыре gtx 770 в стоке. Получается два разогнанных Титана Z, как 8 не разогнанных gtx 770!
    Вот, например, видосы.




    Я Титаны Z поменяю тогда, когда увижу, что вышли видеокарты (говорю про SLI), что, поставив их я смогу выставить ЛЮБОЕ разрешение, что их хватит на четыре-пять лет и что они будут минимум выдавать 60 фпс. Когда я свои видяхи ставил, то по тем временам они во всех супер-пупер требовательных играх на разрешение 4k выдавали минимум 80-90 фпс.
    С этими вашими 1080ti одни проблемы. А то греются сильно, а то разгон плохо держат, а то фпс меньший выдают, чем положено, а то частоты пляшут, как ненормальные, да и настройки в играх занижаете (а то волосы выключи, а то сглаживание отключи на РАЗРЕШЕНИЕ FULL HD, КАРЛ!)))) Во ржака!) Кому сказать сегодняшний супер дорогущий, якобы топ, а народ, купив его играет в игры на разрешение столетней давности, так как в 4k он по полной сливается. И только, если поставить две такие карты, то уже будет результат на лицо. Мля, 2018 год, а видях всё нет, чтоб на разрешениях 4-8k все даже очень требовательные игры выдавали минимум 60 фпс, тогда, как мои и по тем временам и на сегодняшний момент держат отлично почти во всех играх гигантские разрешения с комфортным фпс. А ты дальше думай, что Титан Z, это две 780 блэк, что два мульти чипа дерьмо и толку от них нет, что драйвера для них уже не делаются и что они всюду и везде сливаются двум твоим любимым 780ti. Можешь ещё раз заценить видосы, ололо кашпорианское, где твоя 1080 Ti вообще бы свонялась!))))
  • VOVAN WOLF написал:
    Вот для чего нужна СЖО в SLI-е, ибо высокая температура снижает этот показатель.

    Её можно для процика ставить. Я на свои видяхи её не ставил, так как максимум температура верней была 70C. Смысл?
  • W_A_R_P 73
    У кого то больше, у кого то меньше. У меня стоковая только 68-70 градусов. Добавь ещё одну видеокарту и +10 градусов огрести можно, и это минимум. Повезло Вам с температурами.
    Пример разницы верхней / нижней:

    С СЖО в разгоне SLI 60 градусов легко. Ну а вопрос SLI и температуры ещё вот ТРИБУН Мышивурии отжигал, он делал СЖО на верхнюю видеокарту ,сбросил до 50 сходу на 1080. А было за 70 градусов, точно не помню.
  • Короче народ. ВСЕМ ОГРОМНОЕ СПАСИБО ЗА УЧАСТИЕ, ПРОБЛЕМА РЕШЕНА!
    Для будующих поколений которые будут гуглить решение подобных проблем:
    По итогам трехдневной *бли было установлено, что причина лежит не в программной части системы а в аппаратной. На происходящее не влияли система, драйвера, настройки, биос. Было установлено что причиной всему является PCI-E x16 v3.0 в который вставлена видеокарта! Система определяла видеокарту как подключенную через PCI-E x1 v 1.1. Я переставил видеоплату в PCI-E x8 v 3.0 и получил значительный прирост производительности, из чего сделал вывод что проблемы с портом PCI-E x16 на материнской плате. При возврате карты в прежнее положение PCI-E x16 система снова определила карту через PCI-E x1 v1.1, и соответственно производительность вновь упала. Я начал активно гуглить эту проблему, и все ресурсы указывали на 4 причины:
    1. Неисправный разъем PCI-E х16 на матери
    2. Грязь/пыль/постороний элемент в PCi-E x16 на матери
    3. Проблемы в сокете ЦП, а именно - неправильная установка ЦП в следствие чего могли погнуться контакты сокета
    4. Неправильная установка видеоплаты (прогиб, провисания).

    В результате я решил поступить единственным верным дедовским способом - если что-то не работает, разбери это и собери заного.
    перед телевизором и со жратвой, я потихоньку неспеша разобрал системник до винтика. Вычистил всю пыль которая накопилась за пол года с момента покупки компа. Достал даже процессор из сокета чтобы проверить как дела (погнутых контактов не обнаружил, хотя один из них выглядел подозрительно - кончик блестел не так как все).
    Соответственно поменял хладомазь, почистил куллеры.

    Ну и собственно собрал все назад.
    И вы не поверите - все бл*ть заработало! Я не знаю какая магия осуществилась после этого, но мой дед был прав.
    Короче теперь GPU Z определяет все кооректно, производительность игр так же выросла. Ведьмак 3 стабильно выдал 100-120 ФПС (в том числе в новиграде) в лесу ночью в дождь просело до 87 максимум во время боя.

    Считаю проблему полностью решеной, однако окончательная причина (помимо PCI-E х16) не установлена.
    ВСЕМ ОГРОМНОЕ СПАСИБО ЗА УЧАСТИЕ! В ОЧЕРЕДНОЙ РАЗ УБЕДИЛСЯ ЧТО НА ФОРУМЕ PLAYGROUND САМЫЕ ОТЗЫВЧИВЫЕ И ПРОЯВЛЯЮЩИЕ ИНТЕРЕС К ЧУЖИМ ПРОБЛЕМАМ ЛЮДИ!
    Отдельное спасибо Steve Taller за дополнительную помощь с рекомендоваными утилитами, сбросом конфигов MSI AB и прочими подробными консультациями!
  • VOVAN WOLF
    Ну а вопрос SLI и температуры ещё вот ТРИБУН Мышивурии отжигал, он делал СЖО на верхнюю видеокарту ,сбросил до 50 сходу на 1080. А было за 70 градусов, точно не помню.
    Вспоминаю, как страшный сон, что творилось год назад. Температура верхней видяхи была в течение часа в очень требовательных играх 92C( Частоты ядра в результате такой температуры скидывалась по умолчанию. Даже турбо разгон не держала. Хоть артефактов не было и каких либо вылетов в течение пяти месяцев. Но я не стал рисковать и купил водянку (ведь впереди лето было). Теперь температура верхней 50-55C в жёстких замесах при хорошем разгоне! Даже меньше, чем нижняя!) И с ручным разгоном всё в порядке. Бабла в водянку конечно много вбухал! НО ОНО ТОГО СТОИЛО!!!!!!!)
  • W_A_R_P 73 написал:
    Сколь вам можно говорить, что Титан Z самая мощная видеокарта на сегодня, уступает она лишь 1080ti.

    чё за лютая дичь??? Титан Z это старая карта на архитектуре кеплер, состоит из двух титанов Блэк на одной печатной плате, каждый чип имеет доступ к 6 гигам видео, а может к 12 общей на два чипа, не помню точно. titan z уступал двум в слае титанам блэк. Один титан-Z уступал двум 780ти в слае, может у тебя титан Х максвелл, тогда эта другая карта совсем и толку от 4-вэй слая мало, масштабируемость при переходе от двух карт к трём пантовая, а 4-я ваще почти для галочки и я тебе уже писал, и тут тебе писали если ты выкладываешь ролик геймплея для показа производительности, делай его с показателями МСИ АБ, чтобы было видно частота проца, чипа видяхи, потребление видеопамяти и оперативки, загрузка проца и видях, но ты всё равно выкладываешь только с показателями фрапса один фпс. Тебе мси АБ поставить религия не позволяет?
  • ТРИБУН Мышивурии написал:
    емпература верхней видяхи была в течение часа в очень требовательных играх 92C

    Когда 780Ti в Sli стояли, тоже нагрев верхней был. Решил проблему очумелыми ручками. Для нижней платы вырезал из листа алюминия так называемый "бэкплейт" и тупо положил его прямо на плату (текстолит) докупил в систему один вентилятор 80 мм и поставил его к ребрам видеокарт с той стороны откуда внутрь корпуса загонял свежий воздух корпусной куллер. В итоге в верхнюю карту попадал более менее холодный воздух, а не нагретый от нижней карты. Температура на уровне 75 была под нагрузкой тогда. Комп успешно проработал до продажи. Новому владельцу рекомендовал так и оставить, но он смотрел на меня как на дебила и всю эту систему забирать не стал. Что сейчас с той сборкой не знаю)
  • если рассматривать тинан зет как видеокарту то может быть она и была самой мощной до уровня 1070-80. но с тем же успехом был двойной 290 радеон. хотя преимущество титана доброе количество памяти на чип
    а по целесообразности пек-пек-пек. титан зет одна штука стоила дороже чем 2 титана с такими же чипами. карта 3х слойная и ее характеристик несколько ниже чем у обычного титана. выгодней было купить просто 4 обычных титана в тетра сли (во вторых если прибавить тута мат плату с плх аки асус х99 вс-е или асрок х99 экстрим 9 (что уместится в разницу 2х титанов зет против четых обычных на обычную мамку лга2011 и мамку за 30-40к) то каждая карта в отдельности получит еше преимущество сидения в своем жкспрессе и изолированного питания и охлаждения) и эта сборка была вполне жизнеспособной до некоторого времени пек-пек но скорей всего еще способна поультрамаксать игры где сли работает нормально
  • MunchkiN 616 написал:
    если рассматривать тинан зет как видеокарту то может быть она и была самой мощной до уровня 1070-80.

    титан зэт один хуже чем 780ти в слае, 780ти в слае уступает процентов 40 даже 980ти, до 1080 ей ваще как до Луны, если 2вэй слай ещё в играх работает, то прирост от 3-й и 4-й карты очень слабый
  • Steve Taller
    Я сделал видео? - Сделал
    Я показал настройки? - Показал.
    Я показал фпс? - Показал.
    Я показал производительность в очень тяжёлых играх? Показал. (где бы одна 1080ti отсосала по конски))))
    Я пользуюсь только фрэпсом. MsiAB, а так же GPU-Z помимо того, что показывают и частоты неправильно и объём видео памяти не 12, а 4Gb.
    Это ещё не всё.
    Из-за MSI-AB у меня вылеты в играх. Оно мне надо? Нет. Да и зачем? Фпс виден? Виден! Производительность шикарная для видях четырёхлетней давности. Что ещё нужно для счастья, Карло?)
  • Steve Taller
    Карло, смотрим ещё раз внимательно видео (там всё в 4K). А потом говорим кто кому уступил в играх)))))
  • Steve Taller написал:
    может у тебя титан Х максвелл

    ВАТ???? Ты лучше меня знаешь, что у меня в системе)))????????
    Такой отстой мне и даром не нужен, боярин!)
  • fatallezzz
    Решил проблему очумелыми ручками. Для нижней платы вырезал из листа алюминия так называемый "бэкплейт" и тупо положил его прямо на плату (текстолит) докупил в систему один вентилятор 80 мм и поставил его к ребрам видеокарт с той стороны откуда внутрь корпуса загонял свежий воздух корпусной куллер
    Мощно!)+++
    Я тоже так мутил! Я думал, что я один такой извращенец! Но оказывается что нет после твоего рассказа. Но мне этот способ не помог( По крайне мере хоть опыта набрался, да и время скоротал)
  • fatallezzz
    У меня в профиле фото, где видяхи с водянкой, а где нет. Жаль, что не сделал я фото, когда вырезал лист из алюминия и тоже расположил его на текстолит! (ещё до водянки)
  • W_A_R_P 73
    чудес не бывает, масштабируемость 4 вэй слая маленькая, на титане блэк в слае в 1080р ниже 60 кадров просадки, а у тебя в 4к 75 кадров, мси АБ пользуются миллионы, у одного тебя вылеты в играх. 1080ти кстати в 4к без сглажки тянет нормально, не нравится тебе мси аб, аидой тоже можно мониторить в играх
  • Steve Taller написал:
    то прирост от 3-й и 4-й карты очень слабый

    заблуждение. прирост всегда эн-кол-во-кратный если ниже возможностей обработки процесса и кеша очередности иными словами если придумать такое приложение где титан выдает 7фпс то 4 титана (а для совменных игр я думаю можно постарается нагрузить одну карту до 10-12 фпс) будут давать примерно 28 фпс при условии что у карт достаточный свободный буфер памяти и процессор в целом готов обслужить в 4 раза больше драв калл чем с одной видеокартой.
    повышение разрешение выше него предела свободной доступной пропускной способности экспресс и того контролера к которому подключается мостик однакож приводит к плохой масштабирумоести и увеличению тех самых задержек что условно буфер очередности. поэтому грузить надо чистым графонооом.
    другое дело подмечено что кросс фаер и сли в тетра работают порой не всегда хотя по идее должны работать через кадровым методом где эти задержки еще больше увеличиваются. но есть правело 30фпс и фулл чд пек-пек
  • MunchkiN 616 написал:
    где титан выдает 7фпс то 4 титана

    MunchkiN 616 написал:
    будут давать примерно 28 фпс

    Никогда ни Sli ни кросфайр не дадут Н-кратный количеству карт прирост. Даже если брать банальный SLI из двух карт. Грубо говоря одна карта это 100%, тогда в лучшем случае две карты в слай это будет 160%. Другими словами, если ты с одной картой имеешь 100 ФПС, это не значит что с двумя у тебя их будет 200 (их будет 160), а с 4-мя 400. И опять же повторюсь - это в лучшем случае. Практика и описание показывает, что SLI в большинстве случаев дает лишь 30-45% прироста, и то если приложение в принципе поддерживает технологию (коих на самом деле пока немного, а те что есть невсегда стабильны).
    Вот даже сейчас допустим, есть владельцы 1080 карт (без Ti). Согласно бенчмаркам (не знаю как на практике) 1080ti выдает на 30% лучше показатели.
    Владельцам 1080 намного целесообразнее обновиться до 1080ti и сидеть с одной картой, чем купить вторую 1080. И уж темболее куда целесообразнее будет взять следующее поколение карт (амперы? Вольты?) чем докупать вторую 1080.
  • fatallezzz
    могу привести в пример сказ про ведьмака 3 и жифорс 690 что есть 2 680 сидящих на одной экспресс (в моем случае 2.0 что сопоставимо с установкой 2х карт в распространенные системы на интел) и соединенных между собой на печатной что есть классический сли.
    в педмаке 3 на ультра настройках результат работы с включенным и отключенным сли примерно совпал с погрешностью в пару фпс 40-45 кадров против примерно 20-30 в сингл гпу. после манипуляций с травоном и увеличением нагрузки на гпу в результате этих манипуляций при более внимательном перестегивании участка производительность на гпу составила 15 фпс в сли соответственно 30 с погрешностью менее чем фпс. аналогичные результаты давали где нагрузка на гпу была форсирована. в том числе в ассаин кред 4 где нагрузка была форсирована принудительным 8х кратным сглаживанием альфа прозрачности = мсаах8 в игре и всем предельным соответственно до тех же 30 фпс и по 15 фпс на сингл гпу. по игровым движкам где была возможность использовать сли и опреацииям с тенями что довольно хорошо погружают гпу могу так же отметить двукратный прирост с погрешностью в пару фпс. и наболее старинных картах типа радеон 4870х2 та же история в ряде игр.
    как пример недавний элекс который сли не поддерживал на момент тестирования и был ввинчен в ручную так имеет приблизительный прирост в диапазоне 80-90% на второую видеокарту по причине А- слабого процессора и проблем по части платформы Б- нехватки видеопамяти у видеокарты что так же мной лично замечено при умеренной ее нехватки приводит к потере фпс особенно ощутимой в мульти гпу.
    4 гпу системы я в живую не тестировал но предполагаю что правело 30фпс там так же работает
    вывод. если притендовать на низкий фпс и разрешения фулл чд и подобное (ибо выше мной плохо изведаны) имеет смысл апгрейда в 2 видеокарты с большим количеством памяти нежели на одну видеокарту но которая не быстрее в 2 раза по результатам 1 слабой имеющейся карты. другое дело что объема памяти 1080 кажется недостаточной поэтому в долгосрочной перспективе само собой побеждает 1080ти. однако если бы у 1080 и 1080ти было по 16гб врам и была задача просидеть придельно долго на этой связке в рамках 30фпс и фулл чд выбор был бы за 2 мя картами.
    суть именно в том что карты да, действительно, не дают 100% прирост на скоростях выше примерно 40 до 60 и на скросостях выше прирост еще меньше так начинает вилять ряд посторонних факторов так и обстоятельства со стороны прогамной части приложения и проблем супер мульти параллелизма что будут проявляться если взять карту с очень большим количеством унифицированных блоков и бросить на расчет чего-то простого
  • Sli штука неплохая, я сам юзал их до мая 2017 г начиная с 2010, т.е. 7 лет был юзером связок, могу сказать что технология работает и во многих играх масштабируемость двух карт была почти 100%, но масштаб от перехода к 3 и 4 картам уже не такой и не каждый игровой движок может извлечь пользу от 3 и 4 карт, последние тайтлы 2016-2017 года вообще перестали дружить с многочипами и масштабируемость сильно упала либо есть игры где слай и кросс не пашут вовсе, тот же Квантум бряк, тот же АК ориджинс, тот же Agents of mayhem, mafia 3 и много других игр где эти фигки вовсе не пашут, все игры виндоус стор типа геарс оф вор и форз мотоспорт и т.д. не задействуют 2 карты, поэтому решил не заморачиваться и взять один топ, выйдет топовый ампер если разница с 1080ти будет 60 процентов и более то лучше взять ампера конечно
  • PCI-E x16 самый близкий к кулеру процессора .У меня расстояние между ним и видеокартой несколько миллиметров, хотя видеокарта толщиной 42 мм. И почему так делают, самый главный PCI-E x16 впритык . С апгрейдом замучаешься.
  • Steve Taller написал:
    чудес не бывает, масштабируемость 4 вэй слая маленькая, н

    fatallezzz написал:
    Практика и описание показывает, что SLI в большинстве случаев дает лишь 30-45% прироста, и то если приложение в принципе поддерживает технологию (коих на самом деле пока немного, а те что есть невсегда стабильны).
    Вот даже сейчас допустим, есть владельцы 1080 карт (без Ti). Согласно бенчмаркам (не знаю как на практике) 1080ti выдает на 30% лучше показатели.

    Ещё раз для тугодумов повторю видео. Там, где ваша 1080ti новой современности сливается по полной!



  • одна титан зет это я так понял подобие 1060 референтной а два это это пек-пек уже ровня 1080 шейдерного. на такой сборке можно нормально в фулл чд зарубится без сглажки
    а в играх где мгпу не держит само собой пук. а так же всякое на огл и вулкане скорей всего тут и обсуждать особо то нечего
  • MunchkiN 616 написал:
    одна титан зет это я так понял подобие 1060

    одна титан зет это хуже 780ти в слае процентов на 5-10
B
i
u
Спойлер