Видеоускоритель Gigabyte Aorus GeForce GTX 1080 Xtreme Edition 8G (8 ГБ): одно из самых выгодных на сегодня топовых решений

19.11.2020 0

Технические характеристики:

  • Модель: Gigabyte AORUS GeForce GTX 1080 Xtreme Edition 8G
  • Техпроцесс: 16 нм
  • Число транзисторов: 7,2 млрд
  • Количество ROP: 64
  • Количество текстурных блоков: 160
  • Количество CUDA-ядер: 2560
  • Частота ядра: 1784 (1936) МГц — OC mode, 1759 (1898) МГц — Gaming mode
  • Память: 2600 (10400) МГц — OC mode, 2550 (10206) МГц — Gaming Mode
  • Тип памяти: GDDR5X, 8 Гб
  • Интерфейс памяти: 256 бит
  • Уровень TDP: 250 Вт — OC mod, 230 Вт — Gaming mode
  • Питание: 8+8 Pin
  • Длина печатной платы: 265 мм
  • Длина с кулером: 288 мм
  • Толщина: 2,5 слота
  • Дополнительное питание: 2х 8-конт.
  • Вентиляторы: 3х 100 мм
  • Разъемы: 1х HDMI 2.0b, 3x Displayport, 1.3/1.4, 1x Dual-Link DVI
  • Цена: ~55 тысяч рублей

Из-за майнинг-лихорадки весьма сложно определить среднюю цену продукта в России — видеокарты попросту нет в наличии. Нигде. Если вдруг вы являетесь счастливым обладателем этой монструозной барышни, расскажите нам в комментариях, почем брали столь весомый товар.

Тестовый стенд

  • Материнская плата: ASUS X99-A II (BIOS 1504);
  • Процессор: Intel Core i7-5960X Extreme Edition «Haswell-E» 3000 МГц с разгоном до 4500 МГц при напряжении 1.28 В;
  • Система охлаждения: самосборная СЖО;
  • Термоинтерфейс: Arctic Cooling MX-2;
  • Оперативная память: 4 x 8 Гбайт Corsair Vengeance LED DDR4-3000 (CMU16GX4M2C3000C15R; 13-15-15-28 CR1);
  • Видеокарта: AORUS GeForce GTX 1080 Ti 11G /Nvidia GeForce GTX 1080 Ti 11 Гбайт GDDR5x
  • Блок питания: Corsair RM1000i мощностью 1000 Ватт;
  • Системный накопитель: SSD Samsung 850 Evo 250 Гбайт;
  • Корпус: Thermaltake Core X5 Riing Edition.

Программное обеспечение:

  • Операционная система: Windows 10 x64 «Профессиональная» со всеми текущими обновлениями с Windows Update;
  • Драйвер видеокарт: Nvidia GeForce Game Ready Driver WHQL 381.89.



Архитектура, внешность и система охлаждения

GPU GP104, 7,2 млрд транзисторов в кристалле 16-нм техпроцесс — структурой и возможностями модель от Gigabyte не отличается от прочих видеокарт GTX 1080. Различия заключаются в частотах: обычная GTX 1080 имеет базовую частоту 1607 МГц, а Aorus — 1898 МГц. Такое значение у видеокарты в режиме Gaming, который включен по умолчанию. Стоит включить Silent и частота опустится, а включите OC — и она возрастет до 1784 (1936) МГц. Память, разумеется, тоже изменяет показатели в зависимости от режима. Скажем, в штатном у Aorus наблюдается 2500 МГц, в ОС — 2600 МГц, а в Gaming — 2550 МГц. В остальном архитектура AORUS GeForce GTX 1080 Xtreme Edition не представляет для обычного геймера никакого интереса.

Пусть видеокарта и соответствует формату АТХ, маленькой ее не назовешь: 288 мм в длину, 2,5 слота в толщину. Пышновато, конечно, но с трио настолько массивных кулеров и движком, скрепленным с крестовиной над средней вертушкой по-другому никак. Кстати, на этой же крестовине расположена RGB LED-подсветка. Выглядит приятно, особенно из счет панели из оргстекла, которая рассеивает свет, делая иллюминацию равномерной.

Каждая из вертушек фирменной системы охлаждения WindForce Stack 3X имеет диаметр в 100 мм, что привело к смещению среднего Карлсона вниз и уменьшению толщины его крыльчатки. Интересно и то, что средний кулер вертится в обратную сторону для увеличения воздушного потока. Вся троица вращается с предельной скоростью в 1780 об/мин, но при температуре ниже 42 °C система охлаждения прекращает работу, что визуализируется индикатором Fan Stop. При нагреве GPU до 53 °C работа возобновляется. Для максимальной эффективности системы охлаждения вертушки дополняются алюминиевым радиатором, шестью теплоотводящими трубками весьма крупного размера и множеством медных прокладок, а также несколькими пластинами — тоже для теплоотвода. Вся эта красота в связке работает крайне эффективно.

Слабо представляю, кому из даже хардкорных геймеров потребуется собирать систему на основе двух и уж тем более четырех Aorus. Возможностей одной видеокарты хватит за глаза, как показывают тесты. Однако компания предоставила для энтузиастов два разъема SLI для сборки multi-GPU до четырех видеокарт — так сказать, не сдерживайся и доминируй.

К слову о доминировании: за счет 3x DisplayPort 1.3/1.4, 1x HDMI 2.0b и 1x Dual-Link DVI можно собрать компьютер с несколькими мониторами, причем любыми из доступных на рынке. Тоже относится и к VR-системам, специально для которых имеются два дополнительных разъема HDMI, называемых самой Gigabyte как VR Link. Полезная функция, ведь длина проводки у того же Oculus Rift ограничена, а с помощью модуля 5,25” и комплектных кабелей оба выхода HDMI легко выводятся на лицевую панель системника.

Дизайн и особенности видеокарты

После ознакомления с коробкой и комплектацией нашим глазам представляется сама видеокарта.

Благодаря своеобразной компоновке вентиляторовинженеры компании Gigabyte смогли добиться впечатляющих результатов — фирменная система охлаждения WINDFORCE с тремя 100 мм вентиляторами имеет длину всего 290 мм. Этого удалось достигнутьс помощью углубления среднего вентилятора, в следствии чего остальные два вентилятора нависают над ним. Средний вентилятор крутится в противоположную сторону, что на практике должно увеличить воздушный поток без изменения количества оборотов вентилятораи, как следствие, шума.

Герой нашего обзора имеет достаточно большой радиатор и кожух вентиляторов, что сказалось на толщине видеокарты — она занимает практически три слота. На лицевой части так же расположен логотип и название линейки AORUS, имеющий RGB-подсветку, а также надпись FAN STOP, которая подсвечивается во время остановки вентиляторов.

Видеокарта обладает стильной задней укрепительной пластиной, на которой также располагается символика AORUS, но, к сожалению, наша версия видеокарты не имеет ееподсветки. В районе графического процессора располагается медная вставка, которая должна благоприятно сказаться на охлаждении ядра видеокарты, отводя некоторое количество тепла от печатной платы. Каких-либо защитных пломб на винтах видеокарты нет.

Хочется отметить и количество видеовыходов у видеокарты: триDisplayPort (версия 1.4), два HDMI (версия 2.0) и разъем DVI-D (который, как мы помним, на референсном варианте GTX 1080 Ti отсутствует). Единственное ограничение — если к разъему DVI-D подключен монитор, то становится невозможным использовать выход HDMI, выделенный красной рамкой.

В дополнении к этому на противоположной стороне видеокарты есть еще один HDMI (версии 2.0) для вывода на переднюю панель компьютера и подключения шлемов виртуальной реальности.

При всем этом видеокарта имеет достаточно скромные размеры -293х142х55 мм. Это обеспечивает совместимость с большим количеством корпусов.


Шумим и греемся: уровень шума, температуры и энергопотребления

Несмотря на размеры и мощность видеокарты, уровень шума удивительно маленький: 39.4 дБ. Мало, очень мало по сравнению с GTX 1080 Founders Edition (42.6 дБ) и GTX 980 Ti (48.1 дБ). При бездействии (температура ниже 42 °C) вертушки вырубаются автоматически, поэтому уровень шума — 0 дБ. Да, Gigabyte сделала очень тихую систему охлаждения, но эффективную ли?

Да, бесспорно. Хоть при бездействии температура у AORUS GeForce GTX 1080 Xtreme Edition выше, чем у Radeon R9 Fury X (42 °C против 32 °C), под нагрузкой разница между очень существенная. AORUS греется в среднем до 69 °C, тогда как GTX 1080 Founders Edition выдает 84 °C при аналогичной нагрузке. Лучше нашего гостя охлаждается всего несколько видеокарт с совсем уж монструозными системами охлаждения или вообще водянками вроде ZOTAC GeForce GTX 1080 ArcticStorm.

С энергопотреблением ситуация тоже занятная. Бездействующая AORUS GeForce GTX 1080 Xtreme Edition потребляет 134 Вт, что практически не отличается от большинства GTX 1080 — диапазон буквально в несколько ватт. Зато под нагрузкой показатели сильно разнятся. Скажем, GTX 1080 Founders Edition потребляет 330 Вт. Наш же гость кушает 359 Вт. Казалось бы, небольшой разрыв, но при очень активном ежедневном гейминге и счете за электричество в месяц разница чувствуется мгновенно. Впрочем, назвать энергопотребление чрезмерным тоже нельзя.

GTX 1080 SLI vs GTX 1080Ti vs RTX 2080 — тестируем с полной нагрузкой

Здравствуйте, уважаемые читатели сайта Uspei.com. Сразу к делу: четыре видеокарты, топовый процессор, разрешение 4К и много тестов. Это всё ждет вас в сегодняшнем выпуске. А цифры вас удивят. Обещаю!

Как вы уже поняли из названия статьи, сегодня мы тестируем SLI из двух GTX 1080, топ прошлого поколения GTX 1080Ti и новинку этого года RTX 2080. Я записал более 100 гигабайт видео с тестами и бенчмарками в играх, потратив более недели на анализ результатов.

Многие писали, что новое поколение видеокарт слишком дорогое и не дает того прироста производительности, который обещала NVIDIA. И тут я полностью согласен. И звучали совершенно бредовые идеи, но одна из них ввела меня в ступор. Поэтому я решил проверить ее на практике.

Условия тестирования

Это предложение взять вместо одной 2080 две 1080 в SLI. Конфигурация тестовой машины у вас на экране, проговаривать все это смысла не вижу. Скажу только, что система установлена на SSD HyperX Savage, а игры я запускал с NVMe от ADATA.

Блок питания я взял с большим запасом. Попался мне на глаза майнерский вариант Kenweiipc на 1300 Вт с сертификацией 90 Plus Gold. И да, производитель заявляет максимальный КПД до 92%. Его для SLI из двух 1080 хватит с головой. А система с остальными видеокартами не потребляет больше 500 Вт.

Перейдем к описанию тестового процесса. Разрешение 4К, настройки во всех играх Ultra или очень высокие, результаты по всем играм подводились после 5 итераций с подсчетом среднего значения.

Смотрите также: Я собрал КОСМОЛЁТ на AMD!!!

На последней сборке Windows связка SLI работала нестабильно, поэтому было принято решение откатить её до версии 17124.

Во всех играх DirectX использовался 11 (одиннадцатый), так как в 12 (двенадцатой) версии сбоило и вылетали ошибки.

Так как мой клевый монитор LG с разрешением Full HD, самое время воспользоваться функцией Динамического Супер Разрешения (DSR).

В настройках NVIDIA Inspector для сетапа из двух 1080 было принудительно включено использование обеих видеокарт для всех игр.

Assassin’s Creed Origin

Средний показатель кадров для 1080 SLI — 34 кадра, что сильно уступает двум другим картам. Между 1080 Ti и 2080 разницы в результатах практически нет. И это вы будете наблюдать почти во всех тестах. По показателю 1% и 0.1% (ноль одной целой и одной десятой процента) у двух 1080 большие проблемы, и о плавности игры можно в целом забыть. Но, стиснув зубы, пройти игру на большом 4К-телевизоре вполне реально.

Battlefield 1

Каково было моё удивление, когда SLI сетап обошел флагмана прошлого года и предтопа этого. 79 кадров в среднем, против 73 и 69. Однако обратите внимание на frame time. Он очень нестабилен, картинка выходит дерганной и рваной. Поэтому создается впечатление, будто играешь при 30 FPS.

Final Fantasy XV

Тестировалась только сцена боя. И опять же, консольный frame rate для двух 1080 и преимущество двух других видеокарт в среднем на 25%. По окончательным баллам бенчмарка 1080 SLI набрал 3089 очков, GTX 1080 Ti — 4303, RTX 2080 всего на 1% больше, что в пределах погрешности.

PlayerUnkNowns BattleGround

SLI в PUBG работает очень плохо. Поэтому разница с GTX 1080 Ti почти двукратная. Что удивило, что в той же локации минимальный FPS у GTX 1080 Ti был на 10-15% больше по сравнению с RTX 2080, а вот редкие просадки были серьезнее. Поэтому медаль первенства они снова делят.

Смотрите также: Новый iPhone XI — ВОТ ЭТО НОВОСТИ!

Новая тень Лары Крофт

Для RTX была включена функция Ray Tracing, поэтому часть её мощностей обрабатывали еще тени и блики. Если ее выключить, то разница между картами снова исчезнет. А для SLI ситуация всё та же – пасёт задних, в надежде отыграться в «Ведьмаке».

«Ведьмак 3»

Игра очень хорошо оптимизирована, и об этом все прекрасно знают. И тут как раз SLI вырывается вперед и обходит 1080 Ti на 15%, а RTX на целых 20. Но значения редких и очень редких событий для всех видеокарт в пределе погрешности.

Ghost Recon Wildlands

В этой игре в панели NVIDIA для SLI необходимо активировать альтернативный режим визуализации второго типа. Но и это сильно не помогло. Хоть по среднему показателю frame rate выше, редкие и очень редкие события прыгали от 4 до 11. На двух других картах хоть и консольный FPS на 4К, однако всё было плавно и без заметных фризов и статеров.

Что касается общего потребления системы с разными видеокартами, то можно сказать, что чип видеокарты RTX 2080 сделали более энергоэффективным. С ней весь ПК потреблял не больше 350 Вт. С GTX 1080 Ti немного больше – около 400 Вт в пике. Однако для связки из двух 1080 готовьте блок питания мощностью не меньше 800 Вт. И учтите, что для двух видеокарт, установленных в соседних слотах расширения, необходим хорошо продуваемый корпус. А это дополнительные затраты.

Общий итог

Подведу итог по каждому варианту. Если у вас уже есть видеокарта десятой серии, она выше уровня GTX 1060, и вы играете в 4К только в «Ведьмака» и Battlefield, то можете докупить вторую видеокарту для SLI-сетапа. Хотя это все равно глупо. GTX 1080 Ti не умерла, не отошла на второй план и до сих пор, по моему мнению, является избыточной для разрешения 1080.

Смотрите также: Новые слухи о видеокартах NVIDIA Ampere

К тому же мы наглядно увидели, что разницы с RTX 2080 по frame rate у неё нет. Тогда зачем платить больше? Сейчас RTX 2080 стоит 1200 долларов. Тогда как топовые модели GTX 1080 Ti – около 850. Нас уверяют, что за Ray Tracing будущее, но стоит ли оно такой переплаты сейчас – решать вам.

4

Теги: видеокарты

До встречи! Успевайте всё и всегда на страницах блога Uspei.com

Помоги проекту — подпишись на наш Яндекс.Дзен канал!