Огляд і тестування відеокарти NVIDIA GeForce GTX 1080 Founders Edition на базі NVIDIA Pascal
19-06-2016
Перше покоління 28-нм мікроархітектури NVIDIA Maxwell було представлене 18 лютого 2014 року в моделях NVIDIA GeForce GTX 750 і NVIDIA GeForce GTX 750 Ti. Очікувалося, що через півроку вийде друге її покоління, але вже на основі 20-нм техпроцесу. І дійсно, 18 вересня 2014 року дебютувало друге покоління NVIDIA Maxwell у високопродуктивних моделях NVIDIA GeForce GTX 970 і NVIDIA GeForce GTX 980. Ось тільки використовували вони все той же 28-нм техпроцес. Чи то NVIDIA з самого початку не планувала переходити на 20 нм, чи то в TSMC виникли труднощі з освоєнням нової технології, чи то AMD не здивувала рівнем продуктивності конкурентних аналогів. Одним словом, протягом двох років на ринку домінувала 28-нм мікроархітектура NVIDIA Maxwell.
Згідно з дослідженнями аналітичної компанії Jon Peddie Research, саме в 2014 році позиції AMD на ринку десктопної графіки (включаючи інтегровану графіку в APU) опустилися нижче 20%. А от крива NVIDIA показала висхідну тенденцію. Тобто ставка на зниження енергоспоживання з одночасним підвищенням швидкодії повністю себе виправдала. Особливо в мобільних системах, де NVIDIA повністю переграла AMD за кількістю успішних дизайнів.
Але індустрія поспішає вперед, і компанія TSMC уже успішно освоїла 16-нм технологію FinFET. Intel і Samsung розібралися з 14-нм FinFET для виробництва складних чіпів, таких як центральні або графічні процесори. Одним словом, 2016 рік – час чергового зіткнення в деяких сегментах. У цьому випадку – на ринку відеокарт. Позиції NVIDIA буде відстоювати мікроархітектура NVIDIA Pascal. Конкуренцію їй складуть 14-нм AMD Vega у сегменті Hi-End, а також AMD Polaris у категоріях Middle-End і Performance. Тобто літо та осінь обіцяють бути жаркими й напруженими. Знайомство з NVIDIA Pascal ми почнемо з топового на даний момент представника – NVIDIA GeForce GTX 1080. Для початку давайте порівняємо між собою поточне та нове покоління графічних адаптерів компанії NVIDIA:
Модель |
NVIDIA GeForce GTX 970 |
NVIDIA GeForce GTX 1070 |
NVIDIA GeForce GTX 980 |
NVIDIA GeForce GTX 1080 |
NVIDIA GeForce GTX 980 Ti |
Техпроцес, нм |
28 |
16 FinFET |
28 |
16 FinFET |
28 |
GPU |
NVIDIA GM204-200-A1 |
NVIDIA GP104-200-A1 |
NVIDIA GM204-400-A1 |
NVIDIA GP104-400-A1 |
NVIDIA GM200-310-A1 |
Мікроархітектура |
NVIDIA Maxwell 2.0 |
NVIDIA Pascal |
NVIDIA Maxwell 2.0 |
NVIDIA Pascal |
NVIDIA Maxwell 2.0 |
Площа кристала, мм2 |
398 |
314 |
398 |
314 |
601 |
Кількість транзисторів, млрд. |
5,2 |
7,2 |
5,2 |
7,2 |
8,0 |
Кількість CUDA-ядер |
1664 |
1920 |
2048 |
2560 |
2816 |
Кількість текстурних блоків |
104 |
120 |
128 |
160 |
176 |
Кількість растрових блоків |
56 |
64 |
64 |
64 |
96 |
Базова / динамічна частота GPU, МГц |
1050 / 1178 |
1506 / 1683 |
1127 / 1216 |
1607 / 1733 |
1000 / 1076 |
Тип відеопам'яті |
GDDR5 |
GDDR5 |
GDDR5 |
GDDR5X |
GDDR5 |
Об’єм, ГБ |
4 |
8 |
4 |
8 |
6 |
Ефективна частота пам'яті, МГц |
7 012 |
8 008 |
7 012 |
10 008 |
7 012 |
Розрядність шини, біт |
256 |
256 |
256 |
256 |
384 |
Пропускна здатність, ГБ/с |
224,4 |
256,3 |
224,4 |
320 |
337 |
Обчислювальна потужність, TFLOPS |
3,494 |
5,783 |
4,616 |
8,228 |
5,632 |
TDP, Вт |
148 |
150 |
165 |
180 |
250 |
Рекомендована вартість на старті продажів, $ |
329 |
379/ 449 |
549 |
599/ 699 |
649 |
Як бачимо, загальна тенденція до збільшення продуктивності та зменшення енергоспоживання збереглася. Наприклад, NVIDIA GeForce GTX 1070 за обчислювальною потужністю номінально перевершує NVIDIA GeForce GTX 980 Ti, а рівень її TDP на 100 Вт нижчий. У свою чергу NVIDIA GeForce GTX 1080 на 78% поліпшила показник рівня продуктивності в порівнянні зі своїм попередником. А її тепловий пакет при цьому зріс лише на 9%. Досягненню цього сприяло як поліпшення в мікроархітектурі, так і ряд технологій. Більше того, NVIDIA додала і деякі цікаві функції (наприклад, HDR або Ansel), які прямо не впливають на швидкість обчислень, але роблять занурення у віртуальний світ комп'ютерної графіки ще яскравішим і приємнішим. Про них ми і поговоримо далі.
Мікроархітектура та нові технології
Оскільки NVIDIA Pascal зробив величезний стрибок з 28-нм технології на 16-нм FinFET, то вносити кардинальні зміни в його структуру компанія NVIDIA не стала. До того ж NVIDIA Maxwell відмінно себе показала як у плані продуктивності й балансування навантажень, так і в питанні енергоефективності, тому рішення лише дещо доробити цей дизайн цілком логічне.
Структурна схема графічного процесора NVIDIA GP100
На даний момент графічний процесор NVIDIA GP104, який і лежить в основі NVIDIA GeForce GTX 1080 і NVIDIA GeForce GTX 1070, є другим по старшинству після NVIDIA GP100. Схожу ситуацію ми спостерігали й у сімействі NVIDIA Maxwell: NVIDIA GM204 використовувався для відеокарт NVIDIA GeForce GTX 970 і NVIDIA GeForce GTX 980, а NVIDIA GM200 – для NVIDIA GeForce GTX 980 Ti і NVIDIA GeForce GTX TITAN X. Однак є й одна важлива різниця: NVIDIA GP100 встановлений у професійному прискорювачі NVIDIA Tesla P100 для дата-центрів, і у своїй структурі він використовує спеціальні CUDA-ядра для обчислень подвійної точності (FP64) поряд зі звичайними. В іграх і більшості повсякденних програмах вони не задіяні, тому особою користі від них немає. Існує поки неофіційна версія про наявність GPU NVIDIA GP102. Імовірно саме він ляже в основу відеокарти NVIDIA GeForce GTX 1080 Ti і нової моделі серії NVIDIA GeForce GTX TITAN.
Структурна схема графічного процесора NVIDIA GP104
Структурна схема графічного процесора NVIDIA GM204
Структурна схема кластера TPC в NVIDIA GP104 (ліворуч) і NVIDIA GM204 (праворуч)
Структурно графічний процесор NVIDIA GP104 розбитий на чотири обчислювальні кластери (Graphics Processing Cluster (GPC)), як і NVIDIA GM204. Однак перехід на більш тонкий техпроцес дозволив збільшити кількість потокових мультипроцесорів (Streaming Multiprocessor (SM)), тому в новинки у кожному GPC використовується по п'ять SM-блоків замість чотирьох в NVIDIA GM204.
Уже традиційно SM-блок разом із рушієм PolyMorph Engine об'єднані в Texture Processor Cluster (TPC). Структура TPC в NVIDIA GP104 практично не змінилася в порівнянні NVIDIA GM204. Ключова відмінність полягає в інтеграції четвертого покоління PolyMorph Engine із блоком Simultaneous Multi-Projection, якого не було раніше.
Якщо ми пірнемо ще глибше в мікроархітектуру й заглянемо в SM-блок, то побачимо, що він включає до свого складу 4 планувальника (Warp Scheduler), 128 CUDA-ядер, регістровий файл загальним об’ємом 256 КБ, кеш-пам'ять L1 об’ємом 48 КБ і 8 текстурних блоків – тут усе без змін.
Загальна структура контролера пам'яті дещо змінилася - замість чотирьох 64-бітних використовуються вісім 32-бітних, але в загальному рахунку одержуємо ту ж 256-бітну шину, що й в NVIDIA GM204. Для більш наочного сприйняття давайте зведемо всю згадану інформацію в одну таблицю:
Відеокарта |
NVIDIA GeForce GTX 1080 |
NVIDIA GeForce GTX 980 |
Графічний процесор |
NVIDIA GP104-400 |
NVIDIA GM204-400 |
Техпроцес, нм |
16 FinFET |
28 |
Площа кристала, мм2 |
314 |
398 |
Загальна кількість транзисторів, млрд. |
7,2 |
5,2 |
Кількість кластерів GPC |
4 |
4 |
Кількість кластерів TPC |
20 |
16 |
Кількість SM-блоків |
20 |
16 |
Кількість CUDA-ядер |
2560 |
2048 |
Кількість текстурних блоків |
160 |
128 |
Кількість растрових блоків |
64 |
64 |
Об’єм кеш-пам'яті L2, КБ |
2048 |
2048 |
Швидкість вибірки текстур, гігатекселів/с |
257,1 |
144,3 |
Швидкість зафарбування, гігатекселів/с |
102,8 |
72,1 |
NVIDIA GPU Boost 3.0
Після короткого занурення в мікроархітектуру, давайте розглянемо найцікавіші технології, які дебютують в NVIDIA Pascal. Перша на черзі – технологія динамічного розгону NVIDIA GPU Boost 3.0. Вона дозволяє в індивідуальному порядку одержати більш високі показники тактових частот. Принципова відмінність від GPU Boost 2.0 полягає в більшому контролі з боку користувача. Раніше зсув динамічної частоти щодо номінальної швидкості GPU було строго фіксованим. Але ж можливості кожного графічного процесора, тобто максимальні частотні криві в рамках заданих температурних рамок, різні. Наприклад, одні можуть підвищувати швидкість від 1733 до 2000 МГц, а інші – від 1733 до 1800 МГц. Тому GPU Boost 3.0 дозволяє задати зсув частоти в турборежимі для кожного окремо взятого графічного процесора й на всьому проміжку можливих напруг.
Для цього в утилітах для оверклокінгу додана відповідна функція. На першому етапі роботи вона протестує встановлену в системі відеокарту й складе для неї індивідуальну криву максимально можливих динамічних частот для кожної заданого напруги. На другому етапі користувач в автоматичному або в ручному режимі вказує оптимальні показники динамічних частот, щоб вони використовували можливості поточного GPU по максимуму, але не перевищували безпечних температурних рамок.
GDDR5X
Використання HBM у моделях лінійки AMD Radeon R9 FURY дозволяє суттєво поліпшити продуктивність підсистеми відеопам'яті. Але разом із тим це підвищує складність виготовлення графічного процесора і його кінцеву вартість. Тому NVIDIA приберегла стандарт HBM2 для GPU NVIDIA GP100 (і, можливо, NVIDIA GP102), а от в NVIDIA GP104 інтегрований контролер з підтримкою стандартів GDDR5X і GDDR5. Перший тип пам'яті призначений для NVIDIA GeForce GTX 1080, другий – для NVIDIA GeForce GTX 1070.
Коротенько нагадаємо, що стандарт GDDR5X дозволяє передавати чотири біти даних за такт (Quad Data Rate) замість двох (Double Data Rate) в GDDR5. Також з 8n до 16n збільшилася попередня вибірка даних (prefetch). У результаті пропускна здатність інтерфейсу на контакт збільшилася з 7-8 до 10-12 Гбіт/с. Для використовуваної пам'яті GDDR5X у моделі NVIDIA GeForce GTX 1080 цей показник саме й становить мінімальні 10 Гбіт/с. У наступних поколіннях мікросхем планується довести його до 16 Гбіт/с. Але навіть показник в 10 Гбіт/с на контакт дозволив збільшити пропускну здатність пам'яті нової відеокарти до 320 ГБ/с при 256-бітній шині, що потребувало змін у дизайні контролера пам'яті й друкованої плати. Нагадаємо, що в NVIDIA GeForce GTX 980 цей параметр становить 224,4 ГБ/с при аналогічній розрядності шини. А в NVIDIA GeForce GTX 980 Ti – 336 ГБ/с при 384-бітній шині.
До інших ключових переваг GDDR5X належить збільшений максимальний об’єм однієї мікросхеми (з 8 до 16 Гбіт), що дозволяє реалізувати більшу загальну ємність підсистеми відеопам'яті при однаковій кількості чіпів, і зменшену напругу живлення (з 1,5 до 1,35 В), що веде до підвищеної енергоефективності. До того ж у стандарті прописана необхідність керування швидкістю мікросхем пам'яті від рівня їх температури. Теоретично, це повинно підвищити увагу розробників до ефективності охолодження чіпів пам'яті.
Memory Comptression
Збільшена пропускна здатність пам'яті – це велика перевага, але додатковий бонус до швидкості роботи підсистеми відеопам'яті та відеокарти в цілому забезпечує четверте покоління методу компресії на основі різниці кольору (Delta Color Compression). Суть його роботи полягає у виявленні груп пікселів з мінімальною відмінністю у кольорі. А потім вони кодуються за допомогою двох показників: базового кольору та різниці (дельти) між базовим і реальним кольором.
Третє покоління цієї технології використовувалося в NVIDIA Maxwell. У порівнянні з ним NVIDIA Pascal поліпшив алгоритм стиснення 2:1, а також додав режими 4:1 і 8:1. Якщо ж у зображенні використовується дуже багато різних відтінків, то стиснення може й не виконуватися.
Оригінальне зображення (ліворуч), стиснення в NVIDIA Maxwell (по центру), стиснення в NVIDIA Pascal (праворуч)
Для наочної демонстрації переваг роботи рушія Pascal Memory Compression Engine над Maxwell Memory Compression Engine компанія NVIDIA використовувала кадр із гри Project CARS. Пурпурним кольором зафарбовані області зображення, які вдалося стиснути. У результаті цієї процедури зменшується об’єм даних, які циркулюють між пам'яттю, кешем L2, текстурними блоками, буфером кадру й іншими блоками графічного процесора. У цифровому еквіваленті рушій Pascal Memory Compression Engine додає 20% до показника пропускної здатності, теоретично збільшуючи його до 384 ГБ/с.
У цілому поєднання більш високої пропускної здатності GDDR5X-пам'яті та поліпшених алгоритмів стиснення інформації забезпечують приріст продуктивності підсистеми відеопам'яті NVIDIA GeForce GTX 1080 відносно NVIDIA GeForce GTX 980 на рівні 70%.
Async Compute: Dynamic Load Balancing і Pixel Level Preemption
До вересня 2015 року багато хто навіть і не підозрював про технологію асинхронних обчислень (Async Compute) і її вплив на підсумкову продуктивність комп'ютера, оскільки API DirectX 11 її попросту не використовує. А от в DirectX 12 розробники можуть застосовувати її для оптимізації задіяних ресурсів. Справа в тому, що при рендерингу ігрової сцени комп'ютер прораховує безліч складних ефектів (тіні, світло, фізику поведінка об'єктів, алгоритм роботи AI й інші). В DirectX 11 він це робить у послідовному режимі, крок за кроком, тому затримка на одному етапі гальмує весь процес. А в DirectX 12 з'явилася можливість паралельного обчислення. Наприклад, одна частина системи займається складним розрахунками ефектів світла, а інша тим часом обробляє поведінку AI або займається іншими стадіями підготовки зображення. Такий сценарій відмінно ілюструє роботу однієї зі складових частин Async Compute – технології динамічного балансування навантажень (Dynamic Load Balancing).
В NVIDIA Maxwell використовується статичне балансування, при якому одна частина ресурсів виділяється на графічні завдання, інша – на обчислювальні. Якщо, наприклад, перша впоралася зі своєю роботою швидше, то вона якийсь час простоює без навантаження. Динамічне балансування в NVIDIA Pascal використовує всіма улюблений принцип: хто впорався швидше, той допомагає відстаючому. У результаті багато завдань вирішуються більш оперативно.
Другий варіант використання асинхронних обчислень – технологія Pixel Level Preemption – відмінно підійде для тих завдань, які слід робити або вчасно, або не робити взагалі. Наприклад, вона допомагає реалізувати алгоритм Asynchronous TimeWarp (ATW) в VR-шоломах. Системи віртуальної реальності самі по собі вимагають багато обчислювальних ресурсів, а користувач своїми різкими обертаннями головою додає навантаження на графічний процесор, адже зміна її положення в просторі вимагає обробки вже іншого кадру. Тому якщо система не встигла вчасно закінчити прорахунок кадру до його виведення на екран, то він втрачає свою актуальність і обчислювальні ресурси необхідно направити на інші завдання. У такій ситуації технологія Pixel Level Preemption перерве його рендеринг, при необхідності вивантажить результат в пам’ять і займеться іншим завданням.
Simultaneous Multi-Projection
При погляді на мікроархітектуру ми згадували, що ключова відмінність у схемі кластера TPC між NVIDIA Pascal і NVIDIA Maxwell полягає в інтеграції четвертого покоління PolyMorph Engine із блоком Simultaneous Multi-Projection. Він відповідає за реалізацію однойменної технології, суть роботи якої зводиться до достовірного проектування геометричних 3D-об'єктів на плоских екранах залежно від кута перегляду.
Проекція в одній площині (ліворуч), некоректна проекція в кількох площинах (по центру), коректна проекція завдяки Simultaneous Multi-Projection
Монітор – це наше вікно в світ 3D-графіки. На одному екрані ми можемо спостерігати дуже якісну 3D-картинку. Але якщо встановити, наприклад, три екрани зі зсувом один щодо іншого, то картинка буде й далі оброблятися лише в одній проекції, а дивитися на неї ми вже будемо під трьома різними кутами. У такому випадку створюється враження, що достовірна геометрія реалізована лише на центральному екрані, розташованому перпендикулярно погляду користувача. А от бічні дисплеї будуть спотворювати картинку. Саме в цьому випадку Simultaneous Multi-Projection забезпечить коректність сприйняття.
Інший приклад використання цієї технології – VR. Вона вирисовує геометрію для правого та лівого ока одночасно за один прохід, що забезпечує підвищений рівень продуктивності для шоломів віртуальної реальності. Додатково вона дозволяє оперувати меншим об’ємом даних, знижуючи необхідну для комфортного сприйняття роздільну здатність зображення в Oculus Rift з 4,2 до 2,8 Мп. Це трансформується в економію обчислювальних ресурсів і часу на їхню обробку. У результаті NVIDIA Pascal демонструє відмінну продуктивність в VR-бенчмарках.
Апаратне декодування відео та HDR
Мікроархітектура NVIDIA Pascal принесла із собою поліпшення в блоці виведення зображення на екран. Наприклад, з'явилася можливість апаратного кодування та декодування відеопотоку в HEVC із глибиною кольору 10 або 12 біт на канал, поліпшене декодування H.264 і деяких інших стандартів.
Однак справжнім проривом обіцяє стати High Dynamic Range (HDR). Монітори з її підтримкою можуть відтворювати 75% видимого колірного спектру, що у два рази більше, аніж у сучасних екранів. Максимальна яскравість у них збільшиться до 1000 кд/м2 (зараз – 250 – 350 кд/м2), а статична контрастність – до 10 000:1 (зараз 1 000:1 для TN і IPS, 3 000:1 для VA).
Відео та ігри для HDR обіцяють буяння фарб і справжній бенкет для очей. Тому якщо ви в найближчій перспективі планували купувати новий монітор, то радимо почекати виходу HDR-сумісних моделей, які повинні дебютувати до кінця року.
Fast Sync
Показники в грі Counter-Strike: Global Offensive
У присвяченому технології NVIDIA G-SYNC матеріалі ми докладно розібралися в недоліках роботи технології вертикальної синхронізації (V-SYNC On). Найбільші проблеми вона створює любителям динамічних ігор і онлайн-проектів, де висока частота кадрів сприяє низьким затримкам у зміні ігрової обстановки. Тому багато користувачів попросту вимикали її й не звертають увагу на можливі розриви кадрів. У якості альтернативи NVIDIA Pascal пропонує технологію Fast Sync, яка дозволяє усунути артефакти зображення й зберегти порівняно низькі затримки виведення кадрів на екран.
У чому ж полягає її суть? По-перше, увесь ланцюжок підготовки кадру умовно ділиться на дві незалежні частини. У першу входить ігровий рушій, драйвер і графічний процесор. Їхнє завдання – забезпечувати максимально швидкий рендеринг кожної сцени, незалежно від частоти оновлення екрану. Тобто успадковується принцип роботи з вимкненою вертикальною синхронізацією (V-SYNC Off). За умовною пунктирною рискою на малюнку знаходиться друга частина – первинний буфер (Front Buffer), вторинний буфер (Back Buffer), буфер LRB (Last Rendered Buffer) і сам екран. Ця частина вже орієнтується на частоту оновлення екрану, щоб кадр виводився цілком, без яких-небудь розривів. Тобто успадковується принцип роботи V-SYNC On.
Уся система взаємодіє наступним чином: після рендерингу готовий кадр потрапляє в Back Buffer, який відразу ж після цього міняється іменами з Last Rendered Buffer, щоб графічний процесор мав місце для зберігання нового кадру (зміна іменами заміняє процес копіювання). Тобто Back Buffer одержує готовий кадр для виведення на екран і стає Last Rendered Buffer, а Last Rendered Buffer стає Back Buffer і готовий до прийому нового кадру від графічного процесора. Як тільки монітор запитує новий кадр, відразу ж Last Rendered Buffer з готовим зображенням міняється іменами з Front Buffer, оскільки саме з нього інформація подається на екран. Таким чином, GPU може обробляти кадри з максимально можливою швидкістю, а карусель між трьома буферами гарантує, що вони не пропадуть безвісти й на екран буде виводиться потрібний кадр без великих затримок і розривів. От тільки Fast Sync ефективно працює для тих ігор, у яких швидкість відтворення вища за частоту оновлення екрану. Для звичайних моніторів вона становить 60 Гц. Якщо рівень FPS вище 60, тоді є зміст використовувати Fast Sync. Якщо нижчий, тоді плавність картинки забезпечить NVIDIA G-SYNC.
Multi-GPU
Якщо ви плануєте використовувати кілька графічних адаптерів NVIDIA Pascal у режимі NVIDIA SLI, особливо для підтримки екранів з високими роздільними здатностями, тоді вам просто необхідний новий місток High Bandwidth SLI Bridge (SLI HB Bridge).
На відміну від стандартного, він використовує обидва SLI-конектори на друкованій платі відеокарти. Також із 400 до 650 МГц підвищилася частота роботи комбінованого SLI-інтерфейсу. У результаті суттєво зростає його пропускна здатність, що й дозволяє реалізувати комфортну підтримку 4K- і 5K-екранів.
І ще один важливий момент: тепер компанія NVIDIA не радить використовувати 3 або 4 відеокарти в режимі NVIDIA SLI. Справа в тому, що масштабування продуктивності для режиму NVIDIA SLI в іграх і програмах − досить складний і трудомісткий процес, тому NVIDIA вирішила обмежитися оптимізацією під 2 відеокарти. Щоб розблокувати режим 3-Way або 4-Way NVIDIA SLI, користувачам необхідно буде завантажити безкоштовну утиліту Enthusiast Key з офіційного сайту NVIDIA, яка допоможе активувати необхідні налаштування. У якості альтернативи NVIDIA пропонує використовувати режими «Multi Display Adapter (MDA)» або «Linked Display Adapter (LDA)» у сумісних DirectX 12 іграх, які можуть реалізувати підтримку 4 відеокарт.
NVIDIA Ansel
З кожним роком комп'ютерна графіка в іграх стає усе більш барвистою і реалістичною. Серед багатьох людей існує думка, що комп'ютерні ігри – це новий вид мистецтва, тому деякі художники й фотографи всіляко популяризують процес захоплення найбільш вдалих ігрових кадрів. От тільки розробники зазвичай не приділяють цьому багато уваги, тому вибрати потрібний ракурс досить складно, особливо в динамічному ігровому процесі.
Але тепер є технологія NVIDIA Ansel, що обіцяє справжній прорив у цьому питанні. Для її реалізації в програмний код гри необхідно буде додати певні фрагменти: для The Witness – це близько 40 рядків коду, а для The Witcher 3: Wild Hunt – близько 150, тобто сущі дрібниці в порівнянні із загальним об’ємом.
Натомість вона надає унікальні можливості:
- вільну камеру, яка дозволяє вибрати потрібний ракурс для створення максимально ефектного скріншоту;
- фільтри післяобробки, які дозволяють погратися з різними колірними ефектами;
- можливість захоплення знімків з роздільною здатністю, яка в 32 рази перевищує максимальну роздільну здатність екрану;
- підтримку високого колірного спектру для подальшого експорту знімка в Adobe Photoshop;
- зйомку 360-градусних фото для подальшого перегляду за допомогою VR-пристроїв.
Підтримка технології Ansel уже заявлена для Tom Clansy’s The Division, Tom Witness, Lawbreakers, The Witcher 3, Paragon, Fortnite, Obduction, No Man's Sky і Unreal Tournament. Згодом напевно й інші проекти приєднаються до цього списку.
NVIDIA VRWorks
VR – це один із нових потужних драйверів для ринку комп'ютерних технологій у цілому й ігор зокрема. Поки це досить дороге задоволення з обмеженою кількістю контенту, але перспективи в нього дуже великі. Прекрасно це розуміючи, NVIDIA оперативно випустила оновлений пакет інструментів NVIDIA VRWorks. Він включає до свого складу різні технології, інструменти та бібліотеки корисних функцій, які суттєво спрощують розробникам процес створення програм та ігор під VR. У результаті програмісти заощаджують час і ресурси, використовуючи готові й протестовані інструменти, а користувачі одержують більш реалістичний контент. Звичайно, за умови, що використовують сумісну відеокарту компанії NVIDIA.
Для кращого розуміння можливостей NVIDIA VRWorks пропонуємо подивитися демонстраційний ролик, який відображає та пояснює переваги використання однієї з її технології − VRWorks Audio. [MORE]
NVIDIA GeForce GTX 1080 Founders Edition
А тепер давайте перейдемо до розгляду самої відеокарти NVIDIA GeForce GTX 1080 Founders Edition. Під час її презентації компанія NVIDIA збентежила багатьох незнайомою приставкою до назви («Founders Edition»). До того ж вартість цієї версії на $100 вища за мінімальну ціну для партнерських адаптерів ($699 проти $599). Миттєво виникли припущення про які-небудь її додаткові можливості або переваги. Але компанія NVIDIA оперативно все пояснила.
Раніше вона не продавала самі відеокарти, а переважно розробляла графічні процесори й створювала для них еталонні дизайни друкованих плат. Вони служили в якості референсних зразків для партнерів або тестових зразків для преси. Так, деякі з них в обмеженій кількості потрапляли в продаж, але це не носило масового характеру. Тепер же інженери NVIDIA створили спеціальний зразок для ринку – Founders Edition. У ньому використовується якісна багатошарова друкована плата, надійна елементна база та досить ефективна система охолодження. Саме модифікації Founders Edition першими будуть надходити на ринок для найбільш нетерплячих користувачів і для фанатів компанії NVIDIA.
Специфікація
Модель |
NVIDIA GeForce GTX 1080 Founders Edition |
Техпроцес, нм |
16 FinFET |
GPU |
NVIDIA GP104-400-A1 |
Мікроархітектура |
NVIDIA Pascal |
Кількість CUDA-ядер |
2560 |
Кількість текстурних блоків |
160 |
Кількість растрових блоків |
64 |
Базова / динамічна частота GPU, МГц |
1607 / 1733 |
Тип відеопам'яті |
GDDR5X |
Об’єм, ГБ |
8 |
Ефективна частота, МГц |
10 008 |
Розрядність шини, біт |
256 |
Пропускна здатність, ГБ/с |
320 |
Внутрішній інтерфейс |
PCI Express 3.0 x16 |
Зовнішні інтерфейси |
1 x DVI-D |
Критична температура GPU, °C |
94 |
Додатковий конектор живлення |
1 х 8-контактний |
Рекомендована потужність блока живлення, Вт |
500 |
Розміри, згідно з офіційним сайтом (згідно із власними вимірами), мм |
267 х 111 (282 х 120) |
TDP, Вт |
180 |
Рекомендована вартість на старті продажів, $ / грн. / руб. |
699 / 21 490 / 54 990 |
Драйвери |
Свіжі драйвери можна завантажити із сайту виробника GPU |
Сайт виробника |
Зовнішній вигляд
До нас на тестування NVIDIA GeForce GTX 1080 Founders Edition надійшла без фірмової упаковки та комплекту поставки. У продажі ви можете зустріти її варіанти від партнерів NVIDIA (ASUS, GIGABYTE, EVGA, MSI, Palit та інших вендорів). Усі вони використовують повністю однаковий дизайн і частотну формулу, а відрізняються оформленням самої упаковки, фірмовим логотипом і комплектом поставки.
NVIDIA GeForce GTX 1080 Founders Edition
NVIDIA GeForce GTX 980
Зовні новинка нагадує свого попередника (NVIDIA GeForce GTX 980). От тільки алюмінієвий кожух вийшов більш багатогранним, що надає загальному образу агресивний і стильний зовнішній вигляд. На звороті присутня пластина жорсткості, яка виконує відразу дві функції: захищає текстоліт і встановлені на ньому компоненти, а також сприяє додатковому охолодженню.
На інтерфейсній панелі NVIDIA GeForce GTX 1080 Founders Edition присутні винятково цифрові порти:
- 1 x DVI-D;
- 1 x HDMI 2.0b;
- 3 x DisplayPort 1.4.
Максимальна роздільна здатність становить 7680 х 4320 при частоті розгортки 60 Гц.
Під системою охолодження ховається друкована плата зі звичним розташуванням компонентів: центральне місце займає графічний процесор, навколо якого розташувалися вісім мікросхем GDDR5X-пам'яті.
Правіше від нього можна помітити 5+1-фазну підсистему живлення (в NVIDIA GeForce GTX 980 використовується 4+1-фазний дизайн). У її колах встановлені високоякісні компоненти: тантал-полімерні конденсатори та феритові дроселі.
А в якості ШІМ-контролера задіяна мікросхема uP9511P виробництва uPI Semiconductor, яка притулилася на звороті друкованої плати.
Подача живлення до внутрішніх компонентів NVIDIA GeForce GTX 1080 Founders Edition здійснюється за допомогою слоту PCI Express 3.0 x16 і одного 8-контактного роз’єму PCIe (в NVIDIA GeForce GTX 980 були два 6-контактні). Система охолодження злегка перешкоджає підключенню відповідного кабелю.
Для реалізації зв'язувань NVIDIA SLI на верхній стороні, біля інтерфейсної панелі, можна зустріти два відповідні інтерфейси.
В основі NVIDIA GeForce GTX 1080 Founders Edition знаходиться 16-нм графічний процесор NVIDIA GP104-400-A1, який включає до свого складу 2560 CUDA-ядер, 160 текстурних і 64 растрових блоків. Базова частота його роботи становить 1607 МГц, а динамічна визначається діагностичними утилітами як 1733 або 1734 МГц.
Пам'ять новинки, загальним об’ємом 8 ГБ, набрана за допомогою восьми GDDR5X-мікросхем компанії Micron. Ефективна частота їх роботи досягає 10 008 МГц, а пропускна здатність – 320 ГБ/с.
Наостанок в зовнішньому вигляді виділимо підсвічування напису «GEFORCE GTX» на верхній панелі. Колір і режим роботи ілюмінації змінювати не можна.
Система охолодження
Система охолодження NVIDIA GeForce GTX 1080 Founders Edition складається з низкопрофильного радіатора, який накриває практично всю лицьову сторону друкованої плати, випарної камери, яка прямо контактує із графічним процесором, алюмінієвого радіатора й одного вентилятора радіальної форми. У хвостовій частині можна помітити ще один невеликий радіатор, а зворотну сторону текстоліту закриває пластина жорсткості, яка складається із двох половинок.
Низькопрофільний радіатор контактує з мікросхемами пам'яті й елементами підсистеми живлення через термоінтерфейс. Що ж стосується вентилятора, то його діаметр становить 66 мм, а висота – 22 мм.
В автоматичному режимі роботи системи охолодження, при максимальному навантаженні температура графічного процесора досягала 82°С. Вентилятор обертався на 57% від своєї максимальної швидкості, створюючи слабкий фоновий шум, нижче середнього рівня, який абсолютно не заважав роботі. Нагадаємо, що критичною для ядра вважається температура в 94°С.
Після примусового встановлення швидкості вентилятора на 100%, температура GPU знизилася до 69°С, а шум піднявся трохи вище за середній рівень, за межі акустичного комфорту.
У режимі простою кулер працював майже безшумно на 27% від своєї максимальної потужності, охолоджуючи GPU до 34°С. У процесі тестування система охолодження функціонувала стабільно й прогнозовано, без яких-небудь проблем. Також не було зафіксовано ніяких сторонніх шумів, наприклад, високочастотного писку дроселів. Що ж стосується ефективності, то в цілому кулер справляється зі своїм завданням, але в автоматичному режимі хотілося б бачити більш низькі цифри. Все-таки до критичної позначки залишається лише 12°С.
Також при тестуванні кулера помічені короткочасні осідання частот графічного процесора та пам’яті відразу після запуску стрес-тесту. Однак дуже швидко показники стабілізуються й далі ніяких проблем не було. Можливо, це програмна помилка, яка буде виправлена в найближчих оновленнях драйвера.
Тестування
Під час тестування використовувався Стенд для тестування Відеокарт №4
Процесор | AMD Ryzen 9 5900X (Socket AM4, 12/24 x 3,7 – 4,8 ГГц, 105 Вт TDP) / Intel Core i7-8700K (Socket LGA1151, 3,7 ГГц, L3 12 МБ) @4,7 ГГц/ Intel Core i7-980X Extreme Edition (Socket LGA1366, 3,33 ГГц, L3 12 МБ) @ 4,1 ГГц |
Материнська плата | MSI MEG X570 GODLIKE (AMD X570, Socket AM4, DDR4, ATX) / ASUS TUF Z370-PRO GAMING (Socket LGA1151, Intel Z370, DDR4, ATX)/ MSI Big Bang-XPower (Socket LGA1366, Intel X58 Express, DDR3, ATX) |
Кулер | be quite! SILENT LOOP 2 240mm / Scythe Mugen 3 Rev. B PCGH Edition (Socket LGA1155, 40,17 CFM, 6 мм, 10,7 дБ) / Deepcool NEPTWIN V2 |
Оперативна пам'ять | 2 x16 ГБ DDR4-4000 G.SKILL TridentZ Neo F4-4000C18D-32GTZN / 2 x 8 ГБ DDR4-3200 Patriot Viper Elite PVE416G280C6KBL/ 3 x 2 ГБ Kingston DDR3-2250 (KHX2250C9D3T1FK3/6GX) |
Накопичувачі | GOODRAM Iridium Pro 240 ГБ; Patriot Burst Elite 2 ТБ / HyperX Savage SSD 480 GB / HDD WD Caviar Green 3 ТБ (WD30EZRX), HDD WD VelociRaptor 1 ТБ (WD1000DHTZ) / SSD Transcend SSD370 256 GB, HDD Samsung HD154UI |
Блок живлення | be quite! DARK POWER 12 1200 Вт / Seasonic X-1050 Gold (SS-1050XM Active PFC) / Seasonic SS-1200XP Active PFC F3, 1200 Вт |
Корпус | be quiet! DARK BASE PRO 900 Orange rev.2 / CHIEFTEC LF-01B (Middle Tower) / Cooler Master COSMOS SE |
Монітор | ASUS PB287Q, 4K Ultra HD / 3 x Dell UltraSharp U2212HM Black (E-IPS, Full HD) |
Операційна система | Microsoft Windows 10 64-bit / Microsoft Windows 7 64-bit SP1 |
Мишка + килимок та клавіатура | Razer Imperator 2012 + Razer Goliathus Speed Edition, Razer BlackWidow |
Переходимо до найцікавішого – аналізу результатів тестування рівня продуктивності NVIDIA GeForce GTX 1080 Founders Edition з конкурентними аналогами. Для цього ми підібрали найбільш високопродуктивні моделі з нашої бази даних, але ви можете вибрати власні відеоадаптери й перебудувати графіки на свій розсуд.
Першим впадає в око той факт, що новинка стає новим лідером за рівнем продуктивності серед користувацьких відеокарт (NVIDIA GeForce GTX TITAN X у розрахунки не беремо, оскільки вона більше націлена на професійне використання в робочих станціях). Версія NVIDIA GeForce GTX 980 Ti з дуже високим заводським розгоном поступилася в середньому на 8%. Еталонні варіанти покажуть ще більш істотне відставання. Варіант NVIDIA GeForce GTX 980 також з фабричною оптимізацією частот виявився позаду в середньому на 29,1%. Аналогічна перевага зафіксована і над AMD Radeon R9 FURY X, а от AMD Radeon R9 FURY відстала в середньому на 35%.
Практично немає рівних NVIDIA GeForce GTX 1080 Founders Edition і в плані енергоспоживання. Під навантаженням бенчмарком FurMark тестова система із цією відеокартою споживала всього 307 Вт, що навіть нижче, аніж показники комп'ютера з NVIDIA GeForce GTX 980. В MSI Kombustor ці моделі помінялися місцями, але різниця в 10 Вт несуттєва на тлі абсолютних показників.
Розгін
Розгінні експерименти ми проводили за допомогою утиліти EVGA Precision X 6.0.0. У ній реалізована підтримка технології NVIDIA GPU Boost 3.0, про яку ми писали в теоретичній частині. Протестувавши наш тестовий зразок NVIDIA GeForce GTX 1080 Founders Edition, утиліта відобразила криву можливого підвищення частоти для кожного значення напруги.
У режимі «Basic» або «Linear» система автоматично задасть оптимальний алгоритм підвищення частоти. Якщо ви не довіряєте її програмним можливостям, то можете самостійно задати необхідні показники в режимі «Manual».
В процесі ручного розгону ми також довірилися автоматиці у питанні підвищення напруги на графічному процесорі, що змінювала її в межах від 862 до 1062 мВ. У результаті частоту GPU вдалося підняти до 1999 МГц (приріст 24,3% щодо базового показника), а ефективну швидкість відеопам'яті − до 11 694 МГц (приріст 16,8%). При цьому енергоспоживання тестового стенду з відеокартою в бенчмарку MSI Kombustor зросло до 345 Вт.
У процесі розгону вентилятор примусово працював на максимумі своїх можливостей, утримуючи температуру GPU в рамках 73°С. Вплив розгону на результати продуктивності NVIDIA GeForce GTX 1080 Founders Edition зведені в наступну таблицю:
Тестовий пакет |
Стандартні частоти |
Розігнана відеокарта |
Приріст продуктивності, % |
|
Alien: Isolation |
3840x2160 |
92 |
107,5 |
16,8 |
Futuremark 3DMark v1.4.778, 1920x1080, Fire Strike |
Score |
18576 |
20390 |
9,8 |
Graphics score |
22064 |
24792 |
12,4 |
|
Combined score |
8228 |
9187 |
11,7 |
|
Rise of the Tomb Raider v1.0 |
1920x1080 |
158,1 |
166,5 |
5,3 |
Assassin's Creed: Syndicate v.1.5 |
1920x1080 |
115,1 |
130,1 |
13,0 |
DOOM 2016 |
1920x1080 |
137,2 |
151,6 |
10,5 |
BioShock Infinite |
1920x1080 |
194 |
205,7 |
6,0 |
LuxMark v2.0 |
Score |
5050 |
5991 |
18,6 |
Battlefield 4 |
1920x1080 |
165,2 |
174,4 |
5,6 |
Crysis 3 |
1920x1080 |
107,5 |
116,2 |
8,1 |
Середній приріст |
10,7 |
Приріст склав у середньому 10,7%, що дозволяє новинці ще більше відірватися від своїх переслідувачів. У партнерських відеокартах з посиленою підсистемою живлення та більш ефективними кулерами напевно показники розгону та середнього приросту продуктивності будуть ще вищими.
Висновки
Середньовічна Франція подарувала світу чудову крилату фразу: «Король мертвий, хай живе король!» (Le roi est mort, vive le roi), яка символізувала наступництво влади. Даний вираз відмінно підходить і в нашому випадку: NVIDIA GeForce GTX 980 Ti офіційно склала із себе повноваження найбільш продуктивної одночіпової відеокарти для масового ринку, і на трон відразу ж зійшла модель NVIDIA GeForce GTX 1080. Можливо, у найближчому майбутньому цю фразу доведеться виголошувати ще не один раз, адже попереду нас очікує реліз NVIDIA GeForce GTX 1080 Ti і конкурентних аналогів серії AMD Vega, але поки на вершині залишається саме NVIDIA GeForce GTX 1080.
В основі новинки знаходиться 16-нм графічний процесор NVIDIA GP104-400. Перехід на новий техпроцес завжди непростий, тому мікроархітектура NVIDIA Pascal багато в чому копіює вдалий дизайн NVIDIA Maxwell, доповнюючи його новими обчислювальними компонентами (наприклад, PolyMorph Engine 4.0 із блоком Simultaneous Multi-Projection) та корисними технологіями (нові й поліпшені алгоритми компресії кольору, асинхронні обчислення й інші). А завдяки більш тонкому техпроцесу вдалося збільшити кількість структурних блоків (CUDA-ядер, текстурних і растрових блоків) при одночасному зменшенні загальної площі кристала. У результаті цих та багатьох інших поліпшень суттєво зросла обчислювальна потужність новинки при мінімальному рості теплового пакету.
Як і личить справжньому флагману, відеокарта NVIDIA GeForce GTX 1080 Founders Edition першою принесла на ринок підтримку ряду інновацій. Це перша модель, яка використовує GDDR5X-пам'ять. Вона першою забезпечила підтримку HDR-моніторів, технології NVIDIA Ansel і ряду інших. Саме з NVIDIA GeForce GTX 1080 Founders Edition компанія NVIDIA дебютує на ринку графічних адаптерів з еталонним дизайном своїх відеокарт, який раніше розроблявся винятково в демонстраційних цілях, але не для масового продажу. Чи виявиться цей крок успішним, враховуючи більш високий цінник, – покаже час. Але те, що NVIDIA GeForce GTX 1080 Founders Edition вийшла інноваційною і дуже добротною відеокартою – це можна стверджувати вже зараз. І нам залишається тільки привітати компанію NVIDIA з черговим успіхом!
Переваги:
- використання пам'яті стандарту GDDR5X;
- високий рівень продуктивності;
- відмінні показники енергоефективності;
- система охолодження на основі радіального вентилятора, який виштовхує нагріте повітря за межі корпусу;
- підтримка передових інтерфейсів виведення зображення (HDMI 2.0b, DisplayPort 1.4);
- підтримка нових технологій і функціональних можливостей;
- відмінний розгінний потенціал;
- поліпшена підтримка VR-контенту.
Особливості:
- при стресовому навантаженні й автоматичній швидкості обертання вентилятора температура графічного процесора наближається до критичної;
- більш висока вартість, аніж модифікованих партнерських версій.
Автор: Сергій Буділовський
Переклад: Олесь Пахолок
Висловлюємо подяку компанії NVIDIA за надану для тестування відеокарту.
Висловлюємо подяку компаніям ASUS, Cooler Master, Deepcool, Intel, Kingston Technology, Razer, Sea Sonic і Transcend за надане для тестового стенду обладнання.
Підписатися на наші канали | |||||