Геймплейне тестування відеокарти GeForce GTX 980 і порівняння з GTX 1660: і хто тут «пенсіонер»?!
Виробники намагаються щороку радувати нас новими відеокартами і по можливості відправляють на пенсію попередні. Порівняно молодих і придатних «пенсіонерів» на блошиних ринках - вагон і маленький візок. Запросто можна знайти топові або передтопові карти минулих поколінь за цікавими цінами. Але виникає питання: «На що вони здатні в сучасних реаліях?» Ось ми і вирішили пройтися по хітовим відеокартам минулого в міні-циклі геймплейних тестів. Перша на черзі - GeForce GTX 980!
Вона з'явилася в 2014 році. В основі знаходиться 28-нм GPU GM204-400 другого покоління лінійки NVIDIA Maxwell. Він складається з 2048 CUDA-ядер, 128 текстурних і 64 растрових блоків. Еталонна базова частота становить 1127 МГц, а динамічна - 1216. У парі з ним працюють 4 ГБ GDDR5-пам'яті з ефективною швидкістю 7 ГГц і 256-бітною шиною. Відеокарта позиціонувалася як заміна для власників GTX 680, а її рекомендована ціна становила $549.
Перевіряти можливості GTX 980 у сучасних реаліях будемо на прикладі моделі серії ASUS ROG Matrix Platinum. Вона може похвалитися 10%-им розгоном GPU, посиленою 14-фазною підсистемою живлення і стильним кулером DirectCU II із п'ятьма мідними тепловими трубками, алюмінієвим радіатором і двома вентиляторами.
Переходимо до тестового стенду. Погодьтеся, що для карт такого рівня не обов'язковий найновіший і топовий процесор, а 8-потокового Core i7-7740X із номінальними частотами хвилі достатньо.
За його охолодження відповідає кулер be quiet! DARK ROCK PRO 4. Він має в своєму складі двосекційний радіатор, сім теплових трубок і два вентилятори.
Материнська плата буде «простенькою» - ASUS TUF X299 MARK 1 формату ATX.
Підсистема оперативної пам'яті представлена чотирма звичайними планками DDR4-2400 від Apacer.
Більшість ігор і операційна система встановлені на пару SSD від Apacer. Для решти є жорсткий диск від Seagate.
За стабільне живлення системи відповідав «золотий» блок Super Flower Leadex III Gold 650W. Він використовує сучасну схемотехніку з DC-DC-перетворювачами, японські конденсатори і повністю модульну систему кабелів.
Надійним притулком для компонентів став Middle Tower корпус be quiet! Silent Base 801. Він з легкістю підтримує E-ATX-плати, величезні відеокарти довжиною до 430 мм і процесорні кулери висотою до 191 мм.
Крім того, ми вирішили на практиці познайомитися з периферією бренду Redragon. На повноцінний огляд часу не вистачає, а ось поділитися живими враженнями - це запросто.
У ході експериментів нам допомогла механічна клавіатура Redragon Indrah зі зручною підставкою для зап'ясть рук. Вона розпізнає одночасне натискання 104-х кнопок. Навіщо? Не завадить!
Мишка Redragon Cobra сподобалася майже симетричним дизайном і точним позиціонуванням курсору. Максимальна роздільна здатність оптичного сенсора досягає 10 000 DPI.
Для швидкого переміщення мишки використовувався килимок Redragon Archelon. Його вологовідштовхувальне покриття стійке до забруднень і легко очищається.
Щоб не заважати колегам, і вони теж не сильно відволікали, використовували дротову гарнітуру Redragon Lagopasmutus закритого типу з хорошою звукоізоляцією.
Геймплеї записані зовнішньою системою з AVerMedia Live Gamer 4K.
Зі вступною частиною закінчили - переходимо до тестів. Цього разу почнемо з Assassin's Creed Odyssey, як зразково показової гри для GTX 980. При високому пресеті вона бігається повністю комфортно, без фризів і лагів, хоча середня швидкість і недотягує до бажаних 60 кадрів/с.
У пориві ентузіазму ми вирішили піднятися до дуже високих налаштувань, але гра вирішила покарати за проявлену ініціативу. Статистика просіла максимум на 34%, відеоряд втратив колишню плавність і іноді проскакували фризи. Причина криється в 4-гігабайтний буфері, якого багатьом іграм вже не вистачає на дуже високих пресетах.
А ось World of Tanks навіть на ультра не вимагає більше 3 ГБ відеопам'яті. Тому GTX 980 справляється з нею на відмінно. Грати було дуже комфортно, незалежно від обраного класу техніки. Середня швидкість піднялася вище за 120 кадрів/с.
ARK Survival Evolved уперше за весь час тестів не викликала бажання швидше її закрити і перейти до інших ігор. При високому пресеті взагалі без фризів і статорів не обійшлося, але відторгнення вони не викликали. Усе було більш-менш іграбельно із середньою швидкістю під 60 FPS.
RUST - одна з найбільш ненажерливих ігор у плані споживання пам'яті. Довго гратися з налаштуваннями не стали - просто викрутили все на максимум і побігли. Фризи були, але вони носили випадковий, а не постійний характер. Оперативної пам'яті було потрібно близько 14 ГБ.
Для Ring of Elysium ми вибрали експериментальний режим DirectX 12, і він нам дуже сподобався. При високій якості графіки все було красиво, плавно і приємно, незалежно від того, бігали ми по дахах, їздили по травичці або перестрілювалися з противниками.
У Quake Champions вибрали ультра пресет, а потім знизили якість освітлення і текстур, щоб зменшити навантаження на відеобуфер, прибрати мікрофризи і Input lag. Грати в такому режимі - одне задоволення: навіть дуже рідкісні події впритул наблизилися до рівня 60 кадрів/с.
У PUBG при народному міксі ультра і низьких налаштувань дуже рідкісні події просаджували до 35 кадрів/с, але на зручність геймплея це не впливає. Їздити, бігати і стріляти можна з однаковим комфортом. Середня швидкість і зовсім піднімається до 130 кадрів/с.
У Fortnite можна сміливо ставити епічні налаштування графіки. Відеопам'яті потрібно менше за 3 ГБ. Дуже рідкісні події не опускаються нижче за 50 кадрів/с. Тобто при будь-яких фризах або підгальмовувань мова взагалі не йде. Засмутити можуть лише противники.
У меню Rainbow Six Siege лякає нас розміром необхідного відеобуфера для ультра налаштувань - більше за 6 ГБ у GTX 980 точно немає. Але в геймплеї це не викликало ніяких проблем. Оперативної пам'яті потрібно всього 5 ГБ, і всі швидкісні показники знаходяться вище за 100 кадрів/с. Тому можна сміливо виходити до онлайну.
A Plague Tale Innocence навіть на ультра вимагає трохи більше за 2 ГБ відеопам'яті, тому ніяких проблем для відеокарти вона не створює. Фреймрейт знаходиться в комфортній зоні, до управління взагалі не причепитися.
Для початку в Resident Evil 2 вибрали рекомендований пресет графіки, а потім деякі параметри підняли до високого рівня, щоб злегка поліпшити картинку. У такому режимі можна не побоюватися появи фризів у просторих локаціях або в разі підвантаження будь-яких об'єктів. Середній фреймрейт піднімається вище за 90 кадрів/с.
Вибір ігрового комп'ютера. Зима 2016. Частина 3. Високий і топовий рівень
У попередніх двох частинах ми розглянули початкові, базові та середньоцінові системи для запуску сучасних ігор на різних налаштування графіки в роздільності аж до Quad HD. У заключній частині поговоримо про конфігурації для завзятих геймерів, які хочуть отримати максимум продуктивності в надвисоких роздільностях. Отже, починаємо.
Ігрова система високого рівня
Ця збірка націлена в першу чергу на роздільність 2560 х 1440 (Quad HD), де можна буде пограти в більшість актуальних ігор на максимальних налаштування графіки. Для цього знадобиться потужніша зв'язка процесор + відеокарта. Перейдемо відразу до розгляду систем.
|
Socket LGA1150 |
Socket LGA1151 |
Socket AM3+ |
|
Материнська плата |
На основі Intel B85 / H87 / H97 / Z97 ($82-110) |
На основі Intel B150 / H170 / Z170 ($87-136) |
На основі AMD 970 / 990FX + SB950 ($79-126) |
|
Процесор |
Intel Core i5-4690 ($243) |
Intel Core i5-6400 у розгоні / Core i5-6600 у номіналі ($205-250) |
AMD FX-8300 / 8320E у сильному розгоні ($127) |
|
Графічна підсистема |
Дискретна відеокарта NVIDIA GeForce GTX 1070 з 8 ГБ GDDR5 ($500) |
|||
Оперативна пам’ять |
2 x 8 ГБ DDR3 з частотою 1866 МГц ($94-98) |
2 x 8 ГБ DDR4 з частотою 2133 МГц ($94-98) |
2 x 8 ГБ DDR3 з частотою 1866 МГц ($94-98) |
|
Накопичувач |
SSD з об’ємом 240 / 256 ГБ ($60 − 78) HDD з об’ємом 2 ТБ ($70-80) |
|||
Система охолодження |
Кулер баштового типу з середньою продуктивністю ($21 − 30) |
Кулер баштового типу з високою продуктивністю ($30 − 49) |
||
Блок живлення |
Якісна модель з потужністю 500 – 650 Вт з модульною системою кабелів ($63 − 110) |
|||
Корпус |
Модель формату Middle Tower ($50− 90) |
|||
Загальна вартість |
$ 1183 − 1339 |
$1150 − 1372 |
$1073 − 1258 |
|
Середня вартість |
$1261 |
$1261 |
$1166 |
Час платформ Socket AM3+ і Socket LGA1150 добігає кінця, тому краще збирати новий високопродуктивний комп'ютер саме на Socket LGA1151. При цьому ми отримаємо не лише заділ на майбутнє, але й вищий FPS в іграх. Якщо плануються розгінні експерименти, беремо Intel Core i5-6400 і материнську плату на основі чіпсета Intel Z170 або модель серії ASRock Hyper-OC. В іншому ж випадку можна обійтися Intel Core i5-6600 і простішою платою, але з якісною аудіопідсистемою, просунутим мережевим контролером і великою кількістю сучасних портів вводу-виводу.
Передбачаючи питання по «китайському» Intel Core i7-6400T, який нещодавно з'явився на зарубіжних інтернет-майданчиках і активно обговорюється онлайн-спільнотою, відповідаємо: це інженерні зразки перших Intel Core i7 на мікроархітектурі Intel Skylake. На виході ми отримуємо 4 ядра і 8 потоків, але з низькою базовою частотою 2200 МГц. Якщо вам трапиться вдалий екземпляр, цілком можна буде отримати в розгоні чіп рівня Intel Core i7-6700 за якихось $150 або навіть нижче (в номіналі він не цікавий). Але ніхто вам цього не гарантує, так само як і довгої та стабільної роботи. Тому все на ваш страх і ризик. Якщо ви все ж наважилися на його покупку, рекомендуємо брати «камені» з маркуванням по типу QHQJ L501, які випущені на першому тижні 2015 року, тобто найновіші. Це дає набагато більшу впевненість в їх стабільності й хорошому розгінному потенціалі.
Вибір відеокарти зводиться до придбання однієї з численних модифікацій NVIDIA GeForce GTX 1070, яка демонструє необхідну швидкість для виведення QHD-картинки в сучасних вимогливих іграх при максимальних або близьких до них налаштуваннях графіки. У багатьох актуальних проектах її вистачить і для комфортного 4K-геймінгу, але в майбутньому рівень якість картинки зростатиме і доведеться вже знижувати налаштування графіки для отримання прийнятної швидкості. Прикладом вже зараз може бути новенький Watch Dogs 2, який ставить на коліна в 4K навіть топову NVIDIA GeForce GTX 1080. Якщо говорити про попередників, новинка випереджає NVIDIA GeForce GTX 980 більш ніж на 20% і демонструє дуже близьку продуктивність з NVIDIA GeForce GTX 980 Ti при меншій ціні. Фактично конкурентів з боку AMD у NVIDIA GeForce GTX 1070 немає, адже на даний момент найновішою відеокартою на ринку з «червоного» табору є AMD Radeon RX 480, а вона виступає в доступнішому ціновому сегменті й очікувано поступається їй у середньому на 35%. І навіть дорожчий торішній флагман AMD Radeon R9 FURY X відстає від творіння NVIDIA в середньому на 20%. Тому вибір очевидний.
Тепер спробуємо отримати схожу продуктивність, але з вживаними комплектуючими. Давайте подивимося, що може запропонувати нам вторинний ринок.
|
Socket AM3+ |
Socket LGA1366 |
Socket LGA1156 |
Socket LGA1155 |
|||
Материнська плата |
На основі AMD 7xx /8xxE / 9xx / G / FX / GX + SB7xxx / 8xx / 9xx ($27-96) |
На основі Intel X58 + ICH10 ($153-222) |
На основі Intel H55 / H57 / Q57 / P55 ($32-117) |
На основі Intel P67 / Z68 / Z75 / Z77 ($38-114) |
|||
Процесор |
AMD FX-8100 / 8120 / 8150 ($70-100) |
Intel Core i7-9xx / Intel Xeon E / L / W / X / 3xxx / 5xxx ($9-100) |
Intel Core i7-860 / 870 / 875K / Intel Xeon X34xx ($41-74) |
Intel Core i5-2500K / 2550K / 3570K ($99-153) |
|||
(в сильному розгоні) |
|||||||
Графічна підсистема |
Дискретна відеокарта NVIDIA GeForce GTX 980 Ti з 6 ГБ GDDR5 ($420) |
||||||
Оперативна пам’ять |
2 x 8 ГБ DDR3 з частотою 1600 МГц ($47-58) |
3 x 4 ГБ DDR3 з частотою 1333 МГц ($40-48) |
4 x 4 ГБ DDR3 з частотою 1333 МГц ($53-64) |
2 x 8 ГБ DDR3 з частотою 1600 МГц ($47-58) |
|||
Накопичувач |
SSD з об’ємом 240 / 256 ГБ (новий) ($60 − 78) HDD з об’ємом 2 ТБ ($39-63) |
||||||
Система охолодження |
Кулер баштового типу з високою продуктивністю ($20 − 40) |
||||||
Блок живлення |
Якісна модель з потужністю 550 − 650 Вт |
||||||
Корпус |
Модель формату Middle Tower ($20 − 58) |
||||||
Загальна вартість |
$726 − 964 |
$784 − 1080 |
$708 − 965 |
$766 − 1035 |
|||
Середня вартість |
$845 |
$932 |
$837 |
$900 |
Для початку поговоримо про платформу Socket LGA1366. На відміну від попередньої категорії, вже недостатньо недорогої китайської материнської плати і 6-ядерника Intel Xeon X5660 у номінальній роботі. Знадобиться дорога брендова модель, що передбачає розгін, тому й виходить найдорожча збірка. Але в результаті ми отримаємо 6 ядер / 12 потоків, які добре себе показують не лише в іграх, але й при виконанні важких завдань (робота з 3D-пакетами або кодування відео). А це може бути дуже вагомою перевагою.
Мабуть, найслабші збірки для ігор будуть на Socket AM3+ і Socket LGA1156, тому краще їх уникати. У такому випадку цілком виправданою є доплата за систему на Socket LGA1155 – висока продуктивність на ядро, помірне тепловиділення та відмінний розгінний потенціал.
Переходимо до відеопідсистеми. Відеоприскорювачі, порівнянні з NVIDIA GeForce GTX 1070, представлені на вторинному ринку лише у вигляді NVIDIA GeForce GTX 980 Ti з 6 ГБ GDDR5. Але просять за неї не набагато менше, ніж нова GTX 1070, тому така покупка виглядає доволі сумнівною. Двочіпові моделі й титани обійдуться ще дорожче. Звичайно, можна зробити зв'язку NVIDIA SLI або AMD CrossFireX з декількох відеокарт, але як показує практика, далеко не всі сучасні ігри реагують позитивним чином на такий тандем. У будь-якому випадку завжди є варіанти й вирішувати тільки вам.
Ігровий десктоп ASUS ROG GT51CA тепер з відеокартами серії NVIDIA GeForce GTX 10
У квітні цього року був представлений стильний і потужний ігровий десктопний комп'ютер ASUS ROG GT51CA. Тепер конфігурація цієї моделі може мати високопродуктивні відеокарти NVIDIA GeForce GTX 1070 і NVIDIA GeForce GTX 1080, а також зв'язки двох таких адаптерів у режимі NVIDIA SLI. У парі з процесором Intel Core i7-6700K вони зможуть ефективно відтворювати віртуальний світ будь-якого ігрового проекту. Більш того, одним натисканням на спеціальну кнопку частота процесора збільшується до 4,6 ГГц, без необхідності перезавантаження.
Решта конфігурації ASUS ROG GT51CA не зазнала суттєвих змін. На вибір пропонується від 16 до 64 ГБ оперативної пам'яті, широке розмаїття дискової підсистеми (включаючи два M.2 PCIe-накопичувача в режимі RAID 0), 7.1-канальна аудіопідсистема, а також набір необхідних мережевих модулів і зовнішніх інтерфейсів.
Зведена таблиця технічної специфікації десктопного комп'ютера ASUS ROG GT51CA:
Модель |
ASUS ROG GT51CA |
ОС |
Windows 10 Home |
Процессор |
Intel Core i7-6700K (4 х 4,0 – 4,2 ГГц; OC – 4,6 ГГц) |
Чіпсет |
Intel Z170 |
Оперативна пам'ять |
16 – 64 ГБ DDR4-2133 МГц (розгін до 2400 / 2800 МГц) |
Дискова підсистема |
До 3 ТБ HDD (7200 об/хв) |
Слоти розширення |
3 x PCI Express x16 |
Відеокарта |
NVIDIA GeForce GTX 1080 (8 ГБ DDR5X) (SLI) |
Оптичний привід |
DVD Super Multi / Blu-ray Combo |
Аудіопідсистема |
7.1-канальна з підтримкою компонентів ESS Hi-Fi |
Мережеві моделі |
Gigabit Ethernet, 802.11ac Wi-Fi, Bluetooth 4.1 |
Зовнішні інтерфейси передньої панелі |
1 x USB 3.1 Type-A |
Зовнішні інтерфейси задньої панелі |
6 x USB 3.0 |
Розміри |
70 х 68 х 38 см |
Маса |
23 кг |
http://rog.asus.com
Сергій Буділовський
Огляд і тестування відеокарти ASUS ROG STRIX GeForce GTX 1060 OC на GeForce GTX 1060
На початку травня поточного року, перед офіційним анонсом мікроархітектури NVIDIA Pascal, стало відомо про підготовку компанією NVIDIA перших трьох відеокарт. Дві з них, NVIDIA GeForce GTX 1080 і NVIDIA GeForce GTX 1070, очікувалися наприкінці травня або на початку червня, а от третя модель ще якийсь час залишалася загадкою. З'явилися навіть неофіційні теорії, що це буде NVIDIA GeForce GTX 1060 Ti, а дебют її намічений на серпень.
Однак успішний реліз 14-нм мікроархітектури AMD Polaris у вигляді графічного адаптера AMD Radeon RX 480 став каталізатором розвитку подальших подій. Уже 7-ого липня відбувся паперовий реліз NVIDIA GeForce GTX 1060, а з 19-ого липня новинка надійшла у продаж. Таким чином, саме протистояння AMD Radeon RX 480 і NVIDIA GeForce GTX 1060 дозволяє порівняти можливості нових напрацювань компаній AMD і NVIDIA у рамках одного цінового діапазону.
Невеликий теоретичний екскурс
Ми уже встигли познайомитися з двома варіантами графічного процесора NVIDIA GP104, які знаходяться в основі NVIDIA GeForce GTX 1080 і NVIDIA GeForce GTX 1070, а також із ключовими особливостями самої мікроархітектури NVIDIA Pascal. Тепер же прийшла черга поглянути на чіп NVIDIA GP106. Саме на його базі побудована NVIDIA GeForce GTX 1060, а в майбутньому він напевно з'явиться і в інших середньоцінових моделях (наприклад, NVIDIA GeForce GTX 1050).
Структурна схема графічного процесора NVIDIA GP104
Структурна схема графічного процесора NVIDIA GP106
Зазначені блок-схеми наочно ілюструють то факт, що NVIDIA GP106 має у своєму розпорядженні лише два обчислювальні кластери (GPC), тоді як до складу NVIDIA GP104 входять чотири. Відповідно, зменшилася кількість CUDA-ядер і текстурних блоків. Також із восьми до шести скоротилася кількість 32-бітних контролерів відеопам'яті, що спричинило зниження розрядності шини з 256 до 192 біт, а також зменшення кількості растрових блоків.
Структурна схема графічного процесора NVIDIA GM206
Якщо ж дивитися із позиції наступництва, то NVIDIA GP106 виступає спадкоємцем NVIDIA GM206, на якому, зокрема, побудована NVIDIA GeForce GTX 960. Перехід з 28-нм технології на 16-нм дозволив збільшити кількість структурних блоків. Наприклад, в GPC використовується не чотири, а п'ять SM-модулів. Враховуючи, що кожен із них має у своєму розпорядженні 128 CUDA-ядер, то загальна їхня кількість зросла із 1024 до 1280. Також у NVIDIA GM206 використовувалися лише два 64-бітні контролери пам'яті, які дозволяють реалізувати 128-бітну шину із пропускною здатністю 112 ГБ/с. У свою чергу 192-бітний інтерфейс NVIDIA GP106 підвищив цей показник до 192 ГБ/с. Для наочності зведемо всю інформацію в загальну таблицю:
Модель |
NVIDIA GeForce GTX 960 |
NVIDIA GeForce GTX 1060 |
NVIDIA GeForce GTX 1070 |
NVIDIA GeForce GTX 1080 |
Графічний процесор |
NVIDIA GM206-300 |
NVIDIA GP106-400 |
NVIDIA GP104-200 |
NVIDIA GP104-400 |
Техпроцес, нм |
28 |
16 |
16 |
16 |
Площа кристала, мм2 |
227 |
220 |
314 |
314 |
Кількість транзисторів, млрд. |
2,94 |
4,4 |
7,2 |
7,2 |
Кількість SM-блоків |
8 |
10 |
15 |
20 |
Кількість CUDA-ядер |
1024 |
1280 |
1920 |
2560 |
Кількість текстурних блоків |
64 |
80 |
120 |
160 |
Кількість растрових блоків |
32 |
48 |
64 |
64 |
Об’єм кеш-пам'яті L2, КБ |
1024 |
1536 |
2048 |
2048 |
Базова / динамічна тактова частота, МГц |
1126 / 1178 |
1506 / 1708 |
1506 / 1683 |
1607 / 1733 |
Швидкість вибірки текстур, гігатекселів/с |
72 |
120,5 |
180,7 |
257,1 |
Тип відеопам'яті |
GDDR5 |
GDDR5 |
GDDR5 |
GDDR5X |
Ефективна частота пам'яті, МГц |
7000 |
8000 |
8000 |
10000 |
Розрядність шини, біт |
128 |
192 |
256 |
256 |
Пропускна здатність пам'яті, ГБ/с |
112 |
192 |
256 |
320 |
Обчислювальна потужність, TFLOPS |
2,308 |
3,855 |
5,783 |
8,228 |
TDP, Вт |
120 |
120 |
150 |
180 |
Як бачимо, NVIDIA GP106 практично по кожному пункту виявився кращим за свого попередника. Особливо радує підвищений рівень продуктивності на тлі однакового показника TDP.
Перевірити, чи така хороша NVIDIA GeForce GTX 1060 насправді, нам допоможе відеокарта ASUS ROG STRIX GeForce GTX 1060 (ROG STRIX-GTX1060-O6G-GAMING). Вона є найбільш функціональним представником цієї серії в модельному ряду компанії ASUS, яка дбайливо оснастила її кулером DirectCU III, системою підсвічування AURA RGB Lighting і рядом інших корисних поліпшень. Але для початку традиційна таблиця технічних характеристик.
Специфікація
Модель |
ASUS ROG STRIX GeForce GTX 1060 OC (ROG STRIX-GTX1060-O6G-GAMING) |
GPU |
NVIDIA GP106-400 |
Мікроархітектура |
NVIDIA Pascal |
Техпроцес, нм |
16 (FinFET) |
Кількість CUDA-ядер |
1280 |
Тактова частота GPU, МГц |
1620 / 1847 («Gaming») |
Тип відеопам'яті |
GDDR5 |
Об’єм, ГБ |
6 |
Номінальна / ефективна частота пам'яті, МГц |
2052 / 8208 |
Ширина шини пам'яті, біт |
192 |
Пропускна здатність пам'яті, ГБ/с |
197 |
Зовнішні інтерфейси |
1 x DVI-D |
Додатковий роз’єм живлення PCIe |
1 x 8-контактний |
Мінімальна рекомендована потужність блока живлення, Вт |
500 |
Розміри з офіційного сайту (згідно з вимірами у нашій тестовій лабораторії), мм |
298 х 134 х 40 (312 х 131) |
Драйвери |
Свіжі драйвери можна завантажити із сайту компанії ASUS або сайту виробника GPU |
Сайт виробника |
Упаковка та комплект поставки
У руки щасливого власника ASUS ROG STRIX-GTX1060-O6G-GAMING потрапить у барвистій картонній упаковці, яка надійно захищає графічний адаптер при транспортуванні. Потенційного ж покупця вона ознайомить із ключовими перевагами новинки.
На одній із бічних сторін зазначені рекомендовані системні вимоги. Мінімальна потужність блока живлення повинна становити 500 Вт, а навантажувальна здатність лінії +12В – 42 А. Відразу ж уточнимо, що виробники традиційно зазначають ці параметри із запасом, оскільки вони не знають конкретну конфігурацію комп'ютера кожного покупця.
Комплект поставки ASUS ROG STRIX GeForce GTX 1060 включає до свого складу паперову документацію, диск із драйверами та утилітами і кілька стяжок для кабелів. Окремо виділимо купон, який проясняє алгоритм дій для одержання подарунків у грі World of Warships: інвайт-коду на крейсер «Діана» і 15 днів преміумного доступу.
Зовнішній вигляд
Відеоприскорювач ASUS ROG STRIX GeForce GTX 1060 (ROG STRIX-GTX1060-O6G-GAMING) створений на основі модифікованої друкованої плати. Його підсистема живлення використовує посилений 6+1-фазний дизайн замість еталонного 3+1-фазного, а елементна база відповідає фірмовій концепції Super Alloy Power II.
Сама ж відеокарта створена на унікальній, повністю автоматичній лінії ASUS AUTO-Extreme Technology. Усе це гарантує надійність і стабільність її функціонування навіть в умовах підвищених навантажень.
Також цьому сприяє наявність одного 8-контактного роз’єму PCIe замість 6-контактного, передбаченого еталонним варіантом. Така заміна гарантує, що графічний процесор та інші компоненти будуть одержувати необхідне живлення навіть при роботі на високих частотах. Підключенню і відключенню додаткового кабелю живлення ніщо не перешкоджає.
На тильній бічній стороні притулилися два 4-контактні роз’єми для підключення корпусних вентиляторів. Ця особливість дизайну одержала назву «ASUS FanConnect». Уся її інноваційна суть полягає в тому, що режимом роботи підключених вентиляторів керує графічний процесор за допомогою двох контролерів Nuvoton 3949S. Таким чином, швидкість їх обертання залежить винятково від температури GPU, а не CPU, як це часто буває при традиційному підключенні до материнської плати.
Із протилежної бічної сторони розташувався набір відеоінтерфейсів. До його складу увійшли:
- 1 x DVI-D;
- 2 x HDMI 2.0;
- 2 x DisplayPort.
Нагадаємо, що еталонний дизайн передбачає наявність лише одного порту HDMI, але відразу трьох DisplayPort. Заміна ж покликана полегшити підключення VR-пристроїв, які саме вимагають два порти HDMI для коректної роботи. Таким чином не доведеться купувати додатковий перехідник.
Зі звичних компонентів на друкованій платі відсутній лише роз’єм для підключення містка NVIDIA SLI, оскільки дана технологія офіційно не підтримується. Можливо, NVIDIA не хотіла створювати таким чином конкуренцію для своїх більш дорогих відеокарт, адже дві NVIDIA GeForce GTX 1060 напевно виглядали б в оптимізованих проектах краще, аніж одна NVIDIA GeForce GTX 1080.
Утиліта GPU-Z підтверджує усі знайомі нам показники роботи ASUS ROG STRIX-GTX1060-O6G-GAMING. Графічний процесор NVIDIA GP106-400 функціонує за замовчуванням у профілі «Gaming», для якого базова частота становить 1620 МГц, а динамічна може досягати 1848 МГц. За допомогою фірмової утиліти GPU Tweak II можна активувати попередньо встановлений режим «OC» із частотами 1645 і 1873 МГц відповідно.
У свою чергу відеопам'ять набрана за допомогою GDDR5-мікросхем компанії Samsung. Оскільки ефективна частота їх роботи злегка перевищує еталонний показник (8208 проти 8000 МГц), то й пропускна здатність виявилася вищою (197 проти 192 ГБ/с).
Для усіх бажаючих персоналізувати зовнішній вигляд графічного адаптера ASUS ROG STRIX GeForce GTX 1060 передбачена система ілюмінації ASUS AURA. Вона дозволяє вибрати один з мільйонів доступних кольорів і один із шести режимів роботи. Причому підсвічування може виконувати роль візуального моніторингу температури GPU у режимі реального часу.
Система охолодження
Турботу за надійне охолодження внутрішніх компонентів взяв на себе кулер DirectCU III. У його конструкції використовуються п'ять нікельованих мідних теплових трубок (чотири діаметром 8 мм і одна 6-мм), які прямо контактують із поверхнею графічного процесора, масивний двосекційний алюмінієвий радіатор, додатковий низькопрофільний радіатор для охолодження мікросхем пам'яті, алюмінієва пластина жорсткості на звороті та три 88-мм осьові вентилятори з дизайном крильчатки Wing-Blade. За допомогою термоінтерфейсу основний радіатор відводить тепло і від елементів підсистеми живлення. Таким чином реалізована максимально комфортна робота всіх вузлів.
Розплатою за це є збільшені загальні габарити відеокарти: якщо для еталонної версії вони становлять 250 х 111 мм, то в ASUS ROG STRIX GeForce GTX 1060 досягають 312 х 131 мм (згідно з нашими вимірами). Тому перед купівлею обов'язково переконайтеся, що вона поміститься у ваш корпус.
А тепер давайте оцінимо ефективність роботи системи охолодження DirectCU III. При автоматичному регулюванні швидкості обертання лопатей вентиляторів, у режимі максимального навантаження, графічне ядро нагрілося до 71°С, а самі пропелери, судячи з показів моніторингу, працювали на 57% від своєї максимальної потужності. У такому режимі створюваний шум знаходився нижче середнього рівня, залишаючись дуже комфортним для тривалої роботи біля ПК.
Примусове встановлення швидкості обертання лопатей на максимум дозволило знизити температуру GPU до 65°С, що гарантує відмінний запас для розгінних експериментів, адже критична температура для NVIDIA GP106 становить 94°С. Зворотною стороною медалі є некомфортний шум, який перевищує середній рівень.
При відсутності навантаження частоти графічного ядра й пам'яті автоматично знижуються, дозволяючи зменшити енергоспоживання та тепловиділення відеоприскорювача в цілому. У такому режимі температура GPU не перевищує 44°С, оскільки вентилятори взагалі перестають обертатися, а кулер переходить у пасивний режим. Як тільки температура GPU підвищується до 55-57°С, знову починають працювати пропелери.
Вибір відеокарти. Літо 2016
Вже не за горами так званий сезон «Back-to-School» – кінець літа та початок осені, коли багато користувачів замислюються про придбання нових комп'ютерів або апгрейд старих, щоб бути у всеозброєнні перед виходом чергових ігрових блокбастерів. Хоча офіційна версія для батьків (під яку й виділяється фінансування з сімейного бюджету) – підготовка дітей до нового навчального року. У зв'язку з цим ми вирішили повернутися до теми вибору відеокарти – одного з найважливіших компонентів сучасної ігрової системи. До того ж з моменту випуску статті «Вибір відеокарти. Зима 2016» пройшло більше ніж півроку. За цей період AMD і NVIDIA встигли представити нові графічні процесори та відеокарти на їх основі, що в свою чергу вплинуло не лише на розстановку сил, але й викликало хвилю зниження цін на старі моделі, а деякі й узагалі майже зникли з полиць. Для всіх тих, у кого немає часу чи бажання перечитувати «тони» оглядів і проводити порівняння, ми постаралися відібрати найцікавіші відеокарти з позиції ціна / продуктивність.
Як і раніше, при виборі оптимальної відеокарти ми не загострювали увагу на брендах, а орієнтувалися на мінімальну вартість адаптерів, які можна знайти у великих вітчизняних інтернет-магазинах на момент написання матеріалу. Для порівняння продуктивності використовували власну велику базу.
Окремо варто відзначити, що відеокарти рівня AMD Radeon R5 230 / NVIDIA GeForce GT 720 і менш продуктивні ми не включали в цей огляд. В основному вони використовуються для підтримки інтерфейсу ОС і виконання повсякденних завдань у разі відсутності інтегрованого відео, тому вирішальним фактором при їх виборі є лише ціна на момент покупки.
Вибір відеокарти з ціною до $80
В ультрабюджетному сегменті продовжують домінувати старі моделі: AMD Radeon R7 240 (GDDR3), AMD Radeon R7 240 (GDDR5), NVIDIA GeForce GT 730 (GDDR3) і NVIDIA GeForce GT 730 (GDDR5). Вони дозволяють запускати невимогливі ігри на низьких і середніх налаштуваннях графіки при роздільності 1366 х 768. Звичайно, окремі проекти можна буде запустити і при 1920 х 1080, але в багатьох актуальних ААА-іграх навряд чи вийде добитися прийнятного рівня FPS навіть при 720р чи нижче.
Модель |
Ціна на момент анонсу, $ |
Мінімальна фактична вартість NVIDIA, $ |
Мінімальна фактична вартість AMD, $ |
Ціна на момент анонсу, $ |
Модель |
NVIDIA GeForce GT 730 (GDDR3) |
- |
51 |
56 |
69 |
AMD Radeon R7 240 (GDDR3) |
NVIDIA GeForce GT 730 (GDDR5) |
57 |
68 |
AMD Radeon R7 240 (GDDR5) |
При виборі ми рекомендуємо орієнтуватися саме на версії з GDDR5-пам'яттю, нехай і меншого об’єму. В такому випадку бонус продуктивності в деяких іграх і бенчмарках досягає 50%. Оптимальною ж покупкою, на наш погляд, є версія NVIDIA GeForce GT 730 (GDDR5).
Вибір відеокарти з ціною до $100
Даний ціновий діапазон представляють прискорювачі AMD Radeon R7 250 (GDDR3), AMD Radeon R7 250 (GDDR5), NVIDIA GeForce GT 740 (GDDR3) і NVIDIA GeForce GT 740 (GDDR5). Їх рівень продуктивності дозволяє пограти в більшість сучасних ігор на середньо-низьких налаштуваннях графіки в Full HD-роздільності, але в особливо вимогливих проектах доведеться опустити її до 1680 x 1050 або навіть нижче для отримання плавної картинки.
Модель |
Ціна на момент анонсу, $ |
Мінімальна фактична вартість NVIDIA, $ |
Мінімальна фактична вартість AMD, $ |
Ціна на момент анонсу, $ |
Модель |
NVIDIA GeForce GT 740 (GDDR3) |
89 |
91 |
88 |
89 |
AMD Radeon R7 250 (GDDR3) |
NVIDIA GeForce GT 740 (GDDR5) |
95 |
92 |
AMD Radeon R7 250 (GDDR5) |
На нашу думку, найбільш збалансованим придбанням можна вважати AMD Radeon R7 250 (GDDR5). Причому рекомендуємо шукати версію з 2 ГБ GDDR5-відеопам'яті й графічним процесором AMD Cape Verde Pro, яка за продуктивністю виглядає трохи краще, ніж NVIDIA GeForce GT 740 (GDDR5). Окремо варто відзначити, що додавши буквально пару доларів, можна взяти продуктивнішу відеокарту NVIDIA GeForce GTX 750, нехай і з 1 ГБ відеопам'яті. Але це дозволить впевненіше себе почувати в роздільності 1920 х 1080.
Вибір відеокарти з ціною до $150
Уже в першій половині серпня на прилавках з'являться бюджетні відеокарти серії AMD Radeon RX 460. Її конкурентом повинна стати серія NVIDIA GeForce GTX 1050, яка поки ще офіційно не представлена. Вони прийдуть на зміну AMD Radeon R7 360, NVIDIA GeForce GTX 750 і NVIDIA GeForce GTX 750 Ti.
Модель |
Ціна на момент анонсу, $ |
Мінімальна фактична вартість NVIDIA, $ |
Мінімальна фактична вартість AMD, $ |
Ціна на момент анонсу, $ |
Модель |
104 |
99 |
AMD Radeon R7 250X |
|||
|
|
|
112 |
109 |
AMD Radeon R7 360 |
|
|
|
- |
99 / 119 |
AMD Radeon RX 460 |
NVIDIA GeForce GTX 750 |
119 |
101 |
|||
NVIDIA GeForce GTX 750 Ti |
125 |
123 |
Ми наполегливо рекомендуємо почекати виходу новинок, але поки ринок наповниться пропозиціями, а ціни нормалізуються після стартового ажіотажу, пройде кілька місяців. Якщо купувати треба вже сьогодні, то краще дивитися в бік NVIDIA GeForce GTX 750 Ti, яка цілком справляється з сучасними іграми в Full HD на середньо-високих налаштуваннях графіки, що наочно демонструють ролики на нашому відеоканалі в розділі «Геймплей ігор».
Вибір відеокарти з ціною до $200
Аналогічна ситуація склалася і в цій категорії. Протистояння тут ведуть AMD Radeon R7 370 і NVIDIA GeForce GTX 950. На зміну першій вже поспішає AMD Radeon RX 470. Наступницею другої може стати NVIDIA GeForce GTX 1050 Ti, але поки про неї офіційно нічого не відомо.
Модель |
Ціна на момент анонсу, $ |
Мінімальна фактична вартість NVIDIA, $ |
Мінімальна фактична вартість AMD, $ |
Ціна на момент анонсу, $ |
Модель |
|
|
|
171 |
149 |
AMD Radeon R7 370 |
|
|
|
- |
149 |
AMD Radeon RX 470 (2 ГБ) |
NVIDIA GeForce GTX 950 |
162 |
172 |
- |
179 |
AMD Radeon RX 470 (4 ГБ) |
Якщо з придбанням відеокарти можна почекати, так і рекомендуємо вам зробити. Новинки обіцяють бути продуктивнішими на порядок. В іншому випадку варто дивитися в бік NVIDIA GeForce GTX 950, яка споживає менше електроенергії і трохи швидша AMD Radeon R7 370. Також варто відзначити хороший розгінний потенціал NVIDIA GeForce GTX 950, який дозволяє їй майже повністю нівелювати відставання від еталонного варіанта NVIDIA GeForce GTX 960. Карта цілком справляється з популярними сучасними іграми в роздільності 1920 х 1080 на максимальних налаштуваннях графіки. І лише в особливо вимогливих або погано оптимізованих проектах доведеться відключити деякі ефекти для отримання комфортного рівня FPS.
Огляд і тестування відеокарти ASUS GeForce GTX 1080 TURBO
З моменту анонсу відеокарт на базі мікроархітектури NVIDIA Pascal пройшло вже достатньо часу, щоб партнери порадували користувачів різноманітністю всіляких модифікацій. Не стала виключенням і компанія ASUS, яка разом із флагманською версією NVIDIA GeForce GTX 1080 (ASUS ROG STRIX GeForce GTX 1080), яка володіє фірмовою системою охолодження, заводським розгоном і рядом інших особливостей, включила у свій модельний ряд більш доступний варіант.
ASUS GeForce GTX 1080 TURBO (TURBO-GTX1080-8G) позиціонується як найдоступніша модифікація NVIDIA GeForce GTX 1080 у фірмовій лінійці, яка одержала схожу з версією Founders Edition систему охолодження турбінного типу. При цьому вона позбулася опорної пластини, а сам кожух був замінений на більш простий, виконаний із чорного пластику. Давайте ж поглянемо, які переваги ви одержите від купівлі даної моделі.
Специфікація
Модель |
ASUS GeForce GTX 1080 TURBO (TURBO-GTX1080-8G) |
Графічне ядро |
NVIDIA GP104-400-A1 |
Кількість CUDA-ядер |
2560 |
Номінальна / динамічна частота графічного ядра, МГц |
1607 / 1733 |
Ефективна частота пам'яті, МГц |
10010 |
Об’єм пам'яті, ГБ |
8 |
Тип пам'яті |
GDDR5X |
Ширина шини пам'яті, біт |
256 |
Пропускна здатність пам'яті, ГБ/с |
320,3 |
Тип шини |
PCI Express 3.0 x16 |
Інтерфейси виведення зображення |
1 x DVI-D |
Мінімальна потужність блока живлення, Вт |
500 |
Розміри з офіційного сайту (згідно з вимірами в нашій тестовій лабораторії), мм |
266,7 x 111,2 x 38,1 (280 х 112) |
Драйвери |
Свіжі драйвери можна завантажити із сайту компанії ASUS або сайту виробника GPU |
Сайт виробника |
Упаковка та комплектація
Відеокарта постачається в досить великій коробці, виконаній зі щільного картону із якісною поліграфією. На лицьовій стороні виділена наявність подарунка для любителів гри World of Warships, який включає до свого складу інвайт-код (тільки для нових гравців) для активації бронепалубного крейсера «Діана» і 15 днів преміумного доступу.
У свою чергу зворотна сторона повідомляє нас про наявність підсвічуваного логотипа компанії на бічній стороні відеокарти, що буде приємним бонусом для власників корпусів із прозорою бічною панеллю.
Список системних вимог до комп'ютера, у який планується встановлення відеоприскорювача, розташований на одній із бічних сторін коробки. Виходячи з рекомендацій, блок живлення в такій системі повинен мати потужність не менше 500 Вт, видавати мінімум 42 А по лінії +12В і підтримувати один 8-контактний кабель живлення PCIe.
У комплекті з ASUS TURBO-GTX1080-8G постачається тільки короткий посібник користувача та диск із драйверами та утилітами.
Для виведення зображення на тестованому адаптері використовується модифікований набір інтерфейсів:
- 1 х DVI-D;
- 2 х HDMI;
- 2 х DisplayPort.
Нагадаємо, що еталонна версія використовує лише один порт HDMI, але три DisplayPort. У даному ж випадку компанія ASUS вирішила піти на зустріч власникам VR-пристроїв, надавши їм два порти HDMI.
Зовнішній вигляд
Як ми вже згадували, однією з небагатьох відмінностей ASUS TURBO-GTX1080-8G від еталонної NVIDIA GeForce GTX 1080 Founders Edition є кожух системи охолодження, виконаний із чорного пластику. Дещо освіжають дизайн відеокарти сріблясті вставки у вигляді тонких смуг.
До незаперечних переваг даної моделі можна віднести високу якість виконання завдяки автоматичному процесу виробництва ASUS AUTO-EXTREME Technology і надійну елементну базу Super Alloy Power II. До її складу ввійшли твердотільні й тантал-полімерні конденсатори, а також дроселі з феритовим осердям. У результаті виробник відзначає зниження робочих температур, підвищення енергоефективності й збільшення терміну служби.
Для живлення тестованого графічного адаптера використовується слот PCI Express 3.0 х16 і один 8-контактний роз’єм PCIe. Завдяки його вдалому розташуванню кулер анітрошки не ускладнює відключення кабелю PCIe.
Для забезпечення роботи технології NVIDIA SLI використовуються відповідні конектори для підключення містків.
Другою візуальною відмінністю ASUS TURBO-GTX1080-8G від NVIDIA GeForce GTX 1080 Founders Edition є відсутність опорної пластини на звороті друкованої плати, яка примітна деякими електричними компонентами, включаючи згадані вище тантал-полімерні конденсатори, і кріпильними гвинтами системи охолодження. Один із них прикритий гарантійною наклейкою, тому зняти радіатор без втрати гарантії у вас не вийде.
В основі новинки лежить графічний чіп NVIDIA GP104-400-A1, який виготовлений за 16-нм техпроцесом. Він складається з 2560 ядер CUDA, 160 текстурних блоків і 64 блоків растеризації. Відеокарта працює на рекомендованих компанією NVIDIA частотах: номінальна − 1607 МГц і динамічна − 1734 МГц.
Пам'ять ASUS GeForce GTX 1080 TURBO, загальним об’ємом 8 ГБ, набрана за допомогою восьми GDDR5X-чіпів компанії Micron, які працюють на рекомендованій ефективній частоті 10010 МГц. Обмін даними між графічним ядром і пам'яттю здійснюється через 256-бітну шину, яка здатна пропускати 320,3 ГБ інформації за секунду.
Цікаво, що компанія ASUS не заявляє на офіційному сайті про наявність інших режимів роботи ASUS GeForce GTX 1080 TURBO, однак у ПЗ ASUS GPU Tweak II присутня можливість активувати профіль «OC», у якому номінальна частота роботи графічного ядра підвищується до 1645 МГц, а динамічна − до 1772 МГц. Відзначимо, що тестування здійснювалося в номінальному режимі з рекомендованими частотами.
Система охолодження
Ми не розбирали відеокарту, щоб не порушувати гарантію, але цілком імовірно, що конструкція системи охолодження дуже схожа на дизайн еталонної модифікації. У якості переваги компанія ASUS вказує на використання довговічного подвійного кулькового підшипника в основі вентилятора.
При автоматичному регулюванні швидкості обертання лопатей вентилятора, у режимі максимального навантаження, графічне ядро нагрілося до 82°С, а кулер, судячи з показів моніторингу, працював на 66% від своєї максимальної потужності. Рівень шуму при цьому був нижче середнього й абсолютно комфортним. Нагадаємо, що кулер NVIDIA GeForce GTX 1080 Founders Edition в аналогічному режимі також утримував температуру GPU на 82°С, але працював при більш низькій швидкості (2266 проти 2788 об/хв).
У режимі максимальної швидкості обертання вентилятора температура GPU знизилася до 75°С. Видаваний при цьому шум злегка перевищив середній рівень і вийшов за комфортні межі. У свою чергу кулер NVIDIA GeForce GTX 1080 Founders Edition зміг охолодити графічне ядро в аналогічному режимі до 69°С. Можливо, в ASUS TURBO-GTX1080-8G також відсутня випарна камера, зменшені розміри радіатора або різницю в показниках забезпечує відсутня пластина жорсткості.
При відсутності навантаження частоти роботи графічного ядра та пам'яті автоматично знижуються, що приводить до зменшення їх енергоспоживання й тепловиділення. У такому режимі температура GPU не перевищує 43°С.
Вартість матеріалів Oculus Rift становить всього $199
Цікава й оптимістична новина для любителів VR прийшла від компанії IHS, фахівці якої розібрали шолом Oculus Rift і підрахували вартість всіх його компонентів (так званий Bill Of Materials (BOM)). Вона склала $199,60. Ще $6,5 необхідно заплатити за збірку й тестування кожного зразка. У підсумку виходить, що вартість матеріалів і виробництва цього VR-шолома складає $ 206,1, а цінник у продажу досягає $599.
Відразу ж напрошується логічне запитання, в чому ж позитив цієї новини? А він полягає в тому, що вартість суттєво завищена, що створює передумови до її стрімкого падіння. Але для цього необхідна жорстка конкурентна боротьба на ринку. Таке сталося з сегментом смартфонів, на якому китайські компанії (Xiaomi, Meizu, Oppo та інші) демпінгують ціни, прагнучи зайняти свою нішу. Для цього вони продають свої продукти з мінімальною націнкою, практично за собівартістю їх виробництва. Оскільки сегмент VR лише починає свій активний розвиток, то не за горами прихід і інших виробників, що й спричинить за собою суттєве зниження ціни.
http://www.fudzilla.com
Сергій Буділовський
Розкрито деякі подробиці відеокарт серії ZOTAC GeForce GTX 1060
Компанія ZOTAC готується представити як мінімум два дизайни відеокарт серії ZOTAC GeForce GTX 1060. Йдеться про ZOTAC GeForce GTX 1060 AMP! і ZOTAC GeForce GTX 1060 Mini. Перша новинка може похвалитися невеликим заводським розгоном графічного процесора, частоти якого досягають 1557 і 1771 МГц. А ось 6 ГБ GDDR5-пам'яті функціонують на стандартній ефективній частоті 8 ГГц.
Система охолодження ZOTAC GeForce GTX 1060 AMP! виділяється модифікованим дизайном. В її конструкції можна помітити дві мідні теплові трубки, алюмінієвий радіатор та два 90-мм осьових вентилятора з дизайном крильчатки IceStorm. При низьких навантаженнях кулер може переходити до пасивного режиму роботи.
У свою чергу ZOTAC GeForce GTX 1060 Mini націлена на Mini-ITX-системи, оскільки її довжина повинна складати 170 мм. Вона представлена в двох варіантах: з 3 і 6 ГБ GDDR5-пам'яті. В обох випадках частотна формула відповідає еталонній, адже для охолодження використовується компактний кулер з невеликим алюмінієвим радіатором і одним осьовим вентилятором. Якщо рівень продуктивності NVIDIA GeForce GTX 1060 дійсно відповідає NVIDIA GeForce GTX 980 (як обіцяє NVIDIA), то навіть цієї компактної моделі вистачить для створення дуже потужної ігрової системи.
Зведена таблиця технічної специфікації відеокарт ZOTAC GeForce GTX 1060 AMP! і ZOTAC GeForce GTX 1060 Mini:
Модель |
ZOTAC GeForce GTX 1060 AMP! |
ZOTAC GeForce GTX 1060 Mini |
GPU |
NVIDIA GP106 |
|
Мікроархітектура |
NVIDIA Pascal |
|
Техпроцес, нм |
16 (FinFET) |
|
Кількість CUDA-ядер |
1280 |
|
Кількість текстурних блоків |
80 |
|
Кількість растрових блоків |
48 |
|
Тактова частота GPU, МГц |
1557 / 1771 |
1506 / 1708 |
Тип відеопам'яті |
GDDR5 |
|
Об'єм, ГБ |
6 |
3 / 6 |
Номінальна / ефективна частота пам'яті, МГц |
2002 / 8008 |
|
Ширина шини пам'яті, бітів |
192 |
|
Пропускна спроможність пам'яті, ГБ / с |
192 |
|
Зовнішні інтерфейси |
3 x DisplayPort 1.4 |
|
Внутрішній інтерфейс |
PCI Express 3.0 x16 |
|
Додаткові роз'єми живлення PCIe |
1 x 6-контактний |
|
Показник TDP, Вт |
120 |
http://videocardz.com
Сергій Буділовський
Відеокарта NVIDIA GeForce GTX 1060 почала підкорювати сегмент $249 − 299
Попередня інформація виявилася достовірною, і компанія NVIDIA дійсно сьогодні представила свою третю відеокарту на основі 16-нм мікроархітектури NVIDIA Pascal. Йдеться про модель NVIDIA GeForce GTX 1060, побудованE на основі графічного процесора NVIDIA GP106. У його структурі присутні 10 SM-блоків, які надають в розпорядження користувача 1280 CUDA-ядер і 80 текстурних блоків. Базова частота GPU дорівнює 1506 МГц, а динамічна може підвищуватися до 1708 МГц. Підсистема відеопам'яті NVIDIA GeForce GTX 1060 складається з 6 ГБ GDDR5 з ефективною частотою 8008 МГц, 192-бітною шиною та пропускною спроможністю 192 ГБ/с.
Компанія NVIDIA позиціонує новинку в якості заміни для NVIDIA GeForce GTX 980. Надані офіційні бенчмарки підтверджують високу обчислювальну потужність новинки, адже перевага в деяких іграх NVIDIA GeForce GTX 1060 над NVIDIA GeForce GTX 960 досягає 100%, що ставить її саме на сходинку до NVIDIA GeForce GTX 980 за рівнем продуктивності.
У першу чергу на ринку з'являться версії NVIDIA GeForce GTX 1060 Founders Edition з рекомендованим для США цінником $299. Партнерські версії надійдуть у продаж за ціною від $249. Цікаво, що новинка позбавлена підтримки технології NVIDIA SLI. Можливо, NVIDIA вирішила не спокушати покупців можливістю заміни однієї топової відеокарти двома середньопродуктивними.
Зведена таблиця технічної специфікації відеокарти NVIDIA GeForce GTX 1060:
Огляд і тестування відеокарти NVIDIA GeForce GTX 1080 Founders Edition на базі NVIDIA Pascal
Перше покоління 28-нм мікроархітектури NVIDIA Maxwell було представлене 18 лютого 2014 року в моделях NVIDIA GeForce GTX 750 і NVIDIA GeForce GTX 750 Ti. Очікувалося, що через півроку вийде друге її покоління, але вже на основі 20-нм техпроцесу. І дійсно, 18 вересня 2014 року дебютувало друге покоління NVIDIA Maxwell у високопродуктивних моделях NVIDIA GeForce GTX 970 і NVIDIA GeForce GTX 980. Ось тільки використовували вони все той же 28-нм техпроцес. Чи то NVIDIA з самого початку не планувала переходити на 20 нм, чи то в TSMC виникли труднощі з освоєнням нової технології, чи то AMD не здивувала рівнем продуктивності конкурентних аналогів. Одним словом, протягом двох років на ринку домінувала 28-нм мікроархітектура NVIDIA Maxwell.
Згідно з дослідженнями аналітичної компанії Jon Peddie Research, саме в 2014 році позиції AMD на ринку десктопної графіки (включаючи інтегровану графіку в APU) опустилися нижче 20%. А от крива NVIDIA показала висхідну тенденцію. Тобто ставка на зниження енергоспоживання з одночасним підвищенням швидкодії повністю себе виправдала. Особливо в мобільних системах, де NVIDIA повністю переграла AMD за кількістю успішних дизайнів.
Але індустрія поспішає вперед, і компанія TSMC уже успішно освоїла 16-нм технологію FinFET. Intel і Samsung розібралися з 14-нм FinFET для виробництва складних чіпів, таких як центральні або графічні процесори. Одним словом, 2016 рік – час чергового зіткнення в деяких сегментах. У цьому випадку – на ринку відеокарт. Позиції NVIDIA буде відстоювати мікроархітектура NVIDIA Pascal. Конкуренцію їй складуть 14-нм AMD Vega у сегменті Hi-End, а також AMD Polaris у категоріях Middle-End і Performance. Тобто літо та осінь обіцяють бути жаркими й напруженими. Знайомство з NVIDIA Pascal ми почнемо з топового на даний момент представника – NVIDIA GeForce GTX 1080. Для початку давайте порівняємо між собою поточне та нове покоління графічних адаптерів компанії NVIDIA:
Модель |
NVIDIA GeForce GTX 970 |
NVIDIA GeForce GTX 1070 |
NVIDIA GeForce GTX 980 |
NVIDIA GeForce GTX 1080 |
NVIDIA GeForce GTX 980 Ti |
Техпроцес, нм |
28 |
16 FinFET |
28 |
16 FinFET |
28 |
GPU |
NVIDIA GM204-200-A1 |
NVIDIA GP104-200-A1 |
NVIDIA GM204-400-A1 |
NVIDIA GP104-400-A1 |
NVIDIA GM200-310-A1 |
Мікроархітектура |
NVIDIA Maxwell 2.0 |
NVIDIA Pascal |
NVIDIA Maxwell 2.0 |
NVIDIA Pascal |
NVIDIA Maxwell 2.0 |
Площа кристала, мм2 |
398 |
314 |
398 |
314 |
601 |
Кількість транзисторів, млрд. |
5,2 |
7,2 |
5,2 |
7,2 |
8,0 |
Кількість CUDA-ядер |
1664 |
1920 |
2048 |
2560 |
2816 |
Кількість текстурних блоків |
104 |
120 |
128 |
160 |
176 |
Кількість растрових блоків |
56 |
64 |
64 |
64 |
96 |
Базова / динамічна частота GPU, МГц |
1050 / 1178 |
1506 / 1683 |
1127 / 1216 |
1607 / 1733 |
1000 / 1076 |
Тип відеопам'яті |
GDDR5 |
GDDR5 |
GDDR5 |
GDDR5X |
GDDR5 |
Об’єм, ГБ |
4 |
8 |
4 |
8 |
6 |
Ефективна частота пам'яті, МГц |
7 012 |
8 008 |
7 012 |
10 008 |
7 012 |
Розрядність шини, біт |
256 |
256 |
256 |
256 |
384 |
Пропускна здатність, ГБ/с |
224,4 |
256,3 |
224,4 |
320 |
337 |
Обчислювальна потужність, TFLOPS |
3,494 |
5,783 |
4,616 |
8,228 |
5,632 |
TDP, Вт |
148 |
150 |
165 |
180 |
250 |
Рекомендована вартість на старті продажів, $ |
329 |
379/ 449 |
549 |
599/ 699 |
649 |
Як бачимо, загальна тенденція до збільшення продуктивності та зменшення енергоспоживання збереглася. Наприклад, NVIDIA GeForce GTX 1070 за обчислювальною потужністю номінально перевершує NVIDIA GeForce GTX 980 Ti, а рівень її TDP на 100 Вт нижчий. У свою чергу NVIDIA GeForce GTX 1080 на 78% поліпшила показник рівня продуктивності в порівнянні зі своїм попередником. А її тепловий пакет при цьому зріс лише на 9%. Досягненню цього сприяло як поліпшення в мікроархітектурі, так і ряд технологій. Більше того, NVIDIA додала і деякі цікаві функції (наприклад, HDR або Ansel), які прямо не впливають на швидкість обчислень, але роблять занурення у віртуальний світ комп'ютерної графіки ще яскравішим і приємнішим. Про них ми і поговоримо далі.
Мікроархітектура та нові технології
Оскільки NVIDIA Pascal зробив величезний стрибок з 28-нм технології на 16-нм FinFET, то вносити кардинальні зміни в його структуру компанія NVIDIA не стала. До того ж NVIDIA Maxwell відмінно себе показала як у плані продуктивності й балансування навантажень, так і в питанні енергоефективності, тому рішення лише дещо доробити цей дизайн цілком логічне.
Структурна схема графічного процесора NVIDIA GP100
На даний момент графічний процесор NVIDIA GP104, який і лежить в основі NVIDIA GeForce GTX 1080 і NVIDIA GeForce GTX 1070, є другим по старшинству після NVIDIA GP100. Схожу ситуацію ми спостерігали й у сімействі NVIDIA Maxwell: NVIDIA GM204 використовувався для відеокарт NVIDIA GeForce GTX 970 і NVIDIA GeForce GTX 980, а NVIDIA GM200 – для NVIDIA GeForce GTX 980 Ti і NVIDIA GeForce GTX TITAN X. Однак є й одна важлива різниця: NVIDIA GP100 встановлений у професійному прискорювачі NVIDIA Tesla P100 для дата-центрів, і у своїй структурі він використовує спеціальні CUDA-ядра для обчислень подвійної точності (FP64) поряд зі звичайними. В іграх і більшості повсякденних програмах вони не задіяні, тому особою користі від них немає. Існує поки неофіційна версія про наявність GPU NVIDIA GP102. Імовірно саме він ляже в основу відеокарти NVIDIA GeForce GTX 1080 Ti і нової моделі серії NVIDIA GeForce GTX TITAN.
Структурна схема графічного процесора NVIDIA GP104
Структурна схема графічного процесора NVIDIA GM204
Структурна схема кластера TPC в NVIDIA GP104 (ліворуч) і NVIDIA GM204 (праворуч)
Структурно графічний процесор NVIDIA GP104 розбитий на чотири обчислювальні кластери (Graphics Processing Cluster (GPC)), як і NVIDIA GM204. Однак перехід на більш тонкий техпроцес дозволив збільшити кількість потокових мультипроцесорів (Streaming Multiprocessor (SM)), тому в новинки у кожному GPC використовується по п'ять SM-блоків замість чотирьох в NVIDIA GM204.
Уже традиційно SM-блок разом із рушієм PolyMorph Engine об'єднані в Texture Processor Cluster (TPC). Структура TPC в NVIDIA GP104 практично не змінилася в порівнянні NVIDIA GM204. Ключова відмінність полягає в інтеграції четвертого покоління PolyMorph Engine із блоком Simultaneous Multi-Projection, якого не було раніше.
Якщо ми пірнемо ще глибше в мікроархітектуру й заглянемо в SM-блок, то побачимо, що він включає до свого складу 4 планувальника (Warp Scheduler), 128 CUDA-ядер, регістровий файл загальним об’ємом 256 КБ, кеш-пам'ять L1 об’ємом 48 КБ і 8 текстурних блоків – тут усе без змін.
Загальна структура контролера пам'яті дещо змінилася - замість чотирьох 64-бітних використовуються вісім 32-бітних, але в загальному рахунку одержуємо ту ж 256-бітну шину, що й в NVIDIA GM204. Для більш наочного сприйняття давайте зведемо всю згадану інформацію в одну таблицю:
Відеокарта |
NVIDIA GeForce GTX 1080 |
NVIDIA GeForce GTX 980 |
Графічний процесор |
NVIDIA GP104-400 |
NVIDIA GM204-400 |
Техпроцес, нм |
16 FinFET |
28 |
Площа кристала, мм2 |
314 |
398 |
Загальна кількість транзисторів, млрд. |
7,2 |
5,2 |
Кількість кластерів GPC |
4 |
4 |
Кількість кластерів TPC |
20 |
16 |
Кількість SM-блоків |
20 |
16 |
Кількість CUDA-ядер |
2560 |
2048 |
Кількість текстурних блоків |
160 |
128 |
Кількість растрових блоків |
64 |
64 |
Об’єм кеш-пам'яті L2, КБ |
2048 |
2048 |
Швидкість вибірки текстур, гігатекселів/с |
257,1 |
144,3 |
Швидкість зафарбування, гігатекселів/с |
102,8 |
72,1 |
NVIDIA GPU Boost 3.0
Після короткого занурення в мікроархітектуру, давайте розглянемо найцікавіші технології, які дебютують в NVIDIA Pascal. Перша на черзі – технологія динамічного розгону NVIDIA GPU Boost 3.0. Вона дозволяє в індивідуальному порядку одержати більш високі показники тактових частот. Принципова відмінність від GPU Boost 2.0 полягає в більшому контролі з боку користувача. Раніше зсув динамічної частоти щодо номінальної швидкості GPU було строго фіксованим. Але ж можливості кожного графічного процесора, тобто максимальні частотні криві в рамках заданих температурних рамок, різні. Наприклад, одні можуть підвищувати швидкість від 1733 до 2000 МГц, а інші – від 1733 до 1800 МГц. Тому GPU Boost 3.0 дозволяє задати зсув частоти в турборежимі для кожного окремо взятого графічного процесора й на всьому проміжку можливих напруг.
Для цього в утилітах для оверклокінгу додана відповідна функція. На першому етапі роботи вона протестує встановлену в системі відеокарту й складе для неї індивідуальну криву максимально можливих динамічних частот для кожної заданого напруги. На другому етапі користувач в автоматичному або в ручному режимі вказує оптимальні показники динамічних частот, щоб вони використовували можливості поточного GPU по максимуму, але не перевищували безпечних температурних рамок.
GDDR5X
Використання HBM у моделях лінійки AMD Radeon R9 FURY дозволяє суттєво поліпшити продуктивність підсистеми відеопам'яті. Але разом із тим це підвищує складність виготовлення графічного процесора і його кінцеву вартість. Тому NVIDIA приберегла стандарт HBM2 для GPU NVIDIA GP100 (і, можливо, NVIDIA GP102), а от в NVIDIA GP104 інтегрований контролер з підтримкою стандартів GDDR5X і GDDR5. Перший тип пам'яті призначений для NVIDIA GeForce GTX 1080, другий – для NVIDIA GeForce GTX 1070.
Коротенько нагадаємо, що стандарт GDDR5X дозволяє передавати чотири біти даних за такт (Quad Data Rate) замість двох (Double Data Rate) в GDDR5. Також з 8n до 16n збільшилася попередня вибірка даних (prefetch). У результаті пропускна здатність інтерфейсу на контакт збільшилася з 7-8 до 10-12 Гбіт/с. Для використовуваної пам'яті GDDR5X у моделі NVIDIA GeForce GTX 1080 цей показник саме й становить мінімальні 10 Гбіт/с. У наступних поколіннях мікросхем планується довести його до 16 Гбіт/с. Але навіть показник в 10 Гбіт/с на контакт дозволив збільшити пропускну здатність пам'яті нової відеокарти до 320 ГБ/с при 256-бітній шині, що потребувало змін у дизайні контролера пам'яті й друкованої плати. Нагадаємо, що в NVIDIA GeForce GTX 980 цей параметр становить 224,4 ГБ/с при аналогічній розрядності шини. А в NVIDIA GeForce GTX 980 Ti – 336 ГБ/с при 384-бітній шині.
До інших ключових переваг GDDR5X належить збільшений максимальний об’єм однієї мікросхеми (з 8 до 16 Гбіт), що дозволяє реалізувати більшу загальну ємність підсистеми відеопам'яті при однаковій кількості чіпів, і зменшену напругу живлення (з 1,5 до 1,35 В), що веде до підвищеної енергоефективності. До того ж у стандарті прописана необхідність керування швидкістю мікросхем пам'яті від рівня їх температури. Теоретично, це повинно підвищити увагу розробників до ефективності охолодження чіпів пам'яті.
Memory Comptression
Збільшена пропускна здатність пам'яті – це велика перевага, але додатковий бонус до швидкості роботи підсистеми відеопам'яті та відеокарти в цілому забезпечує четверте покоління методу компресії на основі різниці кольору (Delta Color Compression). Суть його роботи полягає у виявленні груп пікселів з мінімальною відмінністю у кольорі. А потім вони кодуються за допомогою двох показників: базового кольору та різниці (дельти) між базовим і реальним кольором.
Третє покоління цієї технології використовувалося в NVIDIA Maxwell. У порівнянні з ним NVIDIA Pascal поліпшив алгоритм стиснення 2:1, а також додав режими 4:1 і 8:1. Якщо ж у зображенні використовується дуже багато різних відтінків, то стиснення може й не виконуватися.
Оригінальне зображення (ліворуч), стиснення в NVIDIA Maxwell (по центру), стиснення в NVIDIA Pascal (праворуч)
Для наочної демонстрації переваг роботи рушія Pascal Memory Compression Engine над Maxwell Memory Compression Engine компанія NVIDIA використовувала кадр із гри Project CARS. Пурпурним кольором зафарбовані області зображення, які вдалося стиснути. У результаті цієї процедури зменшується об’єм даних, які циркулюють між пам'яттю, кешем L2, текстурними блоками, буфером кадру й іншими блоками графічного процесора. У цифровому еквіваленті рушій Pascal Memory Compression Engine додає 20% до показника пропускної здатності, теоретично збільшуючи його до 384 ГБ/с.
У цілому поєднання більш високої пропускної здатності GDDR5X-пам'яті та поліпшених алгоритмів стиснення інформації забезпечують приріст продуктивності підсистеми відеопам'яті NVIDIA GeForce GTX 1080 відносно NVIDIA GeForce GTX 980 на рівні 70%.
Async Compute: Dynamic Load Balancing і Pixel Level Preemption
До вересня 2015 року багато хто навіть і не підозрював про технологію асинхронних обчислень (Async Compute) і її вплив на підсумкову продуктивність комп'ютера, оскільки API DirectX 11 її попросту не використовує. А от в DirectX 12 розробники можуть застосовувати її для оптимізації задіяних ресурсів. Справа в тому, що при рендерингу ігрової сцени комп'ютер прораховує безліч складних ефектів (тіні, світло, фізику поведінка об'єктів, алгоритм роботи AI й інші). В DirectX 11 він це робить у послідовному режимі, крок за кроком, тому затримка на одному етапі гальмує весь процес. А в DirectX 12 з'явилася можливість паралельного обчислення. Наприклад, одна частина системи займається складним розрахунками ефектів світла, а інша тим часом обробляє поведінку AI або займається іншими стадіями підготовки зображення. Такий сценарій відмінно ілюструє роботу однієї зі складових частин Async Compute – технології динамічного балансування навантажень (Dynamic Load Balancing).
В NVIDIA Maxwell використовується статичне балансування, при якому одна частина ресурсів виділяється на графічні завдання, інша – на обчислювальні. Якщо, наприклад, перша впоралася зі своєю роботою швидше, то вона якийсь час простоює без навантаження. Динамічне балансування в NVIDIA Pascal використовує всіма улюблений принцип: хто впорався швидше, той допомагає відстаючому. У результаті багато завдань вирішуються більш оперативно.
Другий варіант використання асинхронних обчислень – технологія Pixel Level Preemption – відмінно підійде для тих завдань, які слід робити або вчасно, або не робити взагалі. Наприклад, вона допомагає реалізувати алгоритм Asynchronous TimeWarp (ATW) в VR-шоломах. Системи віртуальної реальності самі по собі вимагають багато обчислювальних ресурсів, а користувач своїми різкими обертаннями головою додає навантаження на графічний процесор, адже зміна її положення в просторі вимагає обробки вже іншого кадру. Тому якщо система не встигла вчасно закінчити прорахунок кадру до його виведення на екран, то він втрачає свою актуальність і обчислювальні ресурси необхідно направити на інші завдання. У такій ситуації технологія Pixel Level Preemption перерве його рендеринг, при необхідності вивантажить результат в пам’ять і займеться іншим завданням.
Simultaneous Multi-Projection
При погляді на мікроархітектуру ми згадували, що ключова відмінність у схемі кластера TPC між NVIDIA Pascal і NVIDIA Maxwell полягає в інтеграції четвертого покоління PolyMorph Engine із блоком Simultaneous Multi-Projection. Він відповідає за реалізацію однойменної технології, суть роботи якої зводиться до достовірного проектування геометричних 3D-об'єктів на плоских екранах залежно від кута перегляду.
Проекція в одній площині (ліворуч), некоректна проекція в кількох площинах (по центру), коректна проекція завдяки Simultaneous Multi-Projection
Монітор – це наше вікно в світ 3D-графіки. На одному екрані ми можемо спостерігати дуже якісну 3D-картинку. Але якщо встановити, наприклад, три екрани зі зсувом один щодо іншого, то картинка буде й далі оброблятися лише в одній проекції, а дивитися на неї ми вже будемо під трьома різними кутами. У такому випадку створюється враження, що достовірна геометрія реалізована лише на центральному екрані, розташованому перпендикулярно погляду користувача. А от бічні дисплеї будуть спотворювати картинку. Саме в цьому випадку Simultaneous Multi-Projection забезпечить коректність сприйняття.
Інший приклад використання цієї технології – VR. Вона вирисовує геометрію для правого та лівого ока одночасно за один прохід, що забезпечує підвищений рівень продуктивності для шоломів віртуальної реальності. Додатково вона дозволяє оперувати меншим об’ємом даних, знижуючи необхідну для комфортного сприйняття роздільну здатність зображення в Oculus Rift з 4,2 до 2,8 Мп. Це трансформується в економію обчислювальних ресурсів і часу на їхню обробку. У результаті NVIDIA Pascal демонструє відмінну продуктивність в VR-бенчмарках.
Апаратне декодування відео та HDR
Мікроархітектура NVIDIA Pascal принесла із собою поліпшення в блоці виведення зображення на екран. Наприклад, з'явилася можливість апаратного кодування та декодування відеопотоку в HEVC із глибиною кольору 10 або 12 біт на канал, поліпшене декодування H.264 і деяких інших стандартів.
Однак справжнім проривом обіцяє стати High Dynamic Range (HDR). Монітори з її підтримкою можуть відтворювати 75% видимого колірного спектру, що у два рази більше, аніж у сучасних екранів. Максимальна яскравість у них збільшиться до 1000 кд/м2 (зараз – 250 – 350 кд/м2), а статична контрастність – до 10 000:1 (зараз 1 000:1 для TN і IPS, 3 000:1 для VA).
Відео та ігри для HDR обіцяють буяння фарб і справжній бенкет для очей. Тому якщо ви в найближчій перспективі планували купувати новий монітор, то радимо почекати виходу HDR-сумісних моделей, які повинні дебютувати до кінця року.
Fast Sync
Показники в грі Counter-Strike: Global Offensive
У присвяченому технології NVIDIA G-SYNC матеріалі ми докладно розібралися в недоліках роботи технології вертикальної синхронізації (V-SYNC On). Найбільші проблеми вона створює любителям динамічних ігор і онлайн-проектів, де висока частота кадрів сприяє низьким затримкам у зміні ігрової обстановки. Тому багато користувачів попросту вимикали її й не звертають увагу на можливі розриви кадрів. У якості альтернативи NVIDIA Pascal пропонує технологію Fast Sync, яка дозволяє усунути артефакти зображення й зберегти порівняно низькі затримки виведення кадрів на екран.
У чому ж полягає її суть? По-перше, увесь ланцюжок підготовки кадру умовно ділиться на дві незалежні частини. У першу входить ігровий рушій, драйвер і графічний процесор. Їхнє завдання – забезпечувати максимально швидкий рендеринг кожної сцени, незалежно від частоти оновлення екрану. Тобто успадковується принцип роботи з вимкненою вертикальною синхронізацією (V-SYNC Off). За умовною пунктирною рискою на малюнку знаходиться друга частина – первинний буфер (Front Buffer), вторинний буфер (Back Buffer), буфер LRB (Last Rendered Buffer) і сам екран. Ця частина вже орієнтується на частоту оновлення екрану, щоб кадр виводився цілком, без яких-небудь розривів. Тобто успадковується принцип роботи V-SYNC On.
Уся система взаємодіє наступним чином: після рендерингу готовий кадр потрапляє в Back Buffer, який відразу ж після цього міняється іменами з Last Rendered Buffer, щоб графічний процесор мав місце для зберігання нового кадру (зміна іменами заміняє процес копіювання). Тобто Back Buffer одержує готовий кадр для виведення на екран і стає Last Rendered Buffer, а Last Rendered Buffer стає Back Buffer і готовий до прийому нового кадру від графічного процесора. Як тільки монітор запитує новий кадр, відразу ж Last Rendered Buffer з готовим зображенням міняється іменами з Front Buffer, оскільки саме з нього інформація подається на екран. Таким чином, GPU може обробляти кадри з максимально можливою швидкістю, а карусель між трьома буферами гарантує, що вони не пропадуть безвісти й на екран буде виводиться потрібний кадр без великих затримок і розривів. От тільки Fast Sync ефективно працює для тих ігор, у яких швидкість відтворення вища за частоту оновлення екрану. Для звичайних моніторів вона становить 60 Гц. Якщо рівень FPS вище 60, тоді є зміст використовувати Fast Sync. Якщо нижчий, тоді плавність картинки забезпечить NVIDIA G-SYNC.
Multi-GPU
Якщо ви плануєте використовувати кілька графічних адаптерів NVIDIA Pascal у режимі NVIDIA SLI, особливо для підтримки екранів з високими роздільними здатностями, тоді вам просто необхідний новий місток High Bandwidth SLI Bridge (SLI HB Bridge).
На відміну від стандартного, він використовує обидва SLI-конектори на друкованій платі відеокарти. Також із 400 до 650 МГц підвищилася частота роботи комбінованого SLI-інтерфейсу. У результаті суттєво зростає його пропускна здатність, що й дозволяє реалізувати комфортну підтримку 4K- і 5K-екранів.
І ще один важливий момент: тепер компанія NVIDIA не радить використовувати 3 або 4 відеокарти в режимі NVIDIA SLI. Справа в тому, що масштабування продуктивності для режиму NVIDIA SLI в іграх і програмах − досить складний і трудомісткий процес, тому NVIDIA вирішила обмежитися оптимізацією під 2 відеокарти. Щоб розблокувати режим 3-Way або 4-Way NVIDIA SLI, користувачам необхідно буде завантажити безкоштовну утиліту Enthusiast Key з офіційного сайту NVIDIA, яка допоможе активувати необхідні налаштування. У якості альтернативи NVIDIA пропонує використовувати режими «Multi Display Adapter (MDA)» або «Linked Display Adapter (LDA)» у сумісних DirectX 12 іграх, які можуть реалізувати підтримку 4 відеокарт.
NVIDIA Ansel
З кожним роком комп'ютерна графіка в іграх стає усе більш барвистою і реалістичною. Серед багатьох людей існує думка, що комп'ютерні ігри – це новий вид мистецтва, тому деякі художники й фотографи всіляко популяризують процес захоплення найбільш вдалих ігрових кадрів. От тільки розробники зазвичай не приділяють цьому багато уваги, тому вибрати потрібний ракурс досить складно, особливо в динамічному ігровому процесі.
Але тепер є технологія NVIDIA Ansel, що обіцяє справжній прорив у цьому питанні. Для її реалізації в програмний код гри необхідно буде додати певні фрагменти: для The Witness – це близько 40 рядків коду, а для The Witcher 3: Wild Hunt – близько 150, тобто сущі дрібниці в порівнянні із загальним об’ємом.
Натомість вона надає унікальні можливості:
- вільну камеру, яка дозволяє вибрати потрібний ракурс для створення максимально ефектного скріншоту;
- фільтри післяобробки, які дозволяють погратися з різними колірними ефектами;
- можливість захоплення знімків з роздільною здатністю, яка в 32 рази перевищує максимальну роздільну здатність екрану;
- підтримку високого колірного спектру для подальшого експорту знімка в Adobe Photoshop;
- зйомку 360-градусних фото для подальшого перегляду за допомогою VR-пристроїв.
Підтримка технології Ansel уже заявлена для Tom Clansy’s The Division, Tom Witness, Lawbreakers, The Witcher 3, Paragon, Fortnite, Obduction, No Man's Sky і Unreal Tournament. Згодом напевно й інші проекти приєднаються до цього списку.
NVIDIA VRWorks
VR – це один із нових потужних драйверів для ринку комп'ютерних технологій у цілому й ігор зокрема. Поки це досить дороге задоволення з обмеженою кількістю контенту, але перспективи в нього дуже великі. Прекрасно це розуміючи, NVIDIA оперативно випустила оновлений пакет інструментів NVIDIA VRWorks. Він включає до свого складу різні технології, інструменти та бібліотеки корисних функцій, які суттєво спрощують розробникам процес створення програм та ігор під VR. У результаті програмісти заощаджують час і ресурси, використовуючи готові й протестовані інструменти, а користувачі одержують більш реалістичний контент. Звичайно, за умови, що використовують сумісну відеокарту компанії NVIDIA.
Для кращого розуміння можливостей NVIDIA VRWorks пропонуємо подивитися демонстраційний ролик, який відображає та пояснює переваги використання однієї з її технології − VRWorks Audio.
Відеокарти NVIDIA GeForce GTX 970, GTX 980 і GTX 980 Ti стають дешевшими
Цілком логічний і очікуваний хід зробила компанія NVIDIA: з метою швидше розпродати залишки відеокарт попереднього покоління були знижені ціни на високопродуктивні моделі лінійки NVIDIA Maxwell. Зокрема, вартість NVIDIA GeForce GTX 970 упала на $25, бажаючим купити NVIDIA GeForce GTX 980 доведеться заплатити на $75 менше, а нові власники NVIDIA GeForce GTX 980 Ti можуть заощадити $125.
У першу чергу зниження цін зафіксоване на західних онлайн-майданчиках, хоча джерело повідомляє, що це глобальний крок, тому в найближчі кілька днів вартість зазначених відеоприскорювачів повинна впасти й для інших ринків. Таким чином, конкуренція підсилюється не тільки для внутрішнього модельного ряду компанії NVIDIA, але й для нових відеокарт серії AMD Polaris, які прийдуть на ринок наприкінці червня. А це означає, що в користувачів є шанс придбати добротну модель за більш доступною вартістю.
http://videocardz.com
Сергій Буділовський
3DMark 11 Performance: як змінювалася продуктивність AMD Radeon RX 480 і чого чекати від режиму AMD CrossFireX
Днями у базі даних бенчмарка 3DMark 11 Performance були виявлені обнадійливі результати тестування відеокарти AMD Radeon RX 480. Досягнутий показник в 14 461 бал ставить її між NVIDIA GeForce GTX 980 (14 014) і AMD Radeon R9 FURY (14 801), що дуже навіть добре для відеокарти, рекомендована вартість якої у два рази нижча.
Виявляється, це далеко не єдиний результат AMD Radeon RX 480 у базі даних бенчмарка 3DMark 11 Performance. Перші показники її продуктивності були додані 12 квітня. Тоді конфігурація з Intel Core i7-4770 показала 11 821 бал, а з Intel Core i7-3960X Extreme Edition – 12 691 бал. Щоправда, швидкість відеопам'яті в тих версіях становила 1 925 МГц замість 2 000 МГц.
Трохи доробивши новинку, компанія AMD знову протестувала її 18 травня із процесором Intel Core i7-4770, досягнувши результату в 13 141 бал з версією драйвера 16.200.1014.0. А вже 20 травня в базі даних з'явилися ще два показники із цим же процесором, але попередньою версією драйвера (16.200.0.0): одна відеокарта змогла набрати 14 461 бал, а дві – 17 244 бали. Зведена таблиця технічної специфікації відеокарти AMD Radeon RX 480:
Модель |
AMD Radeon RX 480 |
GPU |
AMD Polaris 10 (Ellesmere) |
Мікроархітектура |
AMD Polaris |
Техпроцес, нм |
14 |
Кількість потокових процесорів |
2304 |
Тактова частота GPU, МГц |
1267 |
Тип відеопам'яті |
GDDR5 |
Об’єм, ГБ |
4 / 8 |
Номінальна / ефективна частота пам'яті, МГц |
2 000 / 8 000 |
Ширина шини пам'яті, біт |
256 |
Пропускна здатність, ГБ/с |
256 |
Показник TDP, Вт |
150 |
Орієнтовна вартість, $ |
199 / ? |
Дата релізу |
29 червня 2016 |
http://www.3dmark.com
Сергій Буділовський
Продуктивність відеокарти AMD Radeon RX 480 у бенчмарку 3DMark 11 Performance
У базі даних бенчмарка 3DMark 11 Performance з'явився досить цікавий результат для відеокарти з підписом «67DF:C7», що стосується AMD Radeon RX 480. Оскільки всі зазначені параметри для цієї «таємничої» відеокарти повністю відповідають показникам AMD Radeon RX 480 з офіційної презентації, то особливих сумнівів у їхній достовірності немає.
Сам же результат тестування досить примітний – 14 461 бал. Він знаходиться саме між показниками відеокарт NVIDIA GeForce GTX 980 (14 014 балів) і AMD Radeon R9 FURY (14 801 бал). Але ж мова йде про порівняння відеокарт із різних цінових сегментів. Вартість 4-гігабайтної версії AMD Radeon RX 480 стартує з позначки $199. 8-гігабайтний варіант (результати якого й записані в базу даних 3DMark 11 Performance) буде трохи дорожчий, але навряд чи переступить позначку $250. У свою чергу ціна NVIDIA GeForce GTX 980 і AMD Radeon R9 FURY на старті була $549. Примітним є й порівняння показників TDP. Для AMD Radeon RX 480 він заявлений на рівні 150 Вт, тоді як в NVIDIA GeForce GTX 980 і AMD Radeon R9 FURY він становить 165 і 275 Вт відповідно.
Таким чином, AMD Radeon RX 480 дійсно заслуговує на особливу увагу. Тому якщо ви підшукуєте собі нову ігрову відеокарту, але поки не маєте бюджету для NVIDIA Pascal, то варто почекати до 29 червня й подивитися на можливості AMD Polaris при комплексному тестуванні. Зведена таблиця технічної специфікації відеокарти AMD Radeon RX 480:
Модель |
AMD Radeon RX 480 |
GPU |
AMD Polaris 10 (Ellesmere) |
Мікроархітектура |
AMD Polaris |
Техпроцес, нм |
14 |
Кількість потокових процесорів |
2304 |
Тактова частота GPU, МГц |
1267 |
Тип відеопам'яті |
GDDR5 |
Об’єм, ГБ |
4 / 8 |
Номінальна / ефективна частота пам'яті, МГц |
2 000 / 8 000 |
Ширина шини пам'яті, біт |
256 |
Пропускна здатність, ГБ/с |
256 |
Показник TDP, Вт |
150 |
Орієнтовна вартість, $ |
199 |
Дата релізу |
29 червня 2016 |
http://www.guru3d.com
Сергій Буділовський
Огляд і тестування відеокарти GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B)
Продовжуючи розмову про поточні флагманські відеокарти AMD, виконані на основі графічного ядра AMD Fiji, ми розглянемо топовий графічний прискорювач AMD Radeon R9 FURY X.
На відміну від розглянутої раніше AMD Radeon R9 FURY, тестована модель, як і AMD Radeon R9 Nano, одержала максимальну версію графічного ядра AMD Fiji, що включає в себе 4096 потокових процесорів, 256 текстурних блоків і 64 модулі растрових операцій. Якщо ж зіставити AMD Radeon R9 FURY X з AMD Radeon R9 Nano, то ми побачимо більш високу частоту графічного процесора (1050 проти 1000 МГц) і збільшений показник теплового пакету (275 проти 175 Вт). Підсумкова порівняльна таблиця характеристик усіх трьох відеокарт виглядає наступним чином:
Модель |
AMD R9 Fury X |
AMD R9 Fury |
AMD R9 Nano |
Графічне ядро |
AMD Fiji XT |
AMD Fiji PRO |
AMD Fiji XT |
Мікроархітектура |
AMD GCN 1.2 |
||
Кількість потокових процесорів |
4096 |
3584 |
4096 |
Кількість текстурних блоків (TMU) |
256 |
224 |
256 |
Кількість модулів растрових операцій (ROP) |
64 |
64 |
64 |
Частота графічного ядра, МГц |
1050 |
1000 |
1000 |
Тип пам'яті |
HBM |
||
Об’єм відеопам'яті, ГБ |
4 |
||
Ефективна частота відеопам'яті, МГц |
1000 |
||
Ширина шини відеопам'яті, біт |
4096 |
||
Пропускна здатність відеопам'яті, ГБ/с |
512 |
||
Показник TDP, Вт |
275 |
275 |
175 |
Окремо нагадаємо, що з докладним описом усіх характеристик і можливостей AMD Fiji ви можете ознайомитися в огляді AMD Radeon R9 Nano, ну а ми тим часом перейдемо безпосередньо до огляду AMD Radeon R9 FURY X.
І зробити це нам допоможе модифікація GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B). Даний відеоприскорювач люб'язно наданий смарт-маркетом електроніки VSESVIT.BIZ, де його ж можна й купити орієнтовно за $785.
Специфікація:
Модель |
GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B) |
Графічне ядро |
AMD Fiji XT |
Кількість потокових процесорів |
4096 |
Частота графічного ядра, МГц |
1050 |
Частота пам'яті (ефективна), МГц |
500 (1000) |
Об’єм пам'яті, ГБ |
4 |
Тип пам'яті |
HBM |
Ширина шини пам'яті, біт |
4096 |
Пропускна здатність пам'яті, ГБ/с |
512 |
Тип шини |
PCI Express 3.0 x16 |
Інтерфейси виведення зображення |
1 x HDMI 3 x DisplayPort |
Рекомендована потужність блока живлення, Вт |
750 |
Розміри (згідно з вимірами в нашій тестовій лабораторії), мм |
210 х 130 х 40 (208 x 116) |
Драйвери |
Свіжі драйвери можна завантажити із сайту компанії GIGABYTE або сайту виробника GPU |
Сайт виробника |
Упаковка та комплектація
Відеокарта постачається в досить великій і об'ємній коробці, що не дивно, враховуючи наявність комплектної СВО. Дизайн упаковки виконаний у вже знайомому фірмовому стилі, а якісна поліграфія є досить інформативною.
На звороті згадується технічна специфікація, деякі переваги GIGABYTE GV-R9FURYX-4GD-B і список системних вимог. Виходячи з рекомендацій, блок живлення в системі повинен мати потужність не менше 750 Вт і підтримувати два 8-контактні кабелі PCIe. А в корпусі ПК одне з посадкових місць під 120-мм системний вентилятор буде використане для кріплення радіатора СВО.
У комплекті з графічним адаптером ми виявили тільки стандартний набір аксесуарів у вигляді документації та диска з ПЗ. Які-небудь перехідники в коробці відсутні, а виходить, при необхідності пошуком адаптерів для підключення живлення доведеться затурбуватися завчасно.
Для виведення зображення на тестованій моделі використовується еталонний набір інтерфейсів:
- 1 х HDMI;
- 3 х DisplayPort.
Цілком логічним кроком виробника виглядає відмова від аналогового відеовиходу в топовій відеокарті. А що стосується DVI, то розмістити його на платі було проблематично через використовувану систему охолодження, тому при необхідності можна придбати відповідний перехідник.
Зовнішній вигляд і система охолодження
У список переваг GIGABYTE Radeon R9 FURY X безсумнівно слід занести її компактні габарити, завдяки яким не виникне ніяких проблем зі встановленням навіть у відносно маленькі корпуси (за умови, що знайдеться посадкове місце для радіатора СВО). Окремо виділимо цілком пізнаваний і стильний дизайн у темних тонах, який відмінно доповнюється логотипом червоного кольору й софт-тач покриттям верхньої кришки кулера.
Зворотна сторона прикрита опорною пластиною, на якій нанесені наклейки з необхідною сервісною інформацією.
Окремо відзначимо наявність на звороті невеликого перемикача, який відповідає за активацію й керування діагностичним підсвічуванням, реалізованим за допомогою 9 світлодіодів поряд із роз’ємами живлення.
За допомогою перемикача можна не тільки вимикати роботу підсвічування, але й змінити колір його світіння із червоного на синій.
Ще один тумблер відповідає за перемикання між двома прошиваннями BIOS (основний і запасний). Він розташований поряд із логотипом «Radeon», який підсвічується червоним кольором.
На відміну від згаданих вище світлодіодів, даний логотип завжди світиться тільки червоним кольором, і керувати його роботою не можна.
Для живлення тестованого графічного адаптера доступний слот PCI Express x16 і два 8-контактні роз’єми PCIe, розташовані на бічній стороні плати. Система охолодження не закриває доступ до них, що сприяє зручному підключенню та відключенню кабелів живлення.
В основі тестованої моделі лежить GPU AMD Fiji XT, виготовлений за 28-нм техпроцесом. Він включає до свого складу 4096 потокових процесорів, 64 блоки растеризації та 256 текстурних блоків. Частота графічного процесора відповідає еталонним 1050 МГц.
Пам'ять, загальним об’ємом 4 ГБ, набрана за допомогою чотирьох HBM-чіпів виробництва SK hynix, які працюють на ефективній частоті 1000 МГц. Обмін даними між графічним процесором і пам'яттю здійснюється через 4096-бітну шину, яка здатна пропускати 512 ГБ/с.
Система охолодження
Система охолодження моделі GIGABYTE Radeon R9 FURY X (GV-R9FURYX-4GD-B) являє собою замкнений контур. З корпусу відеокарти виходять два сполучні шланги для циркуляції рідини й кабель живлення. Усередині вони підключені до сполученого з помпою водоблоку, який встановлений на алюмінієвій пластині, що накриває друковану плату.
Для охолодження холодоагенту використовується масивний радіатор з розмірами 150 х 120 х 38 мм.
Активним елементом цієї частини конструкції виступає осьовий вентилятор типорозміру 120 мм із діаметром лопатей 111 мм. Ширина радіатора зі встановленою вертушкою становить 64 мм.
В автоматичному режимі роботи з максимальним навантаженням графічне ядро нагрілося до 64°С, а кулер, судячи з показів моніторингу, працював при цьому на 19% від своєї пікової потужності. Рівень шуму при цьому був дуже тихим і абсолютно комфортним. Для порівняння нагадаємо, що досить габаритний кулер із трьома вентиляторами, встановлений на GIGABYTE Radeon R9 FURY WINDFORCE 3X OC, зміг охолодити працюючий на менших частотах AMD Fiji PRO до 69°С.
У режимі максимальної швидкості обертання вентилятора температура GPU знизилася до 42°С. Видаваний при цьому шум дещо перевищив середній рівень і став некомфортним для постійного використання. У свою чергу температура GIGABYTE Radeon R9 FURY WINDFORCE 3X OC в аналогічному режимі склала 50°С.
При відсутності навантаження частоти графічного ядра та пам'яті автоматично знижувалися, що приводило до меншого їхнього енергоспоживання і тепловиділення. На жаль, СВО не переходить при цьому в пасивний режим і продовжує працювати. Температура графічного ядра в такому режимі не перевищувала позначку в 25°С. Окремо відзначимо, що періодично був помітний високочастотний шум дроселів, що не критично, але не дуже приємно.
Офіційний дебют відеокарти AMD Radeon RX 480: AMD Polaris підкорює сегмент $199
Головною подією цього дня в IT-індустрії можна по праву вважати офіційний дебют першої відеокарти на основі довгоочікуваної 14-нм мікроархітектури AMD Polaris. Йдеться про модель AMD Radeon RX 480. Вона створена для забезпечення преміального VR-досвіду в ціновому діапазоні $199. Тобто ця новинка безпосередньо не конкурує з представленими раніше моделями NVIDIA GeForce GTX 1070 і NVIDIA GeForce GTX 1080, мінімальні ціни на які становлять $379 і $599 відповідно.
На презентації були розкриті далеко не всі технічні подробиці відеокарти AMD Radeon RX 480. Точно відомо, що графічний процесор AMD Polaris 10 (Ellesmere) працює на частоті 1267 МГц і має підтримку 36 обчислювальних блоків (CU), тобто 2304 потокових процесорів. У парі з ним працює 4 або 8 ГБ GDDR5-пам'яті з 256-бітної шиною і пропускною спроможністю 256 ГБ/с. З цього можна зробити висновок, що номінальна частота відеопам'яті становить 2000 МГц, а ефективна – 8 000 МГц. Показник TDP новинки заявлений на рівні 150 Вт, а для додаткового живлення використовується один 6-контактний роз'єм PCIe.
Обчислювальна потужність AMD Radeon RX 480 перевищує 5 TFLOPS. Для порівняння, аналогічний показник NVIDIA GeForce GTX 1070 сягає 6,5 TFLOPS, NVIDIA GeForce GTX 980 – 4,6 TFLOPS, AMD Radeon R9 390 – 5,1 TFLOPS, а AMD Radeon R9 390X – 5,9 TFLOPS. Також новинка забезпечує підтримку HDR-моніторів за допомогою інтерфейсу DisplayPort 1.3. У продажу версія з 4 ГБ пам'яті буде доступна від $199, а з 8 ГБ – трохи дорожча (орієнтовно $230+).
Хоч AMD Radeon RX 480 безпосередньо не може конкурувати з NVIDIA GeForce GTX 1080, але в своїй презентації компанії AMD зазначила, що зв'язка з двох таких адаптерів може ефективно замінити одну топову відеокарту. При цьому вона обійдеться дешевше (<$500 проти $700) і зможе забезпечити вищу продуктивність в оптимізованих проектах (наприклад, Ashes of the Singularity). Більш того, відсоток використання GPU в такій системі набагато нижчий, а це як мінімум означає менше навантаження на систему охолодження для комфортнішої роботи.
http://videocardz.com
Сергій Буділовський
MSI розробляє портативний ПК для VR
Компанія MSI готує вельми цікавий персональний комп'ютер для VR-розваг. В основі його концепції лежить ідея створення портативної системи, яку можна розташувати на спині у вигляді рюкзака, попередньо підключивши VR-шолом. Такий підхід забезпечить високу мобільність самого користувача для пересування у віртуальному світі.
Сам ПК побудований на основі десктопного процесора серії Intel Core i7 і відеокарти рівня NVIDIA GeForce GTX 980 (можливо, NVIDIA GeForce GTX 1080M). Таке зв'язування цілком зможе забезпечити відтворення VR-ігор з високим рівнем якості та необхідною швидкістю для комфортного занурення у віртуальну реальність. Важливим елементом всієї конструкції виступить об’ємна вбудована батарея, яка забезпечить автономність роботи. Очікується, що прототип або вже готовий зразок компанія MSI покаже в рамках виставки Computex 2016.
http://www.techpowerup.com
Сергій Буділовський