up
ua ru
menu



directx 12

Вибрати з: Оглядів Новин
Тільки в розділі
Шукати в знайденому тег:

Огляд і тестування процесора Intel Core i3-8350K: не такий, як усі!

Популярність серії Intel Core i3 8-го покоління в основному тримається на моделі Core i3-8100, яка в середньому за $120 пропонує повноцінні 4 ядра з частотою 3,6 ГГц. Якщо докласти орієнтовно $45, то можна взяти Intel Core i3-8300, у якого частота всього на 100 МГц вища і відеоядро спритніше. А за Intel Core i3-8350K доведеться викласти в середньому $185, хоча тут вже виникає дилема, оскільки додавши ще $25, можна взяти 6-ядерний Intel Core i5-8400.

Intel Core i3-8350K

Чим же цікавий Core i3-8350K і чому він так далеко пішов від Core i3-8100? Першочергово його базова частота на 400 МГц вища, тобто в номіналі отримуємо 4 замість 3,6 ГГц. Але головне, що множник у нього розблокований, а це відкриває дорогу для розгінних експериментів. До того ж тепловий пакет підвищений з 65 до 91 Вт. По-друге, кеш-пам'яті L3 у нього на 2 МБ більше. І по-третє, можна згадати про більш продуктивне відеоядро, якщо комусь воно буде цікавим.

Intel Core i3-8350K

У результаті Intel Core i3-8350K розрахований на любителів розгінних експериментів, геймерів, трейдерів, наукових співробітників та інших професіоналів, для яких важлива саме висока продуктивність в однопоточному режимі, а не наявність великого числа ядер.

Специфікація

Модель

Intel Core i3-8350K

Код Spec

SR3N4

Процесорний роз'єм

Socket LGA1151

Базова частота, ГГц

4,0

Множник

40

Базова частота системної шини, МГц

100

Кількість ядер/потоків

4 / 4

Об'єм кеш-пам'яті L1, КБ

4 х 32 (пам'ять даних)
4 х 32 (пам'ять інструкцій)

Об'єм кеш-пам'яті L2, КБ

4 x 256

Об'єм кеш-пам'яті L3, МБ

8

Мікроархітектура

Intel Coffee Lake

Номінальна розрахункова потужність (TDP), Вт

91

Максимальна температура (TJUNCTION), °С

100

Техпроцес, нм

14

Підтримка інструкцій і технологій

MMX (+), SSE, SSE2, SSE3, SSSE3, SSE4.1, SSE4.2, EM64T, VT-x, VT-d, AES, AVX, AVX2, FMA3, Intel SpeedStep, Secure Key, Intel SGX, Intel MPX, Intel OS Guard, Intel Boot Guard, Execute Disable Bit, Intel Identity Protection, Thermal Monitoring, Idle States

Вбудований контролер пам'яті

Тип пам'яті

DDR4

Підтримка частоти, МГц

2400

Число каналів

2

Максимальна пропускна здатність, ГБ/с

37,5

Вбудоване графічне ядро Intel UHD Graphics 630

Кількість виконавчих блоків (EU)

23

Базова/динамічна частота, МГц

350 / 1150

Максимальний об'єм відеопам'яті (виділяється з ОЗП), ГБ

64

Максимальна роздільна здатність екрана при 60 Гц

4096 х 2304

Максимальна кількість підтримуваних дисплеїв

3

Підтримувані технології та API

DirectX 12, OpenGL 4.5, Intel Quick Sync Video, Intel InTru 3D, Intel Clear Video HD, Intel Clear Video

Сайт виробника

Intel

Сторінка моделі

Intel Core i3-8350K

Упаковка, комплект постачання та зовнішній вигляд

 Intel Core i3-8350K

Процесор постачається в комплекті з документацією і наклейкою. Систему охолодження доведеться купувати окремо, що цілком виправдано для моделі з розгінним потенціалом, але це додатково здорожує кінцеву систему.

Код FPO вказує, що ЦП був виготовлений на фабриці в Малайзії на 29 тижні 2017 року. На зворотному боці притулилися контактні площадки під роз'єм Socket LGA1151. Нагадаємо, що процесори лінійки Intel Coffee Lake офіційно сумісні лише з материнськими платами на базі чіпсетів Intel 300-й серії. При використанні неофіційних прошивок можна спробувати запустити їх на моделях із чіпсетами Intel 100-й і 200-й серії, але гарантій успіху ніхто не дає.

Аналіз технічних характеристик

Intel Core i3-8350K

При запуску стрес-тесту Intel Core i3-8350K без проблем взяв номінальну швидкість у 4 ГГц. При цьому дана частота є стабільною і постійною, незалежно від кількості задіяних ядер. Наприклад, у того ж Core i5-8400 базова швидкість становить 2,8 ГГц, а динамічна змінюється в залежності від кількості ядер: 3,8 ГГц - для шести, 3,9 ГГц - для чотирьох і двох, 4 ГГц - для одного.

Intel Core i3-8350K

Розподіл кеш-пам'яті L1 і L2 у Core i3-8350K і інших представників цієї серії аналогічне, а ось L3 маємо 8 МБ або по 2 МБ на ядро замість 1,5 МБ/ядро у молодших моделей. До того ж використовується 16 каналів асоціативності замість 12, що також повинно поліпшити продуктивність.

Intel Core i3-8350K

Контролер оперативної пам'яті гарантовано підтримує роботу модулів стандарту DDR4-2400 у двоканальному режимі, хоча представники серій Intel Core i5 і Core i7 можуть функціонувати з пам'яттю DDR4-2666. При бажанні цю різницю можна надолужити за допомогою розгону. Тим більше купувати такий процесор із материнською платою на молодших чіпсетах навряд чи хтось буде.

Intel Core i3-8350K

Intel Core i3-8350K

А якщо ви вирішите використовувати процесор без відеокарти, то у вашому розпорядженні буде вбудоване графічне ядро Intel UHD Graphics 630 з базовою частотою 350 МГц і динамічним розгоном до 1150 МГц. Неофіційні джерела вказують на наявність у його структурі 23 виконавчих блоків замість 24 у старших моделей серії Intel Core i5 і Core i7. Якщо вас цікавить продуктивність iGPU в іграх, то вона буде трохи вища, ніж у Intel Core i3-8100.

Тестування

Для тестування процесора Intel Core i3-8350K, а також його внутрішніх і зовнішніх конкурентів, використовувалися такі стенди:

Процесор

AMD Ryzen 5 2600

Intel Core i3-8100 / Intel Core i3-8350K / Intel Core i5-8400

Материнська плати

MSI X470 Gaming M7 AC

ASUS ROG STRIX Z370-F GAMING

Кулер

be quiet! Silent Loop 240mm

be quiet! Dark Rock 4

Оперативна пам'ять

2 x 8 ГБ DDR4-3400 G.SKILL Sniper X

Відеокарта

Inno3D iChill GeForce GTX 1080 X3

Дискова підсистема

GOODRAM Iridium PRO 240 ГБ | 960 ГБ
Seagate IronWolf 2 ТБ

Блок живлення

Seasonic PRIME 850 W Titanium

Корпус

Thermaltake Core P5 TGE

Монітор

AOC U2879VF

1. Порівняння при номінальних параметрах. Синтетика

Intel Core i3-8350K

Intel Core i3-8350K

Intel Core i3-8350K

Intel Core i3-8350K

Intel Core i3-8350K

Intel Core i3-8350K

Intel Core i3-8350K

Intel Core i3-8350K

У цілому за синтетикою результати цілком прогнозовані: Intel Core i3-8350K у середньому на 9% обходить Intel Core i3-8100. Своєю чергою обидва 6-ядерники виглядають краще тестованої моделі.

2. Порівняння при номінальних параметрах. Ігри

Intel Core i3-8350K

Intel Core i3-8350K

Intel Core i3-8350K

Intel Core i3-8350K

Intel Core i3-8350K

Intel Core i3-8350K

Intel Core i3-8350K

Підіб'ємо підсумки першої частини. У боротьбі 4-ядерників закономірна перевага в 10-20% залишилося за Intel Core i3-8350K.

Intel Core i3-8350K

Своєю чергою Intel Core i5-8400 доводить, що в номінальному режимі геймерам краще доплатити за 6 ядер, отримавши бонус продуктивності в 20-24%.

Intel Core i3-8350K

У порівнянні з Ryzen 5 2600 4-ядер Core i3-8350K усе ж вийшов переможцем, хоча різниця знаходиться в межах 2-11%. Однак у важких іграх із відкритим світом і оптимізацією під багатопоточність саме представник AMD буде виглядати цікавіше. 

Теги: intel   core i3   intel core   core i3-8350k   core i5   core i5-8400   ddr4   ryzen 5 2600   amd   socket lga1151   coffee lake   amd ryzen   directx 12   asus   g.skill   msi   
Читати огляд повністю >>>

Simultaneous Multithreading (SMT) у топовому AMD Ryzen 7 2700X: тестування в синтетиці й іграх

Сучасні процесори настільки складні, що ефективно задіяти одночасно всі їх вузли досить складно. Саме тому, прагнучи підвищити ККД, компанія Intel вже давно представила технологію Hyper-Threading. У нових процесорах AMD Ryzen теж реалізований такий підхід.

AMD Ryzen 7 2700X

Уявіть, що вам потрібно побудувати будинок і у вас навіть є помічники, але кожен із них фахівець у чомусь одному. Якщо ви будете працювати строго за чергою, то процес затягнеться на дуже довго, тому краще спробувати одночасно виконувати різні завдання, коли це можливо. Той же принцип застосуємо до процесорів: можна організувати паралельний потік обробки даних на вузлах, що простоюють.

У перекладі з англійської SMT (Simultaneous MultiThreading) означає «одночасна багатопоточність». Її суть у тому, що операційна система є кожне фізичне ядро процесора у вигляді двох логічних або віртуальних ядер, і направляє їм на обробку два потоки даних замість одного. Оскільки процесам доводиться конкурувати за ресурси одного ядра, то в теорії його вузли повніше завантажені роботою і не простоюють, тобто підвищується ефективність.

AMD Ryzen 7 2700X

Найбільша складність полягає в тому, щоб добре реалізувати гнучку систему доступу потоків до обчислювальних ресурсів ядра, і вони не гальмували один одного. Для цього в різних блоках мікроархітектури AMD Zen застосовуються 4 способи. Зелені блоки використовують квантування за часом, тобто відводять однаковий час для кожного потоку. Якщо система на основі внутрішнього аналізу виділяє якийсь із двох потоків в якості пріоритетного, то він першим отримує доступ до синіх блоків. Але один із двох потоків може бути початково позначений як більш пріоритетний, в такому випадку він першим отримує доступ до бірюзових блоків. Інші вузли, розфарбовані червоним, діють за принципом «хто перший встав, того і черевики».

AMD Ryzen 7 2700X

AMD Ryzen 7 2700X

Крім того, для ефективної роботи недостатньо реалізувати технологію SMT на апаратному рівні процесора. Її також повинні підтримувати операційна система, драйвери і прикладні програми. Тому спочатку з AMD Zen було не все гладко цього плану. Наприклад, система могла за максимумом завантажити два потоки одного ядра або половини ядер, того часу як інші простоювали. Само собою, замість приросту виходило уповільнення роботи. Минулого року ситуація в цьому плані повинна була помітно покращитися, але чи так це насправді? Давайте перевіримо.

AMD Ryzen 7 2700X

AMD Ryzen 7 2700X

В основі тестового стенда знаходиться 8-ядерний флагман AMD Ryzen 7 2700X, який може працювати в 16-потоковому режимі. Він встановлений на материнську плату MSI X470 Gaming M7 AC і охолоджується СВО від be quiet!. Щоб VRM материнської плати не перегрівався і не знижував продуктивність системи, зверху ми поклали вентилятор Noctua NF-A14 industrialPPC. Операційна система і вимогливі до дискової підсистеми ігри були встановлені на SSD серії GOODRAM Iridium PRO, інші - на HDD від Seagate. Обробка графіки була покладена на відеокарту MSI GeForce GTX 1070 Ti GAMING 8G з ефективним кулером. Усе це добро було зібрано на Thermaltake Core P5 TGE, а за живлення відповідав блок серії Seasonic PRIME.

Тестовий стенд:

AMD Ryzen 7 2700X

Відразу ж відзначимо, що ми вирішили зафіксувати частоту процесора на позначці 4 ГГц, щоб технології динамічного розгону не впливали на результати тестування. А для підвищення стабільності тактової частоти вручну вимкнули опцію Spread Spectrum. Вона дозволяла тактовому генератору видавати плаваючу частоту, щоб знизити електромагнітні наведення від комп'ютера на навколишнє обладнання. Сама ж технологія SMT за замовчуванням активна, але в BIOS її можна відключити.

AMD Ryzen 7 2700X

Переходимо до тестування, і почнемо його з декількох синтетичних бенчмарків. В архіваторі 7-ZIP перевага від роботи технології SMT оцінюється в 16-59%.

 AMD Ryzen 7 2700X 

Активація цієї опції в WinRAR дозволяє підняти загальну швидкість на 19%.

AMD Ryzen 7 2700X

Дуже цікавими вийшли результати в CINEBENCH R15: продуктивність виключно процесорної частини підвищується на 40% при використанні SMT. Зате у зв'язці з відеокартою все навпаки - результати поліпшуються на 10% після її деактивації.

AMD Ryzen 7 2700X

У тесті x265 HD Benchmark після вимкнення багатопотокового часу кодування зросло на 12%, тобто і в цьому завданні від багатопоточності є певний зиск.

AMD Ryzen 7 2700X

RealBench у цілому позитивно оцінює роботу технології SMT, але приріст залежить від конкретного завдання: при редагуванні фото в GIMP, мультизадачновому режимі і в тесті OpenCL бонус склав всього 2-3%. І лише при кодуванні відео показник покращився на 23%.

Як бачимо, у робочих завданнях у середньому бонус від використання SMT буде на рівні 18%, а в деяких добре оптимізованих під багатопотокові додатки прискорення досягне 40% і більше. Поки все непогано.

AMD Ryzen 7 2700X

А яке становище справ в іграх? Адже саме тут можна роками чекати оптимізацію і не дочекатися, а інертні рушії досі вчаться працювати на багатоядерних процесорах.

Тест будемо проводити двома етапами: спочатку запустимо бенчмарки в HD-дозволі, щоб навмисно знизити навантаження на відеокарту і краще відчути різницю; потім перейдемо в Full HD, щоб подивитися, як це помітно при більш реальних умовах.

AMD Ryzen 7 2700X

В основному для моніторингу будемо використовувати утиліту FPS Monitor. Вона дозволяє налаштовувати інтерфейс і виводити не тільки відсоток завантаження процесора і відеокарти, але і корисну статистику. Наприклад, показники 1 і 0,1% Low, вони ж рідкісні і дуже рідкісні події, коректніше відображають рівень комфорту у грі, ніж мінімальний FPS. Чим менша між ними різниця і чим вони ближчі до середнього FPS, тим плавніший відеоряд і комфортніший геймплей. І не звертайте уваги на температуру процесора - у даному випадку вона відображається некоректно.

AMD Ryzen 7 2700X

AMD Ryzen 7 2700X

Почнемо зі старого рушія Counter-Strike: Global Offensive. При автоналаштуваннях система вибрала дуже високі параметри і середній FPS був на 6% вищий у системі з SMT. Мабуть, фонові боти добре паралеляться. Зате статистика 1 і 0,1% Low була на 7-27% кращою при роботі в 8-потоковому режимі.

AMD Ryzen 7 2700X

AMD Ryzen 7 2700X

Той факт, що старі ігри більше цінують продуктивність ядра, ніж багатопоточність, добре видно і на прикладі Far Cry Primal. Тут уже фіксуємо приріст за всіма показниками на рівні 12-20%.

AMD Ryzen 7 2700X

AMD Ryzen 7 2700X

Відключення SMT у Rainbow Six Siege також приносить позитивний ефект. І хоча моніторинг показує непогане балансування завдань між 16 логічними ядрами, усе ж в умовах відсутності конкуренції за ресурси бонус від продуктивності може досягати 35%.

AMD Ryzen 7 2700X

AMD Ryzen 7 2700X

Теоретично DirectX 12 дозволяє краще розподіляти завдання між ядрами і ефективніше використовувати ресурси CPU, тому запустивши Deus Ex: Mankind Divided у цьому режимі при ультра пресеті, ми очікували побачити перевагу за SMT, але фактично його не виявилося. Навпаки, робота в 8-потоковому режимі забезпечила перевагу в 10-16%.

AMD Ryzen 7 2700X

AMD Ryzen 7 2700X

У Hitman при тому ж API чіткої тенденції не простежується: середній фреймрейт поліпшується від виключення SMT на 2,5%, а показник 1% Low на 10% погіршується. У цілому ж статистика досить схожа, тому в даному випадку наявність або відсутність SMT ролі не грає.

AMD Ryzen 7 2700X

AMD Ryzen 7 2700X

Ще більш рівна ситуація спостерігається в Assassin's Creed Origins при максимальних налаштуваннях: різниця в показниках становить 2-5% на користь SMT, але на практиці це 1-2 кадри/с, що цілком можна списати на похибку вимірювання.

AMD Ryzen 7 2700X

AMD Ryzen 7 2700X

І лише Far Cry 5 демонструє помітний виграш від включення багатопоточності на Ryzen 7 2700X, правда, тільки в одному показнику дуже рідкісних подій - приріст становить 53%. За рештою різниця не перевищує 4%, що можна списати на похибку вимірювання. 

Теги: amd   ryzen 7 2700x   amd ryzen   full hd   directx 12   
Читати огляд повністю >>>

AMD краще NVIDIA в Battlefield V

До мережі просочилися вельми цікаві скріншоти, що демонструють продуктивність відеокарт AMD і NVIDIA в закритому альфа-тесті гри Battlefield V. Вона розробляється студією EA DICE у співпраці з NVIDIA, тому логічно було б очікувати переваги її відеокарт над продуктами конкурентів ... але щось пішло не так.

Battlefield V

У роздільній здатності 1080p при ультра налаштуваннях продуктивність 8-гігабайтної AMD Radeon RX 580 на 50-100% вища, ніж у 6-гігабайтної NVIDIA GeForce GTX 1060. При переході до 1440p розрив скорочується, але все одно RX 580 виглядає набагато кращим. Більш того, в обох роздільностях при переході до DirectX 12 спостерігається падіння продуктивності в системі з NVIDIA GeForce GTX 1060. При використанні AMD Radeon RX 580 швидкості падають лише в 1440p.

Battlefield V

Battlefield V

У цілому поки що рано говорити про остаточні результати в цій грі, адже до жовтневого релізу розробники напевно внесуть вагон і маленький візок правок, та й компанії AMD і NVIDIA оптимізують свої драйвери.

https://www.techpowerup.com
Сергій Буділовський

Читати новину повністю >>>

Геймплейне тестування NVIDIA GeForce GTX 1050 Ti в 2018: оптимально ціна/можливості?

Після ігрового тестування відеокарти NVIDIA GeForce GTX 1050 цікаво буде оцінити і можливості наступного бюджетного рішення - NVIDIA GeForce GTX 1050 Ti в популярних іграх минулого і поточного року.

NVIDIA GeForce GTX 1050 Ti

Актуальність даного тесту викликана двома причинами. З одного боку, заміна для GeForce GTX 1050 Ti у кращому випадку з'явиться восени-взимку поточного року або навіть у наступному, тому у своєму сегменті вона як мінімум до кінця 2018-го залишиться на прилавках магазинів. З іншого - останнім часом в ігровій індустрії було багато цікавого: реліз нових блокбастерів, вихід доповнень до них і масштабні оновлення існуючих ігор. Тому якщо ви прицінюєтеся до даної відеокарти, то тест з актуальними можливостями вам не завадить.

NVIDIA GeForce GTX 1050 Ti

Головну скрипку в тестуванні зіграє Colorful iGame GTX 1050 Ti U-4G. Нагадаємо, що в її основі знаходиться графічний чіп NVIDIA GP107-400 з підтримкою 768 CUDA-ядер. За замовчуванням він працює на еталонній частотній формулі 1290/1392 МГц, але якщо активувати Turbo-режим, то швидкості підвищуються до 1380/1493 МГц. 4 ГБ GDDR5-пам'яті працюють на ефективній частоті 7 ГГц. За охолодження відповідає кулер з двома вентиляторами і двома тепловими трубками, а для коректної роботи слід підключити 6-контактний кабель PCIe.

NVIDIA GeForce GTX 1050 Ti

Оскільки нас цікавлять можливості виключно відеокарти, то в іграх ми повинні упиратися саме в її продуктивність, а не обмежуватися можливостями інших складових тестового стенда. Саме тому ми використовували розігнаний до 5 ГГц процесор Intel Core i7-7740X, що охолоджується СВО від Thermaltake, 16-ГБ набір ОЗП Patriot Viper 4 у двоканальному режимі на частоті 3200 МГц і SSD Apacer PANTHER AS330 для вимогливих ігор і операційної системи. А щоб не втрачати продуктивності на перекодування, геймплеї були записані зовнішньою системою з AVerMedia Live Gamer HD 2.

NVIDIA GeForce GTX 1050 Ti

NVIDIA GeForce GTX 1050 Ti

Конфігурація тестового стенда:

NVIDIA GeForce GTX 1050 Ti

Вступна частина позаду, тести попереду. Усі вони проходили в роздільній здатності Full HD. Упор при виборі ігор робили на проекти минулого і поточного року.

NVIDIA GeForce GTX 1050 Ti

Гру Subnautica ми вирішили запустити з високим пресетом якості, але стабільності їй все ще не вистачає. Спочатку зловили фриз до 13 FPS, а трохи пізніше пробили дно в 7 кадрів/с. Інша статистика не така вже й погана: у середньому можна розраховувати на 60 FPS з рідкісними просадками нижче ніж 36 кадрів/с.

NVIDIA GeForce GTX 1050 Ti

Завдяки покроковому геймплею грою XCOM 2 War of the Chosen можна насолоджуватися навіть при високому профілі налаштувань графіки. Звичайно, бувають неприємні фризи до 5 кадрів/с, а дуже рідкісні події досягають 7 FPS - майже як у Subnautica. Але це не впливає на результат бою. Середня ж швидкість складає 46 кадрів/с. Відеобуфер використаний наполовину, а з ОЗП взято 6 ГБ.

NVIDIA GeForce GTX 1050 Ti

Морозний хіт цієї весни в жанрі містобудування, гру Frostpunk, можна проходити навіть при дуже високих налаштуваннях графіки. Середня швидкість склала 49 FPS, а інша статистика перебувала на рівні 28-29 кадрів/с. Хоча не виключаємо, що з ростом міста і кількості NPC доведеться опуститися до більш низьких пресетів. Також насторожує частокіл на графіку Frame Time і високе споживання оперативної пам'яті в межах 7 ГБ.

NVIDIA GeForce GTX 1050 Ti

ARK Survival Evolved хоч і вийшла у релізну стадію, але стабільністю і хорошою оптимізацією похвалитися все ж не може. Вибір середнього набору налаштувань приводив до фризів 5 FPS. Хоча в цілому швидкість рідко опускалася нижче від 28 кадрів/с. Середній показник і зовсім піднявся до 49.

NVIDIA GeForce GTX 1050 Ti

Після попереднього тесту в системі з GTX 1050, гру Divinity Original Sin 2 ми перенесли на SSD у надії поліпшити ситуацію з фризами. Але при ультра пресеті в цьому плані мало що змінилося: мінімальна частота і дуже рідкісні події все ще знаходяться нижче від 15 FPS. Середня швидкість піднялася до 73 кадрів/с, і графік часу кадру досить плавний, тому в цілому грати можна.

NVIDIA GeForce GTX 1050 Ti

А ось з World of Tanks на ультра налаштуваннях особливих проблем ми не відчували: середня швидкість склала 93 FPS, а мінімальна - 24. Статистика рідкісних і дуже рідкісних подій перебувала в межах 40 кадрів/с. До системних ресурсів гра не вимоглива. У результаті навіть на легкому танку ви зможете ефективно діяти в бою.

NVIDIA GeForce GTX 1050 Ti

З War Thunder ситуація вийшла злегка неоднозначною. При виборі профілю Кіно проскочив одиничний фриз до 17 FPS, хоча запис вівся не з першого бою. Середня швидкість досягла 84 кадрів/с, а статистика рідкісних і дуже рідкісних подій була навіть вищою, ніж у World of Tanks. Тому якщо не реагувати на можливі епізодичні осідання, то в цілому грати комфортно.

NVIDIA GeForce GTX 1050 Ti

Ще краще грається в World of Warships при максимальних налаштуваннях графіки: картинка радує погляд барвистими пейзажами і реалістичною анімацією, графік часу кадру виділяється прямотою і спокоєм, а фреймрейт - відносною стабільністю. Середня швидкість склала 71 FPS, а осідання не опускалися нижче від 39. Ніяких проблем з керуванням або прицільною стрільбою не було.

NVIDIA GeForce GTX 1050 Ti

При виборі автоналаштування рушій Quake Champions підбирає середньо-високі параметри. Ми вирішили ускладнити завдання і вручну підняли всі налаштування до високого рівня. У такому режимі швидкість рідко опускалася нижче від 66 кадрів/с, хоча і були просадки до 26. Середня ж частота піднялася до 92. З управлінням також був повний порядок.

NVIDIA GeForce GTX 1050 Ti

Навіть система з GTX 1050 Ti дозволяє запускати Fortnite Battle Royale з епічним пресетом графіки. І при цьому вам не доведеться страждати від фризів або статорів: середня швидкість склала 73 кадри/с, а мінімальна не опускалася нижче від 27. Причому найнижчі показники спостерігалися під час висадки або в першу хвилину після неї, а далі ніяких проблем не було. 

Теги: nvidia   geforce gtx 1050   geforce gtx 1050 ti   ssd   nvidia geforce   full hd   intel   core i7   seasonic   gddr5   colorful   ddr4   intel core   directx 12   cuda   
Читати огляд повністю >>>

Нові CPU і GPU помічені в базі даних Ashes of the Singularity

Гра Ashes of the Singularity вже не користується особливою популярністю, проте її бенчмарк залишається хорошим показником продуктивності комплектуючих в оптимізованих під DirectX 12 проектах. Тому не дивно, що про багато майбутні новинки ми дізнаємося саме з його бази даних.

AMD Ryzen 7 2800H

Днями в ньому було помічено декілька цікавих моделей. Першочергово відзначимо 35-ватний мобільний APU AMD Ryzen 7 2800H. Він має у своєму розпорядженні 4 ядра і 8 потоків. Базова частота AMD Ryzen 7 2800H становить 3,4 ГГц, а вбудоване відеоядро Radeon RX Vega 11 підтримує 704 потокових процесора.

Intel

З боку Intel засвітився інженерний зразок 8-ядерного 16-поточного процесора серії Intel Coffee Lake-S. Раніше він вже був помічений у базі даних SiSoft Sandra, але там він працював на частоті 2,6 ГГц, а тут - на 3,0 ГГц.

Intel

Також був помічений 10-нм енергоефективний представник серії Intel Ice Lake-U, який використовує у своїй структурі 4 ядра і 8 потоків, які працюють на частоті 2,1 ГГц, а також iGPU серії Intel UHD Graphics Gen11. Поки він знаходиться на ранній стадії розробки, адже ця серія в майбутньому прийде на зміну Intel Cannon Lake.

AMD Vega 20

AMD Vega 20

Що ж стосується графічних адаптерів, то були помічені представники AMD Vega 20 (кодове позначення «66A0: 00») і AMD Vega 12 («69A0: 00»). Перший є 7-нм флагманським рішенням десктопного рівня, а другий націлений на мобільний сегмент. Їх характеристики поки тримаються в секреті.

AMD Vega 12

https://wccftech.com
Сергій Буділовський

Теги: amd   intel   amd vega   amd ryzen   apu   coffee lake   directx 12   cannon lake   ice lake   
Читати новину повністю >>>

Геймплейне тестування відеокарти NVIDIA GeForce GTX 1050 в 2018: недорого і цілком придатний для гри

Тема відеоприскорювача NVIDIA GeForce GTX 1050 вже давно і дуже добре вивчена, але все ж думаємо багатьом буде цікаво подивитися на те, як вона справляється з найновішими і популярними актуальними проектами.

NVIDIA GeForce GTX 1050

Зовсім недавно з'явилися нові блокбастери, ігри з раннього доступу перейшли в релізну стадію або ж просто істотно оновилися, та й нові драйвери постійно вносять свою лепту в оптимізацію продуктивності відеокарти. Тому ми гадаємо, що вам буде цікаво поглянути на її можливості в сучасних проектах.

NVIDIA GeForce GTX 1050

Допоможе нам у цьому модель ASUS Expedition GeForce GTX 1050, яка розроблена з прицілом на цілодобову роботу в бюджетних ігрових системах. Вона виділяється невеликою довжиною - всього 212 мм, простою системою охолодження з двома 75-мм вентиляторами і алюмінієвим радіатором без теплових трубок, а також еталонною частотною формулою. Енергоспоживання не перевищує 75 Вт, тому додатковий конектор PCIe підключати не потрібно.

NVIDIA GeForce GTX 1050

Тепер декілька слів про тестовий стенд. Оскільки ми поставили собі за мету протестувати відеокарту, а не збірку на її основі, то ігри не повинні упиратися у процесор, ОЗП або інші компоненти. Тому тестовий стенд досить потужний. У реальності навряд чи в пару до GTX 1050 будуть купуватися такі компоненти. Тому якщо у вас процесор слабкіший або оперативної пам'яті менше, то результати напевно будуть трохи нижчими.

NVIDIA GeForce GTX 1050

В основі тестового стенда знаходиться розігнаний до 5 ГГц процесор Intel Core i7-7740X. Він встановлений на плату ASUS TUF X299 MARK 1 і охолоджується СВО від Thermaltake. Оперативна пам'ять представлена 16-ГБ набором Patriot Viper 4 у двоканальному режимі на частоті 3200 МГц. Операційна система і вимогливі ігри встановлені на SSD Apacer PANTHER AS330, а решта - на 2-ТБ HDD від Seagate. Усе це добро зібрано в корпусі Thermaltake Core P3 і живиться потужним блоком від Seasonic. Геймплей записаний зовнішньою системою з AVerMedia Live Gamer HD 2, тобто без втрати продуктивності.

NVIDIA GeForce GTX 1050

NVIDIA GeForce GTX 1050

Конфігурація тестового стенда:

NVIDIA GeForce GTX 1050

А тепер переходимо до тестів у роздільній здатності Full HD. Упор при виборі ігор робили саме на проекти 2017-18 років. За традицією почнемо з простіших ігор.

NVIDIA GeForce GTX 1050

Subnautica, що вийшла в реліз, стала набагато більш стабільною і передбачуваною, тому для її запуску вибрали середній пресет з високою якістю води. У такому режимі можна милуватися красою створеного світу при порівняно плавному відеоряді. Середня швидкість склала 71 FPS. Зрідка вона опускалася нижче 35 кадрів/с, а фризи до 19 були дуже рідкісними.

NVIDIA GeForce GTX 1050

Найбільш важким у Battle Chasers: Nightwar є режим дослідження підземель. При високому профілі середній фреймрейт перевищує 100 FPS, а епізодичні осідання досягають 24 кадрів/с, хоча в цілому швидкість рідко опускалася нижче, ніж 70 FPS. У боях середня частота піднімалася вище 200 кадрів/с.

NVIDIA GeForce GTX 1050

The Long Dark хоча і не є мегапопулярною, але має цікаву кампанію, яку в тестовій системі можна проходити навіть на ультра налаштуваннях. Лише на початку запису завантаження відеокарти просіла до 93%, що викликало фриз до 22 FPS. Надалі середня швидкість трималася вище, ніж 100 FPS, рідко знижуючись до 62.

NVIDIA GeForce GTX 1050

ARK Survival Evolved при середньому пресеті використовує максимальне згладжування і високу постобробку, тому картинка виглядає барвисто, але фризи і дуже рідкісні події знаходяться на рівні 15-17 FPS. Середня ж швидкість більш приємна - 57 кадрів/с. 2 ГБ відеопам'яті грі в такому режимі досить.

NVIDIA GeForce GTX 1050

Оскільки Divinity Original Sin 2 не залежить від швидкості реакції і вміння потрапляти в піксель, то ми вибрали ультра пресет. Фреймрейт багато в чому визначається складністю локації, тому велика кількість погодних ефектів просаджує швидкість і робить неприємним графік часу кадру. У середньому можна розраховувати на 58 FPS з фризами до 5.

NVIDIA GeForce GTX 1050

Якщо ви хочете побачити всю красу оновленого World of Tanks, то можна вибрати навіть ультра пресет, отримавши в середньому 49 кадрів/с. Правда, зрідка фризи досягають 7 FPS, через що місцями складно знаходити слабкі зони противника, що підтверджується рваним графіком часу кадру. Тому краще все ж опуститися до високого пресету для більш впевненого геймплея.

NVIDIA GeForce GTX 1050

У War Thunder з профілем «Кіно» ситуація трохи краща: дуже рідкісні фризи досягають 8 FPS, але в цілому швидкість рідко опускається нижче ніж 48 кадрів/с, а середній показник і зовсім досяг 70 кадрів/с. Управління було повністю чуйним і комфортним, тому можна не знижувати налаштування графіки.

NVIDIA GeForce GTX 1050

Максимальні параметри в World of Warships радують око якісною анімацією і зовсім не псують враження від гри. Середня швидкість склала 83 FPS з осіданням до 27. Додайте до цього спокійний графік Frame Time і неспішність самого геймплея і зможете повністю зануритися в морський бій.

NVIDIA GeForce GTX 1050

У Quake Champions при середніх налаштуваннях фризи до 9 FPS з'явилися лише на початку тестової записи. У цілому ж швидкість рідко опускалася нижче ніж 55 кадрів/с. Середній показник і зовсім перевищив 100 FPS. На графіку часу кадру проскакували епізодичні піки, але вони не позначалися на геймплеї. А ось відеопам'яті для таких налаштувань замало, тому ОЗП має бути більше ніж 8 ГБ.

NVIDIA GeForce GTX 1050

Автоматичний вибір налаштувань у Fortnite Battle Royale привів до активації високого пресету. Мінімальне просідання до 26 FPS ми зловили під час висадки. На землі швидкості були набагато вище, тому середній показник прагне до 90 FPS, а статистика рідкісні і дуже рідкісних подій знаходиться в діапазоні 35-50 кадрів/с. Грати дуже комфортно.

NVIDIA GeForce GTX 1050

У більш важкої PUBG довелося опускатися до низького профілю налаштувань графіки, але й це не вберегло від фризів до 22 FPS. Середній же показник знаходився на рівні 80 кадрів/с. На графіку часу кадру періодично проскакують неприємні піки, але в управлінні вони особливо не відчуваються. Якщо у вас у системі є 8 ГБ або більше, то в цілому цілком придатно до гри.

NVIDIA GeForce GTX 1050 NVIDIA GeForce GTX 1050

NVIDIA GeForce GTX 1050

У Rust довелося помучитися з підбором налаштувань, але, можливо, і це не оптимальний варіант. Хоча за результатами тестової пробіжки ніяких проблем зі швидкістю відеоряду не було: середній показник склав 66 FPS, а інша статистика - 34 кадру/с. Відеобуферу не вистачає, тому з ОЗП взято близько 10 ГБ. 

Читати огляд повністю >>>

Ігрове тестування відеоприскорювача NVIDIA GeForce GT 1030: особливо не розженешся

У цьому матеріалі ми спробуємо оцінити можливості відеоприскорювача NVIDIA GeForce GT 1030 у сучасних іграх. Чи варто взагалі намагатися запускати їх на такій відеокарті або краще про це навіть не замислюватися. Перевіримо це в 20 популярних іграх. Також нагадаємо, що недавно ми перевіряли ігровий потенціал бюджетної відеокарти NVIDIA GeForce GTX 750 Ti.

NVIDIA GeForce GT 1030

Якщо ви дивилися порівняння Vega 8 і Vega 11 з дискретними відеокартами, то напевно пам'ятаєте відеокарту ASUS Phoenix GeForce GT 1030, яка брала активну участь. Вона характеризується активною системою охолодження і 2 ГБ GDDR5-пам'яті, хоча на ринку почали з'являтися версії GeForce GT 1030 з повільнішою DDR4-ой.

NVIDIA GeForce GT 1030

З цікавих особливостей цієї відеокарти виділимо наявність двох режимів роботи GPU: у «Gaming» тактові частоти збільшуються на 2-3% у порівнянні з еталоном, а в «OC» - на 4%. Використовуваний же вентилятор побудований на подвійному шарикопідшипнику і володіє захистом від пилу, що дозволяє сподіватися на тривалий термін придатності.

NVIDIA GeForce GT 1030

Тестування проводилося на базі платформи Socket LGA2066 з розігнаним до 5 ГГц 4-ядерним Intel Core i7-7740X і материнською платою ASUS TUF X299 MARK 1. За охолодження процесора відповідала СВО Thermaltake, а підсистема ОЗП представлена двома 8-гігабайтними модулями серії Patriot Viper 4. Усі критичні до дискової підсистеми ігри встановлені на швидкі SSD Apacer PANTHER AS330, а решта - на 2-ТБ SSHD.

NVIDIA GeForce GT 1030

Така конфігурація вибрана не випадково: оскільки це не збірка, а тест відеокарти, то всі ігри повинні впертися саме в відеокарту і ніякі інші комплектуючі не повинні обмежувати її потенціал, якщо це слово можна застосувати до GeForce GT 1030. Так, у зв'язці з більш повільним процесором, 4-8 ГБ або HDD її показники будуть гіршими, але в такому випадку складно зрозуміти - у що конкретно ми вперлися. Тому даними відео ми хочемо показати, на що максимально здатна GeForce GT 1030, і якщо, скажімо, 20-30 FPS у Far Cry 5 вам мало, то в менш потужній зв'язці ви і їх не побачите, і в такому випадку ця відеокарта вам не підійде від слова «зовсім».

NVIDIA GeForce GT 1030

При тестуванні ми використовували проекти різних рівнів складності, які вийшли в реліз або отримали масштабне оновлення в 2017-2018 роках. Спочатку кожна гра запускалася в Full HD, а потім, при необхідності, або переходили в HD, або знижували налаштування графіки без зміни роздільної здатності.

NVIDIA GeForce GT 1030

Для початку World of Tanks був запущений при максимальних налаштуваннях, які забезпечили 30-40 FPS. У таких умовах можна грати навіть на швидкому легкому танку і бути корисним на полі бою, хоча відчувався невеликий дискомфорт від управління. Якщо ви любите більш повільні танки, то проблем не буде зовсім.

NVIDIA GeForce GT 1030

Перехід до просто високого пресету без зниження роздільності підвищує середню швидкість до 69 FPS, а мінімальну - до 45. Ніяких підгальмовувань і мікрофризів ми не відчули - відеоряд був плавним, а управління - чуйним.

NVIDIA GeForce GT 1030

На противагу World of Tanks ми запустили War Thunder. Якщо вибрати максимальний профіль у Full HD, то можна розраховувати на ті ж 30-40 кадрів/с. Суб'єктивно, грати не дуже комфортно, але тут багато що залежить від вашого попереднього досвіду.

NVIDIA GeForce GT 1030

Ми ж рекомендуємо опуститися до високого пресету, який забезпечує в середньому 55 FPS з осіданням до 43. У такому випадку підвищується плавність відеоряду, а з графіка часу кадру пропадають неприємні піки і сам він стає практично рівним.

NVIDIA GeForce GT 1030

У Full HD Subnautica придатна до гри при низьких і середніх налаштуваннях графіки. У першому випадку картинка не блищить красою, компенсуючи це досить комфортною швидкістю: у середньому 61 FPS з осіданням до 43. Відеопам'яті потрібно всього гігабайт, і більше 4 ГБ береться з оперативної.

NVIDIA GeForce GT 1030

Перехід до середніх налаштувань підвищує красу картинки, але просаджує фреймрейт у межах 28-33 кадрів/с. Графік Frame Time стає більш рваним і на 300-500 МБ підвищується споживання відеопам'яті і ОЗП.

NVIDIA GeForce GT 1030

Оскільки Divinity: Original Sin 2 використовує покроковий бойовий режим, то налаштування графіки особливо не впливають на результат бою. Тому обидва запуски були в Full HD, але з різними пресетами. Хоча особливої різниці у швидкості ми не помітили. При середньому профілі в одних локаціях отримуємо 30-40 FPS, а в більш важких, з великою кількістю погодних ефектів, фризи досягали 18 FPS.

NVIDIA GeForce GT 1030

Та ж ситуація повторюється і при низькому профілі: пробіжки за умовно річних локаціях проходять при 30-40 FPS, а якщо в кадрі з'являється лід, туман і шквальний вітер, то швидкість просідає до 18 кадрів/с.

NVIDIA GeForce GT 1030

ARK: Survival Evolved виявилася дуже важкою для GT 1030. Для початку ми вибрали Full HD і вручну виставили мінімальні налаштування графіки. Але і цього виявилося мало: у середньому гра видала 27 кадрів/с з осіданням до 10 FPS. Додайте сюди дуже просту картинку, і ви навряд чи захочете довго борознити простори цього незвичайного світу.

NVIDIA GeForce GT 1030

Вийти з ситуації можна або переходом у HD, або зниженням масштабу роздільності. Ми вирішили скористатися другим шляхом і знизили масштаб приблизно до рівня 60%. У такому випадку вже можна розраховувати на 40-50 FPS, але картинка стала більш мильною і відштовхуючою.

NVIDIA GeForce GT 1030

Щоб отримати 26-37 кадрів/с у Rust при народній роздільності багато налаштувань довелося або відключати, або істотно знижувати. Проблем з керуванням ми не відчули. Статори і Input Lag також були відсутні, тому Rust можна назвати умовно придатним до гри на GT 1030.

NVIDIA GeForce GT 1030

При запуску Quake Champions ми довірилися автоналаштуванню, в якому вибрали практично всі низькі параметри і роздільну здатність Full HD. Оскільки ця гра не про картинку, а про вміння швидко рухатися і влучно стріляти, то ключову роль грає швидкість відеоряду і чуйність управління. З цим проблем не було: у середньому ми отримали 88 FPS з осіданням до 51.

NVIDIA GeForce GT 1030

Мега-популярна Fortnite: Battle Royale за замовчуванням запропонувала Full HD з високим пресетом. Швидкісні показники знаходилися на межі придатності до гри в зоні 26-35 кадрів/с. У принципі, бігати можна, але для шутера цього замало.

NVIDIA GeForce GT 1030

Тому краще зменшити роздільність або налаштування графіки. Наприклад, перехід до середнього профілю в Full HD на 60-70% підвищує частоту кадрів. На виході отримуємо під 60 FPS з осіданням до 46. Автоматичних перемог це вам не принесе, але підвищить шанси на виживання.

NVIDIA GeForce GT 1030

Багато користувачів запускають PUBG у Full HD при дуже низьких налаштуваннях графіки. У будиночках можна розраховувати на 40-50 FPS, а на відкритих просторах з високою дальністю промальовування швидкість знижується в діапазоні 30-40 кадрів/с. Графік часу кадру досить комфортний і проблем з прицільною стріляниною ми не відчули.

NVIDIA GeForce GT 1030

Перехід до HD дозволяє вибрати низький пресет і задовольнятися більш високими швидкісними показниками: у середньому 54 кадру/с з осіданням до 48. Але через розмиття картинки буває складно вчасно помітити противника, що загрожує позбавленням грі.

NVIDIA GeForce GT 1030

The Evil Within 2 виявився справжнім кошмаром не тільки для гравця, але і для відеокарти. У Full HD довелося вибрати мінімальний профіль і вручну відключити ряд налаштувань, але і це не врятувало від фризів до 16 FPS. Середня ж швидкість склала всього 21 кадр/с. Одним словом, грати страшно.

NVIDIA GeForce GT 1030

Якщо ж спуститися до HD, то можна вибрати низький профіль без подальших ручних маніпуляцій. Але в такому режимі ми отримали лише консольні 26-31 FPS. Ознайомитися з грою можна, але на сплеск гормонів задоволення в мозку (дофаміну, ендорфіну і серотоніну) розраховувати не доводиться. 

Читати огляд повністю >>>

Драйвер NVIDIA GeForce 397.31 WHQL Game Ready приніс підтримку NVIDIA RTX і Vulkan 1.1

Компанія NVIDIA випустила важливий драйвер NVIDIA GeForce 397.31 WHQL Game Ready, який приніс з собою ряд дуже знакових змін. Оскільки це версія «Game Ready», то в першу чергу відзначимо додану підтримку оптимального ігрового досвіду для ігор BattleTech і FrostPunk.

NVIDIA GeForce 397 31 WHQL Game Ready

По-друге, реалізована попередня підтримка для розробників технології NVIDIA RTX під DirectX 12. Вона підтримує API Microsoft DirectX Raytracing (DXR), але для її використання буде потрібно такі компоненти:

  • GPU лінійки NVIDIA Volta;
  • драйвер версії 396 або вище;
  • ОС Windows 10 RS4;
  • набір для розробників Microsoft DXR.

NVIDIA GeForce 397 31 WHQL Game Ready

По-третє, у драйвері NVIDIA GeForce 397.31 WHQL Game Ready реалізована повноцінна підтримка API Vulkan 1.1 і забезпечується проходження тесту Vulkan Conformance Test Suite (CTS) 1.1.0.3.

NVIDIA GeForce 397 31 WHQL Game Ready

По-четверте, саме з цієї версії драйвера припиняється підтримка GPU лінійки NVIDIA Fermi і 32-бітних ОС. Список інших змін виглядає таким чином:

  • додана підтримка частот дискретизації 32 кГц, 88,2 кГц і 176,4 кГц для інтерфейсу HDMI для всіх GPU;
  • покращена робота інсталятора (тепер він видаляє розпаковані файли після встановлення);
  • додані бібліотеки nvdlist.dll і nvdlistx.dll для підтримки ноутбуків з технологіями Optimus і MSHybrid;
  • додано API NVDECODE, яке спрощує процес внесення змін до роздільності декодування і інші параметрів постобробки;
  • додані SLI-профілі для ігор Descenders, Frostpunk, Warhammer: Vermintide 2 і Far Cry 5;
  • додані профілі 3D Vision для Descenders і EVE Valkyrie - Warzone;
  • виправлена низка помічених помилок.

NVIDIA GeForce 397 31 WHQL Game Ready

До складу драйвера NVIDIA GeForce 397.31 WHQL Game Ready увійшли наступні модулі:

  • nView - 148.92
  • HD Audio Driver - 1.3.37.1
  • NVIDIA PhysX System Software - 9.17.0524
  • GeForce Experience - 3.13.1.30
  • CUDA - 9.2

Завантажити драйвер NVIDIA GeForce 397.31 WHQL Game Ready можна на офіційному сайті за цим посиланням або шляхом поновлення в фірмовому ПЗ GeForce Experience.

https://us.download.nvidia.com
Сергій Буділовський

Теги: nvidia   nvidia geforce   vulkan   microsoft   windows 10   nvidia physx   directx 12   cuda   3d vision   fermi   
Читати новину повністю >>>

Порівняння: Radeon Vega 11 проти GeForce GT 1030, GTX 750 Ti і Radeon RX 460 4GB

Нещодавно ми розглядали ігрові можливості вбудованого в APU AMD Ryzen 3 2200G відеоядра Radeon Vega 8, порівнявши його з бюджетними дискретними відеокартами, і тепер черга дійшла Radeon Vega 11. У прямому порівнянні з опонентами ми розглянемо її можливості і оцінимо, наскільки її продуктивність відрізняється від недорогих відеокарт.

AMD Radeon Vega 11

AMD Radeon Vega 11

Якщо ви раптом забули, то нагадаємо, що AMD Ryzen 5 2400G має 4 процесорних ядра з підтримкою SMT, які працюють на частотах 3,6 - 3,9 ГГц. Вбудований контроллер ОЗП гарантовано запускає модулі DDR4-2933 у двоканальному режимі, а для підключення зовнішньої відеокарти є всього 8 ліній PCIe. TDP становить 65 Вт, а орієнтовна ціна вже знизилася до $174.

AMD Radeon Vega 11

Вбудоване ядро Radeon Vega 11 складається з 704 обчислювальних блоків, 44 текстурних і 16 растрових модулів. Його максимальна частота - 1250 МГц. Є підтримка DirectX 12 з рівнем функцій 12_1, OpenGL 4.6, Open CL 2.0 і Vulkan 1.0 і напевно 1.1.

AMD Radeon Vega 11

Переходимо до тестового стенду. Нарешті ми можемо сказати дякуємо компанії AMD, оскільки до нас надійшов для тестування офіційний прес-набір, що має не тільки сам APU, але і комплектний кулер Wraith Stealth, материнську плату MSI B350I PRO AC і 16-гігабайтний набір оперативної пам'яті G.SKILL Flare X. Тобто заодно перевіримо ефективність роботи штатної системи охолодження.

AMD Radeon Vega 11

Сама материнська плата напевно сподобається прихильникам зібрати компактну універсальну систему в форматі Mini-ITX. Два DIMM-слоти натякають, що конфігурацію ОЗП краще продумати заздалегідь. А ось з дисковою підсистемою проблем бути не повинно, адже в наявності чотири порти SATA і один Turbo M.2 на звороті. Під карту розширення є слот PCI Express x16. Приємним бонусом є модуль бездротових інтерфейсів Wi-Fi і Bluetooth.

AMD Radeon Vega 11

Вона постачалася із спеціальною інженерною версією BIOS. Але оскільки ми робимо тести ближче до реальності, то відразу оновили прошивку до останньої стабільної версії. Спочатку це була 13, а через день з'явилася 14, яка привнесла більше різних налаштувань у меню. На жаль, на інженерному BIOS ми не перевірили стабільність роботи APU, а ось на звичайних версіях спостерігалися всі помічені раніше неприємності з нестабільною частотою відеоядра і фризами в іграх.

AMD Radeon Vega 11

AMD Radeon Vega 11

Тому для підвищення стабільності ми зафіксували швидкість на рівні 1240 МГц. А ось виставити напругу SoC Voltage на рівні 1,2 В ми вже не змогли: при спробі температура ядер перевищила 100°C. Тому залишили запропоноване системою значення 1,1 В, але у важких іграх температура все одно досягала 100°C.

AMD Radeon Vega 11

AMD Radeon Vega 11

Своєю чергою комплект оперативної пам'яті G.SKILL Flare X створений якраз з прицілом під платформу Socket AM4 і для кращого охолодження чіпів оснащений низькопрофільним радіатором. Загальна висота модулів становить 40 мм, тому їх можна використовувати в парі з габаритними кулерами. Номінальна частота становить 3200 МГц при напрузі 1,35 В. Активація здійснюється XMP-профілем, що істотно спрощує розгін. Ми ж використовували частоту 2933 МГц, як номінальну для даного APU.

Інша конфігурація стенду не змінилася:

  • AMD Ryzen 5 2400G
  • MSI B350I PRO AC
  • 2х 8GB DDR4-2933 G.SKILL Flare X
  • GOODRAM Iridium PRO 240GB | 960GB
  • Seagate IronWolf 2TB
  • Seasonic PRIME 850 W Titanium
  • Thermaltake Core P5 TGE
  • AOC U2879VF

AMD Radeon Vega 11

AMD Radeon Vega 11

Переходимо до опонентів. Перший представляє категорію ігрових відеокарт початкового рівня минулих поколінь. Це GeForce GTX 750 Ti у версії від ZOTAC з мінімальним заводським розгоном графічного процесора. Карта використовує всі доступні 8 ліній PCIe і пропонує 128-бітну шину пам'яті, тому обходить Vega 11 з пропускної здатності. Зате вбудоване відеоядро може похвалитися більш швидкою швидкістю заповнення пікселів і текстур, а також підтримкою більш актуальних програмних інтерфейсів. Чи допоможе йому це в реальних ігрових тестах - скоро дізнаєтесь.

AMD Radeon Vega 11

AMD Radeon Vega 11

Другий опонент представляє актуальний бюджетний сегмент. Йдеться про GeForce GT 1 030 у версії від ASUS, яка виявилася на 17-19% швидше ніж Vega 8. Вона відрізняється 2%-им заводським розгоном графічного процесора. 2 ГБ GDDR5-пам'яті працюють на стандартній ефективній частоті 6 ГГц. Слабкими сторонами всіх представників серії GeForce GT 1030 є 64-бітна шина пам'яті і використання лише 4 ліній PCIe 3.0 для зв'язку з процесором. Тому 8-ми ліній APU вистачить із запасом. У результаті швидкість заповнення пікселів у GeForce GT 1030 і Vega 11 практично однакова, а заповнення текстур відбувається на 80% швидше саме в iGPU.

AMD Radeon Vega 11

AMD Radeon Vega 11

Третій конкурент вибраний з актуальних ігрових відеокарт початкового рівня. У цю категорію входять GeForce GTX 1050, Radeon RX 560 і Radeon RX 560D. Остання є ребрендингом Radeon RX 460. Самі Radeon RX 460 майже зникли з продажу, але нам вдалося знайти модель ASUS ROG Strix RX 460. Вона побудована на базі GPU Baffin PRO, яка має в своїй структурі 896 потокових процесорів, 56 текстурних і 16 растрових блоків .

Ця відеокарта цікава невеликим заводським розгоном графічного процесора і наявністю 4 ГБ GDDR5-пам'яті з 128-бітної шиною і ефективною швидкістю 7 ГГц. Вона також використовує лише 8 ліній PCIe, тому не страждає від обмеженого їх кількості у складі APU. Швидкість заповнення текстур у неї вище, зате розширення DirectX 12 підтримуються в меншому обсязі.

AMD Radeon Vega 11

Ось ми і підійшли до самого тестування. Вибір ігор здійснювався на основі результатів опитування серед глядачів YouTube-каналу, а налаштування підбиралися таким чином, щоб отримати придатний до гри FPS у системі з Vega 11.

AMD Radeon Vega 11

AMD Radeon Vega 11

Перший на черзі - мережевий режим Battlefield 1 у Full HD при низькому пресеті графіки. Неможливість синхронізації геймплея не дозволяє говорити про повторюваність результатів, але в цілому Vega 11 змогла забезпечити придатних для гри 30-40 FPS при не дуже рваному графіку часу кадру. Температура становила 100°С, але частоти залишалися стабільними. Решта опонентів відриваються мінімум на 12%, і лише з мінімальною швидкістю GeForce GT 1030 злегка програє.

AMD Radeon Vega 11

AMD Radeon Vega 11

У Третьому відьмаку при HD-роздільновсті і середніх профілях температура APU знаходиться на рівні 70-80°C, тому ми вже не хвилювалися за стабільність роботи, але все одно показники високі. Пробіжка містом дається в середньому при 38 кадрах/с з осіданням до 35. Комусь цього буде досить, іншим же рекомендуємо встановити дискретну відеокарту. Навіть з GeForce GT 1030 отримуємо на 3-8% більше, а з GeForce GTX 750 Ti бонус перевищує 22%.

AMD Radeon Vega 11

AMD Radeon Vega 11

У GTA V ми вибрали майже мінімальні налаштування в Full HD і отримали належні результати - у середньому 57 FPS з осіданням до 40. Правда, графік часу кадру був досить рваним, особливо на тлі опонентів. Швидкість відеоряду у них також була вище мінімум на 38%.

AMD Radeon Vega 11

AMD Radeon Vega 11

При бажанні на Vega 11 можна побігати навіть в PUBG при HD і дуже низьких налаштуваннях. Середня частота склала 56 кадрів/с, а мінімальна - 45. Фриз і підгальмовування ми не відчули, незважаючи на не самий рівний графік Frame Time. У зв'язці з GeForce GT 1030 APU видає на 9-13% більше, а з GeForce GTX 750 Ti бонус збільшується до 29%.

AMD Radeon Vega 11

AMD Radeon Vega 11

Бенчмарк World of Tanks Encore в народній поздільній здатності і при середній якості графіки розігріває APU до 80°C, але він за можливості намагається утримати частоти на максимальних рівнях. Це призводить до досягнення досить комфортних показників - в середньому 70 FPS з осіданням до 41. Якщо ж у вас в розпорядженні виявиться будь-яка з представлених відеокарт, то можете сміливо розраховувати на надбавку мінімум у 10%.

AMD Radeon Vega 11

AMD Radeon Vega 11

Assassin's Creed Origins навіть у HD і при низькому пресеті досить сильно завантажує процесорні ядра, температура яких піднімається вище ніж 90°C. І в першу чергу саме вони впливають на кінцевий результат. Тому показники всіх систем виявилися досить близькими, хоча у зв'язці з відеокартами можна розраховувати максимум на 9-10 додаткових FPS. 

Читати огляд повністю >>>

Порівняння: Radeon Vega 8 проти GeForce GT 1030, GTX 750 Ti і GT 730

Radeon Vega 8 є частиною APU Ryzen 3 2200G, який також має 4 процесорних ядра без SMT на частотах 3,5-3,7 ГГц, має 4 МБ кеш-пам'яті L3, двоканальний контролер оперативної пам'яті з гарантованою підтримкою модулів DDR4 до 2933 МГц і 16 ліній PCIe 3.0, з яких лише 8 виділені для зв'язку із зовнішньою дискретною відеокартою. TDP новинки складає 65 Вт, а середня ціна на ринку вже знизилася до $115.

AMD Radeon Vega 8

У структурі відеоядра Radeon Vega 8 є 512 блоків ALU, 32 текстурних і 16 растрових модулів. Номінальна частота його роботи становить 1100 МГц, а пікова продуктивність досягає 1126 GFLOPS. Також вона гарантовано підтримує DirectX 12 з рівнем функцій 12_1, OpenGL 4.6, Open CL 2.0 і Vulkan 1.0. У березні вийшла версія Vulkan 1.1, яка також повинна підтримуватися.

AMD Radeon Vega 8

У ролі основи тестового стенду використовується материнська плата ASUS PRIME B350-PLUS, яка здорово допомогла нам при тестуванні AMD Ryzen 5 2400G. Вона є хорошим вибором для побудови домашньої системи і пропонує підтримку 64 ГБ ОЗП, інтерфейси SATA 3.0 і M.2 для організації дискової підсистеми, 6 слотів розширення, гідний набір зовнішніх портів і низку інших переваг.

AMD Radeon Vega 8

Для охолодження ми використовували баштовий кулер PСCOOLER S1215 X6 з двома 120-мм вентиляторами.

Тестовий стенд:

  • AMD Ryzen 3 2200G
  • ASUS PRIME B350-PLUS
  • PСCOOLER S1215 X6
  • 2х 8GB DDR4-2933 Patriot Viper 4
  • GOODRAM Iridium PRO 240GB | 960GB
  • Seagate IronWolf 2TB
  • Seasonic PRIME 850 W Titanium
  • Thermaltake Core P5 TGE
  • AOC U2879VF

AMD Radeon Vega 8

Тепер настав час познайомитися з опонентами. Першим і найбільш актуальним є GeForce GT 1030, який представлений відеокартою серії ASUS Phoenix з невеликим заводським розгоном GPU до 1252/1506 МГц, що на 2% вище від еталонних показників. Конфігурація графічного процесора має 384 CUDA-ядер, 24 текстурних і 16 растрових блоків. А 2 ГБ GDDR5-пам'яті від Micron працюють на ефективній швидкості 6 ГГц. При 64-бітній шині це забезпечує пропускну здатність на рівні 48 ГБ/с. У Vega 8 це показник становить майже 47 ГБ/с завдяки 2-канальному режиму роботи ОЗП.

AMD Radeon Vega 8

Швидкість заповнення текстур у Vega 8 вище на 17% - впливає більша кількість відповідних блоків, зате із заповненням пікселів швидше на 14% справляється GeForce GT 1030 завдяки більш високій тактовій частоті. Максимальний рівень її продуктивності досягає 1127 GLOPS, і вона підтримує аналогічні версії програмних інтерфейсів DirectX, OpenGL і інших. Тобто за характеристиками вони знаходяться приблизно на одному рівні. Середня вартість цієї відеокарти становить $96.

AMD Radeon Vega 8

Другим опонентом є GeForce GTX 750 Ti у версії від Zotac. Нехай у продажу її можна зустріти все рідше, зате на руках її дуже багато: хтось замислюється щодо покупки б/у версії, а хтось оцінює можливість продажу і переходу на APU. Одним словом, нам порівняння здається актуальним.

AMD Radeon Vega 8

В її основі знаходиться процесор з підтримкою 640 CUDA-ядер, 40 текстурних і 16 растрових блоків. Його базова частота становить 1 033 МГц, а динамічна - 1111 МГц, що на кілька відсотків вище від еталонних показників. Відеопам'ять представлена 2 ГБ GDDR5 від Samsung з ефективною швидкістю 5400 МГц. Завдяки 128-бітної шини пропускна здатність перевищує 86 ГБ/с.

Також ця модель на 17% швидше зафарбовує текстури, а ось швидкість заповнення пікселів на 7% вища у Vega 8. На додаток GM107 має обмежену підтримку DirectX 12 з рівнем функцій 11_0 і OpenCL версії 1.2. NVIDIA заявляє про повноцінну підтримку Vulkan, що ми обов'язково перевіримо у Вольфенштейні. Пікова продуктивність досягає 1372 GFLOPS, що на 22% вище, ніж у iGPU. Тобто потенційно це фаворит порівняння. У продажу саме цієї відеокарти ми не знайшли, але інші версії GeForce GTX 750 Ti коштують у середньому від $132.

AMD Radeon Vega 8

Останнім і найбільш доступним опонентом виступає GeForce GT 730 у виконанні компанії GIGABYTE. У коментарях звучали побажання побачити ще більш дешеву GeForce GT 710, але у неї в 2 рази менше CUDA-ядер: 192 проти 384. І забігаючи вперед, можемо відразу сказати, що цього не вистачило б для конкуренції з Vega 8.

AMD Radeon Vega 8

Тестова GeForce GT 730 побудована на чіпі NVIDIA GK208 покоління Kepler. У продажу є варіанти з більш давнім GF108 серії Fermi, які комплектуються DDR3-пам'яттю. У нас же версія з 2 ГБ GDDR5 від Samsung, хоча практично за всіма параметрами ця відеокарта поступається iGPU: частота процесора у неї нижча, швидкості заповнення текстур і пікселів також нижчі, і навіть пропускна здатність пам'яті менша через 64-бітну шину.

AMD Radeon Vega 8

Рівень підтримуваних API у неї практично відповідає GeForce GTX 750 Ti, за винятком Vulkan: якщо вірити офіційній сторінці, то це єдиний представник 700-й серії, у якого відсутня підтримка даного програмного інтерфейсу. Навіть для мобільної версії вона заявлена. У результаті пікова продуктивність GeForce GT 730 становить 693 GFLOPS, що на 38% нижче, ніж у Vega 8, а ціна досягає $80.

AMD Radeon Vega 8

Настав час переходити до самого тестування. Вибір ігор здійснювався на основі результатів опитування серед глядачів YouTube-каналу, а налаштування підбиралися таким чином, щоб отримати придатних для гри FPS у системі з Vega 8.

AMD Radeon Vega 8

AMD Radeon Vega 8

Почнемо з мережевого режиму Battlefield 1 у Full HD при низькому пресеті графіки. Геймплей неможливо синхронізувати, тому складно гарантувати повторюваність результатів. До того ж гра вимоглива до процесора, тому у зв'язці з більш потужним CPU відеокарти можуть видати кращі результати. Проте в лідерах виявилася GeForce GTX 750 Ti. Вона мінімум на 15% випередила GeForce GT 1030 і на 38% була швидша, ніж Radeon Vega 8. У бік GeForce GT 730 краще взагалі не дивитися - там слайд-шоу зі страшним графіком Frame Time.

AMD Radeon Vega 8

AMD Radeon Vega 8

У Третьому відьмаку при HD-роздільності і середніх профілях графіки ми змогли синхронізувати пробіжку Геральта на всіх системах. Розподіл вийшов аналогічним, тільки розрив вищий: додавання в систему з Radeon Ryzen 3 2200G відеокарти GeForce GTX 750 Ti збільшує результат мінімум на 47%. Своєю чергою iGPU обходить GeForce GT 730 на 87-100%.

AMD Radeon Vega 8

AMD Radeon Vega 8

У GTA V при народній роздільності всі налаштування знаходяться на мінімумі, лише якість текстур піднята до високого рівня. У такому режимі навіть GeForce GT 730 показує придатний для гри рівень, хоча перехід виключно на APU підвищує FPS на 38%. За середнім показником у лідери вийшла GeForce GTX 750 Ti, а за мінімальним - несподівано перемогла GeForce GT 1030.

AMD Radeon Vega 8

AMD Radeon Vega 8

Вдало пограти в PUBG при HD і дуже низьких налаштуваннях на GeForce GT 730 у вас навряд чи вийде через фризи до 23 FPS. Вбудоване графічне ядро забезпечує прийнятний рівень у 40-50 кадрів/с, але якщо хочете отримати комфортний геймплей, тоді краще поставити GeForce GTX 750 Ti, яка не тільки видає 60-70 FPS, але і забезпечує найспокійніший графік часу кадру. 

Читати огляд повністю >>>

Microsoft DirectX Raytracing і NVIDIA RTX додають можливість трасування променів у режимі реального часу

Компанія Microsoft анонсувала розширення API DirectX 12 за допомогою технології DirectX Raytracing. Вона надає компоненти для спрощення трасування променів у режимі реального часу. Реалізацію цієї можливості Microsoft покладає на обчислювальні шейдерні блоки, що забезпечує широку сумісність з різними відеокартами.

NVIDIA RTX

Відзначимо, що технологія трасування променів у режимі реального часу роками активно використовується в архітектурі для створення фотореалістичних інтерактивних проектів будівель або інтер'єрів і в кіноіндустрії, де для рендерингу кожного кадру використовуються потужні обчислювальні системи і це займає багато часу. А ось розробники ігор поки обходили цю технологію стороною через високу варіативність геймплея і великої кількості об'єктів у кадрі, що на даному етапі вимагало б гігантських обчислювальних ресурсів. Тільки уявіть: кожен піксель зображення вимагає прорахунку сотень променів і все це на швидкості від 30 FPS і вище для комфортного геймплея.

NVIDIA RTX

Але з появою Microsoft DirectX Raytracing і NVIDIA RTX все змінюється в кращу сторону. Оскільки Microsoft DirectX Raytracing є частиною API DirectX 12, то в теорії вона буде сумісна і з присутніми на ринку моделями від AMD і NVIDIA, для яких заявлена підтримка даного API. А ось технологія NVIDIA RTX створюється виключно під NVIDIA Volta і наступні покоління. Тобто володарів NVIDIA Pascal і більш ранніх поколінь вона обходить стороною.

NVIDIA RTX

NVIDIA RTX складається з двох компонентів: спеціальних апаратних блоків (імовірно ядра Tensor) і ефектів NVIDIA GameWorks Ray Tracing (Area Shadows, Glossy Reflections, Ambient Occlusion), стандартизованих за допомогою API Microsoft DirectX Raytracing (DXR). Тобто відеокарти лінійки NVIDIA Volta будуть підтримувати два режими трасування променів у реальному часі: за допомогою Microsoft DirectX Raytracing або NVIDIA GameWorks Ray Tracing (якщо розробники використовували її в процесі створення своїх проектів).

NVIDIA RTX

Розробники ігрових рушіїв Unreal Engine (Epic Games), Unity, Frostbite (EA DICE) і Allegorithmic уже зацікавилися технологією NVIDIA RTX. Також інтерес до неї проявляють компанії EA, Remedy Entertainment і 4A Games. Якщо технологія трасування променів у режимі реального часу буде успішна і в повному обсязі інтегрована в ігри, то нам обіцяють новий рівень якості картинки з ще більш реалістичними об'єктами, тінями і відбитками.

NVIDIA RTX

https://www.techpowerup.com
Сергій Буділовський

Теги: nvidia   microsoft   directx 12   nvidia gameworks   
Читати новину повністю >>>

Тестування Intel UHD Graphics 630 у сучасних іграх: чи є життя на вбудованому відео?

У багатьох геймерів бувають у житті чорні дні, коли або відеокарта наказує довго жити, або система купується без дискретного адаптера, щоб накопичити й трохи пізніше взяти потужніший варіант. У такі моменти розраховувати можна лише на вбудоване графічне ядро. Ось ми й вирішили перевірити, на що здатне Intel UHD Graphics 630 в ігровому плані.

Intel UHD Graphics 630

Для початку коротко й наочно нагадаємо про еволюцію iGPU процесорів компанії Intel.

Рік випуску

2013

2014

2015

2017

2017

Мікроархітектура CPU / техпроцес, нм

Intel Haswell / 22

Intel Broadwell / 14

Intel Skylake / 14

Intel Kaby Lake / 14

Intel Coffee Lake / 14

Вбудоване графічне ядро

Intel HD Graphics 4600

Intel Iris Pro Graphics 6200

Intel HD Graphics 530

Intel HD Graphics 630

Intel UHD Graphics 630

Кількість виконавчих блоків

20

48

24

24

24

Модулі растеризації

4

8

8

8

8

Текстурні блоки

8

16

16

16

16

Тактова частота GPU (номінальна / в турборежимі), МГц

350 / 1250

300 / 1150

350 / 1200

Максимальна кількість дисплеїв, що підтримується

3

Підтримка інструкцій і технологій

DirectX 11.2, OpenGL 4.3, OpenCL 1.2, Shader Model 5.0, Intel Quick Sync Video, InTru 3D, Intel Insider, Intel Wireless Display, Intel Clear Video HD

DirectX 11.2, OpenGL 4.3, OpenCL 2.0, Shader Model 5.0, Intel Quick Sync Video, InTru 3D, Intel Insider, Intel Wireless Display, Intel Clear Video HD

DirectX 12, OpenGL 4.4, OpenCL 2.0, Shader Model 5.0, Intel Quick Sync Video, InTru 3D, Intel Insider, Intel Wireless Display, Intel Clear Video HD

DirectX 12, OpenGL 4.4, Intel Quick Sync Video, InTru 3D, Intel Clear Video, Intel Clear Video HD

DirectX 12, OpenGL 4.5, Intel Quick Sync Video, Intel InTru 3D, Intel Clear Video HD, Intel Clear Video

Не зайвим буде відмітити, що Intel у процесорах, які орієнтовані на використання в настільних системах, не застосовує свої найкращі графічні ядра, а береже їх для мобільного сегменту. Єдиним винятком є Intel Iris Pro 6200 класу GT3 для сімейства Intel Broadwell. В інших випадках десктопні «камені» можуть розраховувати на графіку рівня GT2, тоді як молодші моделі чіпів узагалі задовольняються спрощеною конфігурацією GT1. Якщо не заходити в мікроархітектурні нетрі, то Intel використовує модульний дизайн і завдяки комбінуванню будівельних блоків може кладати iGPU різного рівня. Тому починаючи з покоління Intel Skylake більшість десктопних iGPU має 24 виконавчих блоки (EU, Execution Unit).

У свою чергу мобільний CPU Intel Core i7-6770HQ може похвалитися інтегрованою графікою Intel Iris Pro Graphics 580 (GT4e), яка містить відразу 72 виконавчі блоки й пам'ять eDRAM. Заміна Intel HD Graphics 530 на Intel HD Graphics 630 викликана впровадженням нових апаратних можливостей медіарушія, який навчився кодувати / декодувати відео у форматах VP9 і H.265, а також отримав повну підтримку контенту в 4K-роздільності. У свою чергу в Intel Coffee Lake маркетинговий відділ вирішив змінити назву вбудованої графіки з Intel HD Graphics 630 на солідніше Intel UHD Graphics 630, яка ніби натякає, що йому під силу впоратися навіть з 4K Ultra HD роздільністю. Але по суті вони не відрізняються, якщо не брати до уваги додавання підтримки OpenGL версії 4.5 замість 4.4 у попередника.  

Intel UHD Graphics 630

Для практичних випробувань Intel UHD Graphics 630 використовуватимемо найменш продуктивну його версію, яка знаходиться в складі процесора Intel Core i3-8100. Лише коротко нагадаємо, що його вбудоване відеоядро містить 23 виконавчі блоки з базовою частотою 350 МГц і динамічною до 1100 МГц. Інші варіанти UHD Graphics 630 у старших процесорах можуть комплектуватися 24 блоками або підтримувати прискорення до 1200 МГц, що трішки додає їм продуктивності.

Intel UHD Graphics 630

Тестування здійснювалося на материнській платі GIGABYTE Z370 AORUS Ultra Gaming, а за охолодження процесора відповідав кулер Thermalright Archon SB-E X2. Оперативна пам'ять представлена 2-канальним комплектом Patriot Viper 4 в режимі DDR4-2400. Операційна система і багато ігор були встановлені на SSD серії GOODRAM Iridium PRO.

Intel UHD Graphics 630

Тестовий стенд:

  • Intel Core i3-8100
  • GIGABYTE Z370 AORUS Ultra Gaming
  • Thermalright Archon SB-E X2
  • 2x8GB DDR4-3200 Patriot Viper 4
  • GOODRAM Iridium PRO 240GB
  • GOODRAM Iridium PRO 960GB
  • Seagate IronWolf 2TB
  • Seasonic PRIME 850 W Titanium
  • AOC U2879VF

Intel UHD Graphics 630

Переходимо до ігор. Dota 2 при роздільності Full HD краще запустити з мінімальними налаштуваннями. Отриманий фреймрейт доволі високий: у середньому 103 кадри/с з просіданням до 76, тому може виникнути бажання підняти якість. Але при зіткненні кількох прокачаних героїв частота може суттєво впасти, тому краще не ризикувати.

Intel UHD Graphics 630

У Rocket League також довелося спуститися до мінімальних налаштувань, щоб залишити роздільність Full HD. У такому режимі все цілком придатне для гри: середня швидкість відеоряду наближається до 60 FPS, а мінімальна не опускається нижче 45. Проблем з керуванням немає, що підтверджує доволі плавний і рівний графік часу кадру.

Intel UHD Graphics 630

Intel UHD Graphics 630

Кампанію в The Long Dark можна проходити в HD-роздільності й з низьким пресетом графіки. У будиночку отримуємо в районі 60 FPS. На природі середній фреймрейт просідає до 56 кадрів/с, а мінімальний не опускається нижче 43. В управлінні дещо відчувається Input Lag, але загалом грати можна.

Intel UHD Graphics 630

У Cuphead можна вибрати лише роздільність. У даному випадку це HD. До того ж за замовчуванням використовується вертикальна синхронізація, тому середня швидкість не піднімається вище 60 FPS. Мінімальний показник склав 30 кадрів/с. Графік часу кадру доволі рівний і плавний, тому до відклику управління питань не виникло. А ось саме управління з клавіатури – окрема історія.

Intel UHD Graphics 630

У Dungeons 3 з налаштувань є лише управління роздільністю рендерингу. Знизивши її до 50%, ми не мали жодних проблем у першій місії. Хоча швидкість відеоряду була невисока: в середньому 33 FPS із просіданням до 30. Якщо ви пройшли далі, то поділіться в коментарях, чи суттєво зростає навантаження на систему?

Intel UHD Graphics 630

Тепло прийняту геймерами й критиками гру Hob можна проходити й на вбудованій графіці. Правда, доведеться знизити роздільність до HD, а налаштування – до мінімального рівня. Якість картинки особливо не радує, зате проблем з відеорядом або відкликом управління немає. В середньому ми отримали 41 FPS із просіданням до 33.

Intel UHD Graphics 630

У 2D-платформері Inside можна вибрати лише роздільність. При Full HD ви маєте право розраховувати в середньому на 37 кадрів/с із просіданням до 31. Графік часу кадру наводить смуток своїм виглядом, та оскільки влучати в піксель не доведеться, то проблем з проходженням не передбачається.

Intel UHD Graphics 630

На початку гри What Remains of Edith Finch необхідно дійти до будинку Фінчів. І на цьому відрізку навіть при HD-роздільності й низькій роздільній здатності рендерингу просідання сягають 20 FPS. Але вже в самому будинку середня швидкість піднімається до 46 кадрів/с, а мінімальна не опускається нижче 28. Гра не вимагає високої швидкості реакції, тому характер графіку Frame Time особливої ролі не грає. 

Теги: intel   full hd   intel hd graphics   intel core   directx 12   gigabyte   core i3   4k ultra hd   
Читати огляд повністю >>>

Порівняння GeForce GTX 1070 vs GeForce GTX 1080 11Gbps для ігор у Full HD і Quad HD

Після виходу відеокарти GTX 1070 Ti ціни на GTX 1070 пішли на спад у закордонних онлайн-магазинах (сподіваємося, незабаром цей тренд спостерігатиметься і на вітчизняному ринку), тому ми вирішили згадати про актуальні можливості її близьких внутрішніх конкурентів при запуску вимогливих ігор у роздільностях Full HD і Quad HD.

gtx 1070 vs gtx 1080

Коротко нагадаємо, що в квітні компанія NVIDIA випустила нову версію відеокарти GeForce GTX 1080 з прискореною до 11 ГГц відеопам’яттю як превентивну відповідь на адаптери серії AMD Radeon RX Vega. Саме одну з таких моделей нам вдалося недавно й ненадовго роздобути.

gtx 1070 vs gtx 1080

Йдеться про ROG Strix GeForce GTX 1080 OC. Вона може похвалитися 10-фазовою підсистемою живлення з елементною базою Super Alloy Power II, масивним, тихим і ефективним 3-вентиляторним кулером, автоматичним процесом складання, підтримкою фірмових технологій Aura Sync і FanConnect II і низкою інших переваг.

gtx 1070 vs gtx 1080

gtx 1070 vs gtx 1080

Її тестування здійснювалося в режимі «Gaming», при якому динамічна частота GPU заявлена на рівні 1835 МГц, а ефективна швидкість відеопам'яті становить еталонні 11 ГГц. Але є й профіль «OC» з іще більшим розгоном частоти графічного процесора та навіть трохи прискореною відеопам’яттю.

gtx 1070 vs gtx 1080

gtx 1070 vs gtx 1080

У ролі її опонента виступає відеокарта GIGABYTE GeForce GTX 1070 G1 Gaming 8G. До списку ключових її переваг можна віднести 8-фазову підсистему живлення з елементною базою Ultra Durable VGA, ефективну 3-вентиляторну систему охолодження WINDFORCE 3X, заводський розгін GPU і LED-підсвічування RGB Fusion.

gtx 1070 vs gtx 1080

Для тестування використовувався наш основний стенд на базі розігнаного процесора Intel Core i7-6700K. Запис у роздільності Full HD здійснювався за допомогою зовнішньої карти захоплення, тобто без втрати продуктивності, а в Quad HD – за допомогою інструменту NVIDIA ShadowPlay.

gtx 1070 vs gtx 1080

gtx 1070 vs gtx 1080

Почнемо з роздільності Full HD. І першою грою, а точніше бенчмарком, виступає Rise of the Tomb Raider у режимі DX12 при дуже високому пресеті. За середнім показником цілком очікувано вперед вийшла система з GeForce GTX 1080: 149,5 проти 115 FPS, що еквівалентно 30%. Зате за мінімальним несподівано фіксуємо лідерство опонента: 66,5 проти 63 кадрів/с.

gtx 1070 vs gtx 1080

gtx 1070 vs gtx 1080 

Ультра профіль у Far Cry Primal по максимуму завантажив один потік процесора в системі з GeForce GTX 1080, а в конкурента місцями навантаження було не таким високим. У результаті чисте лідерство потужнішої зв'язки: 115 проти 94 FPS за середньою частотою і 87 проти 75 за мінімальною. Розрив склав 16-22%.

gtx 1070 vs gtx 1080

gtx 1070 vs gtx 1080

Rainbow Six Siege при ультра пресеті повністю солідарний з попереднім бенчмарком у питанні вибору лідера. Різниця полягає лише в підсумкових показниках: 210 проти 168 кадрів/с за середнім фреймрейтом і 69 проти 55 за мінімальним. Приріст склав 25% в обох випадках.

gtx 1070 vs gtx 1080

gtx 1070 vs gtx 1080

Вимогливіший Ghost Recon Wildlands при тому ж ультра пресеті не дозволяє системам вийти за межі 70 FPS, проте пальму першості утримує конфігурації з GeForce GTX 1080. За середньою частотою маємо 65 проти 53 кадрів/с, а за мінімальною – 56 проти 46, що еквівалентно 22-23%.

gtx 1070 vs gtx 1080

gtx 1070 vs gtx 1080

Ще один проект у режимі DirectX 12, Deus Ex Mankind Divided при ультра пресеті, виявився доволі складним для тестових зв'язок. GeForce GTX 1070 змогла забезпечити в ньому в середньому 63 кадри/с з просіданням до 50. У свою чергу GeForce GTX 1080 видала 83 і 64 FPS відповідно. Бонус продуктивності склав 28-31%. 

gtx 1070 vs gtx 1080

Battlefield 1 не дуже добре оптимізований під DX12, тому тестували його в 11-й версії. А вибір сюжетної кампанії замість мережевого мультиплеєра пояснюється можливістю повторення результатів. При ультра пресеті, природно, швидшою була зв'язка з GeForce GTX 1080: 145 проти 114 FPS за середнім показником і 126 проти 105 за мінімальним.

gtx 1070 vs gtx 1080

Відкритий світ WATCH_DOGS 2 при ультра профілі є дуже серйозним випробуванням для будь-якої системи навіть у Full HD. GeForce GTX 1070 змогла підтримувати середню швидкість відеоряду на рівні 61 FPS. Мінімальний же показник знизився до 46 кадрів/с. А GeForce GTX 1080 видала 69 і 53 FPS відповідно, обігнавши молодшу версію на 13-15%.

gtx 1070 vs gtx 1080 

І в 2017 році Третій Відьмак при максимальних налаштуваннях графіки не втрачає своєї краси і привабливості для геймерів. Обидві тестові конфігурації змогли забезпечити комфортний фреймрейт при пробіжці по місту, але закономірно краще це вийшло в системи з GeForce GTX 1080: 97 проти 74 FPS за середнім показником і 85 проти 68 за мінімальним. Розрив склав 25-31%.

gtx 1070 vs gtx 1080

Завершуємо першу тестову сесію в мережевому проекті PLAYERUNKNOWN'S BATTLEGROUNDS при ультра налаштуваннях. Покатавшись на природі та дослідивши будиночки, на GTX 1070 ми отримали в середньому 66 FPS із просіданням до 48. Система з GTX 1080 видала помітно більше: 93 і 61 кадр/с відповідно. Але про повторення результатів у мережевих іграх говорити складно.  

Порівняння двох відеокарт у роздільності Full HD:

 

GTX 1080 11Gbps vs GTX 1070, avg, %

GTX 1080 11Gbps vs GTX 1070, min, %

PLAYERUNKNOWN'S BATTLEGROUNDS, Ultra

40,91

27,08

The Witcher 3, Max

31,08

25,00

WATCH_DOGS 2, Ultra

13,11

15,22

Battlefield 1, Ultra

27,19

20,00

Deus Ex Mankind Divided, DX12, Ultra

31,22

28,29

Tom Clancy's Ghost Recon Wildlands, Ultra

22,58

21,91

Tom Clancy's Rainbow Six Siege, Ultra

25,21

25,05

Far Cry Primal, Ultra

22,34

16,00

Rise of the Tomb Raider, DX12, Very High

30,34

-5,26

Average Full HD

27,11

19,25

Читати огляд повністю >>>

Дебют мобільних відеокарт NVIDIA GeForce MX130 і GeForce MX110

Без красномовних прес-релізів і масштабних презентацій, компанія NVIDIA додала на офіційний сайт сторінки двох нових мобільних адаптерів – NVIDIA GeForce MX130 і NVIDIA GeForce MX110, що можна вважати їх офіційним анонсом.

NVIDIA GeForce MX130

NVIDIA традиційно не стала розголошувати подробиці їх технічних характеристик. Відомо лише те, що вони побудовані на базі мікроархітектури NVIDIA Maxwell, можуть працювати в парі з відеопам'яттю DDR3 або GDDR5, а також підтримують низку актуальних технологій і API: NVIDIA Optimus, NVIDIA GPU Boost 2.0, NVIDIA GameWorks, DirectX 12 і OpenGL 4.5.

NVIDIA GeForce MX110

Зведена ігрова продуктивність NVIDIA GeForce MX110 в 1,5 рази вище, ніж у вбудованого графічного ядра Intel UHD Graphics 620 (використовується в процесорах Intel Core 8-го покоління). У свою чергу NVIDIA GeForce MX130 в 2,5 рази краща цього ж конкурента. Для порівняння нагадаємо, що топовий представник цієї серії, NVIDIA GeForce MX150, в 4 рази перевершує Intel UHD Graphics 620.

https://www.techpowerup.com
https://www.geforce.com
Сергій Буділовський

Читати новину повністю >>>

Новий драйвер для вбудованої графіки Intel HD v15.60 WHQL

Відбувся реліз драйвера для вбудованої графіки Intel HD v15.60 WHQL, який сумісний з більшістю процесорів Intel Core 6-го, 7-го і 8-го покоління (Skylake, Kaby Lake і Coffee Lake). У першу чергу він призначений для використання можливостей останнього оновлення ОС Windows 10 – Fall Creators Update.

Intel HD v15.60 WHQL

Також драйвер додає підтримку 10-бітових дисплеїв з підключенням по інтерфейсу HDMI, що відображають 1,07 млрд кольорів, можливість апаратного декодування відео кількох форматів, представлених після релізу DirectX 12, підтримку Netflix HDR і YouTube HDR. Крім цього, оптимізовано роботу вбудованого відеоядра Intel HD Graphics в ігрових проектах Middle-earth: Shadow of War, Call of Duty: WWII, Destiny 2 і Divinity: Original Sin.

Завантажити драйвер Intel HD v15.60 WHQL можна за цим посиланням.

guru3d.com
Юрій Коваль

Теги: intel   windows 10   youtube   directx 12   call of duty   intel core   
Читати новину повністю >>>

Порівняння відеокарт Radeon RX Vega 64 vs GeForce GTX 1080 у Full HD іграх: Volta може зачекати

Нещодавно ми познайомилися з можливостями відеокарти AMD Radeon RX Vega 64 в 25 актуальних іграх, а тепер настав час порівняти її в найпопулярнішій роздільності Full HD з одним із головних конкурентів в особі NVIDIA GeForce GTX 1080, проти якого вона й позиціонувалася.

Radeon RX Vega 64 vs GeForce GTX 1080

Коротко нагадаємо, що при тестуванні використовувалася еталонна версія RX Vega 64 з підтримкою 4096 потокових процесорів, динамічною частотою аж до 1630 МГц, 8 ГБ HBM2-пам'яті й турбінною системою охолодження. Відзначимо, що офіційна динамічна частота для референсної моделі становить 1546 МГц.

Radeon RX Vega 64 vs GeForce GTX 1080

Протистоятиме їй добре знайома за попередніми нашими відео модель Inno3D iChill GeForce GTX 1080 X3 із заводським розгоном графічного процесора й пам'яті, а також тихою й ефективною 3-вентиляторною системою охолодження. Тактові частоти ми не стали зменшувати до еталонного рівня, оскільки вони забезпечують лише близько 3% приросту в роздільності Full HD. До того ж у продажу є дуже багато версій саме з заводським розгоном, тому таке порівняння буде не рідкістю.

Radeon RX Vega 64 vs GeForce GTX 1080

А оскільки було прохання порівняти топові відеокарти на платформі AMD, в ролі тестового стенда використовується конфігурація з Ryzen 7 1700X на чолі. Асистує йому материнська плата MSI X370 SLI PLUS, водяне охолодження be quiet! Silent Loop, пара 8-гігабайтових 2-рангових модулів Patriot Viper 4 на частоті DDR4-3200 й інші, знайомі вам компоненти.

Radeon RX Vega 64 vs GeForce GTX 1080

Від розгону процесора ми також навмисне відмовилися, оскільки хотіли побачити, чи не обмежуватиме він продуктивність таких потужних відеокарт в іграх, а якщо так, то як це позначиться на комфортності геймплею. До того ж оверклокінг топових AMD Ryzen – доволі спірне питання: незначне прискорення помітно впливає на енергоспоживання й тепловиділення, вимагаючи дорожчих і надійніших комплектуючих.

Radeon RX Vega 64 vs GeForce GTX 1080

Тестовий стенд:

  • AMD Ryzen 7 1700X
  • MSI X370 SLI PLUS
  • be quiet! Silent Loop 240mm
  • 2 х 8 ГБ DDR4-3400 Patriot Viper 4
  • Inno3D iChill GeForce GTX 1080 X3
  • AMD Radeon RX Vega 64
  • Kingston SSDNow KC400 (SKC400S37/256G)
  • Seagate IronWolf ST2000VN004 2 ТБ
  • be quiet! Dark Power Pro 11 850W
  • be Quiet! Pure Base 600 Window Orange
  • AOC U2879VF

Radeon RX Vega 64 vs GeForce GTX 1080

При тестуванні ми постаралися використовувати нові API DirectX 12 і Vulkan, а запис здійснювався на зовнішню систему, тобто без втрати продуктивності.

Radeon RX Vega 64 vs GeForce GTX 1080

Radeon RX Vega 64 vs GeForce GTX 1080

Почнемо з Rise of the Tomb Raider при дуже високому пресеті графіки. Зверніть увагу, що в системі з GeForce GTX 1080 частина процесорних потоків може не використовуватися, але їх частота не знижується. Проте обидві відеокарти завантажені доволі високо, хоча й не на максимум. У лідери виривається GeForce GTX 1080: 141 проти 126 FPS за середнім показником і 55 проти 46 за мінімальним.

Radeon RX Vega 64 vs GeForce GTX 1080

Radeon RX Vega 64 vs GeForce GTX 1080

А ось Far Cry Primal при ультра пресеті потребує від процесора високої продуктивності в однопотоковому режимі, що не дозволяє на повну задіяти ресурси відеокарти. Сильніше це відчувається в зв'язці з GeForce GTX 1080 на ранніх етапах бенчмарку. Але це не заважає їй знову вийти в лідери, хоча й з мінімальною перевагою: 87 FPS проти 84 за середньою частотою і 60 проти 59 за мінімальною.

Radeon RX Vega 64 vs GeForce GTX 1080

Radeon RX Vega 64 vs GeForce GTX 1080

До масштабного вересневого оновлення Rainbow Six Siege була краще оптимізованою під відеокарти AMD. Давайте подивимося, чи змінилося щось після нього? Ультра пресет доволі добре розкидає навантаження на потоки CPU і високо завантажує обидві відеокарти. Але фінальний підсумок все ж за Veg'ою: 208 кадрів/с проти 202 за середнім фреймрейтом і 75 проти 53 за мінімальним. Різниця склала 3 і 40% відповідно.

Radeon RX Vega 64 vs GeForce GTX 1080

Radeon RX Vega 64 vs GeForce GTX 1080

А ось новіший представник ігор серії Tom Clancy’s, Ghost Recon Wildlands при ультра профілі, повертає на Олімп зв'язку з GeForce GTX 1080 на облавку. В середньому вона видала 61,5 FPS з просіданням до 53,5. У конкурента в активі в середньому 52 кадри/с з просіданням до 42. Бонус продуктивності становить 18 і 28% відповідно.

Radeon RX Vega 64 vs GeForce GTX 1080

Radeon RX Vega 64 vs GeForce GTX 1080

Deus Ex Mankind Divided при ультра пресеті також вельми вимогливий до однопотокової продуктивності CPU, але при цьому його потужності вистачає для майже повноцінного завантаження відеокарт. Лідер залишився незмінним, хоча перевага скоротилася до мінімуму: 81 FPS проти 80 за середнім показником і 62,5 проти 60 за мінімальним. 

Читати огляд повністю >>>

Драйвер NVIDIA GeForce Game Ready 387.92 WHQL з підтримкою Middle-earth: Shadow of War, The Evil Within 2 і Forza Motorsport 7

Компанія NVIDIA випустила нову версію ігрового драйвера – NVIDIA GeForce Game Ready 387.92 WHQL, який додає підтримку свіжих ігор: Middle-earth: Shadow of War, The Evil Within 2 і Forza Motorsport 7, а також виправляє низку раніше помічених помилок.

NVIDIA GeForce Game Ready 387.92 WHQL

Серед інших змін драйвера можна виділити такі:

  • додано підтримку специфікації OpenGL 4.61;
  • додано можливість використання технології Fast Sync для мультиграфічних зв'язок NVIDIA SLI, що складаються з відеокарт на основі GPU NVIDIA Maxwell, NVIDIA Pascal і новіших;
  • додано повну підтримку DirectX 12 Shader Model 6.0;
  • виправлено проблему низького завантаження GPU в мультиграфічних зв'язках на системах, заснованих на чіпсеті Intel X299;
  • виправлено посмикування картинки при перегляді відео на YouTube у повноекранному режимі при активному Fast Sync;
  • виправлено проблему з неможливістю зберегти користувацьку роздільність у NVIDIA Control Panel після оновлення драйвера тощо.

NVIDIA GeForce Game Ready 387.92 WHQL

Завантажити драйвер NVIDIA GeForce Game Ready 387.92 WHQL можна з офіційного сайту за цим посиланням або шляхом оновлення в ПЗ NVIDIA GeForce Experience.

videocardz.com
Юрій Коваль

Теги: nvidia   nvidia geforce   youtube   directx 12   nvidia sli   maxwell   
Читати новину повністю >>>

Огляд і тестування відеокарти ROG STRIX RX VEGA 64 OC Edition: повернення до вищої ліги

Усі відверто зачекалися повернення компанії AMD у сегмент Hi-End ігрових настільних відеокарт. Ще влітку 2016 року була представлена серія AMD Polaris. Але, як і її пряме посилення у вигляді лінійки AMD Radeon RX 500, вона націлена виключно на категорію Middle-End і Performance, де її моделі цілком успішно склали конкуренцію молодшим представникам NVIDIA Pascal. А ось старші NVIDIA GeForce GTX 1070 і GeForce GTX 1080 просто залишилися без гідного суперника, оскільки моделі AMD Radeon R9 FURY і AMD Radeon R9 FURY X швидко зійшли з дистанції, а дебют їх наступників на базі мікроархітектури AMD Vega був запланований лише на 2017 рік. Хоча ще в грудні минулого року відбувся анонс спеціалізованих прискорювачів AMD Radeon Instinct, флагман яких, AMD Radeon Instinct MI25, отримав повноцінний графічний процесор AMD Vega 10.  

Пояснюється все доволі просто. По-перше, AMD довелося «воювати» відразу на два фронти – CPU і GPU, що вимагає чималих ресурсів і розставляння пріоритетів. І треба сказати, що ставка зіграла цілком вдало, адже випуск процесорів AMD Ryzen на мікроархітектурі AMD Zen дозволив «червоним» вдарити по непохитних позиціях компанії Intel у масовому сегменті й відвоювати давно втрачені рубежі. По-друге, в нових відеокартах компанія AMD знову зробила ставку на швидку пам'ять HBM, тільки вже другого покоління, масове виробництво якої вдалося налагодити лише порівняно недавно.

ROG STRIX RX VEGA 64 OC Edition

Все ж у процесі очікування нових карт відділ маркетингу AMD постійно підігрівав інтерес до майбутніх продуктів за допомогою низки анонсів і презентацій, які постаралися переконати всіх у конкурентоспроможності «Веги». А вже на початку літа були представлені не лише серверні процесори AMD EPYC, а й професійна відеокарта Radeon RX Vega 64 Frontier Edition, яка покликана скласти конкуренцію NVIDIA TITAN Xp.

І лишень зовсім недавно, в рамках SIGGRAHP 2017, компанія AMD порадувала ентузіастів і офіційно представила HEDT-платформу зі своїми «потоковими різниками» з лінійки AMD Ryzen Threadripper і масові відеокарти AMD Radeon RX Vega 64 і Radeon RX Vega 56. 

Топова модель, причому в нереференсному виконанні, потрапила в нашу тестову лабораторію, і ми можемо поділитися враженнями від знайомства. Отже, почнемо.

Загальні відомості про нові відеокарти

ROG STRIX RX VEGA 64 OC Edition

На даний момент доступні дві ігрові відеокарти лінійки AMD Radeon RX Vega: AMD Radeon RX Vega 64 і Radeon RX Vega 56. На відміну від минулого покоління AMD Radeon R9 FURY, дещо змінилася схема позначення: «R9» замінили на «RX», але при цьому новинки також отримали своє власне ім'я «Vega», яке гармонійно вписується в зоряну термінологію, обрану компанією в останні роки. Числовий індекс у кінці зазначає кількість активних обчислювальних блоків у графічному чіпі – 64 або 56. Старша модель не лише має максимальну конфігурацію GPU і вищі частоти, а й випускається відразу в трьох модифікаціях. Крім чорної еталонної версії з пластиковим кожухом і повітряною системою охолодження, AMD представила версію з приставкою «Limited Edition», яка має ідентичні частоти, але може похвалитися металевим кожухом СО і наявністю підсвічування. Топовий варіант «Liquid Cooled Edition» отримав підвищені частоти і СВО.

Молодша модель AMD Radeon RX Vega 56 задовольняється меншим набором обчислювальних блоків і доступна лише з простим повітряним охолодженням. Для зручності сприйняття пропонуємо поглянути на зведену таблицю, де представлені графічні адаптери минулого і поточного покоління компанії AMD:

Модель

AMD Radeon R9 Fury X

AMD Radeon RX 580

AMD Radeon RX Vega 64 Frontier Edition

AMD Radeon RX Vega 64 Liquid Cooled Edition

AMD Radeon RX Vega 64

AMD Radeon RX Vega 56

GPU

AMD Fiji XT 

AMD Polaris 20 XTX 

AMD Vega 10 XT

AMD Vega 10 XT

AMD Vega 10 XT

AMD Vega 10 XL

Мікроархітектура

3-е покоління AMD GCN

4-е покоління AMD GCN

5-е покоління AMD GCN

5-е покоління AMD GCN

5-е покоління AMD GCN

5-е покоління AMD GCN

Число транзисторів, млн

8900

5700

12500

12500

12500

12500

Площа кристала, мм2

596

232 

486

486

486

486

Техпроцес, нм

28

14

14

14

14

14

Кількість обчислювальних блоків

64

36

64

64

64

56

Кількість потокових процесорів (ALU)

4096

2304

4096

4096

4096

3584

Кількість текстурних блоків (TMU)

256

144

256

256

256

224

Кількість растрових блоків (ROP)

64

32

64

64

64

64

Тактова частота GPU, МГц

1050

1257 / 1340

1382 / 1600

1406 / 1677

1247 / 1546

1156 / 1471

Тип відеопам'яті

HBM

GDDR5

HBM2

HBM2

HBM2

HBM2

Об’єм, ГБ

4

4 / 8

8 / 16

8

8

8

Ефективна частота пам'яті, МГц

1000

7000 / 8000

1890

1890

1890

1600

Ширина шини пам'яті, бітів

4096

256

2048

2048

2048

2048

Пропускна спроможність, ГБ/с

512

224 / 256

484

484

484

410

Рівень продуктивності одиночної точності, TFLOPS

8,6

6,2

13,1

13,7

12,7

10,5

Показник TDP, Вт

275

185

300

345

295

210

Рекомендована ціна на старті продажів, $

649

199 / 229

1199 / 1799

699

499

399

Як бачите, в основі всіх новинок використовується GPU AMD Vega 10, на одній підкладці з яким знаходиться 8 ГБ HBM2-пам'яті. У своїй максимальній конфігурації GPU отримав 4096 потокових процесорів, 256 текстурних блоків і 64 блоки растеризації, що повністю збігається з попередником AMD Fiji. Але при цьому перехід на прогресивніший 14-нм техпроцес FinFET дозволив отримати компактніші розміри кристала (486 проти 596 мм2). А завдяки архітектурним нововведенням вдалося значно підняти тактові частоти, які в деяких випадках переступили поріг в 1,6 ГГц, що було просто недоступно минулим чіпам навіть у максимальному розгоні. До речі, плаваюча Boost-частота тепер не є максимальною, а її варто сприймати як певне середнє значення під ігровим навантаженням, але якщо температура й енергоспоживання дозволяють, швидкості можуть бути й вищими. У свою чергу базове значення частоти можна побачити лише за умови максимального навантаження на GPU. Загальна схема роботи нагадує таку у відеокарт лінійки NVIDIA GeForce GTX.

Цілком природно, що зростання тактових частот призвело до збільшення TDP. Для AMD Radeon RX Vega 64 з повітряним охолодженням воно заявлене на рівні 295 Вт, а для AMD Radeon RX Vega 64 Liquid Cooled Edition з СВО – вже дорівнює значним 345 Вт. Якщо порівняти це з 275-ватним попередником AMD R9 Fury X, зростання TDP можна вважати не настільки й великим, особливо з огляду на  те, що AMD Vega 10 має на 40% більше транзисторів, ніж AMD Fiji (12,5 млрд проти 8,9 млрд). При цьому обчислювальна потужність одинарної точності зросла з 8,6 терафлопс до 12,7 і 13,7 терафлопс або на 48% і 59% для моделей з повітряним і водяним охолодженням відповідно. Але якщо поглянути на конкурентні рішення NVIDIA GeForce GTX 1080 і GeForce GTX 1080 Ti, TDP яких заявлений на рівні 180 і 250 Вт відповідно, картина стає вже не такою оптимістичною. Те ж саме стосується порівняння AMD Radeon RX Vega 56 з GeForce GTX 1070 – 210 Вт проти 150 Вт, хоча й розрив менший. Але це все ми перевіримо на практиці, а поки детальніше зупинимося на нововведеннях мікроархітектури AMD Vega.

Особливості графічного ядра AMD Vega 10

ROG STRIX RX VEGA 64 OC Edition

Як уже згадувалося, графічний процесор AMD Vega 10 виготовляється за 14-нм FinFET-техпроцесом і містить 12,5 мільярдів транзисторів. На сьогоднішній день він є наймасштабнішою зміною в мікроархітектурі Graphics Core Next (GCN) і відноситься до її п'ятого покоління. Проте в концептуальному плані нічого не змінилося.

ROG STRIX RX VEGA 64 OC Edition

Як і раніше основним обчислювальним блоком у GPU виступає Compute Unit, який у даній ітерації йменується як NCU (Next-Generation Compute Unit), а ось він уже зазнав низки вдосконалень, як заявляє сама AMD. Усього налічується чотири великі масиви з обчислювальних блоків (NCU), в кожному з яких є свій рушій асинхронного виконання команд (Asynchronous Compute Engines) і геометричний процесор (Next-Gen Geometry Engines). По суті, перед нами той же шейдерний рушій (Shader Engine, SE), як і в AMD Fiji. У кожному шейдерному рушії (SE) налічується 16 обчислювальних блоків (NCU), в кожному з яких працюють 64 потокових процесори (ALU) і 4 текстурних блоки (TMU). У підсумку загальна конфігурація обчислювальних блоків AMD Vega 10 ідентична до AMD Fiji й налічує 4096 потокових процесора (ALU), 256 текстурних блоків (TMU) і 64 блоки растеризації (ROP). Але що ж змінилося?

ROG STRIX RX VEGA 64 OC Edition

Чіп AMD Vega 10 має 45 МБ SRAM. Причому регістри внутрішньої пам'яті побудовані з застосуванням статичної пам'яті, дизайн якої спочатку був створений для процесорів на мікроархітектурі AMD Zen. За заявою самої AMD, це дозволило на 8% скоротити внутрішні затримки, заощадити 18% площі й на 43% зменшити споживання енергії в порівнянні зі стандартними рішеннями. Також були впроваджені чотири стадії конвеєра, вкорочені всі внутрішні лінії проходження сигналів, проведено оптимізацію витоків, що дозволило підняти робочі частоти.

Удвічі збільшили об'єм кеш-пам'яті другого рівня (L2), який тепер дорівнює 4 МБ. Причому модуль рендерингу (ROP) став клієнтом кешу другого рівня, а не контролера пам'яті. У теорії це обіцяє збільшення швидкості рендеру за рахунок зменшення потреби GPU звертатися до відеопам'яті за необхідними даними.

Для комунікації графічного ядра з обв'язкою (контролером пам'яті, шиною PCI Express, мультимедійним блоком тощо) використовується швидкісна шина Infinity Fabric, яка також застосовується в процесорах AMD Ryzen. Така уніфікація дозволить в майбутньому легко інтегрувати GPU в нові APU.

Next-Generation Compute Unit

ROG STRIX RX VEGA 64 OC Edition

Нове покоління обчислювальних блоків (NCU) навчилося працювати з новими типами даних і набуло найбільшого оновлення набору інструкцій ISA (Instruction Set Architecture) за всю історію мікроархітектури GCN. Оскільки в AMD Vega 10 налічується 64 обчислювальних блоки (NCU), які здатні виконувати дві операції з плаваючою комою, то в результаті ми отримуємо 128 операцій зі стандартною 32-бітовою точністю (FP32) за один такт, упор на які зробили ще в далекому 2007/8-роках, коли графічні процесори зробили перехід до уніфікованих шейдерів.

ROG STRIX RX VEGA 64 OC Edition

Але тепер з'явилася підтримка 8- і 16-бітових даних з подвоєним темпом виконання при кожному зниженні розрядності. Тобто замість 128 операцій з 32-бітовою точністю (FP32), ми отримуємо 256 операцій з 16-бітовою (FP16) або цілих 512 операцій над 8-бітовими даними (FP8). Аналогічна ситуація з цілочисельними обчисленнями (INT8, INT16 і INT32).

Якщо сказати більш звичною мовою, то «Вега» відмінно підходить для наукових розрахунків і моделювання, крім операцій з подвійною точністю (FP64), де спостерігається низька продуктивність (1/16 від FP32). Є можливість комбінувати різні типи обчислень. Аналогічною функціональністю володіє чіп NVIDIA GP100. Але конкурент намагається розмежовувати рішення для ігрових і професійних завдань, тоді як AMD у новому чіпі зробила ставку на універсальність.

ROG STRIX RX VEGA 64 OC Edition

Варто зазначити, що подвоєний темп виконання операцій з половинчастою точністю стане в нагоді й для поліпшення енергоефективності й збільшення ігрової продуктивності, оскільки вже застосовується в консолі Sony PS4 Pro, яка заснована на апаратній начинці AMD. Дана технологія називається Rapid Packed Math (RPM). Причому з її реалізацією в декстопному сегменті не повинно виникнути проблем, оскільки в DirectX 11, DirectX 12 і Vulkan передбачена підтримка операцій FP16. Як приклад ефективності її роботи, сама компанія наводить бенчмарк 3DMark Serra, де спостерігається профіт у діапазоні від 20% до 25%.

ROG STRIX RX VEGA 64 OC Edition

Другим прикладом слугує прорахунок фізики поведінки волосся на базі технології TressFX: активація RPM дозволяє системі прорахувати вдвічі більшу кількість волосків (1 200 000 проти 550 000) без зниження продуктивності.

Примітно, що підтримку даної технології вже заявлено в найсвіжіших проектах. Йдеться про Wolfenstein II: The New Colossus і Far Cry 5, які повинні з'явитися вже цієї осені. Сподіватимемося на подальший її розвиток і впровадження в усе більшу кількість ігор.

Програмований геометричний конвеєр

ROG STRIX RX VEGA 64 OC Edition

Варто нагадати, що в AMD Fiji оброблялося максимум 4 примітиви за такт. Але покращений геометричний рушій AMD Vega 10 збільшує цю позначку до 17 примітивів за такт. Для цього розробники пропонують ввести «шейдери примітивів» (Primitive Shaders), які є частково програмованими й дозволяють об'єднати деякі стадії конвеєра, а також відсікати невидимі примітиви на ранніх стадіях, що позитивно позначається на загальній продуктивності. Додатково запроваджено спеціальний блок Intelligent Workload Distributor (IWD), який покликаний максимально ефективно використовувати ресурси декількох геометричних процесорів.

Новий піксельний рушій

ROG STRIX RX VEGA 64 OC Edition

Не залишився без поліпшень і піксельний рушій, який отримав механізм Draw-Stream Binning Rasterizer (DSBR). За аналогією з мікроархітектурами NVIDIA Maxwell і Pascal, у ньому реалізовано тайловий рендеринг або растеризація (Tile Based Rendering або Tile Based Rasterization, TBR). А ще раніше він з'явився в мобільній графіці IT PowerVR і ARM Mali. При класичній схемі (Immediate Mode Rendering) процес рендерингу виконується поступово для всього кадру. У випадку з TBR драйвер розділяє кадр на прямокутні тайли (розміром 16 х 16 або 32 х 32 пікселі) і растеризація здійснюється окремо для кожного шматочка, а вже в кінці всі тайли зшиваються в одну картинку. Це дозволяє скоротити необхідність звернення до зовнішньої, повільнішої відеопам'яті, використовуючи для цих цілей начіповий кеш, але при цьому потрібно два проходи для обробки геометрії сцени. У свою чергу технологія DSBR оцінює які полігони видно в кадрі, а які – перекриваються іншими полігонами. Відбраковування перекритих об'єктів дозволяє ефективніше використовувати наявні ресурси для обробки сцени та підвищення продуктивності.

ROG STRIX RX VEGA 64 OC Edition

Серед усіх сучасних GPU лише AMD Vega 10 передбачає найповнішу підтримку функцій DirectX 12 (Direct3D на рівні 12_1) і Vulkan 1.0.

HBM2 та ієрархія взаємодії з нею

ROG STRIX RX VEGA 64 OC Edition

Також мікроархітектура AMD Vega принесла в маси High Bandwidth Memory другого покоління (HBM2). Нова пам'ять доступна в стеках на 2 ГБ (2Hi HBM2), 4 ГБ (4Hi HBM2), 8 ГБ (8Hi HBM2) і 16 ГБ (16Hi HBM2). Для AMD Radeon RX Vega 64 використовуються два стеки по 4 ГБ, що дає нам 8 ГБ відеопам'яті. Шина даних між GPU і VRAM – 2048-бітова, що при ефективній частоті пам'яті в 1890 МГц дає пропускну спроможність на рівні 484 ГБ/с. Нагадаємо, що AMD Radeon R9 FURY X оперувала тільки 4 ГБ HBM першого покоління. Такого об’єму вже зараз впритул вистачає навіть для масової Full HD-роздільності, не кажучи про поступове поширення надроздільностей (4K, 5K і навіть 8K). Але через ширшу шину даних вона мала трохи кращий показник пропускної спроможності – 512 ГБ/с. Для порівняння: у NVIDIA GeForce GTX 1080 Ti з GDDR5X даний показник знаходиться на рівні 484 ГБ/с завдяки підвищеній робочій частоті. Критикам відразу варто нагадати про традиційні переваги HBM над GDDR5-пам'яттю: скромніші габарити й енергоспоживання. Саме за нею майбутнє.

ROG STRIX RX VEGA 64 OC Edition

За словами Раджа Кодурі (Raja Koduri), наявні на ринку мікроархітектури не забезпечують необхідну гнучкість при використанні іграми відеопам'яті. Наприклад, якщо моніторинг показує споживання грою 4 ГБ, то в реальності їй необхідно не більше 2 ГБ. Решта 2 ГБ частково задіяні через неможливість поділу відеопам'яті на дрібніші фрагменти для ефективного використання, а частково – через бажання розробників перестрахуватися.

ROG STRIX RX VEGA 64 OC Edition

В AMD вважають, що просте нарощування відеопам'яті є малоефективним (зростає площа PCB і помітно збільшується енергоспоживання). Як альтернативу вони пропонують використовувати гетерогенну структуру пам'яті. Для цього був розроблений і впроваджений контролер HBCC (High-Bandwidth Cache Controller), здатний працювати з різними типами пам'яті (оперативною, накопичувачами й навіть мережевими сховищами).

ROG STRIX RX VEGA 64 OC Edition

Тепер HBM2-пам'ять можна використовувати як швидкісний кеш, в який «посторінково» (Page Based Memory Management) довантажуватимуться дані різних розмірів. Простіше кажучи, HBCC оптимізує використання відеопам'яті й визначає місце зберігання тих чи інших даних, що дозволяє по максимуму використовувати доступні ресурси. До речі, HBCC може забезпечувати до 512 ТБ віртуального адресного простору.

Варто нагадати, що використання ОЗП для потреб відеокарти – ідея не нова, але AMD її переосмислила й зробила значно цікавішою.

Покращені можливості з виведення зображення і мультимедіа

AMD Vega 10 максимально добре підходить для сучасних розваг, включаючи VR, завдяки підтримці всіх актуальних стандартів виведення зображення на дисплей, перевершуючи за цим параметром рішення AMD Polaris. Новий GPU обзавівся підтримкою стандарту DisplayPort 1.4 з HBR3, MST і HDR, а також HDMI 2.0 з можливістю виведення 4K @ 60 Гц з 12-бітовим HDR і кодуванням 4:2:0. Для згаданих відеовиходів є підтримка стандарту захисту HDCP, а також технологій FreeSync і FreeSync2 для моніторів з HDR і низькими затримками.

ROG STRIX RX VEGA 64 OC Edition

Як і AMD Polaris, AMD Vega 10 підтримує до шести одночасно підключених дисплеїв (4K при 60 Гц), але в новому чіпі цю можливість розширили в сторону надвисоких роздільностей, частот і форматів. У звичайному форматі підтримується підключення до трьох 8K-екранів при 30 Гц або одного 8K при 60 Гц. У 64-бітовому HDR-форматі виведення зображення можливе аж до 5K при 60 Гц.

Природно, AMD Vega 10 містить найактуальніші процесори кодування і декодування відео. Як і AMD Polaris, підтримує декодування відео форматів HEVC / H.265 з роздільністю до 3840 x 2160 при 60 Гц, з 10-бітовим кольором для HDR-контенту. Виділене декодування формату H.264 також підтримується при роздільності до 4K і частоті 60 Гц. Для VP9 передбачений комбінований метод декодування спільно з CPU. Новий блок кодування навчився записувати відео у форматі H.264 і 4K-роздільності при 60 Гц, тоді як AMD Polaris обмежувався частотою 30 Гц.

Практичне знайомство з AMD Radeon RX Vega 64

ROG STRIX RX VEGA 64 OC Edition

Знайомитися з AMD Radeon RX Vega 64 будемо на прикладі оригінальної моделі від ASUS – ROG STRIX RX VEGA 64 OC Edition (ROG-STRIX-RXVEGA64-O8G-GAMING). До її переваг варто віднести повністю перероблену друковану плату, заводський розгін, фірмову систему охолодження з підсвічуванням, розширений набір інтерфейсів і багато іншого. Про все це поговоримо трохи пізніше, а поки пропонуємо поглянути на детальні характеристики новинки.

Специфікація

Модель

ROG STRIX RX VEGA 64 OC Edition (ROG-STRIX-RXVEGA64-O8G-GAMING)

GPU

AMD Vega 10 XT

Мікроархітектура

5-е покоління AMD GCN

Техпроцес, нм

14 (FinFET)

Кількість обчислювальних блоків

64

Кількість потокових процесорів

4096

Базова / динамічна частота GPU, МГц

1298 / 1590 МГц

Тип відеопам'яті

HBM2

Об'єм, ГБ

8

Номінальна / ефективна частота пам'яті, МГц

945 / 1890

Ширина шини пам'яті, бітів

2048

Пропускна спроможність пам'яті, ГБ/с

484

Зовнішні інтерфейси

1 x DVI-D
2 x HDMI 2.0b
2 x DisplayPort 1.4

Додатковий роз'єм живлення PCIe

2 x 8-контактних

Внутрішній інтерфейс

PCI Express 3.0 x16

Мінімальна рекомендована потужність блока живлення, Вт

750

Розміри з офіційного сайту (відповідно до вимірювань у нашій тестовій лабораторії), мм

298 x 134 x 52,5 (315 х 140)

Драйвери

Свіжі драйвери можна завантажити з сайту компанії ASUS або сайту виробника GPU

Сайт виробника

ASUSTeK Computer Inc.

Упаковка і комплект постачання

ROG STRIX RX VEGA 64 OC Edition ROG STRIX RX VEGA 64 OC Edition

Відеокарта ROG STRIX RX VEGA 64 OC Edition постачається в габаритній коробці зі щільного картону. Упаковка оформлена в чорно-червоних тонах, а на передній частині красується зображення прискорювача, великий барвистий напис «STRIX», великий логотип AMD Vega і назва серії «Radeon RX Vega 64». На її гранях можна помітити яскраві вставки, що добре ілюструють основні переваги новинки. На додачу до цього наявні рекомендації виробника до блока живлення: мінімум 750 Вт і бажано два 8-контактні роз'єми PCIe.

ROG STRIX RX VEGA 64 OC Edition

У комплекті з адаптером пропонується диск із драйверами і ПЗ, інструкція користувача, перехідник живлення з двох 6-контактних на один 8-контактний конектор PCIe і парочка фірмових багаторазових стяжок для укладання силових кабелів.

Зовнішній вигляд

ROG STRIX RX VEGA 64 OC Edition ROG STRIX RX VEGA 64 OC Edition

Як і личить рішенням топового рівня, відеокарта ROG-STRIX-RXVEGA64-O8G-GAMING доволі велика й займається більше двох слотів розширення. З візуальної точки зору виглядає дуже естетично і повністю відповідає всім канонам сучасної лінійки ROG STRIX: кулер на три вентилятори з графітовим кожухом і складними геометричними формами. Зворотний бік прикритий металевою опорною пластиною з візерунком і вирізами під компоненти плати, а над графічним процесором є додаткова хрестоподібна притискна пластина. На місці LED-підсвічування з можливістю налаштування.

ROG STRIX RX VEGA 64 OC Edition ROG STRIX RX VEGA 64 OC Edition

Після демонтажу системи охолодження можна детально розглянути будову друкованої плати. Інженери використовували власний дизайн PCB. Але якщо на тильній стороні все цілком звично, то спереду якось порожньо. В очі кидається відсутність звичних чіпів GDDR5 (X)-пам'яті.

ROG STRIX RX VEGA 64 OC Edition

Але це цілком логічно, адже в усіх представників лінійки AMD Radeon RX Vega на одній підкладці скомпоновані GPU і VRAM. Але при цьому саме розташування елементів на друкованій платі цілком звичне: великий графічний процесор ближче до центру, а в хвостовій частині знаходяться силові елементи підсистеми живлення.

ROG STRIX RX VEGA 64 OC Edition ROG STRIX RX VEGA 64 OC Edition

Остання нараховує цілих 13 фаз (12 для GPU і 1 для пам'яті), що відповідає еталонному дизайну. В ролі ШІМ-контролера виступає мікросхема IR35217 виробництва International Rectifier. Оскільки контролер 8-канальний, насправді ми маємо шість каналів з подвоєною кількістю фаз. Прискорювач підтримує функції моніторингу та управління живленням, за які відповідає чіп ITE 8915FN. Електронні компоненти відповідають фірмовій концепції Super Alloy Power II, а відеоприскорювач збирається на повністю автоматизованій лінії виробництва ASUS AUTO-Extreme Technology.

ROG STRIX RX VEGA 64 OC Edition

Окрім слота PCI Express 3.0 х16, для живлення ROG STRIX RX VEGA 64 OC Edition використовуються два 8-контактні роз'єми PCIe. Сумарно може подаватися до 375 Вт потужності, чого повинно вистачити для роботи карти в позаштатному режимі. Нагадаємо, що TDP еталонної AMD Radeon RX Vega 64 з повітряним охолодженням заявлений на рівні 295 Вт. Система охолодження дещо перешкоджає підключенню і відключення додаткових дротів живлення. Поруч знаходиться пара світлодіодів для індикації стану живлення (біле світло – якщо силовий кабель підключений, тоді як червоне сигналізує про його відсутність) і майданчик для моніторингу та зміни ключових напруг.

До речі, зовсім недавно AMD відмовилася від давно всім відомої технології побудови мультиграфічних зв'язок AMD CrossFire. Тепер її прийнято називати просто режим «Multi-GPU» або «mGPU». Цілком природно, що ROG STRIX RX VEGA 64 OC Edition підтримує даний режим, причому не потрібно жодних додаткових містків, адже для його реалізації використовується інтерфейс PCI Express 3.0 x16.

ROG STRIX RX VEGA 64 OC Edition

У хвостовій частині розташовані два 4-контактні роз'єми для підключення корпусних вентиляторів (технологія ASUS FanConnect II), швидкість яких можна прив'язати до температури графічного або центрального процесора.

ROG STRIX RX VEGA 64 OC Edition

Набір зовнішніх інтерфейсів містить:

  • 1 x DVI-D;
  • 2 x HDMI 2.0b;
  • 2 x DisplayPort 1.4.

Еталонна версія припускає використання одного порта HDMI і трьох DisplayPort. Модифікований набір відеоінтерфейсів компанія ASUS називає VR-Friendly, оскільки два порти HDMI спростять підключення шолома віртуальної реальності.

ROG STRIX RX VEGA 64 OC Edition

Утиліта GPU-Z відрапортувала, що «серцем» тестової моделі виступає графічний процесор AMD Vega 10 XT. Тестування проводилося в режимі «Gaming», в якому базова частота становить 1298 МГц, а динамічна сягає 1590 МГц. Гранична тактова частота GPU може підніматися до 1630 МГц. Нагадаємо, що еталонні показники становлять 1247 / 1546 МГц відповідно. У свою чергу 8 ГБ HBM2-пам'яті від компанії Samsung працюють на ефективній еталонній частоті 1890 МГц з пропускною спроможністю 484 ГБ/с при 2048-бітовій шині.

За бажання в утиліті ASUS GPU Tweak II можна активувати режими «OC» і «Silent» або створити профілі з власними налаштуваннями.

ROG STRIX RX VEGA 64 OC Edition

Як уже згадувалося вище, ROG-STRIX-RXVEGA64-O8G-GAMING обладнана RGB-ілюмінацією ASUS Aura Sync, як і всі відеокарти лінійки ROG STRIX. Вона складається з ряду світлодіодів, розташованих уздовж (знизу й збоку) кожуха системи охолодження і великого логотипу Republic of Gamers на зворотному боці пристрою. Користувач може вибрати один з мільйонів кольорів і один із шести режимів роботи. Якщо у вас є інші комплектуючі та периферія з підтримкою ASUS Aura Sync, усе це добро можна змусити блимати в унісон для отримання кращого ефекту. Для прикладу можна глянути на корпус Deepcool Genome ROG Certified Edition. 

Система охолодження

ROG STRIX RX VEGA 64 OC Edition отримала оновлену з недавніх пір систему охолодження, яка застосовується для всіх останніх поколінь відеокарт. Вона складається з масивного двосекційного алюмінієвого радіатора, пластини якого пронизані шістьма 6-мм мідними тепловими трубками з нікельованим покриттям.

Примітно, що головна частина радіатора стала товщою на 40% у порівнянні з ROG STRIX Radeon RX 480 GAMING OC, що дозволило підвищити площу розсіювання. А завдяки відмові від прямого контакту теплових трубок з графічним процесором на користь додаткової теплознімної пластини, збільшується загальна ефективність використання конструкції. Природно, всі місця контакту пропаяні для поліпшення теплообміну. Для встановлення радіатора й створення максимальної притискної сили використовуються спеціальні автомати (технологія ASUS MaxContact).

Більшість елементів підсистеми живлення контактують з основним радіатором через теплознімну пластину й термопрокладку. Для додання належної жорсткості й накриття інших фаз VRM використовується велика товста пластина, яка накриває значну частину текстоліту.

ROG STRIX RX VEGA 64 OC Edition ROG STRIX RX VEGA 64 OC Edition

Зверху все це добро закриває пластиковий кожух з трьома 88-мм осьовими вентиляторами виробництва Power Logic з дизайном Wing-Blade. При цьому виробник заявляє про захист від пилу при повній відповідності стандарту IP5X. А завдяки технології 0dB кулер переходить у пасивний режим при низькому навантаженні на GPU.

ROG STRIX RX VEGA 64 OC Edition

В автоматичному режимі роботи системи охолодження, при максимальному навантаженні температура графічного процесора сягала 78°С. Вентилятори оберталися на 63% від своєї максимальної швидкості, створюючи слабкий фоновий шум, нижче середнього рівня, який абсолютно не заважав. Більшу частину часу GPU працює на частоті 1536 МГц, але трапляються й підйоми до 1630 МГц. Для наочного порівняння можете поглянути на геймплейне відео на нашому YouTube-каналі, де нещодавно тестувалася референсна AMD Radeon RX Vega 64, яка під ігровим навантаженням прогрівається до 86°С при нижчому діапазоні частот.

ROG STRIX RX VEGA 64 OC Edition

У режимі максимальної швидкості обертання вентиляторів температура GPU опустилася до 64°С, що говорить про гарний запас міцності для оверклокерських експериментів. Але при цьому шум підвищився до некомфортного рівня для постійного використання.

ROG STRIX RX VEGA 64 OC Edition

За відсутності навантаження частоти роботи графічного ядра та пам'яті автоматично знижувалися, дозволяючи знизити енергоспоживання й тепловиділення відеоприскорювача загалом. У такому режимі температура GPU не перевищувала 50°С, а кулер переходив у пасивний режим. Вентилятори запускалися лише після досягнення температурою GPU позначки 54-55°С. Тому в моменти простою відеокарта абсолютно безшумна. До речі, при частковому навантаженні може обертатися лише один із трьох пропелерів, що дозволяє мінімізувати рівень шуму.

Підсумовуючи все сказане, зазначимо, що система охолодження моделі ROG-STRIX-RXVEGA64-O8G-GAMING доволі добре справляється зі своїми прямими завданнями, забезпечуючи відмінні температурні показники й акустичний комфорт при повністю автоматичній роботі. Жодних сторонніх звуків у вигляді дратівливого писку дроселів помічено не було. 

Читати огляд повністю >>>

AMD Radeon RX Vega 64 перевершила NVIDIA GeForce GTX 1080 Ti у грі Forza 7 у режимі DX12

Наші колеги з німецького IT-порталу ComputerBase.de здійснили порівняльне тестування відеокарт NVIDIA GeForce GTX 1080 Ti і AMD Radeon RX Vega 64 у грі Forza 7 у режимі DirectX 12. Тестовий стенд містив процесор Intel Core i7-6850K (6 / 12 х 3,6 – 3,8 ГГц), розігнаний до 4,3 ГГц, і 16 ГБ оперативної пам'яті DDR4-3000 у чотириканальному режимі. Також використовувалися найсвіжіші драйвери – NVIDIA GeForce 385.69 і AMD Radeon Software Crimson ReLive Edition 17.9.3.

AMD Radeon RX Vega 64

У найпопулярнішій наразі роздільності 1920 х 1080 відеокарта AMD Radeon RX Vega 64 перевершила свого конкурента на 23% із середнім показником 136,9 проти 111,2 FPS. У роздільності 2560 x 1440 NVIDIA GeForce GTX 1080 Ti відстає вже з меншим розривом – 115,0 проти 102,8 кадрів /с (10,6%).

AMD Radeon RX Vega 64

Однак у 4K (3840 x 2160) AMD RX Vega 64 вже здає позиції, і «зелена» карта виходить уперед – середній її показник FPS склав 90,8 кадрів/с проти 83,7.

AMD Radeon RX Vega 64

Отримавши такі результати, редакція ComputerBase.de зв'язалася з NVIDIA, щоб уточнити, чи не допустили вони десь помилку під час тестування. У свою чергу ті підтвердили правильність результатів, так що відеокарта AMD RX Vega 64 дійсно може похвалитися відмінною продуктивністю в даній грі при переході до DirectX 12.

eteknix.com
Юрій Коваль

Читати новину повністю >>>

directx 12

Вибрати з: Оглядів Новин
Тільки в розділі
Шукати в знайденому тег:

Пошук на сайті
Поштова розсилка

top10

vote

Голосування