up
Матеріал роздруковано з сайту https://gecid.com/
Оригінал статті знаходиться за адресою https://ua.gecid.com/video/asus_gtx680-2gd5/

27-03-2012

Огляд і тестування відеокарти ASUS GeForce GTX 680 c 2 ГБ GDDR5

Запропонувавши перший графічний адаптер на базі 28-нм чіпа на три місяці раніше свого основного конкуренту, компанія AMD, так само, як і восени 2009 року, одержала помітну стратегічну перевагу на ринку. На фоні нових 28-нм рішень продукти на базі 40-нм чіпів, які присутні на ринку вже досить тривалий час, виглядають менш привабливо, навіть незважаючи на те, що приріст продуктивності поки здається не таким значним. У той же час оптимізована швидкодія і енергоспоживання, зменшене тепловиділення, підтримка великої кількості прогресивних технологій, нова універсальна архітектура і гарний розгінний потенціал для більшості геймерів і ентузіастів вже є більш ніж достатніми приводами для апгрейда.

Каліфорнійський графічний гігант, безумовно, повинен був зробити свій «відповідний хід» на анонс Radeon HD 7970  у максимально короткий термін, для того щоб не дати AMD реалізувати занадто велику кількість високорівневих продуктів на базі GPU Tahiti XT. Однак, незважаючи на те, що фотографії друкованої плати нового флагмана лінійки GeForce з'явилися в мережі ще на початку весни, офіційна презентація NVIDIA GeForce GTX 680 відбулася лише 22 березня, що, за словами представників компанії, пов'язано в першу чергу з складностями в освоєнні норм 28-нм техпроцесу підрядником TSMC.

Не менш важливе те, що NVIDIA GeForce GTX 680 (GK104) став першим графічним адаптером, заснованим на новій архітектурі NVIDIA Kepler, яка позиціонується маркетологами NVIDIA, як більш продуктивний, функціональний і енергоефективний спадкоємець вдалої мікроархітектури Fermi, представленої більше 2х років тому, і задала нові стандарти в обробці тесселяції, геометрії та завдань загального призначення.

Загальні риси нової мікроархітектури залишилися незмінними: на блок-схемі чіпа GK104 наведеної вище ми бачимо той же «модульний дизайн» на основі блоків GPC (Graphics Processing Cluster), які мають загальну кеш-пам'ять другого рівня (L2) і юніт Gigathread Engine, що розподіляє завантаження між блоками GPC. Кількість контролерів пам'яті була зменшена з шести до 4-х у порівнянні з GF110, а ширина шини пам'яті тепер рівна 256 біт (64 біт х 4).

Графічні кластери GPC в свою чергу складаються з юніта растеризації (ROP) і потокових мультипроцесорів, які в архітектурі NVIDIA Kepler одержали чимало змін і тепер називаються виробником SMX-блоками. Кожний мультипроцесор SMX тепер включає не 32, а 192 ядер CUDA, і до того ж функціонуючих на однаковій частоті, що, за словами виробника, забезпечує вдвічі краще співвідношення між швидкодією і енергоспоживанням. Також у порівнянні з SМ-юнитами в Fermi (GF 110) було вдвічі збільшена кількість текстурних блоків на один мультипроцесор — до 16 штук. Движок обробки геометрії Polymorph Engine оновився до версії 2.0, однак принциповими покращеннями в порівнянні з попередником він похвастати не може і в офіційній презентації мова іде лише про збільшену загальну продуктивність цих блоків.

Додатково розробники відзначають подвоєння кількості планувальників (Warp Scheduler) для кожного SMX процесора, а також спрощення логіки їх роботи, що дозволило поліпшити загальний рівень швидкодії при виконанні різних інструкцій паралельно.

Завершуючи розповідь про особливості дизайну ядра NVIDIA GK104, варто сказати декілька слів і про конфігурацію кеш-пам'яті в новому GPU. Так об'єм кеша першого рівня, який встановлений у кожному мультипроцесорі SMX, залишився попереднім і дорівнює 64 КБ. Водночас об'єм кеш-пам'яті другого рівня був зменшений з 768 КБ у GF110 до 512 КБ у GK104, що, втім, повинно компенсуватися його збільшеною на 73% пропускною здатністю. Відзначимо також, що новий чіп GK104 включає 3,54 млрд. транзисторів на площі 294 мм².

Насмілимося припустити, що повноцінним спадкоємцем попереднього флагмана лінійки GeForce «в особі» GeForce GTX 580 (GF110) все-таки стане відеокарта на основі майбутнього 28-нм hi-end чіпа GK110 (Kepler),  анонс якого приблизно повинен відбутися в третьому або четвертому кварталі 2012 року. Саме це рішення, зважаючи на все, займе флагманську позицію в оновленій лінійці NVIDIA GeForce 600, водночас як GK104 стане основною пропозицією у верхній частині середнього цінового діапазону і витисне з цього місця різні рішення на базі GeForce GTX 560.

Крім змін в архітектурі та переходу на більш тонкий 28-нм техпроцес, графічні адаптери з серії NVIDIA GeForce GTX 600 також одержали цілий ряд функціональних особливостей, що включають підтримку моніторів ультрависокої роздільної здатності і інтерфейсу PCI-E 3.0, які повинні бути досить корисні для всіх категорій користувачів.

В першу чергу звернемо увагу на функцію GPU Boost, яка є аналогом опції Power Tune у відеокартах на базі графічних процесорів AMD з серії Radeon HD 7000. Залежно від навантаження, частота графічного ядра тепер здатна динамічно змінюватися, для одержання максимальної продуктивності в рамках установленого максимального енергоспоживання, яке у випадку GeForce GTX 680 не перевищує 195 Вт.

Штатна частота графічного ядра GeForce GTX 680 дорівнює 1006 МГц, однак залежно від навантаження вона може автоматично підвищуватися до значень перевищуючих 1,1 ГГц, у той час як «середня» частота GPU за даними офіційної презентації становить 1058 МГц.

Окремо варто відзначити, що в процесі розгону функція GPU Boost не відключається, а максимальна частота GPU у турборежимі зростає прямо пропорційно збільшенню штатної частоти графічного ядра.

Починаючи з 300-ї версії драйверів NVIDIA, відеокарти сімейств GeForce GTX 400/500/600 отримають можливість активації методу згладжування FXAA за допомогою драйвера, навіть якщо він не підтримується грою початково. Відзначимо, що в порівнянні з розповсюдженим мульти-семплинговим згладжуванням (MSAA), що просувається фахівцями NVIDIA алгоритм FXAA менш вимогливий до ресурсів відеокарти і дозволяє досягнення більш високої якості зображення.

На додаток до FXAA-згладжування, інженери NVIDIA також підкреслюють підтримку новим поколінням графічних прискорювачів GeForce алгоритму TXAA, який поєднує апаратне згладжування і пост-обробку та за задумом розробників повинен вивести якість графіки в комп'ютерних іграх на рівень, який сьогодні можна побачити в професійній комп'ютерній анімації в кіно і мультфільмах. При цьому розробники пропонують два різні режими його роботи: TXAA1 і TXAA2.  Для першого режиму заявлений рівень якості порівнянний з MSAA х8 при витратах ресурсів порівнянних з MSAA х2, у той час як TXAA2 є якісно новим методом згладжування, ресурсоємність якого порівнянна з MSAA х4. Ігри з підтримкою TXAA вже анонсували деякі великі розробники, що дозволяє сподіватися на те, що нова технологія отримає широке поширення.

Ще одна особливість нової версії драйверів NVIDIA, випуск якої супроводжує анонс GeForce GTX 680, являє собою покращену опцію вертикальної синхронізації (V-Sync), яка була розроблена для усунення артефактів і «розривів» зображення, що виникають у випадку, коли частота зміни кадрів перевищує частоту кадрового розгорнення монітора. У той же час, якщо значення fps (frames per second) виявляється нижче частоти кадрового розгорнення пристрою для виводу зображення, максимальне значення fps при активній функції V-Sync обмежувалася 30-ю або навіть 15-ю кадрами в секунду, що робить ігровий процес некомфортним. Інженери NVIDIA, пропонують свій метод рішення цієї проблеми, який отримав назву Adaptive V-Sync. Його суть полягає в тому, що вертикальна синхронізація активується лише в тому випадку, коли частота зміни кадрів у грі дійсно перевищує частоту кадрового розгорнення монітора, а якщо значення fps падає — V-Sync автоматично відключається. Приємно відзначити, що Adaptive V-Sync буде доступна і для власників відеокарт сімейства GeForce GTX 400/500 (архітектура Fermi).

Донедавна, відеокарти AMD Radeon пропонували користувачам набагато більш гнучку функціональність при побудові мультимоніторних конфігурацій. Фірмова технологія AMD Eyefinity, яка зовсім нещодавно встигнула оновитися до другої версії, пропонує дійсно широкі можливості організації конфігурацій з двох, трьох, чотирьох або навіть шести моніторів, підключених до одної карти (з додатковими активними перехідниками). Компанія NVIDIA при цьому виступала в ролі «наздоганяючого», адже графічні процесори серії GeForce GTX 400/500 допускали підключення максимум двох моніторів, а підключення трьох пристроїв для виводу зображення ставало доступним тільки при наявності в системі двох відеоприскорювачів у режимі SLI. Розробники з гордістю заявляють про те, що до GeForce GTX 680 можна підключити одночасно чотири монітори без додаткових перехідників, до того ж, фахівці NVIDIA серйозно попрацювали над програмною складовою створення мультимоніторних конфігурацій. При цьому були враховані інтереси, як гравців, так і професійних користувачів.

Також був дороблений та змінений на краще графічний движок NVIDIA PhysХ, який тепер дозволяє моделювати в реальному часі руйнування об'єктів. Тобто тепер при активації апаратного прискорення PhysХ і відповідної підтримки з боку розробників, руйнування того самого об'єкта буде виглядати щоразу по-новому, що повинно забезпечити ще більшу реалістичність ігрових проектів. В офіційній презентації представники компанії також звертають увагу на можливість використання NVIDIA PhysХ при симуляції рухів волосся персонажів комп'ютерних ігор.

Завершуючи розповідь про нововведення в новому поколінні графічних адаптерів NVIDIA GeForce GTX 600 (архітектура NVIDIA Kepler) не можна не згадати про спеціальний блок в GPU з назвою NVENC, призначений для апаратного кодування відео в роздільній здатності аж до 4096х4096 крапок. Розробники завіряють, що кодування відео з використанням NVENC дозволяє здійснювати цей процес в 4-8 разів швидше реального часу при мінімальних витратах енергії. Нагадаємо, що практично аналогічні можливості по апаратному кодуванню відео пропонує і основний конкурент у своїх рішеннях на основі архітектури Graphics Core Next.

Перед тим як перейти до практичної частини нашого огляду, пропонуємо загальну таблицю, у якій ми порівняли специфікації нового флагмана лінійки GeForce з попередником і актуальним конкурентом в особі AMD Radeon HD 7970:

 

NVIDIA GeForce GTX 680

AMD Radeon HD 7970

NVIDIA GeForce GTX 580

Кодове ім'я

GK104

Tahiti XT

GF110

Кількість потокових процесорів

1536

2048

512

Текстурні блоки

128

128

64

Блоки растеризації (ROP)

32

32

48

Частота графічного процесора, МГц

1006

925

772

Шейдерна частота, МГц

1006

925

1544

Частота відеопам'яті (ефективна), МГц

1502

(6008)

1375

(5500)

1002

(4008)

Об'єм пам'яті GDDR5, Мбайт

2048

3072

1536

Інтерфейс відеопам'яті, біт

256

384

384

Роз’єм живлення

2 x 6-pin

1 x 6-pin, 1 х 8-pin

1 x 6-pin, 1 х 8-pin

Рекомендована потужність блока живлення, Вт

550

500

600

Що ж, від теорії ми переходимо до тестування відеокарти ASUS GeForce GTX 680 «референсного» дизайну, для того щоб на практиці вивчити всі особливості передових технологій NVIDIA.

Модель

ASUS GeForce GTX 680

(ASUS GTX680-2GD5)

Графічний процесор

GeForce GTX 680 (GK104)

Підтримувані API

Microsoft DirectХ 11, Opengl 4.2

Підтримка фірмових технологій

GPU Boost, Adaptive V-Sync, PhysX, SLI, NVIDIA Surround, 3D Vision, CUDA

Кількість конвеєрів

1536 уніфікованих

Частота ядра, МГц

1006 (1058 МГц середня частота з урахуванням використання технології GPU Boost)

Частота пам'яті (ефективна), МГц

1502 (6008)

Об'єм пам'яті, МБ

2048

Шина пам'яті, біт

256

Тип пам'яті

GDDR5

Тип шини

PCI-E 3.0 x16

Максимальна роздільна здатність

До 2560x1600 Dual-link DVI
До 2048x1536 VGA (через перехідник)
До 3840x2160 HDMI
До 3840x2160 DisplayРort

Виходи

1x DVI-I Dual-Link DVI
1x DVI-D Dual-Link DVI
1x HDMI 1.4а
1x DisplayРort 1.2

Підтримка HDCP і декодування HD-відео

Є
Декодування MPEG-2, MPEG-4, DivХ, WMV9, VC-1 і H.264/AVC. Додатковий блок апаратного декодування NVENC.

Розміри, мм

256 х 110

Рекомендована потужність блока живлення, Вт

550

Драйвери

Свіжі драйвери можна скачати:
- з сайта виробника GPU
 -  з сайта підтримки.

Сайт виробника

http://www.asus.ua/

Згідно даним таблиці, практично всі характеристики розглянутого рішення збігаються з рекомендованими компанією NVIDIA специфікаціями для графічного адаптера GeForce GTX 680 референсного дизайну, а, отже, і рівень продуктивності ASUS GeForce GTX 680 повинен бути ідентичним у порівнянні з «еталоном». Ми ж традиційно почнемо наш огляд з розповіді про упаковку продукту.

Вперше за довгий час дизайнери ASUS змінили оформлення коробки, у якій фірмові відеокарти поставляються в роздрібні канали. На зміну звичному для наших постійних читачів зображенню «графічного лицаря» прийшов більш лаконічний, але не менш помітний дизайн, що запам'ятовується. На лицьовій стороні упаковки виробник перелічує деякі характеристики відеокарти, а також звертає увагу користувачів на можливість програмного розгону відеокарти за допомогою утиліти GPU Tweak.

На звороті коробки наведені короткі специфікації відеокарти на 12 мовах (включаючи російський), короткий рекламний опис згаданих вище технологій GPU Boost і Adaptive V-Sync, а також фірмової функції GPU Tweak.

Список системних вимог до комп'ютера, у який планується встановлення ASUS GeForce GTX 680 (GTX680-2GD5), розташований на одній з бічних сторін упаковки. Виходячи з рекомендації на коробці, блок живлення в такій системі повинен мати потужність не менше 550 Вт і бути здатним видавати до 38 А по лінії 12 В. Для «топової» моделі в лінійці GeForce це досить скромні вимоги за сучасними мірками.

Комплект поставки розглянутого відеоприскорювача досить скромний, як для рішення з рекомендованою вартістю $500. Крім самого графічного прискорювача в коробці ми знайшли тільки посібник користувача, диск з драйверами, а також один перехідник з двох 4-контактних периферійних роз’ємів живлення на один 6-контактний роз’єм живлення відеокарти. У переважній більшості сценаріїв експлуатації додаткові аксесуари і не знадобляться, однак навіть сама їх наявність у комплекті поставки високорівневого продукту, як правило, є досить приємним бонусом для користувачів.

Для виводу зображення на відеокарті ASUS GeForce GTX 680, також як і на інших адаптерах «референсного» дизайну, передбачені наступні інтерфейси:

Розташування відеовиходів організовано дуже продумано, адже, незважаючи на їх чималу кількість, вентиляційні сітки, через які нагріте повітря викидається за межі системного блоку, займають майже цілий слот. Також приємно відзначити той факт, що роз’єми HDMI і DisplayРort мають повнорозмірне виконання, що рятує від необхідності використання додаткових перехідників навіть при підключенні декількох дисплеїв. Як ми вже згадували вище, відеокарти на основі графічного процесора GeForce GTX 680 підтримують одночасне підключення до 4-х пристроїв для виводу зображення без додаткових активних хабів. Також до розглянутого графічного адаптера можна підключити одночасно три дисплеї з підтримкою технології NVIDIA 3D Vision (режим 3D Vision Surround), двочіпові зв'язки для цього режиму більше не є необхідністю. Непоганим заділом на майбутнє також є підтримка відеокартою ASUS GeForce GTX 680 плазмових панелей і моніторів ультрависокої  роздільної здатності аж до 3840x2160 пікселей.

Зовнішній вигляд відеокарти ASUS GeForce GTX 680 не сильно відрізняється від високорівневих рішень лінійки GeForce попередніх поколінь, однак новинка вигідно відрізняється від попередників і актуальних конкурентів невеликою довжиною, яка становить всього 256 мм і дозволяє встановити це графічний адаптер практично в будь-який сучасний корпус формату Middle- або Full-Tower.

Друкована плата графічного прискорювача ASUS GeForce GTX 680 виконана на текстоліті чорного кольору. Як ми вже згадували вище, розглянута відеокарта повністю повторює «референсний» дизайн GeForce GTX 680, запропонований інженерами NVIDIA, тому такий же дизайн PCB будуть використовувати і інші партнери «зеленого графічного гіганта». Розведення елементів на платі виконано досить незвичайно. В першу чергу привертає на себе увагу не зовсім звичне розташування елементів модуля стабілізації живлення, які встановлені в правій нижній частині текстоліту, у той час як графічне ядро GK104 і 8 мікросхем пам'яті зміщені ближче до інтерфейсної панелі. До речі, використовувана друкована плата, зважаючи на все, може застосовуватися розробниками з NVIDIA і для більш продуктивних рішень. Про це свідчуть вільні «посадкові місця для додаткових компонентів вузла стабілізації живлення і місце для встановлення ще одного 6-контактного роз’єму живлення.

Модуль стабілізації живлення виконаний по 4+2-фазній схемі (для GPU і чіпів пам'яті відповідно), а в якості ШІМ-контролера використовується мікросхема Richtek RT8802A.

Крім шини PCI Express живлення відеокарти забезпечується через два 6-контактних роз’єми на бічній стороні відеокарти, які встановлені один над одним, що сьогодні виглядає вкрай незвичайно і може перешкодити сумісності новинки з розповсюдженими системами  повітряного охолодження від сторонніх виробників.

Наявність двох роз’ємів для містків SLI дозволяє поєднувати до трьох відеокарт на графічному процесорі NVIDIA GeForce GTX 680 для спільних розрахунків графічних ефектів і одержання високої продуктивності навіть при побудові мультимоніторних конфігурацій з підтримкою стереоскопічного зображення.

За винятком ШІМ-контролера і декількох танталових конденсаторів, встановлених напроти GPU, зворотна сторона плати практично позбавлена елементів, що повинно позитивно вплинути на ефективність охолодження взагалі.

Так виглядає графічний чіп NVIDIA GK104-400-A2 (Kepler), зроблений з дотриманням норм 28 нм техпроцесу, який є центральною частиною досліджуваної відеокарти. Вперше з часів  GeForce 7800 графічне ядро не захищене від відколів додаткової теплорозподільчої пластини, що можна пояснити невеликою площею нового кристала. Чіп GK104 включає 1536 універсальних шейдерних процесорів (або ядер CUDA по термінології NVIDIA) і 32 блоки растеризації, а обмін даними з відеопам'яттю здійснюється через 256-бітну шину. Повторимося, що частоти роботи графічного ядра і пам'яті становлять 1006 МГц для ядра і 6008 МГц для відеопам'яті. Звертаємо увагу, що шейдерний блок тепер працює на тій же частоті, що і інші блоки GPU, а штатна частота роботи GPU може автоматично підвищуватися відеокартою для одержання більш високої продуктивності в межах встановленого енергоспоживання. Інші характеристики чіпа GK104 наведені на скріншоті вище.

На жаль версія, сучасна утиліта GPU-Z не дозволила визначити значення ASIC Quality для відеокарти ASUS GeForce GTX 680, однак ми сподіваємося, що після оновлення цієї популярної програми, така можливість з'явиться.

Відеопам'ять стандарту GDDR5 загальним об'ємом 2 ГБ набрана за допомогою восьми чіпів по 256 МБ виробництва компанії Hynix. Чіпи мають маркування H5GQ2H24MFR T2C і згідно з документацією можуть функціонувати на ефективній частоті до 6 ГГц. Враховуючи, що пам'ять у досліджуваної відеокарти вже працює на частоті 6008 МГц, навряд чи в нас є шанси значно прискорити її в процесі ручного розгону, щоб одержати додатковий приріст продуктивності.

Для відеокарти ASUS GeForce GTX 680 застосовується двослотова система охолодження «турбінного» типу, також як і для попередніх поколінь високорівневих відеокарт на базі графічних процесорів NVIDIA GeForce.

Кулер складається з вентилятора радіальної форми, невеликого алюмінієвого радіатора і монтажної металевої рамки, яка також призначає для охолодження мікросхем пам'яті і силових транзисторів системи стабілізації живлення, стикаючись з ними через спеціальний термоінтерфейс.

Біля основи алюмінієвого радіатора інженери NVIDIA встановили три теплові трубки вигнутої форми, які повинні сприяти більш ефективному і швидкому розподілу тепла по всій поверхні радіатора. З графічним чіпом GK104 кулер стикається через мідну пластину-підставу.

Взагалі з часу GeForce GTX 580 штатний кулер був спрощений, що взагалі не дивно, враховуючи перехід на новий економічний і енергоефективний 28-нм техпроцес. Для того щоб перевірити ефективність «референсної» системи охолодження на практиці ми провели наш стандартний набір тестів. Традиційно тести проводилися у двох режимах роботи кулера: автоматичне керування і максимальна швидкість обертання турбіни.

В автоматичному режимі при максимальному навантаженні температура графічного ядра не перевищувала оцінку 80 градусів, що є середнім результатом для адаптера такого рівня. При цьому вентилятор працював на 60% своєї потужності, виробляючи середній рівень шуму, помітний на загальному фоні роботи системи.

Після того як ми встановили швидкість обертання вентилятора на максимум і провели тестування ще раз, ми зафіксували зниження максимальної температури GPU на 18 градусів, а рівень шуму, видаваний кулером при цьому, ми б охарактеризували як високий, що заважає комфортній роботі.

При відсутності навантаження, частоти графічного ядра і пам'яті автоматично знижуються, що приводить до меншого енергоспоживання і тепловиділення. Кулер у такому режимі працює дійсно тихо, а температура графічного ядра не перевищує 36 градусів.

За результатами тестування застосовуваної системи охолодження, можна відзначити прагнення розробників знайти оптимальний баланс між ефективністю та рівнем шуму, що вдалося їм досить непогано, беручи до уваги невеликі габарити кулера. У порівнянні з основним конкурентом з табору AMD — Radeon HD 7970 — штатна турбіна GeForce GTX 680 здалася нам тихішою в роботі.

Тестування

Під час тестування використовувався Стенд для тестування Відеокарт №3
Процесор Intel Core i7-980X Extreme Edition (LGA 1366, 6 core, 3,33 ГГц, L3 12 МБ) @4,1 ГГц
Материнська плата MSI Big Bang-XPower (LGA 1366, Intel X58 Express, DDR3, ATX)
Кулер Cooler Master V8 (LGA 1366, 69,69 CFM, 2,94 мм H2O, 17-21 дБ)
RAM 3x 2 ГБ Kingston DDR3-2250 (KHX2250C9D3T1FK3/6GX)
Жорсткі диски 2x 128 ГБ Kingston SSDNow V+ (SNVP325-S2B/128GB)
Блок живлення Seasonic M12D-850 (850 Вт, 120 мм, 20 дБ)
Корпус Antec LanВoy Air Yellow (MidiTower, Transformer)
Монітор ASUS VG236H (Full HD, 1920x1080, 3D, 120 Гц) + NVIDIA 3D Vision Kit
Операційна система Microsoft Windows 7 64-bit

Оберіть з чим хочете порівняти GeForce GTX 680 2GB GDDR5 ASUS
Огляд GeForce GTX 580 1,5GB GDDR5 ASUS
Огляд GeForce GTX 590 3GB GDDR5 ASUS
Огляд Radeon HD 7970 3GB GDDR5 ASUS
Огляд Radeon HD 6990 4GB GDDR5 ASUS

Futuremark 3DMark Vantage

Futuremark 3DMark 11

Tessmark 0.2.2 (OpenGL 4.0)

Call Of Juarez, DirectX 9.0c, Maximum Quality, AA4x/AF16x, fps

Crysis Warhead, DirectX 10, Maximum Quality, fps

Far Cry 2, DirectX 10, Ultra Quality, fps

Far Cry 2, DirectX 10, Ultra Quality, AA8x/AF16x, fps

Colin McRae: DiRT 2, DirectX 11, Maximum Quality, fps

Stone Giant, DirectX 11, High Quality, fps

Unigine Heaven Benchmark 2.1, DirectX 11, High Quality, 1920x1080, AA4x/AF16x. fps

S.T.A.L.K.E.R: Call of Pripyat Benchmark, DirectX 11. Ultra Quality, avg fps

Metro 2033 Benchmark, DirectX 11, Maximum Quality, NO AA / AF4x, fps

Metro 2033 Benchmark, DirectX 11, Maximum Quality, AA4x/AF16x, fps

Lost Planet 2 Benchmark, DirectX 11 High Quality, fps

Энергоспоживання, Вт

Aliens vs. Predator DirectX 11 Benchmark, Maximum Quality, fps

В офіційній презентації NVIDIA GeForce GTX 680, представники каліфорнійської компанії називали новинку не інакше, як «найбільш продуктивна і енергоефективная відеокарта». За результатами наших тестів за участю відеокарти ASUS GeForce GTX 680, що функціонує на рекомендованих виробником GPU частотах, ми можемо лише підтвердити, що обидві заяви «зеленого» графічного гіганта є правдивими. Практично у всіх додатках новинка виявилася швидше свого основного конкурента з табору AMD — Radeon HD 7970, причому в синтетичних тестах і бенчмарках розрив між суперниками виявився дійсно значним. В ігрових додатках різниця у швидкодії не настільки сильно привертає увагу, однак практично у всіх тестових додатках GeForce GTX 680 вийшов переможцем. Перевага новинки над попереднім флагманом лінійки GeForce виявилася ще більш значною, коливаючись від 15 до 50% залежно від додатка і режиму тестування. У деяких випадках новому одночіповому флагману лінійки GeForce вдавалося скласти серйозну конкуренцію навіть висококласним двочіповим відеокартам попереднього покоління, однак про беззаперечну перемогу немає мови. Не можна не згадати і про той факт, що серед усіх учасників тестування ASUS GeForce GTX 680 продемонстрував найнижчий рівень енергоспоживання.

Розгін

Як ми вже згадували в теоретичній частині огляду, завдяки підтримці нової фірмової технології NVIDA за назвою GPU Boost, частота роботи графічного ядра відеокарти ASUS GeForce GTX 680 може динамічно змінюватися залежно від навантаження і рівня енергоспоживання. Виходячи з офіційних специфікацій, з штатних 1006 МГц GPU може автоматично «розганяти» до частоти понад 1,1 ГГц, а усереднена частота графічного ядра з урахуванням технології GPU Boost становить 1058 МГц. Для починаючих користувачів такий оверклокінг може стати гідною альтернативою помірному ручному розгону графічного ядра без підвищення напруги. Однак для досвідчених користувачів і ентузіастів такого підвищення частот, зрозуміло, буде недостатньо, особливо беручи до уваги поліпшений розгінний потенціал чіпів, зроблених з дотриманням норм 28-нм техпроцессу. Відзначимо, що навіть у процесі ручного розгону з підвищенням напруги живлення GPU, технологія GPU Boost залишається активною, продовжуючи підвищувати частоту графічного ядра залежно від навантаження.

Проте, у процесі наших експериментів з розгоном ми знайшли, що у функції GPU Boost є і «зворотна сторона». Для того щоб не допустити перегріву графічного чіпа і перевищення заданого ліміту енергоспоживання, інженери NVIDIA, імовірно, застосували якийсь алгоритм захисту, який суттєво ускладнює розгін відеокарти з підвищенням напруги живлення GPU.

Так навіть якщо температури основних компонентів не перевищували припустимі значення, а графічний адаптер зберігав повну стабільність, продуктивність розігнаної відеокарти ASUS GeForce GTX 680 падала нижче «еталонного» рівня при встановленій в утиліті ASUS GPU Tweak базовій частоті графічного ядра перевищуючої значення 1222 МГц. Варто помітити, що включення «тротлинга» (спеціальної технології захисту відеокарти від перегріву, занадто високої напруги або внутрішніх помилок пов'язаних з розгоном) в першу чергу пов'язане саме з підвищенням напруги живлення графічного ядра. При цьому розгін пам'яті ніяк не впливав на включення «тротлінга».

У підсумку після вкрай незначного підвищення напруги живлення GPU нам вдалося досягти повної стабільності відеокарти без включення «тротлінга» при базовій частоті графічного ядра 1170 МГц (приріст 16%) і ефективній частоті відеопам'яті 7412 (приріст 23%). Приріст продуктивності внаслідок такого розгону ви можете оцінити в таблиці нижче:

Тестовий пакет

Стандартні частоти

Розігнана відеокарта

Приріст продуктивності, %

Futuremark 3DМark Vantage

Performance Score

39322

41983

6,77

GPU Score

33390

35909

7,54

Futuremark 3DМark 11

Performance Score

9366

10229

9,21

Crysis Warhead, DirectХ 10, Maximum Quality, fps

1680x1050

97,22

111,59

14,78

1920x1080

88,28

101,16

14,59

Crysis Warhead, DirectХ 10, Maximum Quality, AA4x/AF16x, fps

1680x1050

92,70

105,75

14,08

1920x1080

83,42

95,16

14,07

Far Cry 2, DirectХ 10, Ultra Quality, NO AA/AF, fps

1680x1050

188,70

193,30

2,44

1920x1080

182,96

191,63

4,74

Far Cry 2, DirectХ 10, Ultra Quality, fps

1680x1050

142,62

159,93

12,14

1920x1080

132,15

150,12

13,60

Aliens vs. Predator DX11 Benchmark, Maximum Quality, NO AA/AF, fps

1680x1050

115,4

132,1

14,47

1920x1080

103,1

118,1

14,55

Aliens vs. Predator DX11 Benchmark, Maximum Quality, AA4x/AF16x, fps

1680x1050

109,9

124,9

13,65

1920x1080

98,2

113,0

15,07

Colin McRae: Dirt 2, DirectХ 11, Maximum Quality, NO AA/AF, fps

1680x1050

238,01

264,75

11,23

1920x1080

219,39

240,60

9,67

Colin McRae: Dirt 2, DirectХ 10, Maximum Quality, AA4x/AF16x, fps

1680x1050

226,74

252,29

11,27

1920x1080

210,33

233,41

10,97

Metro 2033 Benchmark, DirectХ 11, Maximum Quality, NO AA / AF4x, fps

1680x1050

71,5

80,0

11,89

1920x1080

65,0

71,5

10,00

Metro 2033 Benchmark, DirectХ 11, Maximum Quality, AA4x/AF16x, fps

1680x1050

51,0

52,5

2,94

1920x1080

44,5

47,5

6,74

Рівень швидкодії відеокарти ASUS GeForce GTX 680 після ручного підвищення частот виріс в середньому на 10%, що є досить помітним збільшенням до і без того високої продуктивності цього продукту. Втім, не варто забувати про те, що підвищення частот приводить також до збільшеного енергоспоживання і тепловиділення відеокарти, а не зовсім прозорий алгоритм роботи технології GPU Boost суттєво ускладнює ефективний розгін з істотним підвищенням напруги живлення GPU.

Висновки

Підводячи підсумки сьогоднішнього тестування, безумовно, варто відзначити, що графічний процесор NVIDIA GeForce GTX 680 (а також відеокарта ASUS GeForce GTX 680 (ASUS GTX680-2GD5) на його основі) виявився досить вдалим рішенням, який найближчим часом буде носити титул найбільш продуктивного дискретного одночіпового графічного адаптера. Не менш важливе те, що рекомендована вартість більш продуктивних рішень на базі GeForce GTX 680 на 10% нижче в порівнянні з Radeon HD 7970, що є вагомим плюсом новинки. Прогресивна архітектура NVIDIA Kepler дійсно принесла чимало корисних нововведень, як для геймерів, так і для рядових користувачів, у той час як перехід на новий 28-нм техпроцес дозволив суттєво знизити рівень енергоспоживання і наростити кількість функціональних блоків на невеликому по площі кристалі. На прикладі відеоприскорювача ASUS GeForce GTX 680, виконаного на основі «еталонного» дизайну, ми також переконалися, що навіть «референсні» адаптери на базі NVIDIA GeForce GTX 680 є цілком вдалим придбанням для геймерів і ентузіастів через застосування продуманої системи охолодження, вдалого набору портів для виводу зображення, компактним габаритам і гідному розгінному потенціалу, який, втім, міг би бути ще краще, якби інженери NVIDIA не застосували додаткові алгоритми захисту для технології GPU Boost.

Переваги:

Недоліки:

tested

Автор: Михайло Шульга
Переклад: Анна Смірнова

Висловлюємо подяку українському представництву компанії ASUS  за надану для тестування відеокарту.

Висловлюємо подяку компаніям Antec, ASUS, Cooler Master, Intel, Kingston, MSI і Sea Sonic за надане для тестового стенда обладнання.

опубліковано 27-03-2012
Матеріал роздруковано з сайту https://gecid.com/
Оригінал статті знаходиться за адресою https://ua.gecid.com/video/asus_gtx680-2gd5/