up
ua ru
menu


ASUS_Quiz_1.gif

logo minifile

::>Відеокарти > 2012 > 03 > ASUS GTX680-2GD5

Версія для друку
Переопублікувати статтю

27-03-2012


rss

Огляд і тестування відеокарти ASUS GeForce GTX 680 c 2 ГБ GDDR5

Запропонувавши перший графічний адаптер на базі 28-нм чіпа на три місяці раніше свого основного конкуренту, компанія AMD, так само, як і восени 2009 року, одержала помітну стратегічну перевагу на ринку. На фоні нових 28-нм рішень продукти на базі 40-нм чіпів, які присутні на ринку вже досить тривалий час, виглядають менш привабливо, навіть незважаючи на те, що приріст продуктивності поки здається не таким значним. У той же час оптимізована швидкодія і енергоспоживання, зменшене тепловиділення, підтримка великої кількості прогресивних технологій, нова універсальна архітектура і гарний розгінний потенціал для більшості геймерів і ентузіастів вже є більш ніж достатніми приводами для апгрейда.

Каліфорнійський графічний гігант, безумовно, повинен був зробити свій «відповідний хід» на анонс Radeon HD 7970  у максимально короткий термін, для того щоб не дати AMD реалізувати занадто велику кількість високорівневих продуктів на базі GPU Tahiti XT. Однак, незважаючи на те, що фотографії друкованої плати нового флагмана лінійки GeForce з'явилися в мережі ще на початку весни, офіційна презентація NVIDIA GeForce GTX 680 відбулася лише 22 березня, що, за словами представників компанії, пов'язано в першу чергу з складностями в освоєнні норм 28-нм техпроцесу підрядником TSMC.

Не менш важливе те, що NVIDIA GeForce GTX 680 (GK104) став першим графічним адаптером, заснованим на новій архітектурі NVIDIA Kepler, яка позиціонується маркетологами NVIDIA, як більш продуктивний, функціональний і енергоефективний спадкоємець вдалої мікроархітектури Fermi, представленої більше 2х років тому, і задала нові стандарти в обробці тесселяції, геометрії та завдань загального призначення.

Загальні риси нової мікроархітектури залишилися незмінними: на блок-схемі чіпа GK104 наведеної вище ми бачимо той же «модульний дизайн» на основі блоків GPC (Graphics Processing Cluster), які мають загальну кеш-пам'ять другого рівня (L2) і юніт Gigathread Engine, що розподіляє завантаження між блоками GPC. Кількість контролерів пам'яті була зменшена з шести до 4-х у порівнянні з GF110, а ширина шини пам'яті тепер рівна 256 біт (64 біт х 4).

Графічні кластери GPC в свою чергу складаються з юніта растеризації (ROP) і потокових мультипроцесорів, які в архітектурі NVIDIA Kepler одержали чимало змін і тепер називаються виробником SMX-блоками. Кожний мультипроцесор SMX тепер включає не 32, а 192 ядер CUDA, і до того ж функціонуючих на однаковій частоті, що, за словами виробника, забезпечує вдвічі краще співвідношення між швидкодією і енергоспоживанням. Також у порівнянні з SМ-юнитами в Fermi (GF 110) було вдвічі збільшена кількість текстурних блоків на один мультипроцесор — до 16 штук. Движок обробки геометрії Polymorph Engine оновився до версії 2.0, однак принциповими покращеннями в порівнянні з попередником він похвастати не може і в офіційній презентації мова іде лише про збільшену загальну продуктивність цих блоків.

Додатково розробники відзначають подвоєння кількості планувальників (Warp Scheduler) для кожного SMX процесора, а також спрощення логіки їх роботи, що дозволило поліпшити загальний рівень швидкодії при виконанні різних інструкцій паралельно.

Завершуючи розповідь про особливості дизайну ядра NVIDIA GK104, варто сказати декілька слів і про конфігурацію кеш-пам'яті в новому GPU. Так об'єм кеша першого рівня, який встановлений у кожному мультипроцесорі SMX, залишився попереднім і дорівнює 64 КБ. Водночас об'єм кеш-пам'яті другого рівня був зменшений з 768 КБ у GF110 до 512 КБ у GK104, що, втім, повинно компенсуватися його збільшеною на 73% пропускною здатністю. Відзначимо також, що новий чіп GK104 включає 3,54 млрд. транзисторів на площі 294 мм².

Насмілимося припустити, що повноцінним спадкоємцем попереднього флагмана лінійки GeForce «в особі» GeForce GTX 580 (GF110) все-таки стане відеокарта на основі майбутнього 28-нм hi-end чіпа GK110 (Kepler),  анонс якого приблизно повинен відбутися в третьому або четвертому кварталі 2012 року. Саме це рішення, зважаючи на все, займе флагманську позицію в оновленій лінійці NVIDIA GeForce 600, водночас як GK104 стане основною пропозицією у верхній частині середнього цінового діапазону і витисне з цього місця різні рішення на базі GeForce GTX 560.

Крім змін в архітектурі та переходу на більш тонкий 28-нм техпроцес, графічні адаптери з серії NVIDIA GeForce GTX 600 також одержали цілий ряд функціональних особливостей, що включають підтримку моніторів ультрависокої роздільної здатності і інтерфейсу PCI-E 3.0, які повинні бути досить корисні для всіх категорій користувачів.

В першу чергу звернемо увагу на функцію GPU Boost, яка є аналогом опції Power Tune у відеокартах на базі графічних процесорів AMD з серії Radeon HD 7000. Залежно від навантаження, частота графічного ядра тепер здатна динамічно змінюватися, для одержання максимальної продуктивності в рамках установленого максимального енергоспоживання, яке у випадку GeForce GTX 680 не перевищує 195 Вт.

Штатна частота графічного ядра GeForce GTX 680 дорівнює 1006 МГц, однак залежно від навантаження вона може автоматично підвищуватися до значень перевищуючих 1,1 ГГц, у той час як «середня» частота GPU за даними офіційної презентації становить 1058 МГц.

Окремо варто відзначити, що в процесі розгону функція GPU Boost не відключається, а максимальна частота GPU у турборежимі зростає прямо пропорційно збільшенню штатної частоти графічного ядра.

Починаючи з 300-ї версії драйверів NVIDIA, відеокарти сімейств GeForce GTX 400/500/600 отримають можливість активації методу згладжування FXAA за допомогою драйвера, навіть якщо він не підтримується грою початково. Відзначимо, що в порівнянні з розповсюдженим мульти-семплинговим згладжуванням (MSAA), що просувається фахівцями NVIDIA алгоритм FXAA менш вимогливий до ресурсів відеокарти і дозволяє досягнення більш високої якості зображення.

На додаток до FXAA-згладжування, інженери NVIDIA також підкреслюють підтримку новим поколінням графічних прискорювачів GeForce алгоритму TXAA, який поєднує апаратне згладжування і пост-обробку та за задумом розробників повинен вивести якість графіки в комп'ютерних іграх на рівень, який сьогодні можна побачити в професійній комп'ютерній анімації в кіно і мультфільмах. При цьому розробники пропонують два різні режими його роботи: TXAA1 і TXAA2.  Для першого режиму заявлений рівень якості порівнянний з MSAA х8 при витратах ресурсів порівнянних з MSAA х2, у той час як TXAA2 є якісно новим методом згладжування, ресурсоємність якого порівнянна з MSAA х4. Ігри з підтримкою TXAA вже анонсували деякі великі розробники, що дозволяє сподіватися на те, що нова технологія отримає широке поширення.

Ще одна особливість нової версії драйверів NVIDIA, випуск якої супроводжує анонс GeForce GTX 680, являє собою покращену опцію вертикальної синхронізації (V-Sync), яка була розроблена для усунення артефактів і «розривів» зображення, що виникають у випадку, коли частота зміни кадрів перевищує частоту кадрового розгорнення монітора. У той же час, якщо значення fps (frames per second) виявляється нижче частоти кадрового розгорнення пристрою для виводу зображення, максимальне значення fps при активній функції V-Sync обмежувалася 30-ю або навіть 15-ю кадрами в секунду, що робить ігровий процес некомфортним. Інженери NVIDIA, пропонують свій метод рішення цієї проблеми, який отримав назву Adaptive V-Sync. Його суть полягає в тому, що вертикальна синхронізація активується лише в тому випадку, коли частота зміни кадрів у грі дійсно перевищує частоту кадрового розгорнення монітора, а якщо значення fps падає — V-Sync автоматично відключається. Приємно відзначити, що Adaptive V-Sync буде доступна і для власників відеокарт сімейства GeForce GTX 400/500 (архітектура Fermi).

Донедавна, відеокарти AMD Radeon пропонували користувачам набагато більш гнучку функціональність при побудові мультимоніторних конфігурацій. Фірмова технологія AMD Eyefinity, яка зовсім нещодавно встигнула оновитися до другої версії, пропонує дійсно широкі можливості організації конфігурацій з двох, трьох, чотирьох або навіть шести моніторів, підключених до одної карти (з додатковими активними перехідниками). Компанія NVIDIA при цьому виступала в ролі «наздоганяючого», адже графічні процесори серії GeForce GTX 400/500 допускали підключення максимум двох моніторів, а підключення трьох пристроїв для виводу зображення ставало доступним тільки при наявності в системі двох відеоприскорювачів у режимі SLI. Розробники з гордістю заявляють про те, що до GeForce GTX 680 можна підключити одночасно чотири монітори без додаткових перехідників, до того ж, фахівці NVIDIA серйозно попрацювали над програмною складовою створення мультимоніторних конфігурацій. При цьому були враховані інтереси, як гравців, так і професійних користувачів.

Також був дороблений та змінений на краще графічний движок NVIDIA PhysХ, який тепер дозволяє моделювати в реальному часі руйнування об'єктів. Тобто тепер при активації апаратного прискорення PhysХ і відповідної підтримки з боку розробників, руйнування того самого об'єкта буде виглядати щоразу по-новому, що повинно забезпечити ще більшу реалістичність ігрових проектів. В офіційній презентації представники компанії також звертають увагу на можливість використання NVIDIA PhysХ при симуляції рухів волосся персонажів комп'ютерних ігор.

Завершуючи розповідь про нововведення в новому поколінні графічних адаптерів NVIDIA GeForce GTX 600 (архітектура NVIDIA Kepler) не можна не згадати про спеціальний блок в GPU з назвою NVENC, призначений для апаратного кодування відео в роздільній здатності аж до 4096х4096 крапок. Розробники завіряють, що кодування відео з використанням NVENC дозволяє здійснювати цей процес в 4-8 разів швидше реального часу при мінімальних витратах енергії. Нагадаємо, що практично аналогічні можливості по апаратному кодуванню відео пропонує і основний конкурент у своїх рішеннях на основі архітектури Graphics Core Next.

Перед тим як перейти до практичної частини нашого огляду, пропонуємо загальну таблицю, у якій ми порівняли специфікації нового флагмана лінійки GeForce з попередником і актуальним конкурентом в особі AMD Radeon HD 7970:

 

NVIDIA GeForce GTX 680

AMD Radeon HD 7970

NVIDIA GeForce GTX 580

Кодове ім'я

GK104

Tahiti XT

GF110

Кількість потокових процесорів

1536

2048

512

Текстурні блоки

128

128

64

Блоки растеризації (ROP)

32

32

48

Частота графічного процесора, МГц

1006

925

772

Шейдерна частота, МГц

1006

925

1544

Частота відеопам'яті (ефективна), МГц

1502

(6008)

1375

(5500)

1002

(4008)

Об'єм пам'яті GDDR5, Мбайт

2048

3072

1536

Інтерфейс відеопам'яті, біт

256

384

384

Роз’єм живлення

2 x 6-pin

1 x 6-pin, 1 х 8-pin

1 x 6-pin, 1 х 8-pin

Рекомендована потужність блока живлення, Вт

550

500

600

Що ж, від теорії ми переходимо до тестування відеокарти ASUS GeForce GTX 680 «референсного» дизайну, для того щоб на практиці вивчити всі особливості передових технологій NVIDIA.

Модель

ASUS GeForce GTX 680

(ASUS GTX680-2GD5)

Графічний процесор

GeForce GTX 680 (GK104)

Підтримувані API

Microsoft DirectХ 11, Opengl 4.2

Підтримка фірмових технологій

GPU Boost, Adaptive V-Sync, PhysX, SLI, NVIDIA Surround, 3D Vision, CUDA

Кількість конвеєрів

1536 уніфікованих

Частота ядра, МГц

1006 (1058 МГц середня частота з урахуванням використання технології GPU Boost)

Частота пам'яті (ефективна), МГц

1502 (6008)

Об'єм пам'яті, МБ

2048

Шина пам'яті, біт

256

Тип пам'яті

GDDR5

Тип шини

PCI-E 3.0 x16

Максимальна роздільна здатність

До 2560x1600 Dual-link DVI
До 2048x1536 VGA (через перехідник)
До 3840x2160 HDMI
До 3840x2160 DisplayРort

Виходи

1x DVI-I Dual-Link DVI
1x DVI-D Dual-Link DVI
1x HDMI 1.4а
1x DisplayРort 1.2

Підтримка HDCP і декодування HD-відео

Є
Декодування MPEG-2, MPEG-4, DivХ, WMV9, VC-1 і H.264/AVC. Додатковий блок апаратного декодування NVENC.

Розміри, мм

256 х 110

Рекомендована потужність блока живлення, Вт

550

Драйвери

Свіжі драйвери можна скачати:
- з сайта виробника GPU
 -  з сайта підтримки.

Сайт виробника

http://www.asus.ua/

Згідно даним таблиці, практично всі характеристики розглянутого рішення збігаються з рекомендованими компанією NVIDIA специфікаціями для графічного адаптера GeForce GTX 680 референсного дизайну, а, отже, і рівень продуктивності ASUS GeForce GTX 680 повинен бути ідентичним у порівнянні з «еталоном». Ми ж традиційно почнемо наш огляд з розповіді про упаковку продукту.

Вперше за довгий час дизайнери ASUS змінили оформлення коробки, у якій фірмові відеокарти поставляються в роздрібні канали. На зміну звичному для наших постійних читачів зображенню «графічного лицаря» прийшов більш лаконічний, але не менш помітний дизайн, що запам'ятовується. На лицьовій стороні упаковки виробник перелічує деякі характеристики відеокарти, а також звертає увагу користувачів на можливість програмного розгону відеокарти за допомогою утиліти GPU Tweak.

На звороті коробки наведені короткі специфікації відеокарти на 12 мовах (включаючи російський), короткий рекламний опис згаданих вище технологій GPU Boost і Adaptive V-Sync, а також фірмової функції GPU Tweak.

Список системних вимог до комп'ютера, у який планується встановлення ASUS GeForce GTX 680 (GTX680-2GD5), розташований на одній з бічних сторін упаковки. Виходячи з рекомендації на коробці, блок живлення в такій системі повинен мати потужність не менше 550 Вт і бути здатним видавати до 38 А по лінії 12 В. Для «топової» моделі в лінійці GeForce це досить скромні вимоги за сучасними мірками.

Комплект поставки розглянутого відеоприскорювача досить скромний, як для рішення з рекомендованою вартістю $500. Крім самого графічного прискорювача в коробці ми знайшли тільки посібник користувача, диск з драйверами, а також один перехідник з двох 4-контактних периферійних роз’ємів живлення на один 6-контактний роз’єм живлення відеокарти. У переважній більшості сценаріїв експлуатації додаткові аксесуари і не знадобляться, однак навіть сама їх наявність у комплекті поставки високорівневого продукту, як правило, є досить приємним бонусом для користувачів.

Для виводу зображення на відеокарті ASUS GeForce GTX 680, також як і на інших адаптерах «референсного» дизайну, передбачені наступні інтерфейси:

  • 1x DVI-D Dual-Link DVI;
  • 1х DVI-I Dual-Link DVI;
  • 1х HDMI 1.4a;
  • 1х DisplayРort 1.2.

Розташування відеовиходів організовано дуже продумано, адже, незважаючи на їх чималу кількість, вентиляційні сітки, через які нагріте повітря викидається за межі системного блоку, займають майже цілий слот. Також приємно відзначити той факт, що роз’єми HDMI і DisplayРort мають повнорозмірне виконання, що рятує від необхідності використання додаткових перехідників навіть при підключенні декількох дисплеїв. Як ми вже згадували вище, відеокарти на основі графічного процесора GeForce GTX 680 підтримують одночасне підключення до 4-х пристроїв для виводу зображення без додаткових активних хабів. Також до розглянутого графічного адаптера можна підключити одночасно три дисплеї з підтримкою технології NVIDIA 3D Vision (режим 3D Vision Surround), двочіпові зв'язки для цього режиму більше не є необхідністю. Непоганим заділом на майбутнє також є підтримка відеокартою ASUS GeForce GTX 680 плазмових панелей і моніторів ультрависокої  роздільної здатності аж до 3840x2160 пікселей.

Зовнішній вигляд відеокарти ASUS GeForce GTX 680 не сильно відрізняється від високорівневих рішень лінійки GeForce попередніх поколінь, однак новинка вигідно відрізняється від попередників і актуальних конкурентів невеликою довжиною, яка становить всього 256 мм і дозволяє встановити це графічний адаптер практично в будь-який сучасний корпус формату Middle- або Full-Tower.

Друкована плата графічного прискорювача ASUS GeForce GTX 680 виконана на текстоліті чорного кольору. Як ми вже згадували вище, розглянута відеокарта повністю повторює «референсний» дизайн GeForce GTX 680, запропонований інженерами NVIDIA, тому такий же дизайн PCB будуть використовувати і інші партнери «зеленого графічного гіганта». Розведення елементів на платі виконано досить незвичайно. В першу чергу привертає на себе увагу не зовсім звичне розташування елементів модуля стабілізації живлення, які встановлені в правій нижній частині текстоліту, у той час як графічне ядро GK104 і 8 мікросхем пам'яті зміщені ближче до інтерфейсної панелі. До речі, використовувана друкована плата, зважаючи на все, може застосовуватися розробниками з NVIDIA і для більш продуктивних рішень. Про це свідчуть вільні «посадкові місця для додаткових компонентів вузла стабілізації живлення і місце для встановлення ще одного 6-контактного роз’єму живлення.

Модуль стабілізації живлення виконаний по 4+2-фазній схемі (для GPU і чіпів пам'яті відповідно), а в якості ШІМ-контролера використовується мікросхема Richtek RT8802A.

Крім шини PCI Express живлення відеокарти забезпечується через два 6-контактних роз’єми на бічній стороні відеокарти, які встановлені один над одним, що сьогодні виглядає вкрай незвичайно і може перешкодити сумісності новинки з розповсюдженими системами  повітряного охолодження від сторонніх виробників.

Наявність двох роз’ємів для містків SLI дозволяє поєднувати до трьох відеокарт на графічному процесорі NVIDIA GeForce GTX 680 для спільних розрахунків графічних ефектів і одержання високої продуктивності навіть при побудові мультимоніторних конфігурацій з підтримкою стереоскопічного зображення.

За винятком ШІМ-контролера і декількох танталових конденсаторів, встановлених напроти GPU, зворотна сторона плати практично позбавлена елементів, що повинно позитивно вплинути на ефективність охолодження взагалі.

Так виглядає графічний чіп NVIDIA GK104-400-A2 (Kepler), зроблений з дотриманням норм 28 нм техпроцесу, який є центральною частиною досліджуваної відеокарти. Вперше з часів  GeForce 7800 графічне ядро не захищене від відколів додаткової теплорозподільчої пластини, що можна пояснити невеликою площею нового кристала. Чіп GK104 включає 1536 універсальних шейдерних процесорів (або ядер CUDA по термінології NVIDIA) і 32 блоки растеризації, а обмін даними з відеопам'яттю здійснюється через 256-бітну шину. Повторимося, що частоти роботи графічного ядра і пам'яті становлять 1006 МГц для ядра і 6008 МГц для відеопам'яті. Звертаємо увагу, що шейдерний блок тепер працює на тій же частоті, що і інші блоки GPU, а штатна частота роботи GPU може автоматично підвищуватися відеокартою для одержання більш високої продуктивності в межах встановленого енергоспоживання. Інші характеристики чіпа GK104 наведені на скріншоті вище.

На жаль версія, сучасна утиліта GPU-Z не дозволила визначити значення ASIC Quality для відеокарти ASUS GeForce GTX 680, однак ми сподіваємося, що після оновлення цієї популярної програми, така можливість з'явиться.

Відеопам'ять стандарту GDDR5 загальним об'ємом 2 ГБ набрана за допомогою восьми чіпів по 256 МБ виробництва компанії Hynix. Чіпи мають маркування H5GQ2H24MFR T2C і згідно з документацією можуть функціонувати на ефективній частоті до 6 ГГц. Враховуючи, що пам'ять у досліджуваної відеокарти вже працює на частоті 6008 МГц, навряд чи в нас є шанси значно прискорити її в процесі ручного розгону, щоб одержати додатковий приріст продуктивності.

Для відеокарти ASUS GeForce GTX 680 застосовується двослотова система охолодження «турбінного» типу, також як і для попередніх поколінь високорівневих відеокарт на базі графічних процесорів NVIDIA GeForce.

Кулер складається з вентилятора радіальної форми, невеликого алюмінієвого радіатора і монтажної металевої рамки, яка також призначає для охолодження мікросхем пам'яті і силових транзисторів системи стабілізації живлення, стикаючись з ними через спеціальний термоінтерфейс.

Біля основи алюмінієвого радіатора інженери NVIDIA встановили три теплові трубки вигнутої форми, які повинні сприяти більш ефективному і швидкому розподілу тепла по всій поверхні радіатора. З графічним чіпом GK104 кулер стикається через мідну пластину-підставу.

Взагалі з часу GeForce GTX 580 штатний кулер був спрощений, що взагалі не дивно, враховуючи перехід на новий економічний і енергоефективний 28-нм техпроцес. Для того щоб перевірити ефективність «референсної» системи охолодження на практиці ми провели наш стандартний набір тестів. Традиційно тести проводилися у двох режимах роботи кулера: автоматичне керування і максимальна швидкість обертання турбіни.

В автоматичному режимі при максимальному навантаженні температура графічного ядра не перевищувала оцінку 80 градусів, що є середнім результатом для адаптера такого рівня. При цьому вентилятор працював на 60% своєї потужності, виробляючи середній рівень шуму, помітний на загальному фоні роботи системи.

Після того як ми встановили швидкість обертання вентилятора на максимум і провели тестування ще раз, ми зафіксували зниження максимальної температури GPU на 18 градусів, а рівень шуму, видаваний кулером при цьому, ми б охарактеризували як високий, що заважає комфортній роботі.

При відсутності навантаження, частоти графічного ядра і пам'яті автоматично знижуються, що приводить до меншого енергоспоживання і тепловиділення. Кулер у такому режимі працює дійсно тихо, а температура графічного ядра не перевищує 36 градусів.


Социальные комментарии Cackle
Пошук на сайті
Поштова розсилка
top10

vote

Голосування