Анонсирована двухпроцессорная видеокарта NVIDIA GeForce GTX TITAN Z. Тестируем топы: обзор видеокарты NVIDIA GeForce GTX Titan Z Тестирование в играх графического ускорителя Asus


Видеокарта стоимостью 100 000 рублей? Сон это или реальность? Может быть, она из линейки профессиональных графических ускорителей? Ответы лежат на поверхности.

Компания NVIDIA, для которой разработка двухпроцессорной модели была делом чести, самое скоростное графическое решение – GeForce GTX Titan Z. Немногим ранее AMD опередила конкурента в борьбе за рынок, представив Radeon R9 295X2 с системой водяного охлаждения. В отличие от нее, в NVIDIA остались верны воздушному охлаждению, но увеличили высоту конструкции до трех слотов.

Немного истории

Первые двухпроцессорные графические решения в ассортименте NVIDIA появились в далеком 2006 году.

Седьмое поколение графических процессоров компании являлось наследником линейки GeForce 6. Оно не получило каких-либо революционных изменений, а небольшая модернизация лишь немного оживила спрос. Правда, в то время было грех жаловаться на потребительский спрос, видеокарты продавались как горячие пирожки.

Благодаря удачной архитектуре, NVIDIA провела модернизацию путем внутренних оптимизаций. Графический процессор G70 превратился в G71, порядком уменьшившись в размерах (от 110 нм к 90 нм). Созданный запас мощности, а проще говоря – большая энергоэффективность, позволил компании выпустить видеокарты с двумя GPU на одной печатной плате.

Видеокарта существовала в двух версиях: полноформатной (во всю длину корпуса) и для обыкновенных компьютеров. Соответственно они назывались GeForce 7900 GX2 и GeForce 7950 GX2 .

По меркам 2006 года графический процессор был относительно шустрым и содержал: 48+16 шейдеров (до появления унифицированной архитектуры шейдеры различались по типу вычислений – пиксельные и вершинные), 48 текстурных блоков и 32 блока растеризации. Частота GPU составляла 500 МГц. Стоила она $500, не так уж и много. Слабыми местами модели стали шумная система охлаждения, перегревающийся мост и низкая оптимизация драйверов для поддержки пары GPU в играх.

Тем не менее, первый шаг был сделан.

В 2008 году NVIDIA повторяет трюк с небольшим и скоростным графическим процессором G92, представив преемника GeForce 7950 GX2. Им стала видеокарта GeForce 9800 GX2, основанная на 65 нм техпроцессе, каждое ядро которой содержало 754 млн транзисторов.

Компоновка модели была оригинальной: два куска текстолита с мостиком между ними, а вентилятор располагался внутри «бутерброда». Воздух поступал через сделанные в текстолите вырезы. G92 в исполнении GeForce 9800 GX2 наделял видеокарту 256 потоковыми процессорами (универсальными, используемыми и сейчас), 128 текстурными блоками и 32 блоками растеризации. Частоты поднялись до 600 МГц. за прошедшие два года NVIDIA подтянула драйвера и могла заявить о превосходстве над решением конкурента.

Но главные недостатки никуда не делись и передались по наследству: высокое энергопотребление и тепловыделение, шумная референсная система охлаждения. Зато G92 обладал неплохим разгонным потенциалом, позволяющим надеяться на частоты около 720-780 МГц на «воздухе» и почти 800 МГц «на воде».

Через год компания выкатила оружие массового поражения – GeForce GTX 295 . Благодаря GT200b, который содержал сразу два GPU, NVIDIA всерьез надеялась подвинуть конкурента. Приставка b в конце наименования графического процессора означала «шринк». В конкретно этом случае G200 изначально выпускался с соблюдением 65 нм техпроцесса, а позже был переведен на 55 нм. Для справки, графический процессор GT200 обладал самой большой площадью из всех кристаллов, когда-либо серийно производившихся на заводе TSMC.

Дизайн и конструкция системы охлаждения осталась прежней. Только теперь кожух был выполнен из перфорированного железа. Общее число задействованных транзисторов возросло до 2х1400 млн штук. Столь резкий скачок при не очень эффективной СО немного помешал планам компании выпустить продукт с изначально запланированными частотами под 700 МГц. В итоге пришлось остановиться на 570 МГц, что даже меньше, чем у предшественника.

Не стоит забывать, что тогда у всех GPU NVIDIA частота шейдеров работала с определенным коэффициентом относительно других блоков. Зато по остальным фронтам у GTX 295 было все в порядке: 480 потоковых процессоров (1242 МГц), 160 текстурных блоков и 56 блоков растеризации.

В системе охлаждения использовался единый радиатор, расположенный посередине двух частей видеокарты. Воздух по традиции поступал через прорези в текстолите. Суммарное энергопотребление 2800 млн транзисторов было настолько высоко, что GTX 295 в работе больше напоминала турбину самолета во время взлета. Да и со скоростью были вопросы, поскольку производительность напрямую зависела от качества драйверов. В итоге видеокарта получилась мощной на бумаге, но спорной в реальных приложениях. К тому же ее преследовали проблемы теплоотвода, из-за которых многие выпущенные модели не пережили гарантийный срок.

Позже NVIDIA кардинально переработала дизайн и систему охлаждения, выпустив GTX 295 v2.

Теперь вентилятор, находящийся в центре, выдувал воздух по обе стороны от графических процессоров. А печатная плата больше не напоминала бутерброд. Отсутствовали на текстолите и характерные вырезы.

Только революции не состоялось, ведь максимальные частоты и температуры остались на прежнем уровне. Разве что немного снизился уровень шума.

В 2011 году после долгих и мучительных ожиданий в свет вышла видеокарта GeForce GTX 590 . Мучительных, потому что рожденный GPU GF100 выделял несчитанное количество тепла, плохо разгонялся и был недостаточно быстр.

Упущениями NVIDIA воспользовалась AMD, двухпроцессорный графический ускоритель которой был быстрее и… шумнее. Первая компания, понимая обреченность ситуации, решила сделать ставку на комфорт. Драйверы тщательно оптимизировали, а систему охлаждения настроили на оптимальную тишину. В результате проигрыш в скорости сказался на акустическом комфорте.

Технические характеристики GeForce GTX 590 были следующими: частота ядра – 608/1216 МГц (для разных блоков все еще использовалась двойная частота), число потоковых процессоров – 1024, текстурных блоков – 128, блоков растеризации – 96.

Стабильность – залог успеха! В 2012 году пользователи получили GeForce GTX 690 , основанную на паре GK104. Это графическое решение по праву можно считать одной из самых удачных двухпроцессорных видеокарт на рынке.

В принципе, архитектура Kepler до сих пор используется NVIDIA. Даже новейшие графические процессоры являются эволюцией основ, заложенных в GK104. Столь передовая разработка положительно сказалась на делах компании.

По конструкции система охлаждения схожа с той, что устанавливалась на GeForce GTX 590. Но есть и важные отличия. Радиаторы, как и раньше, состоят из алюминиевых ребер, напаянных на испарительные камеры. Основная пластина получила аэродинамичные ребра для охлаждения силовых цепей и моста. А площадь теплорассеивателей заметно возросла.

Но никуда не делась и давняя проблема всех двухпроцессорных моделей – не до конца отлаженный драйвер, не дающий реализовать потенциал устройства в некоторых тестах. К этой проблеме добавилась вторая – цена! Тысяча долларов, в которую оценили GeForce GTX 690, стала неподъемной суммой для многих энтузиастов.

Лишь через два года компания NVIDIA представила следующее поколение – GeForce GTX Titan Z, о котором и пойдет речь в этом обзоре.

Двухпроцессорная графическая карта была обязательным пунктом в списке планов NVIDIA начиная с серии GeForce 7000. Запуск видеоадаптера на базе двух GPU GK110 был ожидаем с тех пор, как появились первые потребительские продукты на базе этого процессора. Однако с точки зрения человека, не посвященного в планы NVIDIA, перспективы такого устройства выглядели неоднозначно. Уж слишком велики и цена, и энергопотребление столь крупных GPU, изготовленных по техпроцессу 28 нм.

Топовые видеоадаптеры NVIDIA в текущем поколении стали беспрецедентно дорогими. Если рекомендованная цена GeForce GTX 780 Ti составляет $699, то сколько же должен стоить двухпроцессорный флагманский адаптер? Неудивительно, что в конце концов видеокарта с двумя чипами GK110 так и не появилась в игровой линейке GeForce 700, но вышла под маркой TITAN.

Семейство GeForce GTX TITAN имеет для NVIDIA двойное назначение. С одной стороны, в «Титаны» попадают продукты для геймеров-энтузиастов, обладающие максимальной игровой производительностью. Оригинальный GTX TITAN какое-то время был единственным продуктом на базе GK110. Сменивший его GTX TITAN Black просто работает на более высоких частотах по сравнению с GeForce GTX 780 Ti .

С другой стороны, TITAN — это высокопроизводительные устройства для вычислений в профессиональных областях. В то время как концепция GPGPU получает все более широкое распространение и признание, покупатель уже не может получить максимальную производительность в «счетных» задачах в нагрузку к игровому GPU, как это было в предыдущие годы.

NVIDIA заложила разделение по расчетным возможностям в саму архитектуру GPU. Операции с плавающей точкой двойной точности (FP64) в чипах Kepler выполняются специальными ядрами CUDA. И только GK110 из всей линейки имеет 64 FP64-совместимых ядра CUDA в каждом блоке SMX (Streaming Multiprocessor). Поскольку SMX содержит 192 обычных ядра, выполняющих операции одинарной точности, производительность GK110 в расчетах FP64 составляет 1/3 от производительности в расчетах FP32.

Все остальные GPU в линейке Kepler довольствуются восемью FP64-совместимыми ядрами CUDA в каждом SMX, что дает производительность на уровне всего лишь 1/24 от FP32. Но кроме того, в игровых моделях GeForce на базе GK110 ядра FP64 работают на частоте 1/8 от частоты GPU, что приводит все к тому же соотношению производительности FP64 к FP32 — 1/24. Только «Титаны» лишены этого ограничения, обладая максимальным для GK110 быстродействием в FP64.

Фактически по вычислительным возможностям TITAN Black не уступает профессиональным ускорителям Quadro K6000 и Tesla K40, которые также основаны на полностью функциональной ревизии чипа GK110, только стоят свыше 4 тыс. долларов.

Таким образом, видеоадаптер с двумя GK110 должен позиционироваться в качестве ускорителя для научных, финансовых и инженерных вычислений — всех тех задач, в которых используются операции двойной точности. И для него вполне оправданно четырехзначное число на ценнике. С другой стороны, мы имеем новый фетиш для энтузиастов и статусный продукт, который поддерживает заявку NVIDIA на лидерство в традиционной сфере применения GPU — 3D-графике и компьютерных играх.

В этом качестве GeForce GTX TITAN Z встретил сильного конкурента в лице Radeon R9 295X2 на базе двух чипов Hawaii. Двухпроцессорный флагман AMD не уступает в производительности двум отдельным адаптерам Radeon R9 290X и одновременно стоит вдвое дешевле, чем TITAN Z. Единственное слабое место R9 295X2 в противостоянии с TITAN Z -- скорость вычислений двойной точности.

Процессор Hawaii включает полностью аппаратные планировщики, выполняющие разрешение зависимостей и формирование очереди операций — в отличие от архитектуры Kepler, в которой эти функции возложены на драйвер. Подход AMD более эффективен для расчетных задач, кроме того, в архитектуре GCN все потоковые процессоры способны исполнять FP64-операции за два такта, что дает производительность на уровне 1/2 от скорости вычислений одинарной точности. Но в десктопных устройствах на базе Hawaii искусственно установлено соотношение 1/8. Полная скорость зарезервирована для профессиональных ускорителей FirePro. Даже собрав систему из двух Radeon R9 295X2 за цену единственного TITAN Z, мы получим 1/4 производительности отдельной двухголовой видеокарты в режиме FP64.

⇡ Технические характеристики

Мощность GK110 была главной проблемой для разработчиков GeForce GTX TITAN Z. В прошлый раз, когда флагманским GPU NVIDIA был относительно компактный GPU GK104, удалось создать двухпроцессорную карту — GeForce GTX 690, которая практически не уступала в производительности паре отдельных GTX 680. Повторить это достижение с чипами GK110, которые в составе отдельных адаптеров развивают мощность 250 Вт, — серьезная задача.

AMD решила эту проблему для Radeon R9 295X2 за счет системы водяного охлаждения. Но GeForce GTX TITAN Z использует воздушный кулер, явно неспособный отвести от платы 500 Вт тепла. Карта имеет TDP 375 Вт — ровно столько, сколько по спецификациям могут обеспечить два восьмиконтактных разъема питания, которыми оснащена карта, в сочетании с разъемом PCI-E x16.

Как следствие, компромисс в тактовых частотах был неизбежен. TITAN Z имеет наименьшую базовую частоту среди всех моделей на базе GK110 — 706 МГц. С другой стороны, у него наибольшая дельта между базовой частотой и boost clock — 180 МГц, которая дает карте пространство для ускорения в благоприятных условиях. GPU даже способен на короткие броски к частоте 1058 МГц — на 352 МГц выше базовой! Видеопамять общим объемом 12 Гбайт работает на эффективной частоте, характерной для GTX 780 Ti и TITAN Black, — 7000 МГц.

Модель Графический процессор Видеопамять Шина ввода/вывода Вывод изображения TDP, Вт
Кодовое название Число транзисторов,
млн
Техпроцесс,
нм
Тактовая частота,
МГц: Base Clock / Boost Clock
Число ядер CUDA Число текстурных блоков Число ROP Разрядность шины,
бит
Тип микросхем Тактовая частота: реальная (эффективная),
МГц
Объем,
Мбайт
Интерфейсы (макс разрешение@частота кадров,
Гц)
Порты вывода
GeForce GTX 780 GK110 7 100 28 863/900 2304 192 48 384 GDDR5 SDRAM 1502 (6008) 3072 PCI-Express 3.0 x16 VGA (2048x1536@85),
DL DVI (2560x1600@60),
HDMI 1.4a (4096х2160@24),
1 х DL DVI-I,
1 x DL DVI-D,
1 x DisplayPort,
1 x HDMI
250
GeForce GTX 780 Ti GK110 7 100 28 875/928 2880 240 48 384 GDDR5 SDRAM 1750 (7000) 3072 PCI-Express 3.0 x16 VGA (2048x1536@85),
DL DVI (2560x1600@60),
HDMI 1.4a (4096х2160@24),
DisplayPort 1.2 (4096x2160@60)
1 х DL DVI-I,
1 x DL DVI-D,
1 x DisplayPort,
1 x HDMI
250
GeForce GTX TITAN Black GK110 7 100 28 889/980 2880 240 48 384 GDDR5 SDRAM 1750 (7000) 6144 PCI-Express 3.0 x16 VGA (2048x1536@85),
DL DVI (2560x1600@60),
HDMI 1.4a (4096х2160@24),
DisplayPort 1.2 (4096x2160@60)
1 х DL DVI-I,
1 x DL DVI-D,
1 x DisplayPort,
1 x HDMI
250
GeForce GTX TITAN Z GK110 7 100 28 705/876 2880 240 48 2 x 384 GDDR5 SDRAM 1750 (7000) 2 x 6144 PCI-Express 3.0 x16 VGA (2048x1536@85),
DL DVI (2560x1600@60),
HDMI 1.4a (4096х2160@24),
DisplayPort 1.2 (4096x2160@60)
1 х DL DVI-I,
1 x DL DVI-D,
1 x DisplayPort,
1 x HDMI
375

Судя по объявленным спецификациям, понижение базовой частоты существенно сказалось на скорости карты. Пиковая расчетная производительность GTX TITAN Z составляет 8 TFLOPS, притом что GTX TITAN Black выдает на-гора 5 TFLOPS в FP32.

По конфигурации вычислительных блоков GPU TITAN Z не отличается от TITAN Black. Про графический процессор GK110 более подробно вы можете прочитать в статье, посвященной оригинальному GeForce GTX TITAN , а архитектура Kepler в целом описана в обзоре GeForce GTX 680 .

⇡ Конструкция

Общие принципы дизайна TITAN Z унаследовал от предыдущей двухголовой видеокарты NVIDIA — GeForce GTX 690, только на этот раз кулер не двух-, а трехслотовый. Кожух системы охлаждения металлический, с прозрачными окошками, в которых видно черные радиаторы GPU. Задняя поверхность платы покрыта толстой алюминиевой пластиной, которая добавляет изрядную долю к общему немаленькому весу устройства. Назначение пластины не только декоративное. Она охлаждает микросхемы памяти, расположенные под ней.

Чисто эстетически «двухголовый Титан» производит сильное впечатление. Топовые однопроцессорные адаптеры NVIDIA, выполненные в таком же дизайне, прекрасно выглядят, но, держа в руках TITAN Z, чувствуешь настоящую мощь. Внешность, достойная такого дорогого и совершенного устройства.

Аксиальный вентилятор продувает воздух сквозь отдельные радиаторы, расположенные по сторонам. Не в пример турбинным кулерам, применяемым в однопроцессорных картах NVIDIA референсного дизайна, часть горячего воздуха он выбрасывает внутрь корпуса ПК. Кроме того, аксиальный вентилятор не позволяет разместить никакую другую плату вплотную к видеоадаптеру, тогда как турбинка при необходимости это допускает. Следовательно, в корпусе TITAN Z оккупирует не три, а все четыре слота расширения. В этом плане двухголовая карта не дает никакого выигрыша по сравнению с двумя GeForce GTX TITAN Black, установленными вплотную друг к другу.

Выхлопная решетка занимает половину крепежной пластины. Оставшаяся площадь использована для видеовыходов — в такой же конфигурации, как и на прочих топовых адаптерах NVIDIA: два порта DVI плюс полноформатные разъемы HDMI и DisplayPort. Поскольку один GPU может использовать четыре порта одновременно, возможности второго остаются незадействованными. В таком классе устройств (и за такие деньги) хотелось бы видеть больше разъемов DisplayPort 1.2 (пусть и в Mini-варианте, как на Radeon R9 295X2). Возможность подключить к одному ПК больше четырех мониторов не так уже важна, но в существующем варианте только один из них может иметь разрешение Ultra HD.

GPU охлаждают довольно компактные радиаторы, но в основание каждого вмонтирована испарительная камера. Металлическая рама покрывает лицевую поверхность платы. Платформа, на которой закреплен вентилятор, представляет собой еще один отдельный радиатор, прижатый к транзисторам системы питания и коммутатору шины PCI-E.

⇡ Плата

По сравнению с GeForce GTX 690 разводка платы радикально усложнилась. Неудивительно, если принять во внимание 384-битную шину памяти каждого GPU и 12 Гбайт RAM. Графические процессоры соединяет коммутатор PCI-E 3.0 PLX PEX8747, который мы ранее видели на том же GTX 690. Чипы памяти SK hynix H5GQ2H24BFR-R2C рассчитаны на эффективную частоту 7 ГГц.

Система питания не отличается по конфигурации фаз от того, что было в GeForce GTX 690. Каждый GPU получил по пять фаз, две фазы отданы для питания чипов памяти, и еще одна фаза — для PLL. Особенность TITAN Z в том, что принадлежность фаз к отдельным GPU не фиксирована. Один из чипов может в какой-то момент времени пользоваться большим числом фаз, чем другой, если его энергопотребление выше.

Контроллеры питания используются те же, что и в других референсных картах на базе GK110, — ON NCP4206.

Два Geforce GTX Titan Black на одной плате за умопомрачительную цену

  • Часть 2 - Практическое знакомство

Представляем базовый детальный материал с исследованием Nvidia Geforce GTX Titan Z на основе референс-карты.

Объект исследования : Ускоритель трехмерной графики (видеокарта) Nvidia Geforce GTX Titan Z 2×6144 МБ 2×384-битной GDDR5 PCI-E

Сведения о разработчике : Компания Nvidia Corporation (торговая марка Nvidia) основана в 1993 году в США. Штаб-квартира в Санта-Кларе (Калифорния). Разрабатывает графические процессоры, технологии. До 1999 года основной маркой была Riva (Riva 128/TNT/TNT2), с 1999 года и по настоящее время - Geforce. В 2000 году были приобретены активы 3dfx Interactive, после чего торговые марки 3dfx/Voodoo перешли к Nvidia. Своего производства нет. Общая численность сотрудников (включая региональные офисы) около 5000 человек.

Часть 1: Теория и архитектура

В самом конце лета, в преддверии выпуска новых GPU, хотя и на основе уже известных архитектур, мы рассматриваем решение компании Nvidia, созданное для узкой прослойки ультра-энтузиастов - двухпроцессорную модель Geforce GTX Titan Z, наиболее производительное графическое решение компании. Эта модель была анонсирована еще в марте, на конференции GPU Technology Conference 2014 , посвященной высокопроизводительным вычислениям. Тогда стало известно, что двухчиповая плата на основе пары процессоров GK110 будет иметь 5760 вычислительных ядер производительностью в 8 терафлоп и 12 ГБ памяти, и она должна была начать продаваться в апреле по цене аж 3000 долларов.

Надо сразу отметить, что мощнейшие видеокарты на базе двух графических процессоров - это «вещь в себе» сразу по нескольким причинам. Мы уже неоднократно писали и об их излишней сложности и дороговизне, а также обо всех проблемах рендеринга, использующего возможности двух GPU. Как правило, в последнее время в таких конфигурациях используется исключительно единственный метод - AFR-рендеринг, когда каждый из видеочипов работает над своим кадром. И в таком случае никуда не деться от некоторых сопутствующих сложностей и проблем. Так, для обеспечения совместимости двухчиповых конфигураций необходима дополнительная доработка драйверов, а иногда не обойтись без изменения кода игры. Если же таких оптимизаций нет, то двухчиповая видеокарта зачастую работает как одночиповая, и никаких преимуществ от второго GPU просто нет. Ну или AFR работает, но крайне неэффективно, не обеспечивая значительного роста FPS.

Но даже если все прекрасно оптимизировано со стороны драйвера, AFR-рендеринг не всегда обеспечивает максимальную плавность смены кадров по понятным причинам - двухчиповая конфигурация всегда будет работать менее плавно, чем одночиповая. Ведь драйверу надо обеспечивать совместную работу двух GPU, раздавая им работу над кадрами, в каждом из которых могут требоваться какие-то данные из предыдущего, и тогда возможны дополнительные сложности. Кроме этого, на двухчиповой видеокарте при вдвое выросшей частоте смены кадров, задержка между действием игрока и его отображением на экране не снижается ровно вдвое, как можно было бы подумать.

В общем, сплошные ложки дегтя... А где же бочка меда? Зачем вообще тогда платить бешеные деньги за такое безобразие? Все очень просто - при использовании пары топовых GPU в двухчиповой конфигурации можно получить почти вдвое большую частоту кадров, и это - единственная возможность получения большей производительности, когда более мощных GPU просто не существует. Зачем нужна сверхвысокая частота кадров при не всегда комфортной плавности - вопрос отдельный. Кому-то - для установки рекордов в бенчмарках, кому-то - еще и для экстремального разгона, кто-то просто использует монитор с разрешением 3840×2160, да и не один, а кто-то сочетает вместе все вышеперечисленное.

Главное, что возможность получить экстремально высокую частоту кадров есть, как существуют и желающие заплатить за такую возможность очень много денег. Или, как в случае с Geforce GTX Titan Z - неприлично много. Да, таких желающих чуть ли не по пальцам пересчитать можно, но они есть, и они очень «громкие» - в том смысле, что такие ультра-энтузиасты и в Интернете много пишут о новинках, и своим друзьям рассказывают. То есть, для производителя такие решения нужны скорее не для получения прямой прибыли (на продаже нескольких сотен или тысяч экземпляров много денег не заработать, с точки зрения финансов гораздо важнее массовые продукты), а работа на имидж среди энтузиастов. И вот тут главное сделать все правильно, не допустив ошибок. Получилось ли из Geforce Titan Z ультрапроизводительное решение, стоящее своих денег, и насколько успешно новинка конкурирует с AMD Radeon R9 295X2 - мы и попытаемся разобраться в нашем материале.

Хотя на момент анонса Nvidia указала время выхода Geforce GTX Titan Z как апрель, эта видеокарта задержалась с выходом на рынок до конца мая. Причиной этой задержки был явно неожиданный выпуск конкурентом двухчиповой видеокарты AMD Radeon R9 295X2, основанной на базе пары топовых графических процессоров Hawaii, но предложенной рынку по цене вдвое меньшей - всего лишь $1499! Причем, так как чипы Hawaii очень горячие и в равной по теплопотреблению борьбе они не смогли бы конкурировать с парой GK110, компания AMD решила сделать хитрый шаг, подняв уровень энергопотребления платой до 500 Вт и обеспечив свое двухчиповое решение водяным охлаждением. Поэтому Radeon R9 295X2 получился очень производительным, но при этом и недорогим, а у Nvidia просто не было шансов на быстрое изменение планов.

Несмотря на вдруг возникшие трудности в конкурентной борьбе, Nvidia все же не стала ничего менять и выпустила Titan Z, и даже по обозначенной ранее цене. Это решение предназначено не только для энтузиастов ПК-игр, но и для CUDA-разработчиков, и у них есть совершенно четкая необходимость в получении максимальной производительности при минимальном уровне потребления энергии и занимаемом физическом пространстве, и по этим параметрам Titan Z очень хорош. И даже с учетом того, что для игроков соотношение производительности и цены явно будет уступать конкуренту, Titan Z в любом случае можно считать отличным топовым решением, так как в этой нише по цене выбирают далеко не всегда.

С момента формального анонса на GTC 2014 публике оставались неизвестны лишь цифры рабочей тактовой частоты GPU и памяти, а также уровень потребления энергии новым двухчиповым решением. И в мае Nvidia раскрыла и эти данные: базовая частота GPU равна 705 МГц, а турбо-частота может доходить до 876 МГц. Столь большой разрыв между этими частотами (171 МГц!) говорит о том, что производительность карты ограничена не возможностями чипов по работе на высокой частоте, а насильном ограничении показателя энергопотребления (TDP). Так что скорость GTX Titan Z в реальности будет зависеть от общего потребления энергии видеокартой, и в тяжелых ситуациях частота будет скатываться к базовому значению, хотя во многих играх частота GPU будет близка скорее к турбо-частоте.

К слову об ограничении энергопотребления. TDP для новой платы был назначен равным 375 Вт - давно привычному значению для двухчиповых карт, получающих питание по паре 8-контактных разъемов питания PCI-E, и это число лишь наполовину больше TDP топового одночипового варианта GTX Titan Black, и заметно ниже, чем у Radeon R9 295X2. Вероятно, для работы на столь низком напряжении, отбор годных GPU для Titan Z должен быть достаточно жестким.

Так как рассматриваемая нами видеокарта Nvidia несет на себе два графических процессора архитектуры «Kepler», о которой мы уже не раз подробно рассказывали и которая родственна архитектуре «Fermi», читателям будет полезно ознакомиться со статьями о ранних моделях графических решений компании:

  • Nvidia Geforce GTX 780 - урезанная версия GTX Titan, ускоритель премиум-класса
  • Nvidia Geforce Titan - новый однопроцессорный флагман 3D-графики игрового класса
  • Nvidia Geforce GTX 680 - новый однопроцессорный лидер 3D-графики
  • Nvidia Geforce GTX 480 : архитектура нового графического процессора изнутри; как реализована поддержка DirectX 11
Графический ускоритель Geforce GTX Titan Z
Параметр Значение
Кодовое имя чипов «GK110»
Технология производства 28 нм
Количество транзисторов 2×7,1 млрд.
Архитектура Унифицированная, с массивом общих процессоров для потоковой обработки многочисленных видов данных: вершин, пикселей и др.
Аппаратная поддержка DirectX DirectX 11, в том числе шейдерной модели Shader Model 5.0
Шина памяти две 384-битные по шесть независимых контроллеров памяти шириной по 64 бита с поддержкой GDDR5-памяти
Частота графического процессора 705(876) МГц
Вычислительные блоки 30 потоковых мультипроцессоров, включающих 5760 скалярных ALU для расчетов с плавающей запятой одинарной точности (FP32) и 1920 скалярных ALU для расчетов двойной точности (FP64) в рамках стандарта IEEE 754-2008;
Блоки текстурирования 480 блоков текстурной адресации и фильтрации с поддержкой FP16- и FP32-компонент в текстурах и поддержкой трилинейной и анизотропной фильтрации для всех текстурных форматов
Блоки растеризации (ROP) 12 широких блоков ROP (96 пикселей) с поддержкой режимов сглаживания до 32 выборок на пиксель, в том числе при FP16- или FP32-формате буфера кадра. Каждый блок состоит из массива конфигурируемых ALU и отвечает за генерацию и сравнение Z, MSAA, блендинг
Поддержка мониторов Интегрированная поддержка четырех мониторов, подключенных по интерфейсам DVI (Dual Link), HDMI 1.4a и DisplayPort 1.2
Спецификации референсной видеокарты Geforce GTX Titan Z
Параметр Значение
Частота ядра 705(876) МГц
Количество универсальных процессоров 5760
Количество текстурных блоков 480
Количество блоков блендинга 96
Эффективная частота памяти 7000 (4×1750) МГц
Тип памяти GDDR5
Шина памяти 2×384 бит
Объем памяти 12 ГБ
Пропускная способность памяти 672 ГБ/с
Теоретическая максимальная скорость закраски 67,7 гигапикселей/с
Теоретическая скорость выборки текстур 338 гигатекселей/с
Шина PCI Express 3.0
Разъемы Два разъема Dual Link DVI, один HDMI и один DisplayPort
Энергопотребление до 375 Вт
Дополнительное питание Два 8-контактных разъема
Число слотов, занимаемых в системном корпусе 3
Рекомендуемая цена $2999 (США), 114990 руб (Россия)

Новая модель Geforce GTX Titan Z получила не совсем привычное имя для двухчиповой карты Nvidia. Впрочем, новинка даже еще более эксклюзивная, по сравнению с GTX Titan (Black), поэтому нет ничего удивительного в том, что она вошла в эту специальную серию, отличающую подобные решения от чисто игровых видеокарт линейки Geforce GTX. Соответственно, в продуктовой линейке компании GTX Titan Z располагается на самом верху, сразу над GTX Titan Black.

Увы, но рекомендованная цена на Titan Z не изменилась с момента анонса, и за нее просят аж $2999 на североамериканском рынке и более 110 тысяч рублей на российском! Это - самая дорогая видеокарта Nvidia из линейки Geforce (естественно, Tesla мы не рассматриваем), которую выпустили на рынок под своей маркой такие избранные партнеры Nvidia, как Asus, Gigabyte, MSI, Zotac, Palit и EVGA (к слову, все Titan Z идентичны и кулером и прочими характеристиками, поскольку партнеры продают референсные карты Nvidia).

Поэтому, что касается решений конкурента - компании AMD - то новая Geforce GTX Titan Z по рекомендованной цене не имеет прямых соперников из линейки Radeon, так как стоит вдвое больше самой дорогой Radeon R9 295X2. Впрочем, с некоторым допущением можно принять за ценового конкурента для новинки Nvidia сразу две видеокарты AMD, но в таком случае шансов на победу у GTX Titan Z вовсе не останется.

Как и быстрейшая видеокарта на базе одного GPU у Nvidia, Titan Z сделана на базе пары чипов GK110 и имеет сдвоенную 384-битную шину памяти. Да и объем установленной на нее видеопамяти оставили тем же (удвоенный), хотя теоретически он мог быть равным 3 или 6 ГБ на чип. Но в случае столь дорогой модели установка 6 ГБ памяти на каждый GPU абсолютно оправдана, особенно с учетом ее суперкомпьютерных претензий, ведь для сложных вычислений объем в 12 ГБ вполне может быть актуальным. Да и в условиях требовательных 3D-приложений, максимальных настроек качества и сверхвысоких разрешений, видеопамяти у GTX Titan Z точно хватит.

Уровень типичного энергопотребления рассматриваемой двухчиповой видеокарты (TDP) составляет всего лишь 375 Вт, что значительно меньше, чем 500 Вт у Radeon R9 295X2. И хотя для снабжения энергией в Geforce GTX Titan Z используется такая же пара 8-контактных разъемов дополнительного питания, как и у R9 295X2, в случае видеокарты AMD требования к питанию гораздо выше - в том числе и выше спецификаций PCI-E.

Архитектура

Так как рассматриваемая сегодня видеокарта Geforce GTX Titan Z основана на двух GPU архитектуры Nvidia Kepler, давно известных нам под кодовым именем GK110, то расписывать в этом разделе особо нечего - , а в этом материале мы лишь повторим базовую информацию и расскажем об отличительных особенностях двухчипового решения.

Основы архитектуры Kepler были заложены в вышедших уже несколько лет назад чипах семейства Fermi (Geforce GTX 480 и GTX 580), а затем и GK104 (Geforce GTX 680). Текущий топовый чип GK110 поддерживает все возможности, появившиеся в них, и все особенности архитектуры Kepler относятся к нему в полной мере, включая организацию мультипроцессоров SMX, хотя есть там и некоторые отличия.

Графический процессор GK110 имеет в своем составе пять кластеров графической обработки Graphics Processing Cluster (GPC), состоящих из трех мультипроцессоров SMX каждый (схема 5×3, в отличие от 4×2 у GK104). Применяющиеся в Geforce GTX Titan Z графические процессоры GK110 используют одинаковую конфигурацию мультипроцессоров, и эти чипы архитектурно не отличаются от того варианта GK110, который мы рассматривали в обзоре одночипового аналога:

На диаграмме мы видим типичные для чипов архитектуры Kepler мультипроцессоры SMX, все как и в GK104, каждый SMX имеет по движку PolyMorph Engine, 64 КБ общей памяти, 48 КБ текстурной кэш-памяти и по 16 блоков текстурной фильтрации (всего 240 TMU в каждом чипе). Подсистема памяти пары GK110, лежащих в основе Geforce GTX Titan Z, содержит по шесть 64-битных каналов памяти, что в сумме дает дважды по 384-бит доступа к ней. Так как блоки растровых операций ROP «привязаны» к контроллерам памяти, то их количество равно 96 блокам, а объем кэш-памяти второго уровня на каждый чип составляет по 1.5 МБ.

Как мы уже писали выше, объем локальной GDDR5-видеопамяти для GTX Titan Z равен 12 (дважды по 6) ГБ. Столь большой даже по современным меркам объем памяти предназначен для энтузиастов игр с UltraHD-мониторами и тех, кто использует решения компании Nvidia в вычислительных задачах. В случае продукта премиум-класса такой объем памяти оправдан, и 12 ГБ памяти с 768-битным интерфейсом позволяют обеспечить оба графических процессора Geforce GTX Titan Z всеми необходимыми данными.

Как и многие предыдущие модели, Geforce GTX Titan Z поддерживает фирменную технологию GPU Boost второй версии. Мы уже неоднократно писали о ней, это комбинация программно-аппаратных решений, позволяющая автоматически увеличивать рабочие частоты GPU в зависимости от его энергопотребления для достижения максимальной производительности. Базовая тактовая частота графического процессоров GK110 в Geforce GTX Titan Z равна всего лишь 705 МГц, а средняя турбо-частота (Boost Clock) равна 876 МГц, что значительно больше. Это средняя частота для набора игр, а реальные частоты в отдельных приложениях могут быть и выше. Частота GDDR5-памяти в Geforce GTX Titan составляет 7000 МГц, а результирующая пропускная способность с учетом двух GPU равна аж 672 ГБ/с, чего должно быть более чем достаточно даже для такого мощного двухчипового решения.

Естественно, что Geforce GTX Titan Z поддерживает все известные технологии компании Nvidia, о которых мы писали много раз, в том числе DirectX 11, PhysX, TXAA, адаптивный VSync и другие. Обо всех них можно прочитать в наших предыдущих материалах, ссылки на которые даны в начале статьи.

Конструктивные особенности

Сама по себе видеокарта Titan Z сконструирована и выглядит просто шикарно - мы уже сталкивались с подобным «индустриальным» дизайном в случае двухчиповой Geforce GTX 690, а также Geforce GTX 780 (Ti) и Titan. Тот же стиль выбрали и для Titan Z, эта плата использует один вентилятор по центру платы и большой радиатор, накрывающий оба видеочипа. Кулер двухчиповой платы весьма мощный и эффективный, и отлично справляется с охлаждением пары GK110. Логотип Geforce на корпусе платы имеет подсветку, да и в остальном она визуально очень похожа на предыдущие решения.

Хотя Titan Z и меньше своего конкурента (R9 295X2 длинная и имеет дополнительный радиатор для работы водяного охлаждения), но плата все равно немаленькая - по толщине она занимает три слота (некоторые считают, что 2.5, но разница невелика, ведь все равно не получится использовать третий слот), так что войдет не во все компактные корпуса. Подобные трехслотовые системы воздушного охлаждения мы видели ранее в партнерских решениях, предназначенных для любителей разгона, но в референсном дизайне такое встречается впервые. Металлическая пластина на задней части платы довольно толстая и служит и как радиатор и защитная деталь для компонентов на плате.

Geforce GTX Titan Z поддерживает вывод изображения на четыре дисплея. По разъемам вывода изображения плата идентична другим референсным платам Nvidia и включает пару разъемов Dual-Link DVI и по одному полноразмерному HDMI и DisplayPort. На планке есть еще и вентиляционные отверстия - для того, чтобы выводить как можно больше горячего воздуха из корпуса. Также на печатной плате Geforce GTX Titan Z есть и единственный разъем SLI - если вдруг кто захочет потратить еще сто тысяч подключить две такие видеокарты для работы в четырехчиповом режиме.

«Раздетая» плата Titan Z показывает всю сложность разводки подобных решений, а также множество элементов на ней: пару крупных чипов GK110, мост PCI-E посередине, микросхемы GDDR5-памяти объемом 12 ГБ и сложнейшую подсистему питания для работы всех этих чипов. Видеокарта Geforce GTX Titan Z использует 12-фазную систему питания (разделенную пополам - по шесть фаз на каждый чип), элементы которой расположены в том числе по центре карты между двумя GPU.

Теоретические выводы

Итак, может ли быть разумной тратой рекомендованная цена в $3000 (более 100 тысяч рублей) за Geforce GTX Titan Z? Ведь на рынке есть не только AMD Radeon R9 295X2 за половину этих денег, но и Geforce GTX Titan Black, пару которых можно купить дешевле (порядка $2000 за две платы), чем один Titan Z. С трехслотовым дизайном корпуса и кулера, у Titan Z остается не так уж много преимущества перед парой Titan Black (или GTX 780 Ti, например) даже по занимаемому в системе месту. Хотя, все же небольшое преимущество есть, а ведь нужно еще учесть и уровень энергопотребления.

Интересно, что Nvidia усиленно продвигает GTX Titan Z не только как игровое решение для энтузиастов, но и как высокопроизводительный вычислитель для CUDA и прочих GPGPU-задач, и в таком виде от новинки можно вполне ожидать многого, ведь это самая производительная плата компании. Во многих случаях GTX Titan Z будет иметь смысл для занимающихся высокопроизводительными вычислениями на GPU, так как эта модель обеспечивает скорость в 2.7 терафлопс для операций с двойной точностью на всего лишь одной плате расширения, и для тех, кто давно использует CUDA, эта модель имеет хорошее соотношение цены, производительности, потребления энергии и физического размера. Особенно по сравнению с традиционными CPU-системами:

А вот игровое использование GTX Titan Z видится не столь радужным. Конечно, эта модель остается лучшей среди решений Nvidia, но тут и соперничество со стороны AMD Radeon R9 295X2 очень сильное, даже исходя исключительно из вдвое меньшей цены, да и пара GTX Titan Black может быть предпочтительнее. Ведь тут нужно учесть и меньшую тактовую частоты для GPU, по сравнению с одночиповым вариантом, и большую цену двухчиповой Titan Z по сравнению с парой Titan Black. Так что вполне возможно, что лучшим вариантом даже для поклонников Nvidia будет приобретение пары одночиповых решений, а не ультрамощного GTX Titan Z.

На этом краткая теоретическая часть сегодняшнего материала закончена, а в следующей части статьи мы практически исследуем скорость рендеринга новой видеокарты Nvidia Geforce GTX Titan Z в синтетических тестах и сравним ее с производительностью конкурентов, особенно в лице AMD Radeon R9 295X2. Хотя предельные синтетические тесты на многочиповых видеосистемах не имеют особенного смысла, так как ими измеряется скорее эффективность работы технологий многочипового рендеринга CrossFire и SLI, но цифры все же будут любопытны, так как рассматриваемая видеокарта является одной из наиболее производительных решений вообще.

2 блока питания Corsair CMPSU-1200AXEU для тестового стенда предоставлены компанией Corsair Корпус Corsair Obsidian 800D Full Tower для тестового стенда предоставлен компанией Corsair Модули памяти Corsair Vengeance CMZ16GX3M4X1600C9 для тестового стенда предоставлены компанией Corsair Corsair Hydro SeriesT H100i CPU Cooler для тестового стенда предоставлен компанией Corsair
Монитор Dell UltraSharp U3011 для тестовых стендов предоставлен компанией Юлмарт Системная плата Asus Sabertooth X79 для тестового стенда предоставлена компанией Asustek Системная плата MSI X79A-GD45(8D) для тестового стенда предоставлена компанией MSI Жесткий диск Seagate Barracuda 7200.14 3 ТБ для тестового стенда предоставлен компанией Seagate

Видеокарта стоимостью порядка 100 тысяч рублей привлекает к себе внимание всех покупателей на компьютерном рынке, однако позволить себе покупку флагмана линейки NVIDIA на базе графического ядра GeForce GTX TITAN Z может не каждый пользователь. В данной статье читатель познакомится со знаменитым чипом поближе, увидит обзор характеристик и потенциал в работе с 3D-графикой. Обзор технических характеристик новинки будет произведён в качестве примера на продукте известного тайваньского производителя - компании Asus.

Позиционирование продукта на мировом рынке

Изначально NVIDIA TITAN Z продукт позиционировался на рынке как мощный профессиональный видеоускоритель для выполнения сложных задач по обработке видео на высоких разрешениях, а также для работы с графическими приложениями по обработке трёхмерных изображений. Ни о каких играх речи не было, в профессиональном сегменте развлечениям нет места.

Однако российским дистрибьюторам показалось, что отечественный игровой рынок просто обязан познакомиться с шедевром от компании NVIDIA. Так на витринах магазинов появились видеокарты на базе чипа GTX TITAN Z, стоимость которых была объяснена довольно прозаично: лучшее качество не может дёшево стоить. Обильная реклама в средствах массовой информации сделала своё дело - нашлось много покупателей, которые решились на приобретение «короля видеокарт».

Технические характеристики чипа

В производстве видеоадаптера использована архитектура, построенная на базе двух физически раздельных ядер GK110, соответственно, все параметры непременно напомнят владельцу GeForce GTX TITAN Z характеристики видеоускорителя предыдущего поколения GTX TITAN 6 Gb:

  • частота каждого графического ядра составляет 705 МГц (в режиме Boost 876 МГц);
  • количество универсальных конвейеров 5760 штук, текстурных блоков 480 штук, а блоков растеризации 96 штук;
  • современная память GDDR5 имеет объём 12 Гб (2х6), работает на частоте 7000 МГц и использует 768-битную шину (384х2);
  • графическое ядро построено по технологическому процессу 28 нанометров и имеет 14 200 миллионов транзисторов (7100х2);
  • максимальное энергопотребление видеоадаптера в режиме Boost составляет 390 Ватт (195х2).

Сравнив базовые характеристики одноядерного устройства с его двуядерным последователем, многие потенциальные покупатели задаются вопросом о том, есть ли смысл в покупке GTX TITAN Z, ведь стоимость флагмана по логике должна быть в два раза больше, а не в 5-6 раз.

Возможности для работы с трёхмерной графикой

Большой функционал фирменных технологий NVIDIA способствует тому, что видеоускоритель GeForce GTX TITAN Z пришёлся по душе всем любителям ресурсоёмких динамических игр. Как показывает практика, большинство применённых технологий для профессиональной обработки 3D-графики внедряются и в игровые решения.

  1. Режим сглаживания FXAA и TXAA. Плавная прорисовка линий и сглаживание текстур при частой смене кадров, а также постобработка изображений высокой чёткости в последнее время востребована и в игровых приложениях. Правда, многие пользователи не знают, что по умолчанию данный функционал отключён в видеоадаптере, и его нужно активировать с помощью панели управления NVIDIA.
  2. Программное окружение CUDA. Вытянуть производительность динамического приложения в последнее время помогает графический кристалл. С видеокартой на ядре GTX TITAN Z можно не беспокоиться, что мощности центрального процессора для игры не хватит. Благодаря технологии CUDA система самостоятельно произведёт баланс мощностей.
  3. Движок PhysX. Симуляция физических движений в 3D-приложениях нашла себе применение и в динамических играх. Наряду с поддержкой DirectX 12 владелец получит максимально реалистичную картинку в игре.

Озабоченность производителя NVIDIA

Видеоадаптер на базе чипа TITAN Z, обзор которого производится в данной статье, в своей спецификации имеет ряд требований к системе питания. И, как отмечают многие владельцы в своих отзывах, заявленная спецификация небезосновательна. Речь идёт о мощности блока питания и его технических характеристиках.

В первую очередь пользователь должен рассчитывать на то, что для работы видеокарты система питания будет иметь резерв в 400 Ватт. Соответственно, если принять во внимание, что в системе будет использован самый мощный процессор, большой объём памяти и несколько жестких дисков, блок питания должен иметь мощность не менее 850 Ватт (либо 700 Ватт по стандарту GOLD). Стоит учесть, что для полноценной работы видеокарты блок питания должен иметь две 8-пиновые выделенные линии на 12 Вольт с номинальным током 42 Ампера. Игнорирование спецификации производителя может привести к выходу из строя дорогостоящего видеоадаптера (нарушение подачи питания лишает устройство гарантии).

Знакомство с флагманом

Приобрести референсное устройство в заводском исполнении NVIDIA рядовому пользователю не удастся (даже дистрибьютор компании не в силах предоставить оригинальный видеоадаптер). Поэтому знакомство будет происходить с лидером продаж на отечественном рынке. Видеокарта Asus GeForce GTX TITAN Z, по отзывам продавцов и владельцев данного продукта, занимает первое место по продажам среди аналогичных товаров конкурентов.

У известного тайваньского производителя, видимо, так принято: поставлять свои продукты в обычной коробке из картона с минимальной комплектацией. Мало того, что, помимо самого устройства, драйверов и инструкции по монтажу, в упаковке ничего другого нет, так ещё производитель не соизволил наклеить фирменный логотип Asus на корпус видеокарты. Многие владельцы считают, что известный производитель без каких-либо доработок просто упаковал референсное устройство в коробку и представил продукт на мировом рынке.

Особенности печатной платы Asus GeForce GTX TITAN Z

По сути, разместить на одной печатной плате элементы, которые раньше размещались на двух видеокартах, не так-то просто, как кажется. Тут производителю пришлось немного доработать и улучшить систему питания и размещение важных элементов для работы адаптера:

  • все электролитические конденсаторы были заменены на более дорогие, керамические накопители (причём впаяны они по обе стороны печатной платы);
  • система питания имеет два блока по 5 фаз (каждый блок управляется отдельным контроллером);
  • 48 микросхем памяти Hynix впаяны вокруг графических ядер по обе стороны печатной платы (с такой стоимостью видеокарты производитель мог бы установить более ресурсоёмкие модули).

Система охлаждения флагмана линейки NVIDIA

Видеокарта от компании Asus на базе чипа NVIDIA GeForce GTX TITAN Z претендует занять в корпусе три полноценных слота. Такая объёмность обусловлена увеличенными размерами системы охлаждения. Как и следовало ожидать, производитель обеспечил каждое графическое ядро собственным алюминиевым радиатором, которые связаны между собой тонкой пластиной (хотя, по отзывам пользователей, медные трубки были бы куда более эффективными, как у предыдущих продуктов Asus).

Между радиаторами и устанавливается алюминиевая пластина, которая имеет множество теплопроводных накладок, размещённых напротив всех чипов памяти. Кстати, такая же пластина предусмотрена и для основания печатной платы (обе пластины крепятся по обе стороны видеоплаты и стягиваются специальными винтами). Мощный вентилятор системы охлаждения размещён между испарительными камерами радиаторов. Работает он по принципу турбины, прогоняя воздух по всему периметру платы, от задней части видеокарты, выводя горячий воздух через монтажную решётку.

Тестирование в играх графического ускорителя Asus

Для многих потенциальных покупателей по видеоадаптеру на базе чипа NVIDIA GeForce GTX TITAN Z обзор не так важен, как производительность в динамических играх. Причём синтетические тесты давно уже не интересны многим игрокам, которые желают увидеть потенциал флагмана в реальных условиях. В качестве альтернативы по критерию цена-производительность данному видеоадаптеру вполне подойдёт флагман линейки AMD, ускоритель Radeon R9 295X2.

Довольно странная особенность наблюдается во многих игровых приложениях при установке максимального разрешения экрана (256х1440 точек на дюйм). На высоких настройках в играх Sniper Elite V2, Sleeping Dogs, Crysis 3, Tomb Raider (2013) продукту AMD удаётся удерживать лидирующие позиции с отрывом 20-30 FPS. А вот в приложениях Crysis 3 и Metro Last Light первенство в те же 20-30 FPS переходит к флагману NVIDIA. В целом впечатления от тестирования игр на максимальных настройках носят лишь положительный характер. Это нужно просто увидеть, так как реалистичность картинки невозможно описать в данной статье.

Потенциал к разгону

Идея разгонять флагман на чипе GeForce GTX TITAN Z звучит как-то абсурдно, ведь по логике нужно производить сравнение с чем-то более мощным, иначе смысл самого действия теряется. И всё-таки если речь идёт о самом потенциале и процентном соотношении прироста в синтетических тестах, то можно смело заявить, что видеокарта разгоняется. Правда, при этом резко возрастает энергопотребление, тепловыделение и шум работы вентилятора. И если с потреблением электроэнергии можно справиться установкой мощного блока питания, то для эффективного отвода тепла нужно искать достойную систему охлаждения, так как штатный кулер с работой не справляется (при нагреве до 100 градусов по Цельсию драйвер видеокарты выбрасывает ошибку BSOD и перезагружает компьютер).

В заключение

Обзор характеристик замечательного устройства на базе GeForce GTX TITAN Z явно приводит к мысли, что это самая мощная видеокарта в мире, которая способна справиться с любой существующей нагрузкой как в игровых, так и в графических приложениях. Однако на этом её достоинства и заканчиваются. Очень высокая стоимость даже на вторичном рынке отпугивает от видеоадаптера многих потенциальных покупателей. По логике две видеокарты в режиме SLI на графическом ядре способны показать практически идентичную производительность в разгоне, но покупка на вторичном рынке обойдётся пользователю в 10-15 раз дешевле. Вывод один - данный видеоадаптер всё-таки рекомендуется использовать по прямому назначению производителя NVIDIA - в работе с трёхмерной графикой и файлами видео на высоких разрешениях, а не тратить целое состояние на удовлетворение потребностей в динамических игрушках.