Тестирование NVIDIA GeForce GTX TITAN X в SLI

С момента появления первой видеокарты на архитектуре Maxwell, прошло чуть больше года. И каждый новый анонс от дивизиона «зеленых» сопровождался заголовками об энергоэффективности. Да каждая из карт GTX 750Ti GTX 980 GTX 970,  GTX 960 действительно улучшала этот показатель. При этом производительность росла, но признаться не всегда грандиозными шагами.

Думаю, многие согласятся, что мы давно хотели наконец-то увидеть значительно больший потенциал архитектуры Maxwell, который сможет затмить показатели энергоэффективности и продемонстрировать серьёзную производительность.

Тестирование NVIDIA GeForce GTX TITAN X в SLI

И это время пришло, сегодня в наши руки попал новенький GeForce GTX TITAN X, давайте познакомимся с новинкой поближе. Как заявляет производитель, новинка нацелена на освоение игры в 4K — разрешениях, а так же начинает подбираться к «завтрашнему дню» в виде шлемов виртуальной реальности.

  • Тестирование NVIDIA GeForce GTX TITAN X в SLI
  • Если говорить о самом GPU, который носит кодовое название GM200, то при прямом сравнении с GTX980 мы можем наблюдать 50% увеличение унифицированных шейдерных процессоров, Теперь их 3072 штуки.
  • Тестирование NVIDIA GeForce GTX TITAN X в SLI

Для полноценного раскрытия потенциала в 4К разрешениях производитель установил целых 12 Гбайт видеопамяти, при этом снабдив ее 384-битной шиной, что звучит довольно весомо. Ни каких других, явных изменений относительно, теперь уже более младшей GeForce GTX 980, не наблюдается.

Суммарно в GM200 расположились 244 бока SMM, что в итоге дает 3072 потоковых процессоров CUDA,  192 текстурных блока и 96 растровых модуля. Частотная формула GTX TITAN X находится на отметке в 1000 Мгц, а в режиме Boost до 1075 Мгц.

Отдельно отметим, что GM200 включает в себя восемь миллиардов транзисторов!

Тестирование NVIDIA GeForce GTX TITAN X в SLI

Визуально, новенький TITAN X выглядит немного иначе своих предшественников: радиатор окрашен в черный цвет, его кожух и турбина так же стильно черные. Лишь одна боковая накладка осталось серенькой и не изменила свой цвет.

Тестирование NVIDIA GeForce GTX TITAN X в SLI

Однако, на этом визуальные отличия заканчиваются, с первого взгляда здесь все та же система охлаждения. Габариты «титанчика» тоже идентичны и составляют уже стандартные 267х100х39 миллиметров. Довольно интересно, но на кожухе карты TITAN не имеет X’, a возможно это заклад на будущее…

Тестирование NVIDIA GeForce GTX TITAN X в SLI

Набор видеовыходов тоже не претерпел изменений, здесь три DisplayPort, один HDMI и один DVI. Сочетание хорошее, пожалуй, мы увидим его еще как минимум в одном поколении карт, а возможно и дольше.

Тестирование NVIDIA GeForce GTX TITAN X в SLI

Система охлаждения, как всегда, крепится к плате множеством болтиков, что позволяет равномерно прижимать всю печатную плату к радиатору и исключать возможность ее перегиба. Четыре основных болта, те что закручиваются над областью самого GPU, стали немного другими, теперь они побольше, крепить удобнее.

Тестирование NVIDIA GeForce GTX TITAN X в SLI

Внутреннее строение турбины действительно не имеет отличий от ной в GTX 980. Здесь по-прежнему есть алюминиевый радиатор с испарительной каперов в основании, основные микросхемы так же контактируют с рамкой основания при помощи термпопрокладок. Турбинный вентилятор аналогичный и поддерживает PWM-управление.

Тестирование NVIDIA GeForce GTX TITAN X в SLI

На первый взгляд печатная плата почти не отличается от своих предшественников, но при детальном рассмотрении обнаруживается  некие изменения, которые касаются расположения чипов видеопамяти и элементной базы системы питания.

Для подачи питания используется два разъёма: 6-pin PCI-E + 8-pin PCI-E. Пара коннекторов SLI как всегда на своем законном месте.

Система питания имеет восьмифазную структуру, шесть для GPU и две для MEM, в наличии вернулись транзисторов DrMOS, а за управление отвечает контроллер  NCP81174 от ON Semiconductor.

Тестирование NVIDIA GeForce GTX TITAN X в SLI

Графический чип имеет маркировку GM200-400-A1. Площадь кристалла составляет 601мм2, что после  398мм2 у GTX980 мягко говоря впечатляет. Защитная рамка осталась прежней.

Для набора, не побоюсь этого слова, громадного объема видеопамяти в двенадцать гигабайт  используется двадцать микросхем H5GQ4H24MFR-R2C производства SK Hynix. В этот раз память расположилась аналогично первому титану с обеих сторон.

Обратно я сторона платы не содержит каких-либо защитных кожухов. Как упоминали, на ней содержатся микросхемы памяти и множество SMD-элементов обвязки.

Для тестирования новинки использовался тестовый стенд со следующей конфигурацией, основной целью тестирования являлось изучение разгонного потенциала новинки.

Как и всегда, мы начали тестирование с изучения температурных показателей, в игровых приложениях максимальная температура графического достигла 82°C, при этом обороты системы охлаждения составили 44% от максимальных. На открытом тестовом стенде карта стала слышима. Благодаря технологи GPU Boost 2.0, графический чип работал на частотах вплоть до 1177 Мгц, что однозначно выше заявленных технических характеристик :).

После изучения температурных показателей, мы решили измерить шумовые характеристики на основных точках работы турбины. Измерения проходили с помощью цифрового шумомера, с расстояния ~30см, минимальной границей измерения шума является 30дБ, уровень шума в помещение равняется 32,0-32,3дБ, данные ниже 33,0-33,7дБ можно считать абсолютно бесшумными, погрешность может составлять 1,5-2дБ.

После получения выше обозначенных показателей, мы принялись за разгон видеокарт. Для этого использовалась утилита MSI Afterburner. Параметр Power Limit был увеличен до значения 125%, а Temp Limit пододвинут на отметку в 90°C.

Для обоих обороты вентилятора в ручную зафиксировались на значении 75%. В итоге полученные частоты мы запечатлели на скриншотах :).

Частота графического ядра возросла до 1380 Мгц, так же подросла температура до 84°C, а обороты кулера были уже на отметке в 58%.

Дальше интереснее, на TITAN X была произведена установка водяного охлаждения Обзор ARCTIC Accelero Hybrid II , о процессе установки и использования данной системы вы можете прочесть вот этот материал. После этого нам удалось снизить температуру на пару десятков градусов и перейти на частоты в 1440 Мгц, признаться честно, мы ожидали более значительного прироста.

После этого, я решил вспомнить былые оверклокерские приемы, на подопытную был установлен ватерблок EK-Thermosphere, а контур был подключен к водопроводу.

Конечно, при таких условиях появилась возможность увеличить значения теплового пакета и немного подкрутить «напругу» для графического ядра.

Спустя несколько часов поиска максимальных частот удалось добиться прохождения тестовых пакетов на частоте в 1590 Мгц! На момент тестирования удалось добиться интересных результатов в рамках HWBOT.

  1. Конечно же, мы провели тестирование TITAN X в игровых пакетах, но сегодня, покажем вам масштабирование результатов полученных при разгоне карты, для этого будет использоваться тестовый пакет Unigine Heaven Benchmark.

Итак, на текущий момент GeForce GTX TITAN X как и его предшественник TITAN в свое время, является неким шагом вперед, который компания NVIDIA делает не оглядываясь на своих конкурентов. При этом шаге, отрыв от своего же флагмана составляет почти 20% в разрешении Full HD, конечно, при увеличении разрешения отрыв будет только увеличиваться, но в данном случае это тема другой статьи.

Однозначно буду прав если назову TITAN X самой быстрой одночиповой видеокартой на данный момент. Конечно, осведомленный читатель скажет: производительность производительностью, а что же делать с ценой? Этот момент мы будем оценивать при  наличии конкурента от AMD, а сейчас «тысячабаксов» дает возможность начать использовать игровой мир 4К-разрещений.

В части разгона, который сегодня был осуществлен на различных типах охлаждения, мы пронаблюдали хорошую масштабируемость.

Однако, наибольший скачок производительности происходит именно при штатном охлаждении «без лишних усилий», далее даже леденящая вода в контуре СВО не дает повторить такой же результат.

Похоже, что в случае с TITAN X установка системы водяного охлаждения будет направленна именно на борьбу с шумом, нежели на преодоление следующей частотной планки…

Статья: Обзор и тестирование видеокарты NVIDIA GeForce GTX 1080 Ti

NVIDIA применяет эту стратегию не в первый раз: когда происходит очередная смена техпроцесса или архитектуры графических процессоров, верхнюю позицию в новой линейке геймерских видеокарт какое-то время занимает устройство на чипе второго эшелона.

Флагманский GPU сперва появляется в составе просьюмерского ускорителя под маркой TITAN, а затем, с теми или иными потерями вычислительных блоков и функций, доходит и до игровых моделей.

Однако различия в технических характеристиках между очередным TITAN и очередным GeForce X80 Ti в каждом поколении видеокарт уникальны. 

В эпоху Kepler, которая породила первый «Титан» четыре года тому назад, GeForce GTX 780 Ti и GTX TITAN Black были меньше всего похожи друг на друга.

Помимо существенной разницы в наборе вычислительных блоков, игровая видеокарта получила вдвое меньше оперативной памяти и в восемь раз медленнее выполняла расчеты двойной точности (FP64).

На базе архитектуры Maxwell NVIDIA уже не стала выпускать процессор, охватывающий одновременно графические задачи и вычисления двойной точности, поэтому GTX 980 Ti отличается от GeForce GTX TITAN X лишь объемом RAM и обладает практически эквивалентной производительностью.

С приходом Pascal, впервые в своей истории, NVIDIA разделила GPU высшего эшелона на профессиональную и игровую категории. Переход на технологию 16 нм FinFET позволил выпустить процессор с беспрецедентным числом вычислительных блоков и уровнем быстродействия — GP100.

Однако последний применяется лишь в ускорителях Quadro и Tesla и вероятность увидеть его под маркой GeForce стремится к нулю.

Альтернативный вариант «большого ядра», GP102, лишен архитектурных элементов и функций, важных для вычислительных задач, но вместе с тем не уступает GP100 в пропускной способности операций FP32, которые лежат в основе шейдерного кода 3D-приложений.

GP102 уже проявил себя в составе обновленного TITAN X, который, в не меньшей степени, чем игровой видеокартой, является ускорителем вычислений, приоритетом среди которых на этот раз стало применение моделей ИИ, созданных методом глубинного обучения (inference). Но глядя на TITAN X, предсказать, каким окажется GTX 1080 Ti, было не так-то просто. 

Дело в том, что NVIDIA не оставила себе большого пространства для маневра между GTX 1080 и TITAN X.

Если судить по пиковой пропускной способности операций FP32 (что, разумеется, не является исчерпывающей характеристикой GPU), TITAN X лишь на 24% превосходит GeForce GTX 1080, в то время как разница между GTX 980 и GeForce GTX TITAN X по этому параметру составляла 35%.

Если бы в поколении Pascal разработчики решили сколь-либо существенно сократить вычислительные ресурсы TITAN X, у NVIDIA получился бы довольно неубедительный флагман игровой линейки. 

Читайте также:  Computex 2010: концепт Acer eBook на базе чипсета Qualcomm MSM7227

Тестирование NVIDIA GeForce GTX TITAN X в SLI

С другой стороны, в TITAN X ни частотный потенциал, ни набор функциональных блоков GP102 не раскрыты полностью, поэтому GeForce GTX 1080 Ti вполне мог отказаться быстрее, чем TITAN X, ведь NVIDIA когда-то поступила точно так же с GeForce GTX 780 Ti и первым TITAN.

А в результате случилось нечто неожиданное: GeForce GTX 1080 Ti действительно урезали блоки GPU по сравнению с TITAN X, однако не те блоки, которых это обычно касается. Вместе с тем, пиковая производительность GTX 1080 Ti, по крайней мере на бумаге, выше.

Более того, у игровой видеокарты есть и другие, уже не столь очевидные, преимущества.

GPU

Кристалл GP102, произведенный по норме 16 нм FinFET на мощностях TSMC, содержит 12 млрд транзисторов на площади 471 мм2. Параметры следующего по рангу чипа в линейке Pascal, GP104, намного скромнее — 7,2 млрд транзисторов и 314 мм2.

Однако структура вычислительных блоков GP102 повторяет таковую у чипа GP104, с учетом количественных изменений на высшем уровне архитектуры, так что весь дополнительный транзисторный бюджет в GP102 пошел на увеличение быстродействия в графике и иных вычислениях, опирающихся на формат данных FP32.

Отдельной взятый SM (Streaming Multiprocessor) в GP102 и GP104 содержит 128 ядер CUDA для операций FP32, четыре FP64-совместимых ядра и одно ядро, способное выполнять две инструкции FP16 одновременно. Кроме того, в SM входят 40 блоков наложения текстур, 96 Кбайт разделяемой памяти и 48 Кбайт кеша L1.

Всего GP102 содержит 30 блоков SM, которые в сумме дают конфигурацию из 3840 ядер CUDA одинарной точности и 240 текстурников. Back-end конвейера представлен двенадцатью 32-битными контроллерами памяти GDDR5/5X (384-битная шина), с каждым из которых ассоциированы 8 ROP и секция в кеша L2 объемом 256 Кбайт (3072 Кбайт на весь GPU).

Тестирование NVIDIA GeForce GTX TITAN X в SLI

Блок-схема NVIDIA GP102 в GeForce GTX 1080 Ti

По поводу отличий архитектуры Pascal от Maxwell, рекомендуем обратиться к нашему обзору GeForce GTX 1080. В этой итерации разработчики развили достоинства предыдущего поколения и компенсировали присущие ему недостатки. Кратко перечислим наиболее существенные изменения:

  • улучшенная компрессия цвета с соотношениями вплоть до 8:1;
  • функция Simultaneous Multi-Projection геометрического движка PolyMorph Engine, позволяющая за один проход создавать вплоть до 16 проекций геометрии сцены (для VR и систем с несколькими дисплеями в конфигурации NVIDIA Surround);
  • возможность прерывания (preemption) в процессе исполнения draw call (при рендеринге) и потока команд (при вычислениях), которая вместе с динамическим распределением вычислительных ресурсов GPU обеспечивает полноценную поддержку асинхронных вычислений (Async Compute) — дополнительного источника быстродействия в играх под API DirectX 12 и сниженной латентности в VR;
  • контроллер дисплея, совместимый с интерфейсами DisplayPort 1.3/1.4 и HDMI 2.b. Поддержка высокого динамического диапазона (HDR);
  • шина SLI с повышенной пропускной способностью.

⇡#Технические характеристики, цены

Как и TITAN X, GTX 1080 Ti не располагает полностью функциональной версией графического процессора. Производитель заблокировал два из 30 SM в GPU обеих видеокарт.

Таким образом, front-end чипа и, следовательно, теоретическая пропускная способность в операциях за такт в GTX 1080 Ti ничуть не пострадали по сравнению с TITAN X. Однако в GTX 1080 Ti отключен один из 12 контроллеров RAM, а вместе с ним — 8 ROP и секция кеша L2.

Как следствие, шина памяти GPU уменьшилась с 384 до 352 бит и видеокарта оснащается лишь 11 вместо 12 Гбайт GDDR5X.

Тем не менее, GTX 1080 Ti отыграл потерянную пропускную способность RAM за счет увеличенной частоты шины — с 10 000 до 11 000 Мбит/с на контакт. Кроме того, NVIDIA подняла частоты GPU: базовую на 63 МГц и Boost Clock — на 51 МГц. Таким образом, единственным параметром, который дифференцирует GTX 1080 Ti от TITAN X в рендеринге графики, остается объем L2.

А что насчет вычислительных задач? Здесь, в отличие от игр, может возникнуть такая ситуация, когда дополнительный Гбайт RAM имеет значение. Удивительно другое: NVIDIA нисколько не ограничила скорость работы GTX 1080 Ti с различными форматами данных.

GP102 и без того не подходит для «боевых» расчетов на основе данных FP64 и FP16 (скорость исполнения на уровне 1/32 и 1/64 от FP32), зато как TITAN X, так и GTX 1080 Ti выполняют за такт вчетверо больше операций int8 по сравнению с FP32.

До появления GTX 1080 Ti только TITAN X в линейке NVIDIA поддерживал int8 — инструкции, применяемые для обработки данных моделями глубинного обучения.

Производитель
NVIDIA
Модель GeForce GTX 980 Ti GeForce GTX TITAN X GeForce GTX 1080 GeForce GTX 1080 Ti TITAN X
Графический процессор
Название GM200 GM200 GP104 GP102 GP102
Микроархитектура Maxwell Maxwell Pascal Pascal Pascal
Техпроцесс, нм 28 нм 28 нм 16 нм FinFET 16 нм FinFET 16 нм FinFET
Число транзисторов, млн 8 000 8 000 7 200 12 000 12 000
Тактовая частота, МГц: Base Clock / Boost Clock 1 000 / 1 076 1 000 / 1 089 1 607 / 1 733 1 480 / 1582 1 417 / 1531
Число шейдерных ALU 2 816 3 072 2 560 3 584 3 584
Число блоков наложения текстур 176 192 160 224 224
Число ROP 96 96 64 88 96
Оперативная память
Разрядность шины, бит 384 384 256 352 384
Тип микросхем GDDR5 SDRAM GDDR5 SDRAM GDDR5X SDRAM GDDR5X SDRAM GDDR5X SDRAM
Тактовая частота, МГц (пропускная способность на контакт, Мбит/с) 1 753 (7 012) 1 753 (7 012) 1 250 (10 000) 1 376,25 (11 010) 1 250 (10 000)
Объем, Мбайт 6 144 12 288 8 192 11 264 12 288
Шина ввода/вывода PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16
Производительность
Пиковая производительность FP32, GFLOPS (из расчета максимальной указанной частоты) 6 060 6 691 8 873 11 340 10 974
Производительность FP32/FP64 1/32 1/32 1/32 1/32 1/32
Пропускная способность оперативной памяти, Гбайт/с 336 336 320 484 480
Вывод изображения
Интерфейсы вывода изображения DL DVI-I, DisplayPort 1.2, HDMI 1.4a DL DVI-I, DisplayPort 1.2, HDMI 1.4a DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b
TDP, Вт 250 250 180 250 250
Рекомендованная розничная цена (США, без налога), $ 649 (на момент выхода) 999 (на момент выхода) На момент выхода: 599 / 699 (FE) Новая цена: 499 / 549 (FE) 699 1 200
Рекомендованная розничная цена (Россия), руб. 39 990 (на момент выхода) 74 900 (на момент выхода) На момент выхода: 54 990 (FE) Новая цена: 45 790 (FE) 52 990 (FE) 89 990

GTX 1080 Ti и TITAN X разделяет довольно зыбкая граница, и это, с одной стороны, хорошая новость для энтузиастов, которые решили повременить с апгрейдом старой видеокарты на Pascal в ожидании топового ускорителя. С другой стороны, высокая производительность отражается на цене видеокарты.

GTX 1080 Ti стал третьим однопроцессорным GeForce после GTX 780 Ti и GTX 1080 Founders Edition, достигшим отметки $699. Цена в российском онлайн-магазине компании составляет 52 990 руб.

Кроме того, NVIDIA на этот раз не делает различий между видеокартой референсного дизайна (Founders Edition) и партнерскими образцами, которые появятся позже и получат точно такой же рекомендованный ценник.

Вместе с тем, NVIDIA сделала более доступными GeForce GTX 1070 и GTX 1080. На момент выхода последние были оценены в $379/449 и $599/699 (партнерские карты и Founders Edition соответственно), а теперь продаются за $349/399 и $499/549. Российские цены видеокарт на сайте NVIDIA снизились с 34 990 54 990 до 31 590 и 45 790 руб.

Вместе с тем, NVIDIA объявила, что производители видеокарт получат возможность оснащать свои версии GeForce GTX 1060 и GTX 1080 более скоростными чипами GDDR5/5X: 9 вместо 8 Гбит/с для GTX 1060 и 11 вместо 10 Гбит/с — для GTX 1080.

Референсные спецификации моделей при этом остались неизменными, просто у партнеров, закупающих у NVIDIA чипы памяти вместе с GPU для установки на собственные платы, появился выбор.

Судя по тому, как редко мы видим на видеокартах оригинального дизайна микросхемы RAM, отличные от тех, которыми оснащаются референсные ускорители, такой ход NVIDIA действительно может сделать заводской разгон видеопамяти более распространенным явлением.

⇡#Конструкция

Поскольку предтечей GeForce GTX 1080 Ti является TITAN X, не удивительно, что различия в облике видеокарт минимальны. GTX 1080 Ti отличается от полностью черного «Титана» стандартно-серебристым цветом кожуха, а внутри — точно такой же радиатор с испарительной камерой и вентилятор радиального типа.

Эта конструкция хорошо зарекомендовала себя еще во времена первого TITAN и GeForce GTX 780/780 Ti. Обладая выдающимися акустическими характеристиками для данного типа системы охлаждения, референсные видеокарты NVIDIA выделяются среди партнерских устройств, т.к.

последние практически всегда оснащаются кулером открытой конструкции. При этом закрытая «турбинка» остается лучшим вариантом для компактных ПК, где важно, чтобы видеокарта выбрасывала большую часть воздуха наружу.

Кроме того, референсный кулер гарантирует охлаждение микросхем памяти и множества других горячих точек платы за счет массивного алюминиевого основания .

Начиная с GeForce GTX 1080, видеокарты NVIDIA, совместимые с режимом SLI, позволяют удалить часть металлической пластины, которой покрыта обратная сторона печатной платы, чтобы воздух свободно проникал к системе охлаждения соседней видеокарты.

Тестирование NVIDIA GeForce GTX TITAN X в SLI

Тестирование NVIDIA GeForce GTX TITAN X в SLI

Несмотря общую с TITAN X конструкцию системы охлаждения, у GTX 1080 Ti есть одна очевидная особенность: NVIDIA удалила порт DL-DVI с внешней панели видеокарты. Весь набор выходов, который остался на GTX 1080 Ti, ограничивается тремя разъемами DisplayPort 1.3/1.4 и одним HDMI 2.0b.

Зато вся половина пластины теперь задействована для вывода горячего воздуха за пределы корпуса ПК, что должно положительно сказаться на эффективности охлаждения.

Читайте также:  Смартфоны — лучшие новинки мая 2017 года

Для тех, кто все еще пользуется монитором без разъемов DisplayPort или HDMI, NVIDIA прилагает к GeForce GTX 1080 Ti Founders Edition переходник с интерфейса DP на DVI.

Тестирование NVIDIA GeForce GTX TITAN X в SLI

⇡#Плата

Как и система охлаждения, оснастка печатной платы GeForce GTX 1080 Ti не только не ухудшилась по сравнению с TITAN X, но и стала лучше.

Повышенная пропускная способность оперативной памяти в GTX 1080 Ti достигнута за счет новых чипов Micron (маркировка MT58K256M321JA-110), для которых эффективная частота 11 Гбайт/с является штатной.

К слову, в каталоге Micron есть и память GDDR5X с частотой 12 Гбайт/с, но, выбрав наиболее скоростные чипы, NVIDIA, вероятно, пришлось бы исчерпать резерв надежности контроллеров RAM в составе GPU.

Тестирование NVIDIA GeForce GTX TITAN X в SLI

Что остается неизменным в преобразователе напряжения видеокарт NVIDIA, так это ШИМ-контроллер uP9511 от uPI Semiconductor, который на GTX 1080 Ti обслуживает максимальное для своих возможностей число фаз — семь, все из которых принадлежат схеме питания GPU.

Две фазы чипов GDDR5X управляются контроллером uP1685. Однако и в силовой части платы есть изменения.

NVIDIA поместила на печатную плату ряд элементов, которые отсутствовали в TITAN X, в первую очередь — удвоила все полевые транзисторы в «фазах» питания GPU, что должно положительно отразиться на КПД преобразователя.

Тестирование NVIDIA GeForce GTX TITAN X в SLI

Тестирование NVIDIA GeForce GTX TITAN X в SLI

Обзор видеокарты NVIDIA GeForce GTX Titan X: Новый король графики

Brad Chacos. NVIDIA GeForce GTX Titan X Hail to the new GPU king. PCWorld

Прежде чем переходить к характеристикам производительности этого продукта, давайте обсудим его конструктивные особенности.

Представители компании не стали глубоко погружаться в этот вопрос, заметив лишь, что графическая плата содержит 8 млрд транзисторов и имеет 12 Гбайт памяти.

Огромный объем памяти заставил некоторых поверить в то, что Titan X, подобно AMD Radeon R9 295×2 и собственной плате NVIDIA Titan Z, имеет два графических процессора. На самом деле, ничего подобного.

Сердцем Titan X является совершенно новый графический процессор GM200, изготовленный по 28-нм технологии. По сути, это ближайший родственник чипа GM204, на базе которого созданы платы GTX 980 и 970.

Поскольку плата построена на основе архитектуры Big Maxwell, а не нового чипа GM206, интегрированного в GTX 960, Titan X недостает присущих GTX 960 возможностей декодирования H.265 и совместимости с HDCP 2.2. Однако с кодированием H.

265 GM200 вполне может справиться.

Построенная, как и ее собратья 900-й серии, на базе энергоэффективной архитектуры Maxwell, плата Titan X имеет 3072 ядра CUDA (GTX 980 оснащена 2048 ядрами) и 192 текстурных блока. Ее номинальная тактовая частота составляет 1000 МГц, к тому же она может разгоняться до 1075 МГц.

Тестирование NVIDIA GeForce GTX TITAN X в SLI

Сердцем графической платы NVIDIA Titan X является новый процессор GM200, изготовленный по 28-нм технологии

Плата оснащена графической памятью объемом 12 Гбайт, обеспечивающей передачу данных на скорости 7 Гбит/с (как и графические платы GTX 900-й серии), и 384-разрядной шиной. В графических процессорах AMD Radeon старшего класса используется 512-разрядная шина, но скорость обмена не превышает 5 Гбит/с.

Плата заключена в черный алюминиевый корпус и оснащена тремя разъемами DisplayPort, одним портом HDMI 2.0 и двухканальным портом DVI. Устройство потребляет 275 Вт, питание подается через 8-контактный и 6-контактный разъемы.

Titan X имеет традиционный двухслотовый типоразмер. В отличие от выбранной нами в качестве эталона NVIDIA GTX 980, у нее нет защитной пластины.

Сделано это, по-видимому, для облегчения циркуляции воздушных потоков и лучшего охлаждения конфигураций, состоящих из нескольких плат.

Тестирование NVIDIA GeForce GTX TITAN X в SLI

Отвод тепла от графического процессора TITAN X GM200 осуществляется с помощью медной испарительной камеры и алюминиевого радиатора. Вентилятор перемещает горячий воздух в заднюю часть платы и затем выводит его за пределы корпуса ПК.

Тестирование NVIDIA GeForce GTX TITAN X в SLI
За защитным кожухом Titan X скрываются массивный радиатор и вентилятор

Плата работает очень тихо даже при большой нагрузке. При выполнении требовательных к ресурсам тестов шум вентилятора видеоплаты легко спутать с шелестом корпусных вентиляторов. И это очень важно, поскольку все платы Titan X оснащают только стандартными вентиляторами — других вариантов производители плат не предлагают.

В NVIDIA утверждают, что по разгону Titan X не знает себе равных — во внутренних тестах плату удалось разогнать до 1,4 ГГц.

Убедиться в этом мне не удалось из-за ограничений во времени, но до сих пор все платы с архитектурой Maxwell демонстрировали прекрасный разгон, и у меня нет оснований сомневаться в правдивости прозвучавших заявлений.

Titan X поддерживает те же программные возможности, что и GTX 980 и 970, включая функцию Voxel Global Illumination (VXGI), позволяющую разработчикам улучшать динамическое освещение без снижения производительности, и VR Direct для игр виртуальной реальности.

Поддерживается в полной мере и впечатляющая технология NVIDIA Multi-Frame-Sampled Anti-aliasing (MFAA), которая, подобно традиционной MSAA, сглаживает зазубренные края объектов, но при этом минимально влияет на производительность.

MFAA, которая совместима со всеми играми для DirectX 10 и DX11, поддерживающими MSAA, зачастую обеспечивает довольно существенное увеличение частоты кадров.

Это всегда полезно, особенно же заметна разница в сравнении с постоянными замираниями при выборе других вариантов в разрешении 4K.

Если вы используете технологии NVIDIA GeForce для автоматической оптимизации игр, MFAA заменит MSAA по умолчанию.

Оценка производительности

Зачем Titan X оснастили таким огромным объемом памяти? Откровенно говоря, буфер емкостью 12 Гбайт значительно превосходит все потребности современных игр, но он помогает создать задел на будущее и подчеркнуть одно из главных достоинств Titan X — возможность играть в игры со сверхвысоким разрешением. Увеличение разрешения требует больше памяти, особенно в случае применения функций антиалиасинга для сглаживания зазубренных краев.

Titan X — первая видеоплата, позволяющая воспроизводить игры с разрешением 4K и высоким качеством без скатывания частоты кадров до уровня, при котором видео превращается в слайд-шоу.

Однако следует отметить, что детализация при этом не сверхвысокая, а просто высокая. Кроме того, во многих случаях частота до 60 кадр/с также не дотягивает. Но вы сможете играть в большинство игр с вполне приемлемым уровнем качества, особенно при включении режима MFAA и наличии совместимого с G-Sync монитора.

Вместе с Titan X компания NVIDIA направила нам для тестирования и панель G-Sync — превосходный игровой монитор Acer XB280HK с разрешением 3840×2160 точек. Нетрудно догадаться, почему.

При подключении совместимого монитора технология NVIDIA G-Sync обеспечивает синхронизацию частоты кадров графической платы и дисплея, благодаря чему торможения и прочие искажения практически исчезают.

(В ближайшем будущем производители мониторов обещают представить продукты, поддерживающие конкурирующую технологию AMD FreeSync.)

Довольно сложно получить полное представление о технологии только из ее описания. Но G-Sync действительно делает игры гораздо лучше. А при наличии Titan X и разрешении 4K можно вообще не беспокоиться о том, что частота не дотягивает до 60 кадр/с.

Кстати, во время тестирования я отключил G-Sync и MFAA, чтобы опустить Titan X на уровень плат Radeon. В сравнительных тестах мы задействовали платы AMD и NVIDIA старшего потребительского класса — R9 290X и GTX 980 соответственно, а также две платы 980 в режиме SLI, двухпроцессорную плату AMD Radeon R9 295×2 и, конечно, оригинальную Titan.

Тестирование NVIDIA GeForce GTX TITAN X в SLI
Снимок с экрана при разрешении 4K в тесте Metro: Last Light

Большинство рядовых пользователей, конечно, не в состоянии помнить спецификации графических процессоров (в отличие от баскетбольной статистики за последние 64 года), поэтому мы свели все в таблицу. Плата Radeon R9 295×2 в нее не попала, но, по сути, она представляет собой два продукта 290X, объединенных в рамках одной конструкции.

  • Тестирование NVIDIA GeForce GTX TITAN X в SLI
  • Интересная особенность: R9 290X отказывается нормально взаимодействовать с мониторами G-Sync, на экране мы видим постоянное мерцание. Все наши тесты выполнялись на компьютере следующей конфигурации:
  • • Процессор Intel Core i7-5960X с системой жидкостного охлаждения замкнутого контура Corsair Hydro Series H100i.
  • • Системная плата Asus X99 Deluxe.
  • • Оперативная память Corsair Vengeance LPX DDR4, корпус Full Tower Obsidian 750D, блок питания AX1200i мощностью 1200 Вт.
  • • Твердотельный накопитель Intel 730-й серии емкостью 480 Гбайт (мне очень нравится и его коробка с изображением черепа и логотипом производителя).

• Windows 8.1 Pro.

Начать мы решили с Middle-earth: Shadow of Mordor. Критики встретили ее без особых восторгов, однако в 2014 г. Shadow of Mordor получила немало премий за свою систему Nemesis. При наличии же пакета Ultra HD Texture современные графические платы получают дополнительную фору.

Не рекомендуется устанавливать этот пакет на платы, имеющие менее 6 Гбайт памяти, хотя на многих из них он работает вполне нормально.

Игра тестировалась при настройках качества Medium и High, после чего мы вернули текстуру Ultra HD и вручную вывели каждый из графических параметров на максимальный уровень (настройки Ultra в игре Shadow of Mordor такого не позволяют).

На двухпроцессорной плате Radeon R9 295×2 запустить игру в этом режиме мне так и не удалось. При максимальных настройках запуск всякий раз завершался аварийно. Попытки исправить ситуацию успехом не увенчались.

Игра Sniper Elite III вышла в середине 2014 г. К графическим компонентам она предъявляет не самые высокие требования, но хорошо масштабируется при различных экранных разрешениях. Ее вполне можно считать альтернативой Shadow of Mordor (ориентированной на графические платы NVIDIA) для AMD Gaming Evolved. Да и отстреливать нацистов в замедленном темпе довольно забавно.

Идем далее, Sleeping Dogs: Definitive Edition. С недавним обновлением отличной игры Sleeping Dogs графическим платам справиться весьма непросто. Даже самые мощные однопроцессорные платы при разрешении 4K или 2560×1600 точек до 60 кадр/с здесь не дотягивали.

В обновленной версии Metro Last Light Redux появилась поддержка 4A Engine. Игра великолепна, она доставляет истинное удовольствие. Мы тестировали ее при отключенном режиме SSAA, поскольку частота кадров в этом случае падала примерно вдвое.

Alien Isolation — наиболее удачный вариант «Чужого» с момента выхода оригинального фильма Ридли Скотта. Игра отлично масштабируется на любом оборудовании, но особенно хорошо выглядит при разрешении 4K.

Как ни странно, с обычной для наших тестов утилитой Bioshock Infinite при разрешении 4K нам совладать не удалось, хотя сама игра в этом разрешении запускалась вполне нормально.

Читайте также:  Поставки новых энергоэффективных процессоров AMD начнутся на следующей неделе

Системы прошли испытания и на двух специальных тестовых инструментах: 3DMark Fire Strike и Unigine Valley. И в том, и в другом случае на машинах выполняются лишь синтетические тесты, но, в целом, они пользуются хорошей репутацией.

И наконец, коснемся вопросов энергопотребления и температурных параметров. Для их оценки мы запустили на 15 мин нагрузочный тест Furmark, регистрируя температуру графического процессора с помощью SpeedFan. Полное энергопотребление ПК измерялось счетчиком Watts Up в процессе выполнения теста Furmark.

Температура всех плат NVIDIA оказалась выше, чем у Radeon R9 295×2 с жидкостным охлаждением замкнутого контура, однако особого шума или снижения производительности при этом не наблюдалось. А в том, что с таким кулером Radeon R9 290X вырвалась в лидеры, нет ничего удивительного.

Окончательный вердикт

Утверждения NVIDIA вполне справедливы: однопроцессорные графические платы не превосходят по мощности Titan X. Сейчас этот продукт вне конкуренции.

Titan X действительно является первой однопроцессорной графической платой, способной воспроизводить игры с разрешением 4K и приемлемыми уровнем детализации и частотой кадров.

Причем при включении режима MFAA ее мощь еще более возрастает, особенно если у вас имеется монитор G-Sync.

Но это вовсе не означает, что плата Titan X подходит всем и каждому.

Если вы ищете дорогую графическую плату, то первоочередную роль, очевидно, играет ее чистая вычислительная мощность. А по абсолютной вычислительной мощности и Radeon R9 295×2, и две платы GTX 980s в конфигурации SLI превосходят Titan X. И если пара плат 980 по цене примерно аналогична Titan X (1100 долл. против 1000 долл.

), то 295×2 стоит значительно дешевле. Ее розничная цена начинается от 700 долл., а со скидками выходит и того меньше. Мониторы, поддерживающие технологию AMD FreeSync, очевидно, также будут стоить дешевле конкурирующих дисплеев G-Sync.

Дело в том, что G-Syc нужен дополнительный дорогостоящий аппаратный модуль, тогда как FreeSync работает через обычный порт DisplayPort 1.2a.

Но!

Двухпроцессорные решения тоже требуют компромиссов. Во-первых, они занимают много дополнительного пространства — две полноразмерные платы в случае использования GeForce 980 в конфигурации SLI или длинная и массивная плата AMD 295×2 с объемной системой жидкостного охлаждения уместятся далеко не в каждом корпусе.

Драйверы и средства оптимизации для многопроцессорных решений появляются не так часто и работают нестабильно, в чем мы еще раз могли убедиться при безуспешных попытках запустить Shadow of Mordor на 295×2.

(Ранее компания NVIDIA выступила с инициативой обеспечивать поддержку SLI ведущими играми в уже в момент их выпуска, но разработчики второго эшелона ничего на этот счет не обещают.)

Если вас не смущает цена, Titan X станет хорошим выбором, а кадровый буфер объемом 12 Гбайт создает необходимые условия для ее успешного вхождения в эпоху 4K.

Однопроцессорные графические платы требуют меньше пространства для установки, чем двупроцессорные решения. Плата Titan X, например, вполне может разместиться в относительно небольшом корпусе, что совершенно невозможно в случае с Radeon 295×2 или с двумя платами 980. Двупроцессорные решения потребляют больше электроэнергии и выделяют больше тепла.

Поэтому мы рекомендуем отдать предпочтение как можно более мощной однопроцессорной плате. И если вас не смущает цена, Titan X станет хорошим выбором, а буфер объемом 12 Гбайт создает необходимые условия для ее успешного вхождения в эпоху 4K. Да здравствует новый король! (Впрочем, уже вскоре новое поколение плат AMD наверняка заявит о своих претензиях на лидерство.)

Если же у вас денег куры не клюют и вас не пугают многопроцессорные конфигурации, можете попробовать установить сразу две платы Titan X в режиме SLI и получить поистине колоссальную вычислительную мощность. Но лично я боюсь даже подумать об этом.

  1. NVIDIA GeForce GTX Titan X
  2. Достоинства:
  3. • невероятно высокая производительность в играх;
  4. • возможность воспроизведения игр при разрешении 4K с высоким уровнем детализации;
  5. • тихая, относительно холодная, легко разгоняется.
  6. Недостатки:
  7. • 99% любителей игр не могут себе ее позволить.
  8. Выводы

В настоящее время NVIDIA GeForce GTX Titan X является самой быстрой однопроцессорной графической платой в мире. Впервые у пользователей появилась возможность играть при разрешении 4K, не прибегая к многопроцессорным конфигурациям.

Тестирование NVIDIA GeForce GTX TITAN X в SLI

NVIDIA GTX TITAN X

Наименование: NVIDIA GTX TITAN X
Серия: GeForce 900
Архитектура GPU: Maxwell
Модель GPU: GM200-400
Ядер CUDA: 3072
Базовая тактовая частота (Boost): 1000 MHz (1075 MHz)
Быстродействие памяти: 7
Гбит/с
Память: 12
Gb GDDR5 (384-bit)

Тестирование NVIDIA GeForce GTX TITAN X в SLI

Видеокарта NVIDIA GTX TITAN X создана на основе 28 nm техпроцесса и основанная на графическом процессоре GM200-400.
Карта поддерживает Directx 12 API. NVIDIA разместила 12288 мегабайт оперативной памяти GDDR5, которая подключена с использованием 384-bit интерфейса.
Графический процессор работает на частоте 1000 MHz, которую можно повысить до 1075 MHz. Количество ядер CUDA составляет 3072, с быстродействием 7000 Мбит/с и пропускной способностью 336.5 Гбит/с.

Энергопотребление видеокарты составляет 250 Вт, а рекомендуемый блок питания на 600 Вт.

NVIDIA GTX TITAN X поддерживает Microsoft DirectX 12 API и OpenGL 4.5.

Характеристики GPU:
Модель: NVIDIA GTX TITAN X
Серия: GeForce 900, TITAN
Модель GPU: GM200-400
Архитектура: Maxwell
Техпроцесс: 28 nm
Ядер CUDA: 3072
Графических процессоров (GPC): 5
Потоковых мультипроцессоров (SMs): 24
Текстурных блоков (TMUs): 192
Базовая тактовая частота: 1000 MHz
Тактовая частота с ускорением (Boost): 1075 MHz (+75 MHz)
Количество транзисторов: 8 миллиардов
Характеристики памяти:
Объем памяти: 12
Gb
Тип памяти: GDDR5
Шина памяти: 384-bit
Быстродействие памяти: 7000 Мбит/с (7
Гбит/с)
Пропускная способность: 336.5 Gbps
Скорость заполнения текстур: 192 GTexel/s
Поддержка дисплеев:
Максимальное цифровое разрешение: 5120×3200@60Гц DisplayPort
Поддержка 4K: Да
Максимальное VGA разрешение: 2048×1536
Стандартные разъемы: Dual Link DVI-I, HDMI 2.0, 3x DisplayPort 1.2
Поддержка нескольких мониторов: Да, до 4-х мониторов
HDCP: Да
HDMI: Да
Аудио вход для HDMI: Internal
Тепловые характеристики:
Максимальная температура GPU: 91 ℃
Потребление энергии (TDP): 250 Вт
Рекомендованные требования по питанию: 600 Вт
Дополнительные разъемы питания: 6-pin + 8-pin
Размеры видеокарты:
Высота: 11,11 см
Длина: 26,67 см
Ширина: 2 слота
Технологии и возможности:
CUDA: Да
Поддержка VR: Да
Ansel: Да
SLI: Да, 4-way
G-Sync: Да
V-Sync: Да
PhysX: Да
3D Vision: Да
3D игры: Да
GameStream: Да
Surround: Да
ShadowPlay: Да
GameWorks: Да
DSR: Да
GPU Boost: 2.0
DirectX: 12 API
Vulkan API: Да
OpenGL: 4.5
Шина: PCIe 3.0
Поддержка ОС: Microsoft Windows 7-10, Linux, FreeBSDx86

Обратите внимание: в таблице представлены эталонные характеристики видеокарты, они могут отличаться у разных производителей.

Операционная система: Windows 7 64-bit, Windows 8 64-bit

Название драйвера: GeForce Game Ready Driver

Тип драйвера:

Графический драйвер

Версия драйвера:

472.12 WHQL — Официальный драйвер
Язык драйвера: Русский

Операционная система:

GeForce® GTX™ TITAN X – самая мощная видеокарта, а почему многие говорят что GTX 980 лучше? или TITAN для работы ?

Дмитрий Просветленный (32518) 7 лет назад

титан Х как две 980 примерно, а школьникам вбили в голову что он для работы, а в играх сосет, не обращай внимание на них))

@mail.ruЗнаток (331) 6 лет назад

полностью поддерживаю, играю на gtx titan x на плазме в разрешении 5120×3200 HD на ультра настройках графики, не одна карта 900 серии, не потянет такое разрешение в 4K кфг карты 12GB GDDR5 384BIT от GIGABAYTE

@mail.ruЗнаток (331) 6 лет назад

на 980 TI можно поиграть на высоком разрешении HD 5120X3200 только с отключенным сглаживанием или нвидиа physx, до титана им далеко (хотя многие тесты показывают что в чем то обгоняют титан), лучше проверьте это на практике, да! карта очень дорогая можно собрать игровой пк, я брал себе титан на ближайшие 5-7 лет

Дима Мухометзянов Мудрец (13170) 7 лет назад Итак, перед нами быстрая, умеренно шумящая, достаточно энергоэффективная и малодоступная видеокарта. Да, Nvidia GeForce GTX Titan X является вершиной эволюции игровых решений, но заслуживает ли она звания Titan?Обычно компания Nvidia выделяет модельный ряд Titan за счет одного характерного признака – высокой скорости FP64. Новинка же нарушает этот закон, и ее логичнее было бы выпустить под именем GeForce GTX 990. Но вопреки здравому смыслу она позиционируется лишь как игровая видеокарта. Зато какая! Хотя GeForce GTX Titan X не способна обойти SLI из пары GTX 980, с ней полностью играбельны разрешения вплоть до 2560 x 1440 при любых настройках качества. А вот в 4K она не совсем уместна. Объем памяти позволяет загружать игры в 4К, но с качеством рендера можно ошибиться, нагрузив GPU слишком тяжелой работой.С другой стороны, именно вычислительной, математической работы в современных играх вдруг стало мало, а основная нагрузка идет за счет текстур высокого разрешения. По этой причине пострадали неплохие графические ускорители (GeForce GTX 970, GTX 980, Radeon R9 290X), которые могли бы обеспечить приемлемый уровень быстродействия в высоких разрешениях. Но тенденции таковы, что теперь все чаще необходим большой объем памяти.Вот вам и 2015 год, вместо продвинутых моделей получаем игры с тяжелыми текстурами и постобработкой.

Подробнее: http://www.overclockers.ru/lab/67650_6/obzor-i-testirovanie-videokarty-nvidia-geforce-gtx-titan-x-navstrechu-4k.html

николай ильинович Мыслитель (5016) 7 лет назад

Задалбал уже…

wolf Мудрец (17321) 7 лет назад

задалбал дебил !

данил яковлев Ученик (185) 5 лет назад

GeForce® GTX™ TITAN X – самая мощная видеокарта. Она объединяет в себе самые современные технологии и производительность новой архитектуры графических процессоров NVIDIA® Maxwell™ представляя собой самую быструю и технически продвинутую видеокарту на планете

Ссылка на основную публикацию
Adblock
detector