Статья не про майнинг и не для майнеров.
Недавно на Хабре была статья про сравнение карточек для вычислений. На мой взгляд статья получилась очень даже неплохой, но в ней никак не отразили позиции RTX 3090 Turbo и как-то подозрительно мало времени уделили А10.
На мой взгляд среди карточек с «большим» объемом памяти (более 12 гигабайт) по рекомендованной рыночной цене (РРК) 3090 является лидером хит-парада, а по рыночной цене — скорее уже А10. Детальный разбор почему и как я подходил к выбору карточек и тестированию — прошу под кат.
Также так случилось, что у меня под рукой оказалось большое количество рейзеров разной степени говённости.
И сначала я замахивался, чтобы поставить некую точку в вечных дебатах про райзеры (а мнения разнятся от такого до банального «не работает» или «для DL нельзя использовать»), но в итоге все получилось чуть более сумбурно. Но я постарался подойти к тестированию райзеров тоже структурированно и аналитически.
И последнее — в прошлой статье я сокрушался, что мол нет на рынке большого выбора однослотовых решений по вменяемой цене. Теперь на выбор решений много, но с доступностью и ценами ситуация лучше не стала (есть как минимум 2 поколения карточек Quadro и Tesla A10, но геймерских нет, насколько я знаю).
Выбор карточек и теоретические цифры
Вообще в чатике нашего канала кто-то поделился супер-полными табличками с характеристиками в виде картинок (раз и два), но мы попробуем их немного упростить и разложить все на пальцах.
Простыми словами — физической и финансовой возможности (и мотивации) протестировать абсолютно все карточки у меня нет, но если верить вышеописанной статье, все-таки какая-то корреляция между спецификациями карточек и тестами прослеживается.
Я собрал характеристики всех более менее свежих и интересных карточек (пожалуй кроме однослотовых прошлого поколения, которое не было очень удачным, да и Амперы уж очень сильно приросли по сравнению с прошлым поколением).
Цены на момент публикации статьи могли уже поменяться.
Пока в глаза бросается пожалуй лишь то, что на первый взгляд кроме рекомендованной рыночной цены на 3090, все карточки стоят сравнимое количество денег, кроме флагманской A100 (которая еще бывает с 80 GB памяти).
Обратите еще внимание, что при переходе на последнее поколения Nvidia «увеличила» число CUDA-ядер в 2 раза, но они стали как бы в «2 раза меньше». Еще стоит обратить внимание на низкий TDP и однослотовость у A4000 и A10.
Что грустно и закономерно (вставить комментарий про майнеров), 3090 «доросла» за год по цене примерно до своих серверных коллег.
Рост цен на 3090
Так, получается очень много цифр! А если открыть полные таблички, то и мозг можно сломать. Плюс все это мягко говоря теоретические цифры, скорее всего из спецификаций или маркетинговых материалов. Давайте пойдем от противного — выберем какой-то бюджет, допустим 900 т.р. (чтобы влезла хотя бы одна A100, ха!) и посмотрим, что можно получить за эти деньги.
(*) Еще важная ремарка состоит в том, что хотя якобы кто-то и «разгонял» 3090 до 500+ Ватт, в реальности лично у меня они потребляют в районе 300 Ватт (я вставлю именно эту цифру в следующую таблицу).
Да, при обучении нейросетей не всегда FP32 это самый важный индикатор, но с другими форматами данных в спецификациях больше непонятностей и маркетинга. По факту вы или будете учить в FP32, или использовать что-то вроде AMP (в тестах дальше мы попробуем и тензорные ядра).
Давайте проанализируем табличку. У карточек А20, А30 и A40 получается маловато «мощности», но есть вариант с большим количеством VRAM. A100 явно является флагманом и кажется, что даже относительно серверных карт ее цена завышена раза в 2 (не считая ситуации когда вам реально нужны 80 GB VRAM на карту или какие-то особые вычисления и выбора тогда по сути нет).
A10 и A4000 кажутся сильно интереснее с точки зрения наполнения сервера (они однослотовые и мало кушают), но тут получается, если вы хотите оптимизировать мощность вычислений — вам нужна A10, а A4000 получается как бы равной «половине» A10.
Но если вы захотите поставить 5 или 6 карточек A10, 10-12 A4000 уже будет проблематично впихнуть. Держим в уме, что обычно слотов в материнских платах не более 7, и в лучших БП обычно не более 9 VGA кабелей.
Вариант с колхозом и синхронизацией 2 БП мы опустим для простоты.
Чисто по характеристикам и размерам, A5000 кажется более энергоэффективным «собратом» 3090, а A6000 и RTX 6000 (прошлое поколение) — уже сильно послабее или для нишевых применений (на рубль конечно, не в вакууме).
Итак, постараемся подвести итоги. Дорогие и узкоспециализированные варианты отметаем. В сухом остатке остаются A5000 (лидер хит-парада из статьи по ссылке), 3090 и A10.
По цене, они к сожалению все более менее равны (по РРК у 3090 конкуренции вообще нет). Но тут получается, что 3090 даже по рыночной цене является более «быстрой» и горячей, чем A5000, но она все равно занимает 2 слота. А A10 получается несмотря на свою цену занимает нишу для билдов, где вы хотите поставить более 4 карточек. И да, как ни странно A5000 еще тоже относительно тяжело купить.
Тестируем карточки
Приведу результаты тестирования 3090 и A10. У 3090 есть один нюанс. На рынке есть две модели 3090 с турбиной — ASUS и Gigabyte.
У решения от ASUS как-то криво проставлены заводские настройки скорости вентилятора и он не крутится быстрее 45-50%. У решения от Gigabyte такой проблемы нет.
Поэтому я приведу результаты сравнения A10 и 3090 от Gigabyte «в стоке» (у A10 вообще нет движущихся частей) и 3090 от ASUS с заводским и автоматизированным управлением скоростью «фенов».
Чтобы лишний раз не возиться с компиляцией, установкой CUDA и прочего, тестировать будем вот так:
Скрипты для тестирования # image
docker run —rm —gpus 0 -it —entrypoint bash nvidia/cuda:11.4.2-devel-ubuntu20.04
# gpu cooling (on host)
pip install coolgpus
sudo $(which coolgpus) —kill —temp 20 55 80 —speed 5 30 85
# git
apt update
apt install git
# gpu burn
git clone https://github.com/wilicc/gpu-burn.git
cd gpu-burn
make
./gpu_burn 120
./gpu_burn -tc 120
cd ../
То есть по сути просто берем официальный образ с CUDA 11.4 (девелоперская версия), собираем gpu-burn и вперед.
Получается, что по умолчанию решение от ASUS перегревается, но если крутить кулер хотя бы на 70%+, то все уже становится хорошо. Посмотрим теперь, что выдает A10:
Тут важно отметить, что для первых тестов кулер DELTA стоит просто приклеенный к корпусу на двусторонний скотч. Поток воздуха никак на «направлялся», он просто дул в примерном направлении A10.
Про управление воздушными потоками, дельтами и сборку оптимальных серверных билдов я наверное напишу как-нибудь потом, если эта статья наберет хотя бы +50, уж очень там много деталей и тонкостей, и не хочется это все вспоминать.
В итоге получается интересная картина. Без использования тензорных ядер A10 сильно уступает 3090, но с ними — они почти уже равны. А разница в TDP наблюдается почти в два раза (!).
Как себя поведут карточки в реальной работе, еще конечно предстоит узнать. Я довольно сильно намучился с железом и сейчас пока нет моральных сил гонять тесты на реальных задачах.
Скорее всего когда это произойдет, мы что-то напишем в нашем телеграм-канале.
Тестируем райзеры и пропускную способность
Итак, у меня был целый ассортимент разного рода райзеров. Фирменных и говённых, коротких и длинных, красивых и облезлых. Пару лет назад при более неформальном тесте, я приходил к выводу, что только райзер от TT работал.
Изменилось ли что-то в этот раз? Если посмотреть видосики как люди делают 10-метровые удлинители (понятно, что это проплаченная постановочная реклама и райзеры там были заранее выбраны и вообще это скорее шоу для неискушенной публики), втыкая райзеры один в другой, хочется верить, что все будет хорошо.
И да, важная ремарка, я хочу, чтобы все просто работало из коробки. Без каких-либо настроек ОС, BIOS и чего-то подобного. Это дискуссионный момент, но как раз по этой причине я в итоге опять отказался от использования райзеров совсем.
Тестировать пропускную способность будем с помощью утилиты, которую предоставляет Nvidia в своем репозитории с CUDA-примерами. Точно так же, чтобы не возиться, просто берем официальный образ, не забывая спулить репозиторий на соответствующий тег релиза CUDA.
Скрипты для тестирования # image
docker run —rm —gpus 0 -it —entrypoint bash nvidia/cuda:11.4.2-devel-ubuntu20.04
# git
apt update
apt install git
# bandwidth test
git clone —depth 1 —branch v11.4 https://github.com/NVIDIA/cuda-samples.git
cd cuda-samples/Samples/bandwidthTest
make
./bandwidthTest —memory=pinned —mode=quick —htod
./bandwidthTest —memory=pinned —mode=quick —dtoh
./bandwidthTest —memory=pageable —mode=quick —htod
./bandwidthTest —memory=pageable —mode=quick —dtoh
cd ../
Итоги теста получатся такие:
Зануда-mode on
Я использую базовые настройки тестов пропускной способности, т.к. очевидно, что если измерять ее на малых «чанках», то она будет очевидно хуже. Я пробовал разные сценарии, но везде есть очевидная корреляция, поэтому я решил тут не усложнять.
Подведем итоги. Райзер от TT по прежнему работает. Остальные скорее не работают. Райзер от TT почти не влияет на пропускную способность.
Когда райзеры не работают, выглядит это примерно так.
Да, я осознанно не занимаюсь всяческими настройками BIOS, не переключаю PCIE режимы, итд итп.
Вместо вывода
Надеюсь эта статья была вам интересна и полезна. Нам стоило довольно больших усилий (и финансовых ресурсов!) собрать это все вместе и изложить в понятном и интересном ключе.
Я пока морально не готов писать продолжение статьи про сбор суперкомпьютера, но в серверном форм-факторе, но если эта статья наберет +50, то думаю в начале января я сделаю над собой моральное усилие.
Всех с наступающими праздниками и Новым Годом!
PS Пара слов про сами карточки
Я нахожу своеобразную красоту в том, как выглядят утилитарные вещи. Карточки PNY выглядят очень просто, они очень утилитарно и экономично упакованы в коробки из обычного картона.
Карточки от ASUS пытаются выглядеть немного как арт-объект, но при более близком рассмотрении все эти «красивости» это просто бесполезные пластиковые обвесы.
A карточки от Gigabyte визуально сочетают в себе и какой-никакой промышленный дизайн, профессионализм, утилитарность и строгость внешнего вида (и очень хорошо стоят одна за другой, что конечно важнее!). Этого же я не могу сказать про упаковку карточек, коробки как обычно отталкивающе-аляпистые и налицо пустая трата ресурсов.
Смотреть картиночки
Сравнение видеокарт Nvidia и AMD 2022 года — таблица особенностей и производительности
Выбирая новый ПК, неопытному пользователю приходится ой как непросто, особенно когда речь заходит о производительности, за которую, как известно, отвечает не только сам процессор, но и многие другие элементы. Среди них – видеокарта, отвечающая за качество графики.
Особенности видеокарт Nvidia
Практически все современные устройства комплектуются по умолчанию графическими редакторами, производство которых сегодня курируется тремя небезызвестными компаниями:
Специалисты, в свою очередь, условно классифицируют всю выпускаемую продукцию на:
- интегрированную;
- дискретную;
- гибридную.
Углубляясь в тему, стоит отметить, что первый тип не способен обеспечить высококлассную графику, будучи интегрированным в CPU. А, поскольку выпуском такой продукции занимается бренд Intel, то рассматривать его в дальнейшем и уж тем более использовать для проведения сравнительного анализа с более мощными устройствами не имеет смысла.
Другое дело, видеокарты производства компании Nvidia, которая специализируется исключительно на выпуске дискретной графики. Под ней подразумеваются отдельные чипы, обеспечивающие самое высококачественное изображение, будучи построенными на архитектурах типа Fermi, Kepler и Maxwell (названия подбирались в честь знаменитых ученых физиков).
И если рассматривать эти архитектуры, то наиболее древней из них является Fermi с ее моделями GeForce до GT 820M, которые относятся к начальному уровню. Несмотря на эту особенность, такое решение вполне подходит для многих современных игр среднего звена типа Dota или Wiorld of Tanks, в условиях HD-режима.
Кроме того, использование флагманских моделей типа GT 880 и 980M дает возможность играть даже на высоких настройках в полноэкранном режиме FHD. Правда, и обходится такое удовольствие весьма недешево.
Особенности видеокарт AMD
На сегодняшний день AMD является единственной компанией, специализирующейся на выпуске гибридных дискретно-интегрированных видеокарт, в результате чего IT-миру была явлена совершенно уникальная в своем роде технология Dual Graphics.
Ее суть такова: во время выполнения ежедневных сценариев, связанных с текстовым набором и веб-серфингом, в ход идут ресурсы интегрированной графики, тогда как при запуске тяжелого гейминга автоматически активируется дискретный видеоредактор.
И если делать упор именно на эту составляющую, то имеет смысл остановить выбор на ПК, оснащенных графикой Radeon HD 8000, R5 и R7 M200, а также AMD M9 300, притом что все они рассчитаны в первую очередь на игровой запуск и HD-воспроизведение.
Кроме того, разработчиками обеих компаний были предусмотрены как минимум две профессиональные модели видеографики, среди которых не только FirePro от AMD, но и Quadro от Nvidia.
И, прежде всего, эти решения создавались для юзеров, использующих ПК для черчения, 3D–моделирования, составления дизайн-проектов, а также фото- и видеообработки.
Сравнительная таблица графических плат Nvidia и AMD на 2022 год
Если же нет четкого понимания в вопросах выбора графической карты, то имеет смысл ознакомиться с показателями производительности наиболее свежих моделей. И сегодня речь идет о продукции AMD и Nvidia 2019 года выпуска, характеристики которой приведены в следующей вспомогательной таблице данных:
Эта табличка поможет не только определиться с выбором нового устройства, но и оценить по достоинству характеристики уже установленной на ПК видеокарты, а также понять перспективность обновления.
Стоит отметить, что апгрейд видеокарты является не самым лучшим решением, поэтому лучше сразу приобретать устройство с качественной аппаратной составляющей или быть готовым к ее замене.
В последнем случае имеет смысл менять карту только в том случае, если новая модель окажется хотя бы на пять уровней выше текущей, иначе – игра не стоит свеч.
Что лучше для ноутбука – Nvidia или AMD
Если же говорить не о стационарном, а о мобильном ПК, то выбор оптимального решения по видеографике будет напрямую зависеть от тех задач, которые стоят на ежедневной повестке перед пользователем. И если речь идет о работе в Office-ных приложениях, то можно ограничиться самыми примитивными моделями интегрированных карт от Intel.
Что касается продукции AMD, то для того, чтобы потянуть тяжелый гейминг, пользователю придется раскошеливаться на ПК с графикой серии Vega и RX, а это не менее 100 тысяч российских рублей. Примечательно, что модели подешевле являются откровенно слабыми, и если уж и тратиться, то на устройства с топовыми видеокартами от NVIDIA, которые делают железо по-настоящему мощным.
Подводя общую черту, стоит отметить, что многие разработчики склоняются именно к линейке GeForce от Nvidia, однако это не означает, что AMD значительно хуже. А все потому, что решающую роль в вопросах выбора будет играть не только конкретная модель GPU, но и ее компоновка с CPU и RAM (от производительных характеристик последних напрямую зависит качество работы видеокарты).
Какая видеокарта будет более производительной в играх
Сегодня продукция AMD считается представителем бюджетного сегмента, тогда как Nvidia относится к среднему и высшему классу. И если подбирать оптимальный вариант видеокарты на игровых ПК, то лучше все-таки отдать предпочтение линейке GeForce, хотя не последнюю роль в этом вопросе будет играть тип гейминга. В целом же, все актуальные сегодня GPU можно разделить на три подкатегории:
- Low-end. Идеальное бюджетное решение для тех, кто не требует от графики многого. Преимущественно речь идет об AMD, хотя эти видеокарты неплохо справляются и с некоторыми средними игрушками.
- Middle-end. В этом сегменте встречается не только AMD, но и Nvidia, которых вполне хватит на запуск игр в высоком режиме FHD без серьезных провисаний по ФПС. А вот для 4K такого потенциала будет маловато, иначе придется пожертвовать отсутствием багов по ФПС.
- Hi-end. Безусловное царство топовых Nvidia, которым уж точно будет нипочем 4K. Другое дело, что обойдутся такие флагманы в копеечку, будучи по карману далеко не каждому геймеру.
Такая градация дает четко понять, что отвечать завышенным требованиям сможет только графика от Nvidia, тогда как для не самого мощного игрового контента подойдет AMD. И если пользователь не планирует задействовать на всю катушку потенциал дорогого оснащения, то не стоит и переплачивать, тем более что разница действительно существенная.
Где показатель FPS будет выше – в Nvidia или AMD
Стоит сказать, что и без того внушительный разрыв производительности между рассматриваемыми позициями продолжает увеличиваться.
И не последнюю роль в этом вопросе сыграло внедрение новых технологий разработчиками Nvidia. Среди них – DLSS, с помощью которой удалось увеличить количество FPS.
Обеспечить такой результат разработчики смогли посредством применения лучевой трассировки и внедрения искусственно-интеллектуальных технологий.
И, в частности, речь шла о машинном обучении, позволяющем снижать транслируемое разрешение 4K в 2K с последующей его обратной адаптацией, хотя в скором времени разработчикам пришлось усовершенствовать инновационную технологию. В итоге новый подход дал отличный результат, позволив увеличить FPS на целых 30-40%, причем без какого-либо ущерба для качества изображения, воссоздаваемого из 2K в 4K.
В то же время, не обошлось без ложки дегтя и в этой бочке меда, ведь игр, которые могли бы поддерживать новый DLSS, не так уж много.
Конечно, высока вероятность того, что стремительно растущая популярность уникальной технологии рано или поздно сделает свое дело и все большее количество разработчиков будет представлять совместимую игровую продукцию, но пока эффект трассировки лучей могут оценить единицы.
Возвращаясь к AMD, стоит отметить, что такие перспективы главного конкурента приобретают для компании угрожающий характер.
Причиной тому являются устаревшие технологии, используемые для производства видеокарт этого производителя, который так и не начал применять трассировку лучей, продолжая временить с интеграцией ИИ.
А, как известно, без последней о качественном рендеринге изображения в режиме реального времени не может быть и речи, что делает разрыв между AMD и Nvidia еще более существенным.
Возможно, все изменится в ближайшей перспективе и AMD все-таки решится на прорыв? Конечно, бывает всякое, но судя по последним тенденциям, производитель решил довольствоваться той нишей, которую ему доводится занимать в настоящее время, уступая пальму первенства королевским Nvidia.
Загрузка…
История дискретных видеокарт от середины нулевых до решений на архитектуре Fermi и GCN
Егор Морозов — 8 сентября 2017, 13:26
Предыдущую статью мы закончили на относительно современных видеокартах, которые уже использовали универсальные шейдеры.
На этом я хотел закончить цикл, но по многочисленным просьбам все же доведу его до конца, так что сегодня поговорим уже о современных видеокартах, вплоть до решений с поддержкой DirectX 12 (изначально я планировал сделать одну статью с описанием видеокарт вплоть до Pascal и Vega, но итоговый объем материала — порядка 10 листов А4 — вынудил меня разбить ее на две).
Чип Nvidia G92 — кручу, верчу, запутать хочу
Уже с самого выпуска чипа в 2007 году Nvidia решила запутать пользователей: казалось бы, новый чип — новая линейка. А вот и нет — изначально видеокарты на нем принадлежали 8000 серии. Чип выпускался по более тонкому техпроцессу — 65 нм, имел только 112 потоковых процессоров (против 128 у 8800 Ultra), а шина памяти была урезана до 256 бит. Также появилась поддержка нового стандарта PCIe 2.0 (который был вдвое быстрее 1.0 — до 8 ГБ/с), при этом совместимость с 1.0 никуда не делась. Частота GPU первой топовой видеокарты на этом чипе — 8800 GTS — была 650 МГц, и в итоге это нивелировало разницу в потоковых процессорах с G80, так что эта видеокарта выступала на уровне 8800 GTX и Ultra. Еще одним важным изменением в чипе G92 можно считать поддержку CUDA (да, она есть и в G80, но появилась она все же во времена G92, поэтому я и говорю о ней тут). Это программно-аппаратная архитектура, которая позволяет проводить некоторые вычисления на видеокарте, причем, с учетом того, что GPU уже давно мощнее CPU, ускорение может быть достаточно серьезным. Изначально вычисления проводились с 32-битной точностью (64-битная появилась в следующем чипе, GT200, и производительность при работе с такой точностью была серьезно хуже). Графический процессор реализовывал аппаратную многопоточность, что позволяло задействовать все вычислительные блоки — это и привело к идее переложить на плечи видеокарты физику. Таким образом появился PhysX — правда, только в следующем поколении чипов от Nvidia. Nvidia на этом не остановились — в начале 2008 года вышла 9800 GTX, которая представляла собой банально разогнанную 8800 GTS. И чтобы добить пользователей, в середине 2008 года вышла 9800 GTX+, которая отличалась от обычной версии тем, что чип G92 теперь выпускался по 55 нм техпроцессу. Казалось бы — куда дальше-то, чип уже и так в двух линейках есть. Но Nvidia это не остановило, и этот же самый чип появился и в 200 линейке видеокарт — а именно в GTS 250. Правда, эта видеокарта уже позиционировалась как решение среднего уровня. Ну а топовой видеокартой в линейке стала 9800 GX2. Думаете, что она представляла две 9800? Почти — почему-то Nvidia использовала две 8800 GTS 512 МБ, а по внешнему виду видеокарта напоминала 7900 GX2 — то есть по сути две соединенные платы, на каждой по одному чипу. Разумеется, прирост от такой связки был не везде, но где он был — выводил 9800 GX2 в лидеры.
Nvidia GT200 — количественные изменения
В июне 2008 года Nvidia представила новый топовый чип — GT200 (логичнее было бы назвать его G100, но у Nvidia своя нумерация — чипы 100 серии появились… позже). И как я уже писал выше, изменения были количественными: из-за появления второго поколения унифицированных шейдеров число потоковых процессоров возросло вдвое. Чип имел 32 ROP (растровые блоки) и 80 текстурных блоков, техпроцесс был 65 нм (при этом в этой же линейке были решения и на 55 нм, и даже на 40), а шина памяти была увеличена до 512 бит. Увы — с поддержкой API было все хуже, чем у конкурента от AMD — RV670: поддерживался только DirectX 10 и Shader Model 4.0, но в дальнейшем Nvidia все же сделала поддержку DirectX 10.1, так что поиграть на GTX 280 в GTA 5 все же можно. К слову, этот топовый чип имел частоту в 600 МГц и комплектовался GDDR3 памятью, которой могло быть до 1 ГБ. Через год, уже в середине 2009, Nvidia выпустила «ремастер» 280 видеокарты — GTX 285. Чип GT200 в ней был построен по более тонкому 55 нм техпроцессу, что позволило поднять частоту на 10% — до 650 МГц. Однако конкурировать с двухчиповым топом от «красных», Radeon 4870X2 (о нем поговорим ниже), 285ая не могла, так что Nvidia так же пришлось выпустить двухчиповую видеокарту — GTX295. Эту карточку можно смело называть одной из самых проблемных: во-первых, одна референсная турбина была не способна охладить два чипа GT200 на частотах от 285ой (то есть 650 МГц). Более того — она была не способна работать даже на частотах 280ой — 600 МГц, так что в итоге частоту оставили на уровне 576 МГц. Второе урезание — это количество шейдеров: каждый чип в 295ой использовал лишь 216 штук против 240 возможных (то есть по сути видеокарта представляла собой две GTX 260 в SLI). Увы — даже это не помогло: видеокарта моментально забивалась пылью и грелась до 100 градусов. В итоге Nvidia была вынуждена выпустить новую ревизию — GTX 295 Rev. B, где была изменена компоновка чипов: если в Rev. A каждый чип располагался на свой плате, и оба они охлаждались одним радиатором, то у новой ревизии оба чипа были на одной плате и имели разные радиаторы, а вертушка была в центре — это позволило серьезно снизить нагрев и упростить обслуживание видеокарты: Ну и вторая проблема, которая моментально вылезла при использовании высоких настроек в играх — нехватка памяти: каждый из урезанных чипов GT200 комплектовался 896 МБ, и с учетом того, что SLI память не суммирует, памяти у топовый видеокарты оказалось даже меньше, чем у GTX 285. Разумеется, в играх через пару лет это негативно сказалось на производительности.
Линейка GeForce 100 — всеми забытый OEM сегмент
Наверное, многим приходила в голову мысль — а куда делась 100 линейка видеокарт? Была 7000, 8000, 9000, а потом сразу 200, 300 и т.д.? Нет, разумеется нет — такая линейка действительно была представлена весной 2009 года, и базировалась она на различных чипах G9x. О них мало кто слышал по одной простой причине — это была OEM-линейка, то есть видеокарты из нее ставились лишь в готовые решения. По факту это была переименованная 9000 линейка, из улучшений — кое-где чипы были построены по более тонкому техпроцессу, кое-где были выше частоты. В общем — ничего интересного в них не было, самая топовая видеокарта в ней — GTS 150 — была по сути обычной GTS 250, что есть middle-сегмент. Но что-то мы заговорились про «зеленых» — пора бы уже перейти к их конкуренту, AMD.
AMD RV770 и RV790 — обновленный RV670
Как я уже писал в конце предыдущей статьи — с появлением универсальной шейдерной архитектуры нововведения почти полностью перешли в количественную область. И RV770, представленный в середине 2008 года, исключением не стал — более тонкий техпроцесс, 55 нм, шина памяти так и осталась 256-битной. хотя сама память стала уже точно современной — GDDR5. В самой топовой видеокарте — Radeon HD 4870 — было 800 вычислительных процессоров, 16 ROP и 40 текстурных блоков. Частота ядра была на уровне 750 МГц, а у памяти — рекордные на тот момент 3600 МГц. Но все же всего этого было мало для того, чтобы конкурировать с топовой на тот момент GTX 280 — HD 4870 показывала производительность на уровне GTX 260, то есть была middle-end. А вот самой топовой стала видеокарта HD 4870X2 — двухголовое решение на базе 3870X2, где все отличия заключались в чуть более высоких частотах и поддержке интерфейса Sideport, который ускорял взаимодействие чипов друг с другом. Однако между 4870 и 4870X2 образовался большой провал — его AMD заполнила несколько обновленным чипом RV790, который имел более высокие частоты (до 900 МГц). Также AMD провела ребалансировку внутренних таймингов, а контроллер памяти получил функцию Burst Read (режим пакетной передачи данных). Но самым основным изменением стало добавление так называемого «развязывающего кольца» из конденсаторов, которое снижало уровень шумов и улучшало качество сигнала. В итоге видеокарта HD 4890 на этом чипе уже могла конкурировать с GTX 280 и 285.
Линейка Nvidia Geforce 300 — еще один OEM сегмент
По непонятным причинам Nvidia рвалась в OEM сегмент — тут никто не использовал видеокарты для игр, поэтому предыдущей OEM-линейке, GT 100, выпущенной буквально годом раньше, более чем хватало для офисных задач. Но все же линейка была выпущена, и, думаю, лучше всего она запомнилась владельцам MacBook 2010 года — именно там в Air использовалась 320М, а в Pro — 330M. Владельцы же ПК про десктопные видеокарты 300 линейки слышали мало, что вполне логично — они базировались на старых чипах GT200 и G9x, а самая топовая из них — GT 340 — являлась банальным переименованием GT 240, то есть была видеокартой младшего ценового сегмента.
AMD R800 — как RV790, только мощнее На этот раз AMD обогнала Nvidia в выпуске первых 40 нм видеокарт, причем достаточно серьезно — на несколько месяцев.
Архитектурно различий между новым R800 и старым RV790 почти не было — стало вдвое больше потоковых процессоров — 1600, вдвое больше текстурных блоков — 80.
Все это оказалось возможным благодаря уменьшению техпроцесса до 40 нм — в итоге при увеличении вычислительных блоков вдвое площадь чипа выросла всего на треть, так что видеокарта HD 5870 на этом чипе оказалась на уровне GTX 280.
Из интересных мультимедийных возможностей — появилась технология AMD Eyefinity, которая позволяла подключать к одной видеокарте до 6 мониторов, и выводить на их все картинку. Также эти чипы обзавелись поддержкой нового тогда API — DirectX 11. И проблемы с ним были схожими с текущими с DX12 — вроде бы в теории все должно быть быстрее, а на практике оказывается в лучшем случае так же, как и со старым API.
Ну и завершая линейку 40 нм чипов от AMD, перейдем в 6000 линейке, вышедшей в конце 2010 года. Они были построены на базе архитектуры VLIW4 (ее фишка — одна инструкция процессора содержит несколько операций, которые должны выполняться параллельно.
Дли видеокарт, где вычислительных процессоров тысяча — просто идеальная архитектура, правда если софт будет нормально написан). Количество вычислительных процессоров несколько уменьшилось — до 1536, а вот число текстурных блоков выросло до 96. Ширина шины памяти составляет 256 бит, а ее объем у топовой HD 6970 мог составлять 2 ГБ.
Увы — до топовой на тот момент GTX 580 она не дотянулась, оказываясь на уровне middle-end GTX 570.
Ну а уже о совсем новых видеокартах, основанных на архитектуре GCN (для AMD) и Fermi и новее (для Nvidia) мы поговорим в точно заключительной статье цикла об истории видеокарт.
Новости про AMD и Fermi
- AMD
- Fermi
- NVIDIA
- видеокарты
- Intel
- Larrabee
МИР NVIDIAНовостиAMD
Компания XFX полностью переходит на выпуск продукции, базирующейся на чипах от AMD.
Один из надежнейших партнеров NVIDIA, компания XFX планирует уже в октябре-ноябре этого года привнести свой весомый вклад в стан противников Fermi, обеспечив потребителей полным модельным рядом решений уже на чипах AMD.
До недавнего времени XFX продавал и осуществлял поддержку видеокарт на базе разработок NVIDIA, исключая карты на чипах семейства Fermi. Это произошло вследствие того, что в 2009-м году компания стала производить помимо карт на чипах NVIDIA и карты на чипах AMD (о чем мы писали в своих новостях).
NVIDIA отреагировала просто — «наказала» партнёра, перестав отпускать ему чипы Fermi.
XFX некоторое время терпела, но в итоге решила в долгу не оставаться и сделала ответный шаг — с этого дня, по заявлению Cy Brown, вице-президента XFX по продажам в Европе, компания прекращает продажу любых карт с чипами NVIDIA.
Это ответ на решение NVIDIA о выводе XFX из списка официальных партнёров. Данное событие, похоже, не явилось сюрпризом для NVIDIA, так как в течение последнего времени NVIDIA не просто не отгружала XFX чипы нового семейства, но и поощряла торговых партнеров не работать с последней.
Официальный сайт компании XFX уже сконцентрирован на продукции на базе AMD Radeon. Вся эта история — редкий пример того, что самые безумные слухи в мире графических технологий могут в итоге оказаться 100% правдой.
комментировать похожие новости
Удачный старт AMD на рынке DirectX 11 ускорителей, начавшийся в прошлом году с введением серии карт ATI Radeon HD 5800, помог компании обогнать конкурента в лице NVIDIA и позволил ей превзойти создателя GeForce по поставкам на рынке дискретной графики во II квартале этого года.
Согласно данным Mercury Research в прошлом квартале AMD заняла 51% рынка видеокарт, в то время как NVIDIA довольствовалась 49%. Ровно год назад было противоположное положение — NVIDIA удерживала 59% рынка, а AMD имела «скромные» 41%.
В целом по графическому рынку (интегрированных и дискретных видеокарт) во II квартале всё еще на вершине Intel с 54,3%, затем идёт AMD с 24,5%, и замыкает NVIDIA с 19,8%. Разница между AMD и NVIDIA может изменится в III квартале в связи с выпуском удачной GeForce GTX 460, но компании из Санта-Клара (NVIDIA), вероятно придется довольствоваться третьим местом и во второй половине 2010 года.
комментировать похожие новости
Radeon HD 5970 уже давно остается лидером среди игровых графических ускорителей. Сегодня он столкнется с очень опасным соперником — парой GeForce GTX 470 в SLI-тандеме, который по производительности теоретически соответствует так и не вышедшему пока GTX 495.
Компания AMD очень долго почивала на лаврах, после выпуска Radeon HD 5970 — до сих пор считающегося непобедимым царём горы на фронте высокопроизводительных видеокарт. Сайт xbitlabs.
com, в ожидании нового флагмана в стане NVIDIA, устроил смертельную битву, смоделировав видеокарту GeForce GTX 495 посредством объединения двух видеокарт GeForce GTX 470.
Вы спросите, почему были выбраны именно видеокарты GTX 470, а не более мощные GTX 480?
Причин несколько, во-первых потребление двух видеокарт GTX 480 не вписывается в общепринятые нормы, а во-вторых — это сделано по аналогии с тем, что в предыдущем поколении двухчиповый флагман GTX 295 был собран не из GTX 285, а из пары чипов GTX 275. Поэтому смоделированная видеокарта теоретически имеет право на жизнь, и будем надеяться, что так и будет на самом деле.
Технические характеристики этого решения будут идентичны спецификации GeForce GTX 470 в конфигурации SLI. Это означает, то карта имеет 968 ALU, 112 TMU и 80 RBE. Учитывая скалярноcть архитектуры Fermi, этого должно быть достаточно, чтобы конкурировать с Radeon HD 5970, даже если частоты GPU окажутся ниже, чем у GeForce GTX 470.
Единственным недостатком такого тандема будут слабые блоки текстурирования. Гипотетической GeForce GTX 495 наполовину слабее Radeon HD 5970 в этом отношении, и NVIDIA ничего не может сделать с этим, поскольку это известное слабое место архитектуры GF100. В остальном, описанное решение выглядит вполне конкурентоспособным.
Что касается ценового фактора, то Radeon HD 5970 может показаться дешевле, чем пара GeForce GTX 470, но вы вряд ли найдете флагман AMD по рекомендованной цене 599 долл. Его розничная цена составляет сегодня 650-700 долл. Кроме того, перспективный GeForce GTX 495, если он когда-нибудь выйдет, может оказаться дешевле, чем две отдельных видеокарты GeForce GTX 470.
Тестовая конфигурация:
- Intel Core 2 Quad Q6600 CPU (3 ГГц, 1333 МГц FSB x 9, LGA775);
- DFI LANParty UT ICFX3200-T2R/G mainboard (ATI CrossFire Xpress 3200 чипсет);
- 2x Palit GeForce GTX 470 (608 МГц / 1215 МГц / 837 (3348) МГц );
- PC2-1066 SDRAM (2×2 Гб, 1066 МГц );
- Enermax Liberty ELT620AWT PSU (620 Вт);
- Microsoft Windows 7 Ultimate 7 64-bit.
Потребляемая мощность, температура, уровень шума:
Использовались следующие критерии для загрузки графических ускорителей: CyberLink PowerDVD 9: FullScreen, hardware acceleration enabled; Crysis Warhead: 1600×1200, FSAA 4x, DirectX 10/Enthusiast, «frost» map.
Результаты тестов
Результаты приведены для разрешения 1920*1080 пикселов, поскольку это разрешение самое распространённое для продающихся сейчас ЖК-мониторов и телевизоров. Зелёная шкала отражает преимущество в процентах по сравнению с одиночной GeForce GTX 470 (базовая линия). Красной шкалой отражается отношение разницы производительности в процентах по сравнению с Radeon HD 5970.
Резюме
Да, SLI тандем из GeForce GTX 470, как и любое другое мульти-GPU решение, занимающие более одного PCI-Express слота, не лишён таких недостатков, как громоздкий дизайн и высокий уровень шума.
Но если двухпроцессорные карты на базе GF100 когда-нибудь выйдут, и их розничная цена будет сопоставима с Radeon HD 5970 — AMD будет иметь все основания для беспокойства и снижения цен на свои флагманские модели.
Соревнование с гипотетической GeForce GTX 495 показало, что многое будет решать цена.
Вы можете ознакомится с полной версией обзора на сайте xbitlabs.com (на английском языке).
комментировать похожие новости
Хотя TSMC сообщает, что проблемы с низким процентом выхода годных 40-нм кристаллов решены, во многом завышенные цены и недостаток видеокарт в рознице связны всё-таки с трудностями при 40-нм производстве.
Несмотря на то, что вероятность появления дефектов на 40-нм фабриках TSMC, по некоторым данным, снизилась с 0,3—0,4 на 1 квадратный дюйм до 0,1—0,3, в целом улучшения не поспевают за ростом рыночного спроса.
Как известно, AMD выпустила уже, фактически, всю линейку продуктов Radeon HD серии 5000, NVIDIA также выпустила уже ряд 40-нм продуктов, а вскоре начнёт масштабный переход на новую 40-нм архитектуру Fermi.
Поэтому аналитики ожидают сохранения дефицита предложения на рынке видеокарт до мая. Учитывая недостаток графических чипов, а также рост цен на чипы DRAM, некоторые производители, в том числе Asus, MSI, Gigabyte и TUL планируют повысить цены на свои продукты на 5 и даже на 10 %.
комментировать похожие новости
Недавно интервью сайту bit-tech.net дал высокопоставленный сотрудник AMD, отвечающий за отношения с разработчиками игр. Richard Huddy когда-то работал в NVIDIA как раз в программе TWIMTBP, так что его видение актуально и для поклонников «зеленого» лагеря. Мы приводим представляющие интерес факты из интервью.
- Программа NVIDIA TWIMTBP — прежде всего инструмент маркетинга. AMD тоже весьма плотно сотрудничает с разработчиками, и не только предоставляет образцы оборудования и бета-версии драйверов (иногда по несколько версий за день), но и инженерную помощь вплоть до командировки своих сотрудников в студии. Благодаря такому сотрудничеству уже через месяц после появления новой версии DirectX 11 вышли игры с его поддержкой, чего раньше не бывало. Просто AMD не выпячивает эту работу наружу.
- Хотя команда AMD по сотрудничеству с разработчиками количественно меньше, чем у NVIDIA, в ней много первоклассных инженеров. Большинство игр уровней ААА и АА проходят тестирование в лаборатории качества AMD. Проблемы с качеством графики/работоспособностью игр на оборудовании AMD возникают лишь у тех разработчиков, кто целенаправленно игнорирует возможности сотрудничества.
- Заявления NVIDIA о готовности лицензировать PhysX всем желающим, мягко говоря, неискренни. Фактически мы (AMD) вели с ними переговоры по данному поводу и они ясно дали нам понять, что мы «можем пойти погулять».
- NVIDIA проделала с PhysX тот же трюк, что и Intel с компиляторами — ограничила параллельное исполнение на нескольких ядрах/CPU. Люди сталкиваются с медленной работой PhysX на центральном процессоре и думают, что графические процессоры в этих делах намного быстрее, что далеко не всегда так, если не урезать число вычислительных потоков до одного-двух.
- В AMD не видят трагедии в стагнации рынка PC-игр и уходе большинства разработчиков на консоли. AMD и так поставила графические чипы для 90 миллионов консолей Wii и XBox 360, а в будущем и консоли, и компьютеры просто превратятся в терминалы, показывающие картинку, рассчитанную на распределенных серверных «фермах».
- AMD готова работать с разработчиками игр и по оптимизации для своих центральных процессоров, но большинство разработчиков не видят в оптимизации под CPU какого-либо смысла.
- Помимо работы над готовящейся GPU-ускоряемой версией Bullet Physics, продолжается сотрудничество с Havok по использованию мощностей графических процессоров для расчетов игровой физики через интерфейс OpenCL, а также с движком Pixelux.
- Нет ничего удивительного в откладывании «графического» релиза Larrabee, инженеры Intel столкнулись со всеми проблемами, о которых их предупреждали: избыточность и малопригодность набора инструкций IA-86 для графики, плохая производительность в случае ограниченных возможностей параллелизма, высокие временные задержки при работе с памятью. «Нельзя просто взять двадцать моторов от трамвая, засунуть их в спортивную машину и ждать от нее рекордов скорости».
- Технология многомониторности Eyefinity пока что ориентирована больше на профессиональных геймеров, способных выложить по $200 за каждый дополнительный монитор и трансформировать пользу из расширения видимой области в конкретное повышение результатов. AMD не будет особо работать с разработчиками над патчами для уже вышедших игр и сконцентрируется на нескольких будущих мультиплейерных хитах.
комментировать похожие новости
Презентация NVIDIA Fermi наделала много шума и привлекла пристальное внимание не только игроков, но и профессионалов, компьютерных компаний, а также конкурентов. Виной всему очень интересная архитектура и высокая мощность нового ускорителя NVIDIA.
Благодаря улучшенным возможностям вычислений с двойной точностью, наличию иерархической кэш-памяти, поддержке ECC и так далее, на базе Fermi может работать специальная, оптимизированная под этот продукт, операционная система. Fermi стоит ближе к процессору, чем любые другие графические ускорителя на рынке.
Конечно, Fermi — это высокопараллельный процессор, построенный на новой архитектуре и не совместимый с x86 (и, соответственно, с Windows), но конкуренцию решениям Intel он может составить уже сейчас, правда, в ограниченном числе приложений.
Однако, программ, использующих CUDA, OpenCL или DirectCompute, будет становиться со временем только больше.
Intel видит в лице NVIDIA серьёзную потенциальную угрозу. В будущем NVIDIA, возможно, представит чип, который сможет запустить ОС и будет иметь невероятную вычислительную мощь. Именно поэтому корпорация Intel работает над Larrabee, именно поэтому она травит NVIDIA на рынке чипсетов.
Между прочим, AMD также идёт к унификации графического и центрального процессора в своём проекте Fusion. Однако, решение AMD — это, всё же, в первую очередь, центральный процессор.
комментировать похожие новости
Временное отставание от своего конкурента на рынке пользовательских видеокарт вынудило NVIDIA перейти к информационной войне, для чего была проведена презентация продукта ещё находящегося в разработке — Fermi. В ответ AMD готовит презентационные слайды, которые призваны сгладить положительный эффект от презентации и внушить недоверие пользователей к новому поколению DX11-карт от NVIDIA.
Судя по слайдам, они явно находятся в рабочем состоянии и просочились в сеть по стечению обстоятельств, а может быть, они никогда не будут представлены общественности официально, а содержание их должны донести до пользователей интернет-сайты, для чего слайды были нарочно отправлены в сеть.
Итак, первый слайд повествует о том, что самая мощная на сегодня видеокарта серии Radeon HD 5000 уже поступает на рынок, представляется привлекательной покупкой для игроков, обладая вычислительной мощностью 2,72 Тфлопс для расчетов с плавающей запятой и 544 Гфлопс — для вычислений с двойной точностью.
Отмечается, что видеокарта является первым графическим ускорителем, полностью совместимым с интерфейсом программирования DirectX 11, и обладает уникальной технологией ATI Eyefinity, позволяющей осуществлять вывод сразу на 6 мониторов, что даёт возможность собрать в домашних условиях огромные видеопанели.
Второй слайд посвящён сравнению с характеристиками Fermi. Однако, как известно, сегодня NVIDIA раскрыла лишь часть спецификаций, поэтому некоторые поля отсутствуют, а цифры носят оценочный характер. Что хотела показать ATI в сравнении количества шейдерных процессоров, остаётся загадкой.
Ведь карты ATI и NVIDIA имеют совершенно разную архитектуру (частота шейдеров у GeForce значительно выше Radeon, да и каждый из процессоров даже на одинаковой частоте будет иметь разную производительность), поэтому невозможно сопоставить вычислительную мощность шейдерных блоков по числу процессоров.
В скорости расчётов двойной точности Radeon HD 5870 отстаёт от Fermi примерно на 30 %, о чём ATI честно заявила, а в одиночной точности, по данным ATI, опережает на 80 %.
Однако остаётся под вопросом, как же получается у ATI, что при увеличении частотной формулы и количества шейдеров в 2,13 раза по отношению к GeForce GTX 285 производительность данного типа расчётов у Fermi возросла всего лишь в 1,4 раза. В это слабо верится.
На последнем слайде ATI отмечает, что чип Fermi имеет на 40 % больше транзисторов и на 60 % большую площадь по сравнению с Radeon HD 5870, что новый продукт NVIDIA рассчитан на дорогие высокопроизводительные компьютеры или же на использование в суперкомпьютерах. ATI также отмечает, что Fermi будет иметь высокую для пользовательского рынка стоимость.
Что ж, несмотря на неправдоподобность сравнения возможностей Fermi, в слайдах ATI есть много истинных укоров в отношении NVIDIA. Продукт, действительно, не готов и мы даже не располагаем полной информацией о нём. Однако, нет сомнения, что ко времени своего выхода Fermi станет самым мощным одиночным ускорителем на рынке, и поддержка профессионального рынка этому нисколько не помешает.
комментировать похожие новости