Выбор видеокарты. Краткий обзор и сравнение.

видеокарта
Попался мне на гиктаймс интересный пост о графических картах. Думаю он будет полезен не только мне. Далее обзор и сравнение моделей, и рекомендации по оптимальному выбору графики.
Собственно, все видеокарты можно поделить на два больших лагеря: профессиональные и потребительские. Нет, профессиональные видеокарты нужны не профессиональным игрокам, а тем, кто работает с 3D графикой: аниматорам, мультипликаторам, моделлерам и используются они обычно при создании видеороликов, фильмов и потрясающих декораций к ним. Как правило, такие видеокарты стоят запредельно много.

Потребительские же видеокарты (о которых мы, в основном, и будем говорить) бывают двух типов: встроенные и дискретные. Отличаются они в первую очередь производительностью и ценой: если «встроенные» решения, по большей части, нужны, чтобы офис с браузером на экран выводить, и крутую трёхмерную графику тянут с трудом, то «выделенные» в отдельное устройство видеокарты, наоборот, заточены именно под игры и работу в «тяжёлых» приложениях.

Встроенная графика

Изначально, встроенные видеоадаптеры были частью т.н. «северного моста»: большой микросхемы на материнской плате, которая выступала «хабом» между CPU, оперативной памятью, видеоадаптером и «южным мостом», который отвечал за устройства ввода-вывода: жёсткие диски, USB-порты, сеть, звук и слоты расширения PCI-X и PCI-Express. Постепенный «переезд» функций северного (а сейчас и части южного) мостов непосредственно в CPU повлёк за собой и перенос графического ядра.

В продуктах Intel вы можете столкнуться со следующими графическими адаптерами:

Сравнительно актуальные модели

Шестое поколение, 2011-2012
Intel HD Graphics
Intel HD Graphics 2000
Intel HD Graphics 3000

Седьмое поколение, 2012
Intel HD Graphics 2500
Intel HD Graphics 4000

Седьмое поколение, 2013
Intel HD Graphics 4200
Intel HD Graphics 4400
Intel HD Graphics 4600
Iris Graphics 5000
Iris Graphics 5100
Iris Pro Graphics 5200

Восьмое поколение, 2014+
Intel HD Graphics 5300
Intel HD Graphics 5500
Intel HD Graphics 6000
Iris Graphics 6100
Iris Pro Graphics 6200

Всё, что ниже Intel HD 4400 — достаточно старые решения. С выводом двухмерной графики у них проблем нет, с декодированием видео — тоже, но про игры можно смело забыть. Всё, что выше, впрочем, тоже особой производительностью в трёхмерных приложениях не блещет, но уже находится на куда более приятном уровне производительности.

Все эти видеочипы, в принципе, не предназначены для сложных игр: казуальные браузерки, трёхмерные игры десятилетней давности на средних настройках вполне неплохо запустятся с разрешением FullHD, но на большее расчитывать не стоит.

Компания AMD (не так давно присоединившая к себе производителя видеочипов ATI, известную своей линейкой видеокарт Radeon), также пошла по пути интеграции GPU и CPU, но несколько другим путём. AMD создали так называемое APU — Accelerated Processing Unit (ускоренное обрабатывающее устройство), по аналогии с CPU (Central Processing Unit, центральное обрабатывающее устройство). Линейка гибридных процессоров называется Fusion и работает на сокете FM (о сокетах и чипсетах мы уже рассказывали).

Производительность встроенной графики в A-серии процессоров AMD выше, чем у Intel, современные игрушки идут неплохо, но не стоит забывать, что у встроенного видеочипа нет ни выделенной высокосоростной памяти, ни качественного теплоотвода: теплопакет ограничен как площадью рассеивания крышки, так и системами охлаждения, доступными для процессора. Если вы можете себе позволить лишние 5-7 тысяч на мощное охлаждение, то их, скорее, стоит потратить на отдельную графику, чем пытаться выжать из AMD Fusion лишние кадры в секунду.

Подробнее о гибридной графики и расширении её возможностей поговорим как-нибудь в другой раз, а сейчас перейдём к самому интересному: дискретным видеокартам.

NVIDIA vs ATI-AMD

Война такая же старая, как Intel vs AMD. Обсуждать, кто лучше — всё равно, что участвовать в специальной олимпиаде.

ef61809be41647912b31664d23a1a87c

Что внутри видеокарты

Прежде чем перейти к объяснению, за что мы платим такие деньги, надо разобраться во внутреннем устройстве графического адаптера. Рассматривать legacy-архитектуру с раздельными шейдерными процессорами не будем, остановимся на ключевых моментах.

Почти вся современная трёхмерная графика (за редким исключением) состоит из набора треугольников, которые в сфере 3D-моделирования называют «полигонами». Из этих полигонов собраны трёхмерные модели, поверх которых натягиваются двухмерные текстуры. После «натягивания» текстуры в ход идут спецэффекты, из которых и формируется картинка. Вот здесь хорошо описаны превращения треугольников в готовую картинку.

Внутри видеокарты весь вывод каждого кадра делится на два больших участка: стадию построения геометрии (в которой, в основном, задействованы вычислительные мощности) и стадию отрисовки (в ней происходит основной расход памяти и потребляется вычислительный ресурс специальных аппаратных ускорителей).

Собственно, вот параметры видеокарты, которые нас интересуют:

» Кодовое название ядра: мало за что отвечает, но пригодится при сравнении видеокарт внутри серии. Некоторые производители просто переименовывают прошлогодние видеокарты, вешают на них новое название с меньшими цифрами или программно ограничивают производительность, и готово: старенькая 9800GT превращается в NVIDIA GTX450. К счастью, в последнее время такие «финты ушами» почти прекраились.

» Техпроцесс: измеряется в нанометрах, чем он меньше — тем новее GPU и тем меньше его тепловыделение при прочих равных хараткеристиках.

» Количество потоковых процессоров: то, что раньше было «вершинными» и «пиксельными» шейдерными процессорами сейчас приведено в унифицированный вид. Драйвер видеокарты сам решает, сколько блоков будут заниматься обработкой вершин, сколько — обработкой растровых точек. Чем их больше, тем более сложные сцены сможет переварить видеоадаптер, не создавая задержек для остальных вычислительных блоков. Иными словами: больше покововых процессоров — больше спецэффектов в кадре без потери производительности.

» Частота ядра: собственно, определяет скорость работы потоковых процессоров и некоторых других модулей. Больше — лучше.

» Количество текстурных блоков: количество блоков, отвечающих за наложение двухмерных текстур на трёхмерные модели. Чем больше текстурных блоков, тем более чёткие текстуры высокого разрешения можно использовать в настройках игры.

» Количество блоков растеризации (блоков рендеринга): определяет возможности видеокарты по преобразованию готовой картинки в кадр, который будет отправлен дальше на монитор. Чем больше — тем меньше проблем с выводом картинки сверхвысокого разрешения.

» Тип и частота памяти: чем быстрее работает память — тем меньше «бутылочное горлышко» между вычислительным блоком видеокарты и хранимыми на ней данными.

» Шина памяти: второй показатель, характеризующий скорость обмена данными процессора видеокарты с микросхемами, на которых хранятся нужные блоки информации. Перемножив шину памяти на реальную частоту её работы мы получим пропускную способность: несколько лет назад, например, видеокарты Radeon имели шину памяти 256 или 128 бит, но очень высокую частоту работы памяти GDDR5. Видеокарты NVIDIA, напротив, использовали более сложную архитектуру: передавали 192, 256, 384 или 480 бит за раз, но работали с более дешёвой и менее быстрой памятью GDDR3.

Сейчас данные параметры, скорее, важны в бюджетном сегменте, где периодически встречается как недорогая память, так и сильно обрезанная (вплоть до 64 бит) шина. Флагманские же продукты перешли на широкие шины и скоростную память, и меряются, в основном, внутренней арихетктурой и оптимизацией драйверов.

» Объём памяти: как не странно, не очень сильно виляет на производительность, если вы играете на одном мониторе с разрешением 1920х1080 точек. Разницы между одинаковыми или сравнимыми между собой видеокартами с 2, 3, 4 гигабайтами в таком случае вы практически не заметите. Больший объём необходим, если вы используете многомониторную конфигурацию или являетесь энтузиастом в мире ПК: то есть работаете и играете на мониторах с разрешением 2560×1440 и 3840×2160 точек.

» Интерфейс подключения и поддерживаемые версии DirectX / OpenGL: в нынешнем году почти все видеокарты работают с поддержкой обратносовместимых PCI-E 2.0 / 3.0, а 4.0 находится на стадии стандартизации. С OpenGL и DirectX всё тоже достаточно просто: найти новую видеокарту без поддержки необходимых версий сложно, а новомодные ускорители с перспективным DirectX 12 ускореют раньше, чем значительное количество игр начнут широко использовать возможности этих библиотек. Можно не париться на эту тему.

2 ядра, 2 гига, игровая видеокарта

Все помнят этот дурацкий слоган? Из каждого утюга вещал, а плакат с соответствующим заявлением висел на каждой станции метро. Что такое игровая видеокарта? Собственно, вся дискретная графика (кроме самой-самой дешёвой, используемой только по причине того, что в компьютере не было предусмотрено встроенной графики) — так или иначе — игровая.

В классификации NVIDIA минимально-приличными «игровыми» вариантами можно назвать видеокарты, чей индекс заканчивается на 40 и выше: 540, 640, 740, 840 и так далее. Кроме того, сама компания NVIDIA относит к «игровым» карты с префиксом GTX, буквы GT обозначают «мультимедийные» модели. Игрушки на них запустятся, но ни шедевров в области графики, ни потрясающей производительности можно не ждать.

У ATI-AMD к аналогичному сегменту относятся видеоадаптеры, начинающиеся с R7 (для новой линейки) или имеющие индекс не ниже х5хх: 7530, например.

Все видеокарты, имеющие цифры «меньше»: NVIDIA GT820 или Radeon R5 230, скорее, конкуренты для встроенной в процессор графики. Вывести презентацию на проектор, фильм на большой экран, запустить «доту» на минимальных — потянут, но не более.

С точки зрения характеристик, описанных выше, игровой можно назвать ту видеокарту, чьи вычислительные мощности позволяют выводить графику современных игр на средних настройках с частотой хотя бы 20-30 кадров в секунду.

Достаточная производительность

Главный вопрос (помимо бюджета), который предстоит решить перед выбором дискретной видеокарты: что для вас означает «достаточная производительность»? Если вы играете в турнирные шутеры (типа CS:GO), то общая производительность видеосистемы здесь не очень критична. В такие игры играют с минимальной детализацией (для получения преимущества в простоте обнаружения цели), и главным вопросом встаёт разрешение вашего монитора: для «офисных» моделей 1280х1024 и 1376х768 или 1440х990 хватит сравнительно недорогих видеокарточек. FullHD потребует более мощную графику, но всё равно сильно не ударит по кошельку.

Если же вы рассчитываете наслаждаться преимуществами действительно крутой графики (а не той размазни, что нам показывают на консолях под видом NextGen’a), то здесь в ход идут действительно «крутые пушки»: флагманские и предфлагманские модели.

Однако не стоит забывать, что за графику отвечает не только видеокарта, но и создатель игры. Самый красивый бургер в игровой индустрии из Battlefield hardline соседствует со спрайтовыми хабариками и презервативами.

Разрешение и память

Влияние разрешения монитора на производительность графики не заметна, пока мы не переходим от классических разрешений к тому, что нам подарил прогресс: ретина-дисплеям, 4k2k-телевизорам и прочим прелестям в виде 3-6 мониторов для авиа- и авто-симуляторов.

Специалисты из THG сравнивали флагманскую видеокарту AMD 7970 с удвоенными микросхемами памяти, общий объём которых составил 6 Гб с такой же, но обладающей «обычным» набором — 3 Гб. Тестирование производилось на системе Eyefinity-6 (с помощью драйвера ATI шесть мониторов были объединены в одну систему с разрешением 11 520 на 1080 точек.

2e96e6395d9e912e2b83692eed23c6e8

Как видите, именно в такой нагруженной среде лишние гигабайты дают прирост производительности: где-то — существенный (в полтора раза), где-то — не очень. С другой стороны, одна видеокарта с таким объёмом памяти не позволяет получить приемлемых показателей по количеству кадров в секунду, так что гнаться за «лишними» гигами в играх на данный момент бессмысленно: скорее, потребуется вторая видеокарта для достижения нормального фреймрейта, чем вы упрётесь по памяти в трёхгиговую версию.

Что выбрать?

Если вы сильно-сильно стеснены в средствах, а ваш компьютер вчера взорвался (этот материал вы читаете с калькулятора на перфокартах, не иначе), то оптимальным выбором для игрушек станет покупка процессора AMD A-серии со встроенной графикой.

AMD A6-5400K обладает видеоускорителем HD 7540D, он обеспечит ~ 25-30 кадров в секунду в играх типа Dota2 или League of Legends на средних настройках с разрешением 1080p. В World of Warcraft же придётся играть на «минималках».

Если вы чуть менее стеснены в средствах, на помощь придут ускорители Radeon серии R7: 240, 250, 250X.

Их производительность примерно в полтора-два раза выше (в зависимости от версии), если сравнивать со встроенной в AMD A6 графикой.

Чуть более дорогим решением будет установка NVIDIA GTX750 / GTX750 Ti или AMD R7 260X / R7 265. Они обеспечат беспроблемное существование во всяких MOBA-играх, покажут неплохую картинку в современных гонках и шутерах и позволят не испытывать дискомфорта в online-играх. Средние настройки, FullHD разрешение — без вопросов.

Видеокарты среднего сегмента стоят несколько дороже и обладают, в принципе, сравнимой производительностью.

Вы можете ориентироваться на любую сравнительно современную видеокарту от NVIDIA (760, 960) или AMD (R9 270, 270X, 280, 280Х) — здесь вопрос, скорее, в толщине кошелька.

Залезать «выше» 70-й серии у NVIDIA и 290-й у AMD имеет смысл только в одном случае: у вас стоит монитор с разрешением 2560х1440 и выше. Впрочем, даже такие карты как NVIDIA 770 / 970 будут показывать отличные результаты на средних настройках.

О Sli и Crossfire замолвите слово

Ощутимый прирост по производительности, вы, конечно же, получите: поставив две GTX970 вместо одной 980 вы получите примерно в полтора раза больше показатели производительности и примерно такое же увеличение стоимости компьютера. Проблема заключается в том, что через пару-тройку лет вам захочется обновить видеокарту, и надо будет продавать не одну, а две старых железки, и потеряете вы и на курсе доллара, и на том, что железка подешевела втрое. Каждая. Добавьте сюда дополнительные мощности БП, за которые необходимо будет также заплатить… В общем, финансовая картинка не из самых приятных.

Вторая неприятность: драйверы и игры. Не во всех играх производительность двух видеокарт в связке будет существенно выше, чем одной, но более мощной.

Разные производители

Не смотря на то, что разрабатывают дискретные видеоускорители две компании: NVIDIA и AMD, производством и модернизацией «базового» дизайна занимаются многие вендоры: самые популярные — ASUS, MSI, Gigabyte, EVGA. Чуть менее популярные, но часто встречающиеся — Sapphire, Zotac, XFX. Остальные производители, обычно, относятся к сегменту «лоукостеров» и постоянно пытаются на чём-нибудь экономить (в основном — на питании), выбирать их варианты видеокарт стоит только если у вас нет в запасе 5-10% стоимости железки на «спать спокойно». В любом случае, у нас отличный гарантийный сервис, и если что с видеокарточкой и случится, вам её без проблем заменят или отремонтируют.

В основном производители изменяют дизайн цепей питания, увеличивают рабочие частоты, создают разной извращённости системы охлаждения и меряются длиной гарантии. Об отличиях можно почитать, загуглив конкретную модель видеокарты, например, ASUS ROG MATRIX-GTX780TI – такая карточка может выдавать на 3-5% более высокие показатели, чем какой-нибудь аналог от Gigabyte или MSI. В целом, ориентироваться надо на отзывы в магазине, обзоры и результаты бенчмарков. Панацеи и гарантированного решения в виде Z лучше, чем Y — нет.

Общие советы

Видеокарты устаревают очень и очень быстро. Если вы берёте компьютер на несколько лет вперёд — не гонитесь за флагманской моделью самого свежего поколения: она стоит неадекватных денег, и нередко через год теряет до 50% стоимости даже на полках магазинов. Присмотритесь к флагманам или пред-флагманам прошлого поколения, их производительность не будет сильно отличаться от моделей этого года, а вот цена может приятно порадовать.

Выбирайте видеокарту под своё железо и потребности. Модели из топовых сегментов стоят дорого, более того, если производительность разных видеокарт за 100 и 200 долларов могут отличаться в два-три раза, то разница между 200 и 300-долларовыми экземплярами может быть в скромные 10%: например, если вы играете в Dota-подобные игры или гоняете в «Картошку» — разницы между NVIDIA 760 и NVIDIA 980 вы не увидите, особенно если ваш процессор — старенький двухъядерный Intel Core i3. 🙂

Апгрейд видеокарты имеет смысл проводить, если вас совершенно не устраивает производительность: обычно прирост «синтетической» производительности между поколениями (4xx и 5xx, 5хх и 6хх и т.д. у NVIDIA) составляет около 10-15%, реальной — вдвое меньше. Менять вашу NVIDIA 560 на 660 или 760 нет смысла, а вот замена её на 960-ю (800-е поколение по непонятным причинам маркетологи пропустили) — вполне здравое решение. И прирост производительности будет ощутимый, и энергопотребление немного снизится, и памяти будет больше.

Источник