какой параметр самый важный в видеокарте
Руководство покупателя игровой видеокарты
Последнее обновление от 28.09.2012
Основные характеристики видеокарт
Современные графические процессоры содержат множество функциональных блоков, от количества и характеристик которых зависит и итоговая скорость рендеринга, влияющая на комфортность игры. По сравнительному количеству этих блоков в разных видеочипах можно примерно оценить, насколько быстр тот или иной GPU. Характеристик у видеочипов довольно много, в этом разделе мы рассмотрим лишь самые важные из них.
Тактовая частота видеочипа
Рабочая частота GPU обычно измеряется в мегагерцах, т. е. миллионах тактов в секунду. Эта характеристика прямо влияет на производительность видеочипа — чем она выше, тем больший объем работы GPU может выполнить в единицу времени, обработать большее количество вершин и пикселей. Пример из реальной жизни: частота видеочипа, установленного на плате Radeon HD 6670 равна 840 МГц, а точно такой же чип в модели Radeon HD 6570 работает на частоте в 650 МГц. Соответственно будут отличаться и все основные характеристики производительности. Но далеко не только рабочая частота чипа определяет производительность, на его скорость сильно влияет и сама графическая архитектура: устройство и количество исполнительных блоков, их характеристики и т. п.
В некоторых случаях тактовая частота отдельных блоков GPU отличается от частоты работы остального чипа. То есть, разные части GPU работают на разных частотах, и сделано это для увеличения эффективности, ведь некоторые блоки способны работать на повышенных частотах, а другие — нет. Такими GPU комплектуется большинство видеокарт GeForce от NVIDIA. Из свежих примеров приведём видеочип в модели GTX 580, большая часть которого работает на частоте 772 МГц, а универсальные вычислительные блоки чипа имеют повышенную вдвое частоту — 1544 МГц.
Скорость заполнения (филлрейт)
Скорость заполнения показывает, с какой скоростью видеочип способен отрисовывать пиксели. Различают два типа филлрейта: пиксельный (pixel fill rate) и текстурный (texel rate). Пиксельная скорость заполнения показывает скорость отрисовки пикселей на экране и зависит от рабочей частоты и количества блоков ROP (блоков операций растеризации и блендинга), а текстурная — это скорость выборки текстурных данных, которая зависит от частоты работы и количества текстурных блоков.
Например, пиковый пиксельный филлрейт у GeForce GTX 560 Ti равен 822 (частота чипа) × 32 (количество блоков ROP) = 26304 мегапикселей в секунду, а текстурный — 822 × 64 (кол-во блоков текстурирования) = 52608 мегатекселей/с. Упрощённо дело обстоит так — чем больше первое число — тем быстрее видеокарта может отрисовывать готовые пиксели, а чем больше второе — тем быстрее производится выборка текстурных данных.
Хотя важность «чистого» филлрейта в последнее время заметно снизилась, уступив скорости вычислений, эти параметры всё ещё остаются весьма важными, особенно для игр с несложной геометрией и сравнительно простыми пиксельными и вершинными вычислениями. Так что оба параметра остаются важными и для современных игр, но они должны быть сбалансированы. Поэтому количество блоков ROP в современных видеочипах обычно меньше количества текстурных блоков.
Количество вычислительных (шейдерных) блоков или процессоров
Пожалуй, сейчас эти блоки — главные части видеочипа. Они выполняют специальные программы, известные как шейдеры. Причём, если раньше пиксельные шейдеры выполняли блоки пиксельных шейдеров, а вершинные — вершинные блоки, то с некоторого времени графические архитектуры были унифицированы, и эти универсальные вычислительные блоки стали заниматься различными расчётами: вершинными, пиксельными, геометрическими и даже универсальными вычислениями.
Впервые унифицированная архитектура была применена в видеочипе игровой консоли Microsoft Xbox 360, этот графический процессор был разработан компанией ATI (впоследствии купленной AMD). А в видеочипах для персональных компьютеров унифицированные шейдерные блоки появились ещё в плате NVIDIA GeForce 8800. И с тех пор все новые видеочипы основаны на унифицированной архитектуре, которая имеет универсальный код для разных шейдерных программ (вершинных, пиксельных, геометрических и пр.), и соответствующие унифицированные процессоры могут выполнить любые программы.
По числу вычислительных блоков и их частоте можно сравнивать математическую производительность разных видеокарт. Большая часть игр сейчас ограничена производительностью исполнения пиксельных шейдеров, поэтому количество этих блоков весьма важно. К примеру, если одна модель видеокарты основана на GPU с 384 вычислительными процессорами в его составе, а другая из той же линейки имеет GPU с 192 вычислительными блоками, то при равной частоте вторая будет вдвое медленнее обрабатывать любой тип шейдеров, и в целом будет настолько же производительнее.
Хотя, исключительно на основании одного лишь количества вычислительных блоков делать однозначные выводы о производительности нельзя, обязательно нужно учесть и тактовую частоту и разную архитектуру блоков разных поколений и производителей чипов. Только по этим цифрам можно сравнивать чипы только в пределах одной линейки одного производителя: AMD или NVIDIA. В других же случаях нужно обращать внимание на тесты производительности в интересующих играх или приложениях.
Блоки текстурирования (TMU)
Эти блоки GPU работают совместно с вычислительными процессорами, ими осуществляется выборка и фильтрация текстурных и прочих данных, необходимых для построения сцены и универсальных вычислений. Число текстурных блоков в видеочипе определяет текстурную производительность — то есть скорость выборки текселей из текстур.
Хотя в последнее время больший упор делается на математические расчеты, а часть текстур заменяется процедурными, нагрузка на блоки TMU и сейчас довольно велика, так как кроме основных текстур, выборки необходимо делать и из карт нормалей и смещений, а также внеэкранных буферов рендеринга render target.
С учётом упора многих игр в том числе и в производительность блоков текстурирования, можно сказать, что количество блоков TMU и соответствующая высокая текстурная производительность также являются одними из важнейших параметров для видеочипов. Особенное влияние этот параметр оказывает на скорость рендеринга картинки при использовании анизотропной фильтрации, требующие дополнительных текстурных выборок, а также при сложных алгоритмах мягких теней и новомодных алгоритмах вроде Screen Space Ambient Occlusion.
Блоки операций растеризации (ROP)
Блоки растеризации осуществляют операции записи рассчитанных видеокартой пикселей в буферы и операции их смешивания (блендинга). Как мы уже отмечали выше, производительность блоков ROP влияет на филлрейт и это — одна из основных характеристик видеокарт всех времён. И хотя в последнее время её значение также несколько снизилось, всё ещё попадаются случаи, когда производительность приложений зависит от скорости и количества блоков ROP. Чаще всего это объясняется активным использованием фильтров постобработки и включенным антиалиасингом при высоких игровых настройках.
Ещё раз отметим, что современные видеочипы нельзя оценивать только числом разнообразных блоков и их частотой. Каждая серия GPU использует новую архитектуру, в которой исполнительные блоки сильно отличаются от старых, да и соотношение количества разных блоков может отличаться. Так, блоки ROP компании AMD в некоторых решениях могут выполнять за такт больше работы, чем блоки в решениях NVIDIA, и наоборот. То же самое касается и способностей текстурных блоков TMU — они разные в разных поколениях GPU разных производителей, и это нужно учитывать при сравнении.
Вплоть до последнего времени, количество блоков обработки геометрии было не особенно важным. Одного блока на GPU хватало для большинства задач, так как геометрия в играх была довольно простой и основным упором производительности были математические вычисления. Важность параллельной обработки геометрии и количества соответствующих блоков резко выросли при появлении в DirectX 11 поддержки тесселяции геометрии. Компания NVIDIA первой распараллелила обработку геометрических данных, когда в её чипах семейства GF1xx появилось по несколько соответстующих блоков. Затем, похожее решение выпустила и AMD (только в топовых решениях линейки Radeon HD 6700 на базе чипов Cayman).
В рамках этого материала мы не будем вдаваться в подробности, их можно прочитать в базовых материалах нашего сайта, посвященных DirectX 11-совместимым графическим процессорам. В данном случае для нас важно то, что количество блоков обработки геометрии очень сильно влияет на общую производительность в самых новых играх, использующих тесселяцию, вроде Metro 2033, HAWX 2 и Crysis 2 (с последними патчами). И при выборе современной игровой видеокарты очень важно обращать внимание и на геометрическую производительность.
Собственная память используется видеочипами для хранения необходимых данных: текстур, вершин, данных буферов и т. п. Казалось бы, что чем её больше — тем всегда лучше. Но не всё так просто, оценка мощности видеокарты по объему видеопамяти — это наиболее распространенная ошибка! Значение объёма видеопамяти неопытные пользователи переоценивают чаще всего, до сих пор используя именно его для сравнения разных моделей видеокарт. Оно и понятно — этот параметр указывается в списках характеристик готовых систем одним из первых, да и на коробках видеокарт его пишут крупным шрифтом. Поэтому неискушённому покупателю кажется, что раз памяти в два раза больше, то и скорость у такого решения должна быть в два раза выше. Реальность же от этого мифа отличается тем, что память бывает разных типов и характеристик, а рост производительности растёт лишь до определенного объёма, а после его достижения попросту останавливается.
Так, в каждой игре и при определённых настройках и игровых сценах есть некий объём видеопамяти, которого хватит для всех данных. И хоть ты 4 ГБ видеопамяти туда поставь — у неё не появится причин для ускорения рендеринга, скорость будут ограничивать исполнительные блоки, о которых речь шла выше, а памяти просто будет достаточно. Именно поэтому во многих случаях видеокарта с 1,5 ГБ видеопамяти работает с той же скоростью, что и карта с 3 ГБ (при прочих равных условиях).
Ситуации, когда больший объём памяти приводит к видимому увеличению производительности, существуют — это очень требовательные игры, особенно в сверхвысоких разрешениях и при максимальных настройках качества. Но такие случаи встречаются не всегда и объём памяти учитывать нужно, не забывая о том, что выше определённого объема производительность просто уже не вырастет. Есть у чипов памяти и более важные параметры, такие как ширина шины памяти и её рабочая частота. Эта тема настолько обширна, что подробнее о выборе объёма видеопамяти мы ещё остановимся в шестой части нашего материала.
Ширина шины памяти
Ширина шины памяти является важнейшей характеристикой, влияющей на пропускную способность памяти (ПСП). Большая ширина позволяет передавать большее количество информации из видеопамяти в GPU и обратно в единицу времени, что положительно влияет на производительность в большинстве случаев. Теоретически, по 256-битной шине можно передать в два раза больше данных за такт, чем по 128-битной. На практике разница в скорости рендеринга хоть и не достигает двух раз, но весьма близка к этому во многих случаях с упором в пропускную способность видеопамяти.
Современные игровые видеокарты используют разную ширину шины: от 64 до 384 бит (ранее были чипы и с 512-битной шиной), в зависимости от ценового диапазона и времени выпуска конкретной модели GPU. Для самых дешёвых видеокарт уровня low-end чаще всего используется 64 и реже 128 бит, для среднего уровня от 128 до 256 бит, ну а видеокарты из верхнего ценового диапазона используют шины от 256 до 384 бит шириной. Ширина шины уже не может расти чисто из-за физических ограничений — размер кристалла GPU недостаточен для разводки более чем 512-битной шины, и это обходится слишком дорого. Поэтому наращивание ПСП сейчас осуществляется при помощи использования новых типов памяти (см. далее).
Ещё одним параметром, влияющим на пропускную способность памяти, является её тактовая частота. А повышение ПСП часто напрямую влияет на производительность видеокарты в 3D-приложениях. Частота шины памяти на современных видеокартах бывает от 533(1066, с учётом удвоения) МГц до 1375(5500, с учётом учетверения) МГц, то есть, может отличаться более чем в пять раз! И так как ПСП зависит и от частоты памяти, и от ширины ее шины, то память с 256-битной шиной, работающая на частоте 800(3200) МГц, будет иметь бо́льшую пропускную способность по сравнению с памятью, работающей на 1000(4000) МГц со 128-битной шиной.
Особенное внимание на параметры ширины шины памяти, её типа и частоты работы следует уделять при покупке сравнительно недорогих видеокарт, на многие из которых ставят лишь 128-битные или даже 64-битные интерфейсы, что крайне негативно сказывается на их производительности. Вообще, покупка видеокарты с использованием 64-битной шины видеопамяти для игрового ПК нами не рекомендуется вовсе. Желательно отдать предпочтение хотя бы среднему уровню минимум со 128- или 192-битной шиной.
На современные видеокарты устанавливается сразу несколько различных типов памяти. Старую SDR-память с одинарной скоростью передачи уже нигде не встретишь, но и современные типы памяти DDR и GDDR имеют значительно отличающиеся характеристики. Различные типы DDR и GDDR позволяют передавать в два или четыре раза большее количество данных на той же тактовой частоте за единицу времени, и поэтому цифру рабочей частоты зачастую указывают удвоенной или учетверённой, умножая на 2 или 4. Так, если для DDR-памяти указана частота 1400 МГц, то эта память работает на физической частоте в 700 МГц, но указывают так называемую «эффективную» частоту, то есть ту, на которой должна работать SDR-память, чтобы обеспечить такую же пропускную способность. То же самое с GDDR5, но частоту тут даже учетверяют.
Основное преимущество новых типов памяти заключается в возможности работы на больших тактовых частотах, а соответственно — в увеличении пропускной способности по сравнению с предыдущими технологиями. Это достигается за счет увеличенных задержек, которые, впрочем, не так важны для видеокарт. Первой платой, использующей память DDR2, стала NVIDIA GeForce FX 5800 Ultra. С тех пор технологии графической памяти значительно продвинулись, был разработан стандарт GDDR3, который близок к спецификациям DDR2, с некоторыми изменениями специально для видеокарт.
GDDR3 — это специально предназначенная для видеокарт память, с теми же технологиями, что и DDR2, но с улучшенными характеристиками потребления и тепловыделения, что позволило создать микросхемы, работающие на более высоких тактовых частотах. Несмотря на то, что стандарт был разработан в компании ATI, первой видеокартой, её использующей, стала вторая модификация NVIDIA GeForce FX 5700 Ultra, а следующей стала GeForce 6800 Ultra.
GDDR4 — это дальнейшее развитие «графической» памяти, работающее почти в два раза быстрее, чем GDDR3. Основными отличиями GDDR4 от GDDR3, существенными для пользователей, являются в очередной раз повышенные рабочие частоты и сниженное энергопотребление. Технически, память GDDR4 не сильно отличается от GDDR3, это дальнейшее развитие тех же идей. Первыми видеокартами с чипами GDDR4 на борту стали ATI Radeon X1950 XTX, а у компании NVIDIA продукты на базе этого типа памяти не выходили вовсе. Преимущества новых микросхем памяти перед GDDR3 в том, что энергопотребление модулей может быть примерно на треть ниже. Это достигается за счет более низкого номинального напряжения для GDDR4.
Впрочем, GDDR4 не получила широкого распространения даже в решениях AMD. Начиная с GPU семейства RV7x0, контроллерами памяти видеокарт поддерживается новый тип памяти GDDR5, работающий на эффективной учетверённой частоте до 5,5 ГГц и выше (теоретически возможны частоты до 7 ГГц), что даёт пропускную способность до 176 ГБ/с с применением 256-битного интерфейса. Если для повышения ПСП у памяти GDDR3/GDDR4 приходилось использовать 512-битную шину, то переход на использование GDDR5 позволил увеличить производительность вдвое при меньших размерах кристаллов и меньшем потреблении энергии.
Видеопамять самых современных типов — это GDDR3 и GDDR5, она отличается от DDR некоторыми деталями и также работает с удвоенной/учетверённой передачей данных. В этих типах памяти применяются некоторые специальные технологии, позволяющие поднять частоту работы. Так, память GDDR2 обычно работает на более высоких частотах по сравнению с DDR, GDDR3 — на еще более высоких, а GDDR5 обеспечивает максимальную частоту и пропускную способность на данный момент. Но на недорогие модели до сих пор ставят «неграфическую» память DDR3 со значительно меньшей частотой, поэтому нужно выбирать видеокарту внимательнее.
Выбираем видеокарту для игрового компьютера: как сравнивать, на что смотреть
На какие характеристики обращать внимание и какие особенности учитывать? Рассмотрели всё
Видеокарты различаются сериями видеочипов, в каждой серии есть по три-пять графических процессоров. На базе этих процессоров выпускают десятки версий видеокарт — с разным охлаждением, количеством видеопамяти и разгоном. Поможем разобраться в этом хаосе.
AMD или Nvidia?
Принципиальной разницы между производителями нет. До конца 2020 года видеокарты Nvidia выдавали более реалистичную графику благодаря технологии трассировки лучей, но сейчас она есть и у AMD.
В продаже не найти заводские версии видеокарт от AMD и Nvidia. Вы покупаете версии от Gigabyte, MSI, Asus, Palit и других. На одном и том же видеочипе от AMD или Nvidia компании выпускают несколько модификаций, которые отличаются тактовой частотой, количеством памяти и системой охлаждения. И всё это влияет на цену.
Вот как прочитать название видеокарты.
С чего начать?
Очевидно — с бюджета. Решите, сколько денег вы готовы потратить на видеокарту. Но не спешите брать самую дорогую.
Например, Radeon RX 6800 при сравнимой производительности в середине 2021 года стоит на 30% дороже GeForce RTX 3070, ее конкурента от Nvidia. Чтобы не ошибиться с выбором, оцените производительность подходящих по цене видеокарт, мы расскажем об этом далее.
Выбираем видеочип
Мощность видеокарты зависит не только от видеочипа, но и от огромного количества других технических характеристик: частоты графического процессора, объема видеопамяти, разрядности шины, числа универсальных вычислительных процессоров и так далее. Но это то, с чего стоит начать.
Например, вашего бюджета хватит на GTX 1660 Super или RTX 2060. При беглом сравнении видно, что частота графического процессора у первой — 1530 МГц, а у второй — 1365 МГц. Получается, новая RTX менее производительная, чем GTX? Конечно нет! В ней более совершенная архитектура: больше графических CUDA-ядер, быстрее память.
Для сравнения чипов лучше использовать сервис UserBenchmark
. Введите в поиске название серии и номер видеочипа, например GTX 1660, и посмотрите на графы User rating (пользовательский рейтинг) и Avg. bench (средний результат).
В первой отражается пользовательский рейтинг, во второй — среднее значение в тестах на производительность. Чем значения выше, тем более мощная видеокарта.
Чтобы понять, каких результатов ожидать в играх, нажмите на название видеокарты и посмотрите замеры средней частоты кадров (количество FPS). Идеальной считается частота от 60 кадров в секунду и выше.
Производительность в играх зависит не только от видеокарты, но и от процессора, поэтому сравнивать видеокарты лучше в паре с ним. На том же UserBenchmark при клике на значок игры можно увидеть процессор, на котором она тестировалась.
Те же действия проделайте с RTX 2060. Как только решите, какой чип вам больше подходит, переходите к выбору модификации.
Стоит ли переплачивать за частоту видеопроцессора?
Чтобы ответить на этот вопрос, возьмем для примера две модификации Nvidia GeForce RTX 3060: Palit GeForce RTX 3060
Версия от Palit стоит на 15 000 рублей дешевле, но и частота графического процессора у нее — 1320 МГц, а у Asus — 1882 МГц. Выбрав более разогнанную модель, в играх вы получите на 5–10% больше кадров в секунду.
Объем видеопамяти
Количество видеопамяти в разных модификациях тоже может отличаться. Например, RX 570 встречаются как с 4 ГБ, так и 8 ГБ видеопамяти. У GTX 1060 бывает 3 ГБ или 6 ГБ видеопамяти. Если разница в цене составляет 500–1000 рублей, лучше доплатить.
Если разница в цене больше, выбирайте объем, отталкиваясь от своих потребностей в игре. Вот на какие параметры стоит ориентироваться (для ААА-проектов):
Трассировка и сглаживание: нужны или нет?
Технология трассировки лучей. Создана для того, чтобы объекты в игре выглядели максимально реалистично. Чтобы лучи света, блики и тени выглядели, как в жизни. Nvidia впервые представила эту технологию вместе с линейкой видеокарт GeForce RTX, а позже выпустила драйвер и для более ранних карт.
AMD поддержку трассировки реализовали только в Radeon RX 6000-й серии, которая начала появляться в продаже в конце 2020 года. Таких видеокарт у компании меньше, чем у Nvidia.
Учтите, что трассировка лучей снижает производительность видеокарты в играх. Вы получите более реалистичную графику, но с меньшей частотой кадров (FPS). Для топовых видеокарт это не проблема, частота кадров остается приемлемой. Но с бюджетными решениями, чтобы сохранить 60 FPS, придется снижать настройки графики.
Технологии сглаживания. Позволяют улучшить качество картинки. Контуры объектов и персонажей выглядят ровными, пропадает эффект лесенки, во время движения нет ряби.
Раньше для достижения такого эффекта в видеокартах использовались технологии TXAA, FXAA и MSAA. Но они снижали производительность: частота кадров падала до 30–40 FPS.
Современные разработки — DLSS у Nvidia и FidelityFX Super Resolution у AMD — наоборот, дают прирост производительности от 5% до 20%. То есть вместо 50 FPS можно получить стабильные 60 FPS, а вместо 90 FPS — 100 FPS. Это позволяет не снижать настройки графики при повышении разрешения и играть на мониторе с частотой обновления 80, 90 или даже 120 Гц и выше.
: какой игровой монитор купить: Acer Nitro или Asus Rog Swift?
Чтобы всё сработало, разработчики игры должны предоставить Nvidia данные для анализа или встроить в свою игру часть кода от AMD. Перед покупкой проверьте, какие игры поддерживают технологии сглаживания. Посмотрите списки для видеокарт Nvidia
Как убедиться, что видеокарта подходит ПК?
Еще один важный шаг — проверка на совместимость. Если не учесть размер и другие особенности, видеокарта может не поместиться в корпус или вовсе не заработает.
Длина и ширина
Убедитесь, что видеокарта поместится в корпус вашего ПК. В первую очередь посмотрите, какую максимальную длину видеокарты он поддерживает. Это указано в характеристиках корпуса.
Но учтите, что видеокарте могут мешать другие элементы: радиатор системы водяного охлаждения и вентиляторы. Это происходит там, где установка вентиляторов и СВО происходит во внутреннюю часть корпуса.
допускается установка видеокарт длиной до 450 мм, а при установке спереди вентиляторов — до 425 мм. Эту информацию можно найти на сайте
производителя. А если вы решите установить еще и радиатор СВО, то от 425 мм нужно будет отнять толщину радиатора.
Еще один важный параметр — ширина. Видеокарты с массивной системой охлаждения могут занимать несколько слотов расширения корпуса. Например, Palit GeForce RTX 3070 GamingPro
занимает целых три слота, через которые на заднюю стенку компьютера выводятся разъемы для подключения мониторов. Широкие видеокарты часто блокируют установку Wi-Fi-плат, звуковых карт в соседние слоты PCI-Express, которые находятся выше или ниже слота видеокарты. Как проверить?
Посмотрите, как расположены слоты на плате, и измерьте расстояние между ними. Например, в Asus ROG STRIX B450-F Gaming II
слоты PCI-Express далеко один от другого, так что видеокарта Palit, которую мы недавно упоминали, их не перекроет.
Не забудьте про питание
В технических характеристиках видеокарты указывается минимальная мощность блока питания (БП), с которым она будет стабильно работать.
В названии блока пишут суммарную мощность для всех линий питания, куда входят жесткие диски и другое оборудование. Выделяемая процессору и видеокарте мощность может быть значительно меньше. Значение можно узнать из таблицы на корпусе БП, в графе 12 В.
Обратите внимание и на разъемы питания. В описании видеокарты посмотрите, сколько блоков по 6 или 8-pin для нее требуется. И сравните эти значения с характеристиками БП (вам нужна графа «Питание видеокарты»). Там должно быть столько же блоков по 6 или 8-pin или больше, но никак не меньше, чем нужно видеокарте. Подробнее о том, как рассчитать мощность БП, смотрите в видео:
Какой у вас экспресс?
Когда говорят о разъеме подключения на материнской плате, обычно упоминают версию PCI-Express (2.0, 3.0 и с недавнего времени — 4.0). Точное количество портов и их тип указаны в графе «Слоты расширения» в характеристиках материнской платы. Как правило, порт с самой последней версией предназначен для видеокарты. У видеокарт версия PCI-е указана в характеристиках в пункте «Интерфейс».
Если у вас установлена старая материнская плата, поддерживающая формат 2.0, а видеокарта поддерживает 3.0, ничего страшного. Видеокарта будет работать с пропускной способностью младшей версии PCI-Express, хотя и медленнее. В идеале стоит выбрать видеокарту с разъемом той же версии, которую поддерживает материнская плата. Или с более высокой, если собираетесь менять плату.
А что с монитором?
Видеокарты поддерживают разные разрешения экрана и разное количество мониторов. А еще от видеокарты зависит максимальная частота кадров, которую отобразит монитор за одну секунду (частота обновления, измеряется в герцах (Гц)).
. Максимальное разрешение, которое поддерживает видеокарта, — 7 680 x 4 320, то есть она будет работать с широкоформатным монитором или телевизором 8К.
Также у видеокарты есть один порт HDMI версии 2.0b и три порта DisplayPort версии 1.4. То есть порт HDMI поддерживает Full HD с частотой до 240 Гц, 2K до 144 Гц, 4K до 60 Гц, а порты DisplayPort — Full HD/2K с частотой до 240 Гц и 4K с частотой до 120 Гц.
Чтобы понять, какие разъемы вам нужны, посмотрите на характеристики монитора. Если монитор Full HD с частотой обновления до 240 Гц, хватит HDMI 2.0b или DisplayPort 1.2a. Для монитора с 2К-разрешением и частотой 240 Гц понадобится HDMI 2.1 или DisplayPort 1.3.
При подключении посмотрите в инструкции к монитору, какая частота и какое разрешение поддерживаются на каждом из его портов. Бывает так, что максимальное качество доступно только на DisplayPort или одном из нескольких HDMI. Именно к ним и нужно подключить видеокарту.