МегаГайд по мониторам, ч.3 : скорость

Третья часть мегагайда посвящена скоростным параметрам мониторов – в первую очередь разобраны время отклика и частота обновления экрана, разобраны различные нюансы связанные с ними. Также разобраны технологии синхронизации, технологии вставки черного кадра улучшающие визуальную динамическую четкость, разобран ШИМ.

Расшифровка третьей части (лучше смотреть на видео)

Часть три. Скорость. Отклик, герцы, Free и G-sync и тиринги, ШИМ, ULMB.

Перейдем к третьему ключевому параметру мониторов. Частоте обновления или «герцовке».

Когда то давно, во времена ЭЛТ мониторов герцовка в 60гц считалась крайне плохой — мониторы тогда мерцали на каждом кадре, т. к. кадры создавались такой очень быстро бегающей сканирующей полосой, и надо было хотябы 85гц чтобы мерцание не так сильно утомляло глаза. Но хорошими условиями работы считались когда мониторы, на нужном разрешении могли выдавать 100 или 120гц. У элт мониторов пользователь мог выбирать как предпочитаемое разрешение так и частоту но там была обратная зависимость — чем выше ставишь разрешение, тем ниже была частота.

Потом пришли ЖК мониторы у которых мерцания картинки не было т. к. картинка строится по совершенно другому принципу и 60гц на долгие годы стали нормой. (Вообще мерцание бывало и жк но об этом позже)

Однако по ходу прогресса, примерно в начале 2010ых стали появлятся выраженно «игровые» модели у которых частоту снова удвоили до прежних 120гц.

Зачем это вообще нужно? Для плавности картинки в играх.

Возможно, вы слышали, что человеку для восприятия быстро сменяющихся картинок как плавного изображения достаточно 24кадров в секунду, поэтому такая частота и стала стандартом в кино. Это и так и не так. При определенных условиях — да, достаточно для восприятия непрерывного движения, т. е. если сделать еще ниже — мы начнем уже замечать, что движение не непрерывное а из отдельных сменяющихся кадров. И даже на 24гц не всегда хватает — на самом деле киношники использует некоторые приемы и избегают некоторых ситуаций когда изображение будет на экране выглядеть плохо как раз изза низкой изначальной частоты. Вот знаменитый ролик такого косяка в кино, который, зато, стал тестовым роликом для проверки уплавнялок в телевизорах. Тут довольно быстрый поворот камеры, так называемое «панарамирвоание» при 24кадрах — и изза этого при отсутствии програмных ухищрений картинка выражено дискомфортная, дерганная.

Ну вообщем, ты понял – 24 кадра — это тот минимум, который нужен, чтобы в КИНО получить плавное движение на экране. Вот только если выдать в два раза выше — любой человек сразу увидит, что движение стало намного более плавным и реалистичным. Каждый из вас в курсе, что при 60 фпс намного более плавный и комфортный геймплей чем при 30фпс – хотя играть можно и на 30 кадрах если уж комп не тянет а игра суперская. Вообщем, 60 лучшей чем 24 или 30гц. Кстати, если тебе вдруг стало интересно, почему в кино обычно хватает и 24кадров — там используется так называемый моушен блюр или размытие в движении, слишком быстрые движения размываются довольно близко к тому, что мы видим в жизни, и мы обычно не замечаем, что фпс в кино такой низкий.

В играх история другая — в играх и моушен блюр прикрутить получается немного криво и в играх мы не просто созерцатели а еще и участники, мы управляем движением камеры, мы часто делаем резкие движения камерой — вообще повышение частоты для нас самый перспективный путь получить визуальный динамический комфорт.

Поэтому повышение частоты хотябы до 60гц — так важно.

Но и дальнейшее увеличение частоты по прежнему заметно глазу, и если монитор будет отрисовывать не 60 а больше — это будет лучше в играх. Хотя и тут есть нюанс – каждое следующее удвоение — все более сложное технически при том что дает все меньше «отдачи» в плане повышения визуальной четкости и плавности. Это часто встречающееся в технике явление «снижающейся отдачи».

Ну т. е. повышение отображемых 30 кадров в секунду до 60 вызывает очень заметное на глаз, очень сильное повышение плавности геймплея. А вот повышение с 60 до 120 — уже куда менее заметное. Вроде бы мне гдето попадался тест, в котором около 15% людей просто не заметили такой разницы. Но тут надо учитывать условия — как правило, заметить повышенную частоту может быть не так просто в шутере, но вы, например, очень легко увидите ее на быстро движушейся в 2D картинке — вот я записал уфотест. Сейчас вы смотрите 60фпс ролик записанный на 120фпс камеру которая снимала 120гц экран. Как видите, даже когда после сжатия видео пропала половина кадров — все равно видно, что тарелка на 120гц летает плавнее. А вот я сделал замедление в 2 раза чтобы вы видели все кадры — конечно, замедленная съемка всегда слишком утрирует но так хорошо заметно, в чем преимущество 120гц монитора. Только имейте в виду – это самый заметный сценарий в котором разница видна всегда и всем.

Но вот другой пример — это съемка 120гц экрана в шутере. Как видите, разница уже совсем не так сильно бросается в глаза.

Еще момент о которым вы, наверное и сами догадались — субъективность. Глаза и нервная система у всех разные. Ктото поиграв на быстром игровом мониторе где 100-144гц или больше уже не может возвращаться на 60гц. А ктото и разницы то не увидел.

При этом надо помниться, что герцы монитора — это не одно и то же что FPS в играх. Герцы — это возможность именно монитора обновлять картинку определенное число раз в секунду. Это необходимое условие. Но не достаточное. Чтобы увидеть все эти кадры, которые способен отобразить монитор — надо чтобы в этой конкретной игре ваш компьютер выдавал соответствующее количество кадров в секунду. Если вы на 144гц мониторе играете в игру, и ваш компьютер вытягиывает только около 60фпс — вы будете по плавности иметь почти тоже самое, как если бы вы и играли на 60гц мониторе — т. е. чтобы получить плавные 144гц надо чтобы и карта выдавала больше 100фпс в игре.

На 2020ый год уже лет десять, как жк мониторы начуились выдывать больше 60гц и мониторы у которых эти самые 60гц считаются «офисными» или рабочими. А «игровыми» считаются только мониторы, способные выдавать от 100гц и выше. Наиболее типичное значение — 144гц. Передний край на сегодня — мониторы, выдающие 240гц но уже анонсированы 360гц модели и вполне возможно, что когда вы смотрите этот ролик они уже есть в продаже.

Кстати, в кои то веки отличная новость — игровой монитор умеющий 100+гц — это однозначное улучшение. Т.е. такой монитор ничем не хуже офисного (кроме цены), его картинка никак не ухудшается, никаких недостатков не возникает. Он только лучше, так как способен отображать в секунду больше кадров. Аллилуя братья, в первый раз за три выпуска я могу сказать вам про выбор монитора, чтото однозначное — что вот чем больше герцев — тем лучше а не это доставшее «смотрите своими глазами».

Хотя, конечно, и тут от субъективщины не уйти. У тех, кто никогда не сталкивался возникает вопрос — а сколько же герц мне надо? Стоит ли переплачивать за эти игровые 144гц? Ответ все тот же — субъективно. Причем зависит и от предпочитаемых игр и от субъективного восприятия. В целом — как я уже сказал эти мониторы всегда лучше. Но они и заметно дороже — как минимум в полтора раза дороже соответствующих не игровых мониторов. Да и комп желательно иметь такой, чтобы на нем можно было в большинстве игр иметь все же от 100 и выше фпс.

Насколько стоит платить за частоту 240гц? Опять же, вопрос субъективный. Более того — сам я пока не видел таких мониторов и даже как своем мнение не могу советовать. Ну только еще раз могу напомнить, что даже переход с 60 на 144гц уже не такой заметный какой он был при переходе 30фпс в игре на 60фпс. А переход со 144гц на 240гц, очевидно, будет еще менее заметным. С другой стороны, ЦА таких моделей это люди с киберспортивными амбициями и они всегда хотят максимально лучшее железо.

А реклама быстрых мониторов разумеется будет давить на эти их чуства — вот, например, такой ролик. Смотрите, на 240гц явно круче целиться! Надо брать! Но притормозите на секунду и обратите все же внимание, что вы смотрите замедленное в стопицот раз видео. А ирл, при нормальной игре а не замедленной съемке разница будет ну совсем не такая уж впечатляющая.

Говоря о герцах, стоит снова немного вернуться к скорости отклика, и поговорить о ней поподробнее в контексте еще и герцев.

Как вы должны были запомнить, попытка обозначить скорость отклика матрицы одной цифрой — бессмысленно. Отклик зависит от того, с какого именного исходного состояния («угол поворота» и соответствующий ему оттенок серого) на какой целевой «угол» сабпикселу надо повернуться. В результате, замерив кучу вариантов получаем вот такую табличку.

—- табличка—-

Вот типичный показатель хорошей игровой TN. Вот показатель VA. Вот IPS “типичной» игровой не самый новый, а вот IPS самый новый и быстрый.

Если внимательно посмотреть, можно заметить, что у VA, например, в целом показатели хорошие но вот есть проблемная зона где отклик растет просто чудовищно, до десятков МС. Можно увидеть, что у тн действительно есть переходы на скорости 1мс но даже у лучшей самой новой модели в среднем все же около 2мс. Видим, что у IPS похуже но выше VA а новые почти подобрались к TN. Прогресс идет.

Вот прям сейчас, перед съемкой я сделал новую правку в текст гайда — появился VA монитор у которого на темных переходах снижение совсем не такое сильное а в целом матрица по скорости просто огонь. Прогресс реально идет. Еще вчера про все VA я говорил что есть особенность с медленными темными переходами и вот уже появилось первое исключение.

У многих возникает вопрос «а сколько милисекунд надо» – вопрос опять же неоднозначный. Формально, большое время отклика добавляет так называемых «шлейфов» – таких хвостов остаточных избражений при быстром движении. Чем короче, тем лучше. А вот с понятием достаточно не понятно — сейчас вроде как неплохим считается, когда средняя скорость переходов — чтото около 10мс, хороим — когда около 7, а экраны с 5мс и ниже — скоростные игровые модели. С другой стороны люди раньше прекрасно играли на мониторах, скорость которых по нынешним меркам слабая. Тут можно опять сослаться на субъективность. Если вам важно — просто берите игровую модель у которой есть нормальные тесты и в них скорость назвали хорошей — скорее всего вам хватит. За редким исключением само наичии частоты в 100гц и выше является некой гарантией, что с монитором все отлично в плане скорости. Нюансы — те самые проблемные VA матрицы или персональные желания иметь совсем уж быстрый отклик.

Ок, по отклику надеюсь понятно.

Теперь добавим сюда еще такой параметр как время кадра. Это то время, когда монитор собственно показывает нам картинку, прежде чем сменить ее на следующий кадр.

Герцовка и время кадра очевидно вытекают друг из друга. Если частота обновления монитора 60гц то на один кадр приходится 16мс. Герцовка в 144гц означает, что один кадр длиться уже 7мс. А при 240гц на один кадр остается 4мс. Если мы имеем матрицу с некоторым средним откликом в 9мс и запускаем ее на 144гц, очевидно, в среднем пикселам не хватает 2мс чтобы полностью принять нужную позицию за один кадр. По началу может показаться что беда-беда, если панель не может уложиться в окно кадра, то все эти герцы превращаются в фуфел? Ан нет, ирл эффект частоты все равно отлично заметен, а время отклика проявляется в той самой «длинне шлейфов» причем по факту они как правило на глаз не особенно заметны а видно их больше ну например в тесте уфо, который специально так сделан чтобы там было заметно. Получается, что какието пиксели будут успевать повернуться за «окно» а какието не будут но в целом будет хватать для формирования вполне понятной картинки. Тем не менее, понятно, что желательно время отклика снижать и желательно чтобы как можно больший процент умещался в это самое «окно» кадра. Для людей, которых этот вопрос заботит, в тестах с недавно времени даже начали одельно высчитывать степень пролазания отклика матрицы в это самое «окно» времени кадра.

Общее правило — чем быстрее матрица в плане отклика пикселей — тем лучше, т. к. эти самые шлейфы у нее будут короче. Правда, и тут не все так просто — частично шлейфы появляются изза тормознутых пикселей но частично — изза инерции нашего зрения и даже у оледов с 0.1мс отклика есть шлейфы, и для борьбы с этим придумали специальный трюк но и об этом позже.

Кстати, говоря про скорость пикселей расскажу что такое овердрайв.

Для ускорения времени отклика в мониторах давным давно и повсеместно принимается так называемый «разгон». Это чисто технологический трюк как заставить пикселы крутиться быстрее подавая на них больше напряжения и теория его работы пользователю не важна. Фактически, никакого смысла для пользователей это слово давно не несет, это просто такой устоявшийся термин. В почти всех «обычных» мониторах и даже в многих игровых вендор просто давно выбрал тот показатель «разгона» который для матрицы оптимален и его настройки в мониторах нет — какой выставили таким и пользуйся. Но в некоторых моделях вы можете выбрать этот пресет. В чем тут нюанс — этот самый разгон, если применять его слишком агрессивно ускоряя скорость поворота жидких кристалов, в тоже время создает чтото типа сбоев в их работе, т. е. они могут слишком уже перекрутится и кратковременно показать не тот цвет, который надо, что визуально выглядит обычно как такие белые ореолы быстродвижущихся объектов там, где их быть не должно и их называют «артефактами разгона». Фактически, эти ореолы превращаются в аналог шлейфа, только другого цвета. И смысл разгона до такой степени как правило теряется, т. к. хоть формально пикселы и работают быстрее, но по факту мы вместо одного шлейфа видим другой, причем более заметный.

Настройки же, когда они есть, позволяют выбирать из нескольких вариантов компромиса. Но почти всегда бывает 1-2 значения, которые представляют из себя оптимум — артефакты отсутствуют или почти незаметны а скорость уже хорошая. Так что пользователю просто не надо про это думать. Но если хочется и монитор позволяет менять этот параметр — можно эксперементировать.

Input Lag.

Инпут лаг — это задержка электроникой монитора кадра перед тем, как показать его на экране.

Ну т. е. Вот карта выдала кадр, и отправила его на монитор. Монитор кадр читает и както обрабатывает – помните, монитору надо быстренько сообразить какие сабпикселы на сколько повернуть чтобы сформировать изображение а на самом деле у него обычно есть какаято своя внутренняя обработка исходного сигнала т. к. вы же настроили у монитора какие то персональные параметры. На этот процесс обработки каждого кадра требуется время. Это время и есть «инпут лаг» или если по русски – задержка входа. Чем меньше эта величина, тем лучше, т. к. тем быстрее экран отображает наши действия. Как правило, даже у офисных мониторов довольна маленькая задержка — в основном это не больше 20-30милисекунд (часто — гораздо ниже, 10мс и ниже) и как правило это вполне достаточно для комфортной работы за монитором. Игроманам, разумеется, всегда всего мало, и у игровых мониторов лаг как правило отдельно очень небольшой, ниже 10мс, у некоторых моделей около 1мс или даже меньше. Это совершенно незаметный инпут лаг.

Где инпут лаг бывает такой большой, что это реально мешает играть или работать — ну пожалуй сейчас такое можно встретить только у телевизоров когда у них НЕ включен игровой режим — там часто бывает очень большой лаг, до 100мс и работать в таком режиме крайне не комфортно — просто водя мышкой по ощущениям курсор как будто плавает в желе. Это связано с большим количеством всяких обработок которые любят напихать в телевизор. Поэтому у них есть и игровой режим, в котором обработки все отключаются а лаг становится небольшим, достаточным для игр.

Короткий вывод — в игровых моделях сейчас тоже можно просто забыть про этот параметр. Да и в офисных как правило тоже. Но если вы чемпион мира по контерстрайку — просто проконтролируйте по обзорам перед покупкой, какой лаг у монитора, который вы собираетесь купить.

СИНКИ.

А сейчас про синки т. е. про технологии синхронизации частоты с фреймрейтом которые Freesync и G-sync. Тема замореченая, и богатая мифами, предеться объяснять много.

Представьте игру. Вот есть монитор со своей частотой в герцах и реальные фпс, которую выдает ваша карта. «Герцы» а точнее время кадра, выдаваемые монитором есть велечина постоянная, т. е. Если у монитора 60гц, то каждые 16мс (1000ms/60 = 16) он обновляет картинку. Как устроен процесс взаимодействия с видеокартой? Наша видеокарта рендрит кадры потоком. Все кадры всегда имеют динамически изменяющуюся сложность — в игре всегда чтото происходит, какието объекты попадают в кадр, какието уходят из кадра, число полигонов меняется, световые источники двигаются — вообщем, каждый кадр видеокарта рендрит за разное время. Очевидна нестыковка — видеокарта доделывает кадр не одновременно с тем, как эти кадры обновляет монитор. Внутри это все устроено так, что с рендренный кадр видеокарта помещает в так называемый «фрейм буфер», откуда его и считывает монитор. Как только видеокарта заканчивает новый кадр, она мгновенно меняет хранимый в фреймбуфере кадр на этот новый.

Как мы помним — это все время происходит за разное время. А вот экран монитора обновляется со своей не совпадающей частотой. И постоянно случается ситуация, когда монитор кадр обновляет а прямо посреди этого процесса видеокарта хоп, и подменила кадр. Допустим, это произошло в момент, когда мы двигали мышком перемещая виртуальную камеру — тогда половинка изображения окажется сдвинутой относительно другой. Изображение будет как бы немного надорванным — это явление так и назвали – «разрыв» или по английски «tearing”.

Многим игрокам тиринг по боку, но вот некоторых раздражает. И тогда разработчики придумали такую уловку — можно заставить видеокарту иметь не один а два фреймбуфера, при этом в одном всегда держать кадр который в данный момент обновляет монитор, а во втором — последний. И менять их местами только в моменты обновлений монитором картинки. Это полностью исключает ситуацию, когда монитор пол картинки рисует один кадр а еще полкартинки — другой, т. е. Полностью убирает разрывы. Эту технологию назвали «вертикальной синхронизацией» или V-sync. Т.к. работает она со стороны видеокарты абсолютно на любом мониторе можно активировать V-sync. Вот только есть одна проблема — заставляя вк всегда ждать монитор мы сознательно создаем дополнительную задержку входа, а реально отображаемая частота кадров начинает в некоторых ситуациях скачками меняться. Т.е. вот один кадр видеокарта успела сделать за 15мс и получилось «в самый раз» – новый кадр пролежал в буфере всего 1мс и практически сразу подошло время смены на мониторе и видеокарта поменяла фреймбуферы, мы имеем реальный фпс около 60. Но допустим в следующем кадре сложность сцены возросла и карта успела срендрить его только за 17мс — в результате получается, что т. к. за один полный цикл монитора видеокарта не успела подготовить новый кадр, то два раза будет показан старый. Т.е. фактический фпс рекзо просел в два раза — до 30.

Некоторым игрокам пофиг на такие скачки. А некоторых — очень раздражает, они чуствуют тот самый «эффект желе» или «дерганное управление».

Мы имеем дилему — или отключить V-sync и терпеть тиринг или включить Vsync и терпеть лаги.

Тут я хочу отметить — множество людей не будут страдать ни по первому ни по второму поводу, какое-то количество либо отдельно не любят разрывы либо отдельно не любят лаги от V-sync. Но какоето количество – одновременно не любит ни то ни другое.

Для помощи таким ребятам была придумана возможность уже одновременно и со стороны монитора и со стороны видеокарты синхронизировать свои частоты. Работает это на пальцах довольно просто — видеокарта выдает кадры по прежнему с той скоростью, с которой успевает рендрить, а монитор обновляет их по мере готовности. Т.е. если видеокарта выдала новый кадр через 7мс (соответствует 144гц) — монитор будет обновляться на 144гц. Если сложность выросла, и карта рендрит за 20мс — монитор автоматом снижает частоту обновления до примерно 50 необходимых герц. Ну т. е. по факту у монитора как будто бы и нет частоты обновления — он ждет каждый кадр и обновляет его по мере появления. Разумеется, максимальная частота по прежнему будет ограничена сверху, например 144гц.

В результате мы имеем одновременно и отсутствие лага и отсутствие разрывов.

Технологии, которое это делают должны ОДНОВРЕМЕННО совпадать на мониторе и на видеокарте. Технология от АМД называется Freesync а от nvidia – G-sync. Причем версия от нвидии работает на отдельном аппаратном блоке, который должен быть в мониторе и стоит отдельных денег. Наличие этого блока увеличивало цену монитора примерно на 100-150 долларов, таким образом G-sync был (да и остается) технологией «премиальных» или «топовых» мониторов. С учетом что фрисинк от АМД условно «ничего не стоит» есть ли смысл платить за модуль?

Ну первый момент, технология эта работает на определенном диапазоне частот (например 40гц-144гц) и G-sync “в среднем по больнице» обычно имеет более широкий диапазон. Во вторых, долгое время эти технологии были несовместимым между собой. Т.е. бесплатный фрисинк работал только с картами от АМД и если у тебя Nvida (а они более распространены) то фрисинк в мониторе не работал — и наоборот, гсинк модуль не работал с амд. С недавних пор ситуация изменилась, нвидия милостливо разрешила и своим картам работать с фрисинкам, так что преимущества наличия г-синк осталось только в более широком диапазоне частот. И понтам.

В момент, когда хуанг расшедрился и разблокировал в дровах эту фичу они не применули уколоть АМД, проведя этакую «сертефикацию» мониторов и заявили, что только несколько фрисинковых моделей из целой кучи протестирвоанных как бы прошли тест. Т.е. включить можно, но работает типа несупер. Вендоры быстро повернули носы поветру и сейчас все новые мониторы идут уже с сертефикацией, что все заработает как надо.

Во всей этой истории с синками есть два важных нюанса:

во первых, как вы могли заметить, все что делают эти технологии — это убирают тиринг не добавляя дополнительного лага. Т.е. играть с дорогим г-синком — это точно также, как играть с просто выключенным в-синком (бесплатно) но еще и тиринга не будет. Но когда эти технологии появились, их довольно активно рекламировали, при этом некоторые журанлисты которых толи немного «подогрели», толи им и правда так сильно понравилось… вообщем, они написали слишком уж хвалебные материалы. По прочтению которых у людей возникало ощущение, что эти фрисинк или гсинк — они создают в играх какуюто особую, прям волшебную плавность фреймрейта. Этот миф оказался на удивление живуч и многие люди, ищущие мониторы очень впечатлялись и хотели себе монитор ну вот обязательно что бы с синками (т. е. Если ты владелец нвида — чтобы у монитора был гсинк) . При том что по факту, никакого особого дискомфорта от разрывов или от всинка они, может быть и не испытали — на самом деле, если специально не тыкать пальцем, большинство людей просто не обращали никогда внимания на какието там разрывы т. к. в игре ты вообщемто погружен в процесс. Ну или если включен всинк — они и знать не знали, что там чтото меняется по плавности управления. Т.е. по факту, людей и так совершенно не парило, а озаботились синками очень многие сугубо после рекламы.

Во вторых — технологии эти придумались во времена, когда почти все мониторы были 60гц а игровых было очень мало. Тут какая штука — сама проблема тиринга тем менее выражена чем ниже частота монитора, причем тут даже не важно (ну почти не важно) какой у вас фреймрейт выдает видеокарта. Чем выше частота в герцах у монитора — тем КОРОЧЕ т.е. менее заметны эти самые разрывы. Допустим, тиринг на 60гц в игре достигает 50пикселов — довольно заметно. На 144гц мониторе будет в 2.4 раза короче — всего 20пикселов, плюс «улетать» с экрана он тоже будет быстро, ведь наши кадры могут сменяться на 144гц мониторе также в 2.4 раза быстрее.

Короче, проблема тиринга на скоростных игровых мониторах — значительно менее актуальна сама по себе. Все это снижает актуальность г-синка и фрисинка и вобобще, забиванием головы на эту тему.

Ну и для галочки — со временм бесплатный в-синк проапгрейдили до более интеллектуального уровня и назвали fast sync ом. Этот тот же всинк но более умно работающий в случаях, когда частота фреймрейта превышает герцовку монитора. Вообщем, сейчас мы имеем ситуацию, когда почти на каждом игровом мониторе уже и так можно активировать фрисинк или г-синк, при этом актуальность проблемы куда ниже чем была.

Тем не менее, тема синков — еще одна тема с массой споров о нужности, и с изучением конкретных значений роста лага и прочего. Если вам все же это важно и интересно — есть отдельные исследования на эту тему. Там люди и связь с лагами ищут и вообще обмусоливают как могут. Велком в гуглы.

Сам я считаю, что как минимум для игровых мониторов с высокой частотой важность синков как правило сильно переоценена.

Краткое резюме для небольшого снижения уровня винегртности в голове: да забейте и вообще не думайте.

Ну ладно ладно, если серьезно то так: далеко не всех людей парит тиринг сам по себе. Актуальнее всего проблема тиринга для слабых систем — когда и монитор не дорогой на 60гц, и система не очень мощная, даже 60фпс толком выдать в интересующей игре не может. Вот тогда тиринг проявляется наиболее заметно а если включить бесплатный V-sync / Fast-Sync то эффект скачущего инпут лага тоже наиболее заметный. Если система немного подороже и тянет 60фпс стабильно — мы с включенным фастсинком не видим никаких проблем. Если система еще дороже и у нас 144гц то мы опять имеем тиринг но скорее всего не замечаем его т. к. «разрывы» незначительные. Если в данной игре наша система вызает больше часоты мониторы мы опять же без каких либо проблем от бесплатного v-sync(fast-sync) убираем разрывы.

В каких случаях себя проявят Freesync или G-sync? У нас должен быть уже монитор с этой технологией. Freesync идет условно бесплатно поэтому может быть даже в достаточно бюджетных мониторах а вот г-синк до сих пор признак «уровня» и ставится в основном только в топовые модели. Пригодится любая из технологий в играх, в которых система не сможет вытаскивать фпс выше частоты монитора, что актуально для 144гц и больше мониторов — тогда все равно не будет никаких разрывов. Степень актуальности — смотри выше. Лично я рекомендую не акцентироваться на этих технологиях всем, кроме тех кто точно уверен, что ему важно никогда не видеть тиринга и при этом не увелчивать лаг.

Уплавнялки

Как было сказано выше в разеделе частоты — чем выше частота, тем лучше. И чем ниже отклик — тем тоже лучше. Становится даже понятно, что если бы у нас был нулевой отклик, то и «шлейфов» бы никаких у LCD мониторов не было бы а в играх мы бы наблюдали идеально четкую картинку.

Внезапно, хихи, это не так. Даже на оледах, с их можно сказать, моментальным временем отклика быстро движущаяся картинка для нашего глаза будет размазываться. Как это происходит объяснять долго, и кому интересно — есть отдельные материалы на это тему, велком в гуглы. А в двух словах — это происходит из-за инерционности нашего собственного зрения. У нас сетчатке как бы на время запечатляется одна фаза движения и когда монитор показывает нам следующую фазу (кадр) он прям у нас в глазах как бы наслаивается на предидущий, а в результате мы имеем общее размазанное движение. В жизни, кстати, происходит нечто аналогичное — все наверное замечали, что очень быстрое движение выглядит смазанным. Этот эффект даже используют в фотоснимках и кино, чтобы показать быстрое движение. Он как раз изза этого — разные фазы движения наслаиваются у нас на сетчетка создавая размытое изображение.

Так вот, оказалось, что этот эффект наслоения можно, что называется, хакнуть. Можно вставлять между изображениями с фазами движения черный кадр, и он будет как бы стирать с нашей сетчатки предидущее изображение, т. е. каждую фазу мы будем видеть очень четко. Простой пример этого многие видели в жизни — это стробоскопы на дискотеках. Когда его включают возникает забавный эффект как будто в каждый момент вспышки мы видим моментальные фотографии застывших людей. Вот тот же трюк придумали для игровых мониторов, только там частоты моргания гораздо быстрее и сам процесс моргания мы не видим.

Технология вставки черного кадра может называться у разных компаний совершенно по разному и реализована тоже по разному.

Вот списочек возможных вариантов

Motion Blur Reduction

Black Frame Insertion (BFI, обычно в тв)

  • LightBoost (by NVIDIA)
  • ULMB – Ultra Low Motion Blur (by NVIDIA)
  • PureXP – Pure Experience (by ViewSonic)
  • DyAc – Dynamic Accuracy (by BenQ ZOWIE)
  • ELMB – Extreme Low Motion Blur (by ASUS)
  • VRB – Visual Response Boost (by Acer)
  • Aim Stabilizer – (by AORUS / Gigabyte Technology)
  • MotionFlow Impulse (by Sony)
  • 1ms MPRT (by LG) — up to 16x clearer motion than “1ms GtG“!

Как можно заметить — компании стыдливо прячут суть технолоогии, маркетологи во всю напирают на конкретный эффект уменьшения Motion Blur’а (размытия движения). В телевизорах эту же технологию могут называть более прямолинейно BFI – black frame insertion. Суть у всех вариаций одна и та же, но реализовано по разному, более или менее удачно.

Отдельный сайт, которые много лет очень тщательно занимается всеми этими скоростными вопросами- блюрбастерс.

https://blurbusters.com/faq/motion-blur-reduction/

В рунете технологию часто называют или ULMB – так технологию называла нвидия, или просто «уплавнялка». Ремарочка — в темах про телевизоры уплавнялкой часто называют другую штуку, когда телек дорисовывает промежуточные кадры создавая эффект мыльной оперы — это совершенно другая штука.

Самое важное про эту технологию… ну что вставка черного кадра – это стробоскоп. Монитор моргает вам в глаза на частоте герцовки. Т.е. 144гц монитор моргает вам в глаза с частотй 144гц. Люди не видят такую частоту мерцания но вот негативный эффект от нее некоторые получить могут. Чуствительность тут индивидуальная. Некоторые люди очень ценят ту визуальную динамическую четкость, которую дает уплавнялка при этом не замечают для себя никаких негативных моментов. Некоторые люди не замечают ни негативных эффектов, ни какогото особо явного улучшения четкости в играх. Я, например, отлично вижу, что активация ULMB действительно явно увеличивает динамичекую четкость на тарелочках — специальном тесте от блюрбастерс. Но вот в играх я никакого особенного улучшения не вижу. Насколько я мог судить изучая отзывы — как раз у большинства людей похожая реакция. В тесте — видно. В играх — чет както не особо то.

А некоторые люди в первую очередь отмечают негативный эффект от активации уплавнялок, т. е. стробоскопа — у них начинают быстро уставать или даже болеть глаза, может начать болеть голова. У некоторых негативный эффект возникает сразу а у некоторых спустя полчаса или час.

Вообщем, это штука строго индивидуальная. Некоторым очень нравится и очень нужна, а другие пробуют один раз и больше никогда эту функцию не активизируют. Значительная часть, скорее всего — большинство — включает один раз посмотреть, особого эффекта ирл не замечает и выключает от греха. Зачем моргать себе в глаза почем зря.

Кстати, как знают многие олдфаги — этот самый режим был по сути неотключаемой особенностью старых ЭЛТ мониторов и кстати тогда считался сильным недостатком. А сейчас вот есть отдельные секты людей, очень скучающих по ЭЛТ и по его особенному, не такому как у всех мерцанию тех экранов ))

Если ты обязательно хочешь, чтобы у монитора была эта фича — проверь это дело отдельно. В отличии от синков, далеко не в каждом игровом мониторе есть уплавнялка. На множестве интересных моделей ее не делают, т. к. ну см выше это штука спорная и не такая уж мегапопулярная а вот вопросы к вендору вызывать может.

Некоторые вендоры наоборот, уделяют моргалкам очень много внимания, делают свои уплавнялки более изощренные чем у других и отдельно это дело продвигают. Но копания в сортах уплавляк тут не будет — мне эта тема не интересна, так что если вдруг стало очень интересно — ищи инфу по отличиям Dyarc от ULMB от ELMB итд в других местах.

ШИМ

Ну и очень близкая тема к предидущей — это ШИМ. Или снова мерцание подсветки. Только уже не как фича а как недостаток.

История такая: вот был ЭЛТ. Он мерцал, за это их заслуженно ругали, т. к. нормально работать за таким экраном можно было только выставить герцовко повыше но у мониторов была прямая связь между доступной им герцовкой и разрешением.

Потом все потихоничку перешли на ЖК мониторы у которых принцип был другой, без мерцания. Правда на самом деле это не совсем так. Мониторы тогда имели подсветку основанную на так называемых лампах с холодным катодом — CCFL. Чтобы управлять ярокстью такого монитора использовали трюк — можно было быстро включать и выключать подачу питания, в результате лампа как бы вспыхивала на короткое время и т. к. люминфор лампы имел некоторое послесвечение, а у глаза человека, как мы помним, есть некоторая инерционность. А в результате можно управляя частотой подачи тока на лампу регулировать число вспышек и тем самым — результирующую яркость. Такой способ регулировки и называется ШИМ — широтно импульсная модуляция.

Как, может быть помнят чуть менее старые олдфаги, через какоето время по планете пошел бум светодиодов — все, что светится стали переводить на диоды, которые намного экономичнее. В том числе переводили и подсветку мониторов с телевизорами, при чем первое время в лучших традициях маркетологов это выдавали за некое особое преимущество. Вот только вскоре вылез неожиданный косяк — управлением яркостью по привычке часто оставалось на ШИМ основе, вот только никакого послесвечения у диодов нет – они вспыхивают и гаснут мгновенно, и коэфициент пульсаций у таких мониторов оказался высоким. Как я говорил выше, некоторым людям пофиг на строб но некоторым — очень даже не пофиг. И вот когда эти ребята стали иногда нарываться на мониторы мерцающие на частотах немногим выше 100 гц — начались проблемы. Вскоре, про проблему стало известно, и во всех приличных обзорах монитор обязательно проверят на наличие ШИМ. Впрочем, когда этим озаботились покупатели, производители тоже озаботились и сейчас у абсолютно большинства мониторов шим не испольуется или используется на очень высоких частотах. К слову, рекомендации конкретно по России предписывают избегать пульсаций на частоте до 300гц. Считается, что после 300гц человек уже практически никак не воспринимает пульсации, для него все сливается в один сплошной поток. ИРЛ, там все несколько сложнее и важен процент пульсаций но измерить его без спец приборов все равно невозможно так что проще запомнить про 300гц. Ну и еще раз повторю — на данный момент проблема фактически не актуальна, во всяком случае в сегменте более менее приличных мониторов которые берут на обзоры — ШИМ там практически не встречается.

Краткое резюме по скоростной теме в мониторах:

Игровыми моделями сейчас считаются мониторы от 100гц, типично 144гц, самые быстрые идут уже с 240гц, а на пороге 360. Прикинь, ты сидишь на 60гц а ктото покупает экран в шесть раз быстрее.

Чем больше герц у монитора — тем лучше. Недостаток у быстрых моделей только один — цена. Ну и меньший выбор.

По синкам: У любого игрового монитора уже будет как минимум Freesync, сама технология не такая уж для всех актуальная так что рекомендую не париться.

Так же рекомендую не забивать голову инпут лагом, овердрайвом и временем отклика матрицы — скорее всего по всем этим скоростям любой новый монитор тебя устроит. Но если хочется — велком в пучину тестов))

По уплавнялке — она может быть в мониторе а может и нет, то, что моник игровой и быстрый тут ничего не гарантирует. Если важно — проверь это дело отдельно. По нюансам разных типов моргалок — на блюрбастер или в ролики, где это отдельно изучают.