Что такое адаптивная синхронизация?

Вот один неоспоримый факт: в последние несколько лет на рынке РС ноутбуков было продано больше, чем настольных компьютеров. Это неизбежный побочный эффект мобильной революции, в результате которой сегодня мы живем в мире, в котором пользователи компьютеров больше не хотят быть «на якоре» в одном месте. Вместо этого они хотят использовать их в движении, в любое время, в любом месте, как им заблагорассудится.

Для большинства современных моделей это не проблема – современные конфигурации ноутбуков обеспечивают молниеносную скорость в таких сценариях использования, как веб-серфинг, работа с офисными приложениями, просмотр фильмов и прослушивание музыки.

С играми, однако, ситуация обстоит немного по-другому. Традиционно они являются одними из самых «жадных» на аппаратные ресурсы компьютерных приложений, предъявляющих исключительно высокие требования к характеристикам системы. А поскольку современные мобильные технологии все еще требуют определенного уровня компромисса между производительностью и энергоэффективностью, даже самый мощный (и дорогой) ноутбук игрового класса не может обеспечить производительность уровня настольного ПК, оснащенного компонентами последнего поколения.

Но это может остаться в прошлом благодаря очень интересной технологии под названием «Адаптивная синхронизация». За нее мы должны благодарить компанию NVIDIA, которая, хотя и не может быть названа ее создателем, внесла наибольший вклад в коммерциализацию этой технологии.

С ее помощью совсем скоро игровые ноутбуки будут иметь возможность предложить игровой опыт сопоставимый по качеству с таковым у их настольных аналогов, причем без решительных компромиссов с точки зрения эффективности использования энергии.

Синхронизация кадров и почему это проблема для геймеров?

Если вы читали материалы, в которых обсуждается игровая производительность той или иной конфигурации, вы, вероятно, заметили, что в них авторы часто ссылаются на один конкретный показатель – 60 кадров в секунду. Для большинства геймеров заветные 60 fps являются своего рода «Святым Граалем» высококачественного компьютерного гейминга, но причина этого связана не с компьютерным «железом», а с характеристиками современных ЖК-дисплеев.

Сегодня большинство дисплеев, особенно те, которыми оснащаются мобильные компьютеры, используют фиксированную частоту обновления. Это один из ключевых показателей каждого монитора, который указывает на то, сколько раз в секунду обновляется изображение, отображаемое на нем.

Другой параметр, который уже относится непосредственно к видеокарте, известен как «Количество кадров в секунду» (frames per second или просто fps) и его название говорит само за себя: это количество игровых кадров, которые могут быть обеспечены соответствующей конфигурацией для создания реалистичной иллюзии движения.

Чтобы получить максимальные игровые переживания, эти два показателя должны быть синхронны – т.е. оборудование компьютера должно обеспечивать 60 кадров в секунду, которые монитор будет визуализировать с частотой обновления 60 Гц. В этом идеальном случае вы увидите на экране картинку, которая будет плавной, без мерцаний, разрывов или размытия.

Увы, на практике такого никогда не будет. Причина заключается в том, что любой современный дисплей работает с фиксированной частотой обновления 60 герц (хотя в некоторых мониторах частота составляет 120-144 Гц). Однако количество кадров в секунду обязательно варьируется, то есть этот показатель не может быть постоянным. Например, в игре с открытым миром одна и та же система может выдавать 50+ кадров в закрытых помещениях (т.е. производительность, близкую к заветным 60 fps), но на открытых локациях показатель может быстро проседать до 30-40 кадров в секунду. На слабых конфигурациях разрыв между частой обновления дисплея и количеством кадров в секунду будет еще больше.

Проблема дополнительно усложняется еще и тем, что количество кадров в значительной степени зависит от выбранного уровня графических настроек и разрешения в игре. Так, например, определенная конфигурация может гарантировать 50-60 fps и относительно комфортную игру при разрешении 1280 х 720 пикселей и среднем уровне детализации. Однако стоит увеличить разрешение до Full HD (1920 х 1080 пикселей), а визуальные параметры до уровня Ultra, и производительность «рухнет» до 10-20 кадров в секунду, что на практике сделает игру «неиграбельной».

Решение проблемы

Что такое адаптивная синхронизация?

До недавнего времени традиционным ответом на проблемы синхронизации между монитором и компьютером (видеокартой) была V-Sync. Иначе говоря, «вертикальная синхронизация». Это грубый, но относительно эффективный способ, который на практике заставляет игровой движок синхронизироваться с частотой обновления дисплея.

Увы, это решение имеет один серьезный недостаток: работает правильно только в том случае, если каждый следующий кадр визуализируется менее чем за 1/60 секунды. Если подготовка кадра занимает больше времени, то при следующем цикле обновления дисплея он просто не будет готов к визуализации. Соответственно видеокарте придется визуализировать его снова. К сожалению, это случается с большинством современных видеокарт – даже самого высокого класса, а видимым результатом всего этого становятся раздражающие задержки изображения и другие неприятные побочные эффекты.

Именно тут вмешиваются NVIDIA с идеей так называемой «адаптивной синхронизации», которая в их случае стала известна как G-Sync. Это противоположность V-Sync, которая принуждает монитор синхронизироваться с игрой, а не наоборот. Таким образом, даже если аппаратные средства (видеокарта) в состоянии обеспечить, скажем, 30 кадров в секунду, это не будет особой проблемой, потому дисплей системы будет синхронизирован с ней и будет работать с частотой обновления 30 Гц.

Эта технология может оказаться манной небесной для всех геймеров и особенно для тех, кто играет на ноутбуках, которые традиционно предлагают меньшую игровую производительность по сравнению с настольными ПК.

Не только плюсы

Что такое адаптивная синхронизация?

На бумаге G-Sync звучит чудесно и имеет потенциал обеспечить высокое качество игры даже на слабых ноутбуках, которые иначе только могут мечтать о заветных 60 кадрах в секунду. На практике, однако, все не так просто – особенно в отношении имплементации G-Sync в мобильных компьютерах.

Проблема в том, что для реализации адаптивной синхронизации монитор компьютера нуждается в дополнительном модуле, который динамически регулирует частоту обновления в соответствии с количеством кадров в секунду. Этот модуль дорогостоящий и, что еще хуже – требует достаточно много энергии, что делает его нецелесообразным дополнением, по крайней мере, в ноутбуках, для которых вопросы, связанные с потреблением энергии являются особенно болезненными.

Такова ситуация с G-Sync была в 2013 году, когда NVIDIA впервые анонсировала эту технологию. Тем не менее, компания продолжила активно работать над развитием концепции адаптивной синхронизации, и в результате миру недавно была представлена Mobile G-Sync – разновидность оригинальной идеи, разработанная специально для использования в портативных компьютерах.

Mobile G-Sync

Что такое адаптивная синхронизация?

Основным плюсом новой модификации технологии является отсутствие необходимости в отдельном аппаратном модуле синхронизации. Вместо этого Mobile G-Sync использует возможности одного из самых современных интерфейсов – embedded DisplayPort (eDP), которым оснащается большинство ноутбуков нового поколения.

В мобильном варианте G-Sync предоставляет собой скорее софтверный, нежели аппаратный метод адаптивной синхронизации. В его основе лежит сложный математический алгоритм, который пытается предвидеть с высокой точностью способность видеокарты подготовить следующий, предназначенный для визуализации кадр, и с учетом этого настраивает частоту обновления дисплея.

Конечно, достижение 100-процентной точности в данном случае невозможно, но даже приблизительный результат дает серьезное отражение на качестве игрового опыта.

Плюсы Mobile G-Sync очевидны: более гладкое воспроизведение даже на слабых аппаратных конфигурациях, при этом без увеличения потребления энергии. Но, к сожалению, технология имеет и свои слабые стороны. Как уже упоминалось, достижение абсолютной точности в прогнозировании кадра невозможно. Именно по этой причине алгоритм отчасти жертвует точностью цветопередачи за счет фиксированной частоты обновления и более гладкого воспроизведения.

Более неприятный побочный эффект от практической реализации этой технологии заключается в том, что Mobile G-Sync и NVIDIA Optimus являются взаимоисключающими. Как вы, возможно, знаете, последняя является популярной функцией, которая позволяет динамически переключаться между встроенным в центральный процессор графическим ядром и дискретной (GeForce) видеокартой. Так, при работе с легкими задачами, такими как, скажем, просмотр интернета и редактирование документов, ноутбук может использовать интегрированное видео, которое потребляет значительно меньше энергии, чем дискретный графический адаптер.

Однако для работы Mobile G-Sync дисплей ноутбука должен быть подключен непосредственно к дискретной видеокарте (с маркой NVIDIA, разумеется). Это на практике исключает участие встроенного в процессор графического ядра и делает Mobile G-Sync и Optimus взаимоисключающими.

По словам NVIDIA, это не существенная проблема, особенно для моделей ноутбуков с графическими процессорами нового поколения – Maxwell, которые являются чрезвычайно энергоэффективными. Тем не менее, это важный компромисс, на который придется пойти многим OEM-партнерам компании, если они решат предложить Mobile G-Sync как опцию в своих игровых ноутбуках следующего поколения.

Конечно, в отсутствие независимых тестов все еще не очень ясно, насколько большим будет этот компромисс и в какой степени использование Mobile G-Sync за счет Optimus отразится на времени автономной работы.

Другой вопрос, что даже самые продвинутые модели ноутбуков не могут предложить особенно впечатляющей автономности – особенно на фоне сверхэффективных мобильных систем, таких как ультрабуки последнего поколения.

Но учитывая тот факт, что речь идет об узкоспециализированных портативных конфигурациях, предназначенных для специфичной аудитории (геймеры), которые отдают предпочтение пиковой производительности, то подобная жертва в плане времени работы от аккумулятора вряд ли может оказаться смертельной в том случае, если Mobile G-Sync выполнит обещание обеспечить действительно существенное повышение качества игрового опыта.

Рейтинг
( Пока оценок нет )
Понравилась статья? Поделиться с друзьями:
CompSch.com