Ноут от Samsung’а и его Linux’ы. Часть 7: видео в попугаях

Алексей Федорчук

Едва только я разместил предыдущую заметку, как коллективный разум Джуйки дал мне несколько советов по измерению относительной производительности видеочипов.

Одним из них я не приминул немедленно воспользоваться, а именно — утилитой glxgears. Увы, мои предположения, высказанные на основе extreme tuxracer’а, оказались ошибочными: во всех трёх режимах энергосбережения (в том числе и отсутствия оного) она показала одинаковые значения: около 60 fps.

Я не очень представляю, много это или мало в понятиях «попугаеметрии» видеочипов. Поэтому могу высказать три предположения:

  1. Первое, наиболее вероятное, — что никакого переключения видеочипов в зависимости от режима энергосбережения не происходит, и вахту обработки 3D всё время несёт дискретный GeForce.
  2. Второе, противоположное, — что GeForce не работает вовсе, а Intel’овский HD Graphics 3000 в части 3D развился до такой степени, что обеспечивает гладкость спецэффектов и уверенное поведение пингвина в extreme ruxracer.
  3. И, наконец, третье, самое пессимистическое: glxgears просто даёт неверные результаты.

Основанием для последнего предположения служит фраза, выводимая при запуске этой утилиты:

OpenGL implementations are not optimized for frame rates >> 60fps, thus these numbers are meaningless when compared between vendors.

Из которой следует, что, поскольку текущая реализация OpenGL не оптимизирована для значений fps более 60, выше указанного порога они не имеют смысла. Так что надо будет поискать других «попугаев», среди предложенных в Джуйке, но это потребует некоторого времени.

В заключение хочу выразить благодарность всем участникам вот этого обсуждения. Благодаря ему я теперь представляю, в какую сторону копать дальше.


К содержанию

Ноут от Samsung’а и его Linux’ы. Часть 7: видео в попугаях: 8 комментариев

  1. 60 — это хорошо. Это значит, что FPS ограничен(привязанн) частотой VSync и сцены успевают рендериться с частотой обновления экрана, а больше не имеет смысла и приведет к лишней нагрузке. ТуксРайсер, современные intel’овскией карты тянут вполне.

    «переключения видеочипов в зависимости от режима энергосбережения не происходит» — а кто обещал, что такое переключение будет происходить?!

    Optims — это безголовая Nvidia. Т.е. — запустить X’ы на Nvidia можно. но сама карта не выводит видео на реальный монитор (у нее железно нет такой возможности, на сколько я понял), а отправляет уже срендеренную картинку в Intel. Поэтому, Bumblebee, запускает две копии X’ов и при запуске приложений через скрипт «optirun», окно этого приложения выводится на вторые, nvidia’вские, X’ы, а оттуда, через специальный VGLTransport(что и является основной фичей Bumblebee), картинка возвращается в X’ы с Intel’ом.

  2. glxgears даёт неверные результаты, так как это не бенчмарк. 60 фпс — так как включена вертикальная синхронизация. Смотреть на результаты glxgears бессмысленно.

  3. Вообще, раньше меряли встроенным бенчмарком в Quake 3 Arena. Как сейчас — я не знаю.

  4. пункт 2 ближе к истине. народ в винде на этой карте в 3д шутеры играет.

  5. Поддерживаю предыдущего оратора, гораздо больше похоже, что нвидиевский чип просто не работает (для работы эффектов рабочего стола и туксрэйсера решения от Intel выше крыши). Вдумчивое чтение лога иксов должно пролить свет на эту тему.

  6. Будем ждать, пока автор узнает о dmesg. Уже то, что о VSync узнал, радует. Да уж, количество лет, проведенных в Linux, никак не коррелирует с глубиной знаний, зато обоина в KDE красивая. Прошу прощения за тон, но записки столь уважаемого человека не отличаются большей смысловой нагрузкой, чем у начинающих убунтуводов.

  7. Забыл упомянуть о логах Xorg, их тоже следует прочесть.

  8. 2 iv_vl Должен Вас разочаровать — автор уже лет 15 знает за dmesg :)

Обсуждение закрыто.