По поводу того что вы ставили в CODE, хотелось бы увидеть пруф линк на источник, чтобы оценить его авторитетность, ибо такая уж ахинея...
По поводу вашего итога:
Sauron писал(а):То есть простым языком: фильмы - статические кадры , игры - динамически генерируемые. Думаю понятно, если хочешь читай педивикию дальше сам, что-то надоело переводчиком работать.
Понятное дело что знаний никаких у вас нет и ожидать иных выводов от вас не приходится, но давайте все таки немного подумаем и по рассуждаем над тем почему fps для фильмов и fps для игр не различают в отдельные понятия, коль скоро из вашего объяснения они такие разные. Логично предположить что раз есть разница, то и называть нужно по разному, к примеру mfps и gfps, однако, по какой то причине так никто не делает, вопрос почему?
А дело в том, что механизм формирования любого изображения одинаков. Отличие только в исходном материале.
Если у нас фильм, то это бинарная информация, это не лист бумаги с изображением, который мы берем и показываем в мониторе
Это закодированный кадр который мы генерируем. Я не совсем понял назначение слова "динамически" (изменяемое, меняющееся) в приведенном вами контексте, так как даже в фильме картинки не одинаковые, а меняются, именно по этому мы видим не стоящего человека, а человека идущего.
Но, вернемся к нашим бананам.
Положим вы запустили игру GOW3, видеокарта получила инструкцию(бинарные данные о которых я писал выше) нарисовать голову Кратоса, смысл в том, что видеокарта не рисует бесконечный динамический кадр, как думаете вы и тот человек на информацию которого вы ссылаетесь, это физически не возможно, видеокарта рисует одну статическую(!) картинку. Это и есть наш первый кадр. За одну секунду PS3 успевает нарисовать 60 таких кадров, это и есть кадры в секунду(frame per second).
Как видите, тут нет никаких ваших динамически генерируемых кадров, но есть вполне статические да еще ограниченного количества.
Двигаемся дальше, ищем ответ на вопрос, почему же разработчики бьются за повышение фреймрейта.
У нас есть монитор с конкретной частотой обновления. Я не буду усложнять свой рассказ посылами в физиологию, да и в прочем, вы и без меня отлично знаете что оптимальное мерцание для глаза это минимум 60 раз в секунду. Да, вы правильно поняли, изображение не рисуется на мониторе в реальном времени динамически! Тут все те же статические кадры которые меняются 60 и более раз в секунду
Теперь обратимся к арифметике, и так, у нас есть экран который меняет рисунок 60 раз в секунду, т.е. если в игре что то происходит, то вы узнаёте об этом в ту же секунду, но только при условии что ваша видеокарта так же рисует 60 кадров в секунду.
А теперь предположим что у нас 30 кадров, несложным вычислением, мы получаем что один и тот же кадр мы видим два раза! Иными словами, ситуация в игре изменилась, а мы узнаем об этом только спустя 200ms! Следовательно и отреагировать мы можем только с запозданием.
Но это не образовывает никаких глюков и теневых следов, упаси бог. Это уже инерционность матрицы в жк мониторах и фотоэффект люминесцентного покрытия в CRT трубках! Именно по этому в спецификации ЖК мониторов всегда указывают величину этой инерционности, вернее, время отклика матрицы - время за которое она "сотрет" старый кадр и "нарисует" новый.
Теперь, с высоты своего нового знания, прошу еще раз прочитайте ту ересь которой пытались меня учить и посмейтесь вместе со мной