На сгенерированных ИИ видео люди и животные двигаются слишком легко
Предметы подпрыгивают без логики, а капли воды летят неправдоподобными дугами
Нейросети достигли таких высот, что теперь могут создавать видео с идеально синхронизированным голосом и движениями всего лишь на основе нескольких слов. Однако, чтобы отличить такие видео от реальных, стоит обратить внимание на физику движений. Как пояснил ведущий эксперт в области ИИ "Университета 2035" Ярослав Селиверстов, искусственный интеллект не всегда точно передает массу, инерцию и силу тяжести, сообщает Приморье 24 со ссылкой на РИА Новости.
Современные нейросети, такие как Sora от OpenAI, Runway Gen-2 и Gen-3, Pika 2, Synthesia, Kaiber, а также голосовые движки ElevenLabs и Coqui.ai, способны создавать фотореалистичные ролики с идеально синхронизированными голосами и движениями. Ранее для генерации видео требовались недели рендеринга и гигабайты данных, но сейчас достаточно всего лишь пары слов.
Тем не менее, есть способы распознать ИИ-видео. В первую очередь, стоит обратить внимание на физику движений: ИИ не всегда адекватно передает массу и инерцию, из-за чего люди и животные могут казаться слишком легкими в движении, а предметы ведут себя нелогично, например, подпрыгивают без причины или капли воды летят по странным траекториям.
В реальной съемке движения тела всегда взаимодействуют с окружающей средой через небольшие неровности и непредсказуемые траектории. ИИ пока не может воспроизвести эту сложную кинетику живого мира.
Еще одним признаком использования ИИ являются ошибки в освещении и тенях. В сгенерированных видео часто можно заметить несколько источников света, которые не совпадают по направлению, а тени могут падать неправильно или вовсе отсутствовать.
Также стоит обратить внимание на фон: он часто выдает генерацию. Например, деревья могут повторяться, лица прохожих выглядят как нарисованные, а надписи могут превращаться в неразборчивый текст. Особенно это заметно по краям кадра.