Нейросети стремительно развиваются, и то, что раньше казалось фантастикой, теперь создается в пару кликов. Однако чем совершеннее технологии, тем больше возможностей для их злоупотребления. Фейковые ролики набирают популярность и могут использоваться для мошенничества, манипуляций и дезинформации. Как определить, настоящее ли видео или сгенерированное AI? Рассмотрим на примерах.
1. Нереалистичные детали
Современные нейросети часто выдают себя через нереалистичные детали — например, странную анатомию рук с лишними пальцами или неестественно гладкую кожу без пор и морщин. Также стоит обращать внимание на нелогично падающие тени и отражение объектов.
В видео, где пожилая женщина якобы купает ручного носорога, отражение в зеркале странным образом раздваивается, выдавая цифровую подделку.
2. Размытый фон
Особенно показательным может быть фон: нейросети часто создают размытые, неестественно гладкие или абстрактные текстуры, лишённые привычных деталей. Предметы на заднем плане могут «плыть» в пространстве, их границы иногда выглядят нечёткими или неестественно сливаются с окружением.
Нейросеть сгенерировала полноценный клип, однако в моменте, когда мужчина идет по коридору из часов, на заднем плане сидит девушка в странной позе с размытым лицом.
3. Физика движений
Резкие, подобные роботам жесты, отсутствие плавной инерции при поворотах головы или неестественно скользящая походка сразу бросаются в глаза. Кроме того, персонажи в таких роликах часто взаимодействуют с окружением странным образом: предметы могут невесомо находиться в руках, а касания поверхностей выглядеть «пустыми», без реального физического контакта.
В официальном видео с демонстрацией возможностей Sora, нейросети для генерации видео от OpenAI, появляется собака, которая неестественно высовывает язык и передвигается словно в замедленном действии.
4. Повторяющиеся паттерны
Нейросети, особенно в сложных сценах, могут копировать одни и те же элементы: абсолютно идентичные листья на деревьях, зеркально отраженные узоры на одежде или одинаковые черты лиц у разных людей в толпе. Иногда такие повторы выглядят как «зацикленные» фрагменты, например, птицы в небе повторяют одинаковые маневры. В реальной съемке подобного не встретить – природа всегда создает уникальные вариации.
В еще одном видео от Sora волны на воде движутся по одной траектории, а под конец ролика вовсе резко исчезают.
5. Эффект «зловещей долины»
Этот феномен объясняет чувство тревоги, возникающее при взгляде на объект, который балансирует на грани между человеческим и искусственным. Суть эффекта в том, что наш мозг улавливает диссонанс: мы ощущаем, что перед нами ненастоящий человек, но не можем сразу определить, какие именно детали нас настораживают — неестественная мимика, застывший взгляд или странная пластика движений.
Например, в этом видео, сгенерированном Google Veo 3, мужчина выглядит слишком «идеальным», что сразу вызывает недоверие.
Для выявления видеороликов, сгенерированных ИИ, также существуют специализированные сервисы, такие как Hive AI Detector, InVID WeVerify и Deepware Scanner. Однако ни один из детекторов не гарантирует абсолютной точности, поэтому наиболее эффективный подход — сочетать их использование с тщательной ручной проверкой.