5 советов по обнаружению поддельного контента, созданного искусственным интеллектом
В последнее время количество видеороликов, созданных с помощью искусственного интеллекта, стремительно растёт, размывая грань между правдой и фейком. Чтобы не попасться на удочку, вот несколько простых советов, которые помогут вам отличить достоверный контент.
По мере стремительного развития искусственного интеллекта становится всё сложнее отличить реальность от фейка в интернете. Благодаря таким инструментам, как Sora от OpenAI и Veo от Google, стремительно растёт популярность не только статичных изображений, но и видеороликов, созданных искусственным интеллектом. Это делает различение фактов от вымысла невероятно сложной задачей.

В настоящее время возможности программ для обнаружения видео, созданных с помощью ИИ, ограничены, за исключением тех, что ориентированы на обнаружение дипфейков. Поэтому нам приходится полагаться в основном на свою наблюдательность и личную проницательность. Вот несколько ключевых признаков, которые могут помочь распознать фейковое видео, созданное с помощью ИИ.
1. Созданные искусственным интеллектом фейковые видеоролики часто не подчиняются законам физики.
Один из самых простых способов распознать фейковое видео, сгенерированное ИИ, — проверить, подчиняется ли оно законам физики. В реальном мире стаканы не левитируют, жидкости не проходят сквозь твёрдые предметы, но с Sora от OpenAI подобные нелепости возможны.
Даже OpenAI признаёт, что Sora неточно имитирует базовые взаимодействия, например, разбитое стекло. При просмотре видео обращайте пристальное внимание как на основное действие, так и на детали фона, чтобы заметить любые аномалии.
И ещё, прислушивайтесь к своей интуиции. Если что-то кажется вам странным, даже если вы не можете выразить это словами, это может быть признаком того, что видео сгенерировано искусственным интеллектом.
2. Внимательно наблюдайте за реакцией окружающего мира.
Реакция окружающего мира также является важным признаком для распознавания видеороликов ИИ. В реальной жизни откусывание яблока должно привести к его исчезновению, но в мире Соры это не обязательно так.
OpenAI признаёт, что такие взаимодействия, как приём пищи, иногда не приводят к одинаковым изменениям состояния объекта. Поэтому при просмотре видео необходимо обращать внимание не только на само действие, но и на реакцию, которая на него наступает, то есть на физические последствия, изменения окружающей среды или объекта.
Например, человек ходит по песку, но не оставляет новых следов, или на пол проливается вода, но пол остается сухим, без пятен.
3. Видите что-нибудь необычное на видео?
Вы когда-нибудь смотрели видео и чувствовали, что «что-то не так», но не могли сразу понять, что именно? Это распространённая ситуация при просмотре видео, созданных искусственным интеллектом.
Аномалии могут быть очевидными, но иногда это всего лишь мимолетная, неопределённая деталь, которая заставляет вас остановиться и спросить себя: «Какой момент заставил меня почувствовать себя некомфортно?» Именно эти мелкие детали часто выявляют несоответствия в логике работы виртуального мира, создаваемого ИИ.

Например, в одном из видео мы видим человеческую руку, тщательно рисующую ветку цветущей вишни. Мазки кисти непрерывно движутся, картина проявляется постепенно, но, как ни странно, цвет мазков внезапно меняется, хотя кисть ни разу не окунулась в палитру. Это типичный пример «тонких ошибок», которые зрителям следует заметить.
4. Попробуйте «обратную трассировку», заново создав видео.
Другой подход, помогающий пользователям оценить подлинность видеороликов, созданных ИИ, — попытаться «отследить» их заново, воссоздав видео.
Энтузиасты генератора изображений в текст Midjourney экспериментируют с подходом «обратной трассировки». Они внимательно изучают видео, сгенерированные Sora, затем переписывают описания, максимально приближенные к оригиналу, и загружают их в Midjourney для создания неподвижных изображений.
Результаты показывают, что во многих случаях видео Соры — это просто «движущиеся фотографии Midjourney». Это демонстрирует тесную связь между моделями создания изображений и видео и поднимает вопросы об истинном уровне креативности Соры.
Если вы хотите задействовать больше чувств при анализе видео, попробуйте что-то похожее. Представьте описание, которое, по вашему мнению, соответствует сцене, и пропустите его через инструмент преобразования текста в изображение, чтобы проверить, насколько оно похоже.
Затем выполните поиск в Google, чтобы проверить, не взято ли видео из каких-либо общедоступных источников. Этот метод не идеален, но он служит полезным «компасом» для определения того, смотрите ли вы на подлинное видео или на творение искусственного интеллекта.
5. Всегда будьте бдительны и обновляйте свои знания в области технологий.
Технология искусственного интеллекта для создания видео из текста пока находится в зачаточном состоянии, но развивается чрезвычайно быстро. Модели искусственного интеллекта способны за короткое время создавать высокодетализированные видеоролики, которые зрителям будет сложно отличить от поддельных.
Это означает, что риск быть обманутым контентом, генерируемым ИИ, растёт. Лучший способ не стать жертвой — научиться «развиваться» вместе с технологиями, что означает постоянное обновление своих знаний, отслеживание новых инструментов и оттачивание навыков анализа изображений и аудио.