5 советов, как распознать поддельный контент, созданный искусственным интеллектом
В последнее время количество видеороликов, созданных с помощью искусственного интеллекта, стремительно растёт, размывая грань между правдой и фейком. Чтобы не попасться на уловки, вот несколько простых советов, которые помогут вам отличить достоверный контент.
По мере стремительного развития искусственного интеллекта становится всё сложнее отличить реальность от фейка в интернете. Благодаря таким инструментам, как Sora от OpenAI и Veo от Google, стремительно растёт популярность не только статичных изображений, но и видеороликов, созданных искусственным интеллектом. Это делает различение фактов от вымысла серьёзной проблемой.

В настоящее время возможности программного обеспечения для обнаружения видео, созданного с помощью ИИ, ограничены, за исключением инструментов, ориентированных на обнаружение дипфейков. Поэтому нам приходится полагаться в основном на собственную наблюдательность и интуицию. Вот несколько ключевых признаков, которые могут помочь распознать фейковое видео, созданное с помощью ИИ.
1. Созданные искусственным интеллектом фейковые видеоролики часто не подчиняются законам физики.
Один из самых простых способов распознать фейковое видео, сгенерированное ИИ, — проверить, подчиняется ли оно законам физики. В реальном мире стаканы не левитируют, жидкости не проходят сквозь твёрдые предметы, но с Sora от OpenAI подобные нелепости возможны.
Даже OpenAI признаёт, что Sora неточно имитирует базовые взаимодействия, например, разбитое стекло. При просмотре видео обращайте пристальное внимание как на основное действие, так и на детали фона, чтобы заметить любые аномалии.
И ещё, прислушивайтесь к своей интуиции. Если что-то кажется вам странным — даже если вы не можете выразить это словами — это может быть признаком того, что видео создано искусственным интеллектом.
2. Внимательно наблюдайте за реакцией окружающего мира.
Реакция окружающего мира также является важным признаком для распознавания видеороликов ИИ. В реальной жизни откусывание яблока должно приводить к его исчезновению, но в мире Соры это не обязательно так.
OpenAI признаёт, что такие взаимодействия, как приём пищи, иногда не приводят к точно такому же изменению состояния объекта. Поэтому при просмотре видео необходимо обращать внимание не только на само действие, но и на реакцию, которая на него наступает, то есть на физические последствия, изменения в окружающей среде или объекте.
Например, человек ходит по песку, но не оставляет новых следов, или на пол проливается вода, но пол остается сухим, без пятен.
3. Видите что-нибудь необычное на видео?
Вы когда-нибудь смотрели видео и чувствовали, что «что-то не так», но не могли сразу понять, что именно? Это распространённая ситуация при просмотре видео, созданных искусственным интеллектом.
Аномалии могут быть очевидными, но иногда это всего лишь мимолетная, неопределённая деталь, которая заставляет вас остановиться и спросить себя: «Какой момент заставил меня почувствовать себя некомфортно?» Именно эти мелкие детали часто выявляют несоответствия в логике работы виртуального мира, созданного ИИ.

Например, в одном из видео мы видим человеческую руку, тщательно рисующую ветку цветущей вишни. Мазки кисти непрерывно движутся, рисунок постепенно проступает, но, как ни странно, цвет мазков внезапно меняется, хотя кисть ни разу не окунулась в палитру. Это типичный пример «тонких ошибок», которые зрителям следует заметить.
4. Попробуйте «обратную трассировку», заново создав видео.
Другой подход, помогающий пользователям оценить подлинность видеороликов, созданных ИИ, — попытаться «отследить» их заново, воссоздав видео.
Энтузиасты инструмента Midjourney для преобразования текста в изображение экспериментировали с подходом «обратной трассировки». Они внимательно наблюдали за видео, сгенерированными Sora, затем переписывали описания, максимально приближенные к исходному материалу, и загружали их в Midjourney для создания неподвижных изображений.
Результаты показали, что во многих случаях видеоролики Соры представляли собой просто «движущиеся фотографии Midjourney». Это демонстрирует тесную связь между моделями создания изображений и видео и ставит под сомнение истинный уровень креативности Соры.
Если вы хотите задействовать больше чувств при анализе видео, попробуйте что-то похожее. Представьте описание, которое, по вашему мнению, соответствует сцене, и пропустите его через инструмент преобразования текста в изображение, чтобы проверить, насколько оно похоже.
Затем выполните поиск в Google, чтобы проверить, не взято ли видео из каких-либо общедоступных источников. Этот метод не идеален, но он служит полезным «компасом», помогающим определить, смотрите ли вы на подлинное видео или на творение искусственного интеллекта.
5. Всегда будьте бдительны и обновляйте свои знания в области технологий.
Технология искусственного интеллекта для создания видео из текста пока находится в зачаточном состоянии, но развивается чрезвычайно быстро. За короткое время модели искусственного интеллекта способны создавать высокодетализированные видеоролики, которые зрителям будет сложно отличить от поддельных.
Это означает, что риск быть обманутым контентом, генерируемым ИИ, растёт. Лучший способ не стать жертвой — научиться «развиваться» вместе с технологиями, что означает быть в курсе новых знаний, следить за новыми инструментами и оттачивать навыки анализа изображений и аудио.