Следующие прорывы в технологиях искусственного интеллекта могут поставить под угрозу будущее человечества.
(Baonghean.vn) – Искусственный интеллект (ИИ) развивается с головокружительной скоростью. 2024 год, по прогнозам, станет годом взрывных прорывов, полных новых открытий. Среди них есть три, которые считаются самыми пугающими из-за их негативного потенциала.
Хотя 2023 год стал свидетелем некоторых революционных достижений в области искусственного интеллекта, это было лишь начало чего-то большего. 2024 год обещает стать годом ужасающих прорывов, среди которых могут быть: искусственный интеллект общего назначения (ИИ), распространение роботов-убийц на базе ИИ и настолько реалистичные дипфейки, что их будет трудно отличить друг от друга.
Искусственный интеллект существует уже несколько десятилетий, но 2023 год — год, когда эта жуткая технология по-настоящему наберёт обороты. ChatGPT от OpenAI сделал искусственный интеллект доступным и практичным для широких масс. Однако у искусственного интеллекта непростая история, и современные технологии построены на фундаменте неудачных экспериментов прошлого.

Большинство инноваций в области ИИ направлены на развитие таких областей, как медицинская диагностика и научные открытия. Например, модель ИИ может анализировать рентгеновский снимок, чтобы определить, есть ли у вас высокий риск рака лёгких.
Во время пандемии COVID-19 учёные также разработали алгоритм, способный диагностировать вирус, улавливая едва заметные изменения в кашле пациента. ИИ также используется для разработки экспериментов в области квантовой физики, выходящих за рамки человеческого воображения.
Однако не все технологические прорывы идут на пользу человечеству. Вот три самых пугающих прорыва в области искусственного интеллекта, которые могут произойти в 2024 году:
Искусственный интеллект может иметь ужасающие последствия
Общий искусственный интеллект (ОИИ) — это форма ИИ, которая по уровню интеллекта равна человеку или превосходит его, способна мыслить, обучаться самостоятельно, решать сложные задачи и адаптироваться к новым ситуациям.
Успешное развитие ИИ может привести к революции во многих областях, от экономики до военной. Однако ИИ может иметь и серьёзные последствия, такие как массовая безработица, войны роботов и даже вымирание человечества.
Между тем, Q* — это название новой модели искусственного интеллекта, разработанной американской компанией OpenAI, которая, как говорят, имеет потенциал для достижения уровня AGI.
Информация о модели Q* пока весьма ограничена, но, по данным источников, эта модель способна решать задачи, рассуждать и воспринимать проблемы гораздо лучше, чем существующие модели искусственного интеллекта. Кроме того, Q* обучается на огромном наборе данных, включающем текст, изображения и код. Это позволяет модели быстро обучаться и адаптироваться к новым ситуациям.
Мы до сих пор точно не знаем, почему генеральный директор OpenAI Сэм Альтман был уволен, а затем восстановлен в должности в конце 2023 года. Однако некоторая инсайдерская информация предполагает, что это связано с передовыми технологиями, которые могут угрожать будущему человечества.
По данным Reuters, система Q* компании OpenAI может стать революционным прорывом в области искусственного интеллекта (ИИ). Хотя информация о загадочной системе пока ограничена, если слухи верны, Q* может вывести возможности ИИ на совершенно новый уровень.
ИИ — это гипотетическая точка невозврата, или «сингулярность», когда ИИ становится умнее людей. Нынешние поколения ИИ всё ещё отстают в областях, где люди превосходят других, таких как контекстное мышление и настоящая креативность. Большая часть контента, создаваемого ИИ, представляет собой простое повторение данных для обучения.
Однако учёные утверждают, что ОИИ потенциально может превзойти человека в определённых задачах. Его также можно превратить в оружие и использовать для создания более опасных патогенов, проведения масштабных кибератак или проведения массовых манипуляций.
Создание искусственного интеллекта с искусственным интеллектом (ИИ) давно уже стало предметом научной фантастики, и многие учёные считают, что мы никогда не добьёмся этого. Однако достижение OpenAI этой цели, безусловно, стало бы шоком, но не исключено.
Мы знаем, что Сэм Альтман заложил основу для AGI в сообщении в блоге, в котором он описал подход OpenAI в феврале 2023 года. Кроме того, эксперты начали предсказывать скорый прорыв, включая Дженсена Хуанга, генерального директора американского производителя процессоров Nvidia, который в ноябре 2023 года заявил, что AGI может быть создан в течение следующих пяти лет.
Станет ли 2024 год годом прорыва в развитии искусственного интеллекта? Время покажет.
Роботы-убийцы с искусственным интеллектом набирают популярность
Правительства по всему миру всё чаще используют ИИ в качестве инструмента войны. 22 ноября правительство США объявило, что 47 стран одобрили декларацию об ответственном использовании ИИ в военных целях. Зачем нужна такая декларация? Потому что «безответственное» использование — тревожная и пугающая перспектива. Например, мы видели, как беспилотники с ИИ якобы охотились на солдат в Ливии без вмешательства человека.
ИИ играет всё более важную роль в военных целях. ИИ способен распознавать закономерности, самостоятельно обучаться, делать прогнозы и давать рекомендации в военном контексте, и гонка вооружений с использованием ИИ уже началась. К 2024 году ИИ может быть использован не только в системах вооружения, но и в логистике, поддержке принятия решений, исследованиях и разработках.
Например, в 2022 году ИИ создал 40 000 новых гипотетических химических боеприпасов. Различные подразделения вооружённых сил США заказали беспилотники, способные распознавать цели и контролировать поле боя лучше человека. По данным NPR (США), в последней войне между Израилем и ХАМАС Израиль использовал ИИ для определения целей как минимум в 50 раз быстрее, чем человек.
Но одна из самых тревожных разработок — это летальные автономные системы оружия (LAWS), или роботы-убийцы. Многие ведущие учёные и технологи предупреждали об опасности роботов-убийц, включая физика-теоретика Стивена Хокинга в 2015 году и миллиардера Илона Маска в 2017 году, но эта технология до сих пор не получила широкого распространения.
Хотя роботы-убийцы пока не появились на горизонте, некоторые тревожные события указывают на то, что 2024 год может стать годом их прорыва.
По данным The Bulletin of the Atomic Scientists, во время войны на Украине Россию обвиняли в развертывании беспилотников Zala KYB-UAV, которые способны автоматически определять и атаковать цели.
Тем временем, по данным Australian Financial Review, Австралия также разрабатывает Ghost Shark, автономную подводную систему, и готовится к ее массовому производству.
Уровень расходов на ИИ в разных странах мира также является показателем. По данным Reuters, расходы Китая на ИИ выросли с 11,6 млн долларов в 2010 году до 141 млн долларов в 2019 году. Отчасти это связано с тем, что Китай конкурирует с США в реализации законов.
Эти примеры показывают, что ИИ вносит существенные изменения в ведение военных действий. Гонка за разработку военного ИИ становится всё более ожесточённой, требуя от многих стран задуматься об ответственном использовании ИИ во избежание непредвиденных последствий.
Использование ИИ для создания невероятно реалистичных фейковых видеороликов с целью манипулирования избирателями на выборах
Дипфейк — это тип технологии, позволяющий изменить лицо, голос и жесты одного человека на видео на чужие, сделав изображение и звук неотличимыми от реальности.
В контексте выборов эти гиперреалистичные дипфейки могут быть использованы несколькими способами для манипулирования избирателями, включая:
Дискредитация кандидата:Создавайте фейковые видеоролики с кандидатами, делающими плохие, расистские или оскорбительные заявления, чтобы дискредитировать их в глазах избирателей.
Поддержите других кандидатов:Создание фейковых видеороликов со знаменитостями или влиятельными людьми, поддерживающими определенного кандидата, даже если на самом деле они этого не делали.
Создавайте ложные слухи:Создание фейковых видеороликов с участием кандидатов, занимающихся незаконной или ненадлежащей деятельностью, с целью посеять сомнения и подорвать их репутацию.
Подрыв доверия к выборам:Создание фейковых видеороликов о фальсификации выборов с целью подорвать доверие общественности к точности результатов выборов.
Опасность использования невероятно реалистичных дипфейковых видео для манипулирования избирателями на выборах заключается в их невероятной реалистичности. Такие видео могут создать у зрителей впечатление, что они наблюдают за реальным событием, даже если оно полностью постановочное. Это может создать серьёзные проблемы для демократии, поскольку может повлиять на явку избирателей и исход выборов.
Обнаружение и предотвращение использования дипфейков на выборах — серьёзная задача. Технологии обнаружения дипфейков развиваются, но пока далеки от совершенства. Страны начинают принимать законы для борьбы с неправомерным использованием дипфейков, но пока неясно, насколько эффективными будут эти законы.
Это сделало бы практически невозможным отличить факты от вымысла невооруженным глазом. Хотя некоторые инструменты помогают обнаруживать дипфейки, они пока не получили широкого распространения. Например, Intel разработала инструмент для обнаружения дипфейков в режиме реального времени, который использует искусственный интеллект для анализа кровотока. Однако, по данным BBC, этот инструмент под названием FakeCatcher пока демонстрирует противоречивые результаты.
Самое главное — повысить осведомлённость общественности о существовании дипфейков. Люди должны знать, что видео, которые они видят или слышат в социальных сетях, могут быть поддельными, и им следует быть осторожными с информацией, которая кажется им подозрительной. Просвещая общественность, мы можем надеяться снизить влияние дипфейков на будущие выборы.