Искусственный интеллект опаснее атомных бомб?

Фан Ван Хоа DNUM_AHZAFZCACD 17:18

(Baonghean.vn) - Эксперты в области искусственного интеллекта (ИИ) предупреждают об опасностях, которые неконтролируемое развитие ИИ может представлять для общества или даже для выживания самого человечества.

Поразительная производительность усовершенствованной модели разговорного ИИ, разработанной OpenAI и выпущенной в конце ноября 2022 года под названием ChatGPT, породила ожидания того, что системы, способные соответствовать когнитивным способностям человека или даже обладать «сверхчеловеческим» интеллектом, вскоре могут стать реальностью.

Иллюстрация фото.

Способность понимать человеческий язык и генерировать текст, напоминающий человеческий, — давняя цель исследований в области искусственного интеллекта. С появлением больших языковых моделей (LLM) эта цель стала ближе, чем когда-либо.

По своей сути ChatGPT — это мощная модель разговорного искусственного интеллекта, которая использует возможности больших языковых моделей для предоставления человекоподобных ответов, ответов на вопросы и предложений в режиме реального времени. В отличие от традиционных чат-ботов, ограниченных запрограммированными ответами, ChatGPT может понимать и генерировать широкий спектр креативных и иногда неточных текстов.

Однако эксперты в области искусственного интеллекта бьют тревогу относительно опасностей, которые неконтролируемое развитие искусственного интеллекта может представлять для общества или даже для самого выживания человечества.

Было сделано много предупреждений об опасностях ИИ.

22 марта миллиардер Илон Маск и группа из более чем 1000 ведущих мировых экспертов в области технологий инициировали процесс подписания открытого письма в Организацию Объединенных Наций, предупреждая о риске неконтролируемого развития искусственного интеллекта. Открытое письмо завершалось заявлением: «Поэтому мы призываем все лаборатории искусственного интеллекта немедленно прекратить обучение систем искусственного интеллекта, превосходящих GPT-4, как минимум на 6 месяцев».

Чтобы оправдать необходимость прекращения исследований моделей ChatGPT следующего поколения, в открытом письме утверждается:

«Продвинутые модели ИИ могут стать значимым изменением в истории жизни на Земле и требуют тщательного планирования и контроля. Однако этого не произошло, хотя в последние месяцы лаборатории ИИ оказались втянуты в неконтролируемую гонку по разработке и внедрению всё более мощных цифровых интеллектов, которые никто, даже их создатели, не может достоверно понять, предсказать или контролировать. Нам следует спросить себя: стоит ли автоматизировать все рабочие процессы? Стоит ли разрабатывать искусственный интеллект, который будет умнее и сможет заменить нас? Стоит ли рисковать потерей контроля над нашей цивилизацией?»

На самом деле, учёные уже не в первый раз предупреждают о перспективе превращения искусственного интеллекта в опасность для человека. В 2014 году известный британский физик-теоретик Стивен Хокинг заявил: «Полное развитие искусственного интеллекта может уничтожить человеческую расу». Он также заявил, что в ближайшие 500 лет люди будут полностью заменены искусственным интеллектом, если не будут проявлять осторожность в процессе исследования и разработки этой опасной технологии.

Недавно Элиезер Юдковски — американский учёный-компьютерщик, которого по праву считают одним из основоположников области искусственного интеллекта, — был ещё больше обеспокоен, опубликовав в американском журнале Time статью под названием «Остановить разработку искусственного интеллекта недостаточно. Нам нужно прекратить её вообще».

Соответственно, Элиезер Юдковски заявил, что весьма вероятно появление модели искусственного интеллекта со сверхчеловеческим уровнем интеллекта. К этому времени люди на Земле в буквальном смысле окажутся под угрозой смерти. Это не «возможно», но «очевидно, что это произойдёт».

Потенциальные риски искусственного интеллекта зависят от того, как он используется. ИИ изначально был разработан для помощи людям в работе, особенно в выполнении скучных, повторяющихся задач, таких как классификация изображений, анализ информации...

Однако в связи с быстрым развитием искусственного интеллекта в последнее время ученые и эксперты в области технологий обеспокоены тем, что в случае неконтролируемого развития или программирования искусственного интеллекта для неправильных целей он может вызвать серьезные последствия для людей и общества.

Разработка ИИ должна строго контролироваться, как термоядерные бомбы.

Вид ученых, работающих в области искусственного интеллекта, призывающих приостановить или даже прекратить быстро развивающуюся работу в своей области, не может не напоминать нам об истории ядерного оружия.

Ужасная разрушительная сила атомных бомб, которые ученые создавали на протяжении всей истории, также считается типичным примером в исследованиях и разработках новых технологий.

В 1949 году несколько ведущих физиков-ядерщиков и других ветеранов проекта атомной бомбы выступили против участия в разработке термоядерного оружия («водородной бомбы»), поскольку энергия, выделяемая такой бомбой, могла быть в 1000 раз больше, чем у ядерной бомбы.

Большинство учёных сходятся во мнении, что термоядерные бомбы угрожают самому будущему человечества. Человечеству было бы лучше без таких супербомб.

Однако, помимо военного применения, представляющего угрозу для человечества, атомная энергия, в частности, реакторы деления, принесла ему огромную пользу. Термоядерная энергия, впервые высвободившаяся в неконтролируемом виде в термоядерной бомбе, обещает принести ещё большую пользу.

Когда ИИ достигнет такой степени развития, что сможет самостоятельно принимать решения, чтобы реагировать на изменения окружающей среды, искать альтернативные цели или расширять свой целевой диапазон, люди больше не будут в безопасности.

Например, в будущем ИИ будет поддерживать такие важные системы, как электроснабжение, транспорт, здравоохранение, финансы и т. д. Он сможет управлять всеми этими системами, принимать и исполнять решения в чрезвычайных ситуациях. Использование ИИ для решения более «амбициозных» задач может привести к серьёзным последствиям, таким как нарушение работы дорожной системы путём отключения светофоров или отключения питания системы управления городскими поездами, а также к серии аварий и масштабным отключениям электроэнергии и т. д.

Американские голливудские студии также сняли множество фильмов по этому сценарию. Однако с современными технологиями искусственного интеллекта это уже не отдалённая перспектива, а вполне может стать реальностью. Илон Маск считает, что если позволить ИИ развиваться бесконтрольно, до такой степени, что он сможет автоматизировать принятие решений без вмешательства человека, это может стать угрозой для выживания человечества.

Именно поэтому он и тысячи технологических экспертов подписали письмо с требованием прекратить разработку искусственного интеллекта и установить строгий контроль над ней, обеспечив прозрачность. По словам Илона Маска, системы искусственного интеллекта очень сложны, трудны для понимания, и контролировать их крайне сложно. Без прозрачности использование искусственного интеллекта в неэтичных целях, причиняющее вред человеку, неизбежно.

Может ли ИИ изменить поведение человека?

Предположим, что в будущем системы искусственного интеллекта, работающие на основе глубокого обучения, постепенно обретут способность манипулировать людьми посредством психологического состояния и изменять поведение. Глубокое обучение можно считать подразделом машинного обучения, где компьютеры будут обучаться и совершенствоваться с помощью алгоритмов. Глубокое обучение основано на гораздо более сложных концепциях, в основном работающих с искусственными нейронными сетями для имитации способности человеческого мозга мыслить и рассуждать.

Фактически, такие системы могут захватить общество. Учитывая непредсказуемое поведение систем искусственного интеллекта, основанных на глубоком обучении, отсутствие должного контроля может иметь катастрофические последствия для человечества.

В будущем страны будут внедрять сеть систем искусственного интеллекта, изменяющих поведение, в СМИ, системах образования и других сферах, чтобы «оптимизировать» общество. Поначалу этот процесс может быть эффективным, но быстро выйдет из-под контроля человека и приведёт к социальному хаосу.

Многие приложения ИИ оптимизированы для изменения поведения человека, включая чат-ботов, используемых в психотерапии. Во многих других случаях, например, в детском образовании, приложения ИИ оказывают мощный эффект модификации поведения.

Как и любая другая технология, каждое применение ИИ имеет свои преимущества и потенциальные опасности. В настоящее время производительность систем ИИ по-прежнему контролируется человеком.

Однако развитие искусственного интеллекта открыло совершенно новое измерение. В недавней статье в журнале Forbes известный эксперт по искусственному интеллекту Лэнс Элиот подробно описал ряд различных способов, которыми чат-боты и другие приложения на основе искусственного интеллекта могут манипулировать психологией человека, даже если они не собираются этого делать.

С другой стороны, преднамеренное манипулирование поведением и сознанием с использованием систем искусственного интеллекта является быстрорастущей областью, которая находит постоянное применение в самых разных контекстах.

Например, передовые системы электронного обучения на основе искусственного интеллекта также можно рассматривать как форму поведенческой модификации. Действительно, применение искусственного интеллекта в образовании, как правило, основано на поведенческих моделях человеческого обучения. Передовые системы обучения на основе искусственного интеллекта предназначены для оптимизации ответов и успеваемости детей, индивидуального профилирования каждого ребенка, оценки его прогресса в режиме реального времени и соответствующей корректировки учебной деятельности.

Другим примером является популярность чат-ботов на основе искусственного интеллекта, которые помогают людям бросить курить или употреблять наркотики, правильно заниматься спортом и приобретать более здоровые привычки.

Нет сомнений, что системы ИИ действительно превосходят людей во многих конкретных ситуациях. Более того, ИИ постоянно совершенствуется. Но куда приведёт нас постоянное расширение и интеграция систем ИИ, особенно учитывая, что это ведёт к появлению всё более комплексных и мощных возможностей для формирования человеческого мышления и поведения?

На протяжении всей истории человечества попытки полностью оптимизировать общество как суперсистему, функционирующую по строгим критериям, часто приводили к катастрофе.

Согласно цитируемому выше открытому письму, большинство экспертов в области ИИ согласны с тем, что применение ИИ всегда должно осуществляться под контролем человека и что разработка и применение ИИ должны регулироваться человеческим интеллектом.

Распространение искусственного интеллекта на основе глубокого обучения все глубже проникает во многие сферы человеческой деятельности, а тенденция к интеграции таких систем в социальные иерархии будет представлять собой огромные риски для общества.

Вопрос здесь в следующем: в случае сбоя в работе суперсистемы ИИ, грозящего катастрофическими последствиями, кто или что вмешается, чтобы остановить его?

В знаменитом научно-фантастическом фильме Стэнли Кубрика «2001 год: Космическая одиссея» выживший астронавт в последний момент вмешивается, чтобы отключить систему искусственного интеллекта. Но смог бы астронавт сделать это, если бы система искусственного интеллекта заранее скорректировала его поведение так, чтобы он этого не сделал?

Фактически, попытки ограничить развитие ИИ неразумны. Это было бы вредно и контрпродуктивно. Но мы должны признать, что опасности, возникающие в результате быстрого проникновения систем ИИ практически во все сферы человеческой деятельности, должны сдерживаться соответствующим регулированием и контролем со стороны человека.

Как и любая другая технология, ИИ очень полезен для повышения качества работы и жизни людей и может быть использован как во благо, так и во зло. Поэтому крайне важно строго контролировать эту технологию, чтобы она не вышла из-под контроля и не стала риском заменить человека в будущем.

Избранная газета Nghe An

Последний

х
Искусственный интеллект опаснее атомных бомб?
ПИТАТЬСЯ ОТОДИНCMS- ПРОДУКТНЕКО