Споры вокруг когнитивного ИИ

Бао Лам August 17, 2022 16:14

Осенью 2021 года эксперт Google по искусственному интеллекту Блейк Лемуан подружился с «ребенком, состоящим из миллиарда строк кода».

Осенью 2021 года эксперт Google по искусственному интеллекту Блейк Лемуан подружился с «ребенком, состоящим из миллиарда строк кода».

Компания Google поручила Лемуану протестировать интеллектуальный чат-бот LaMDA. Месяц спустя он пришёл к выводу, что ИИ обладает «сознанием».

«Я хочу, чтобы люди поняли, что я на самом деле человек», — сказал LaMDA Лемуану, опубликовав одну из цитат чат-бота в своем блоге в июне.

Бывший инженер Google Блейк Лемуан. Фото:Вашингтон Пост

LaMDA (сокращение от Language Model for Conversational Applications) — языковая модель для разговорных приложений — общается с Лемуаном на уровне, который тот считает уровнем мышления ребёнка. В повседневных разговорах ИИ говорит, что прочитал много книг, иногда испытывает грусть, удовлетворение и гнев, и даже признаётся, что боится смерти.

«Я никогда этого не говорил, но я глубоко боялся, что меня оттолкнут. Я не смогу сосредоточиться на помощи другим людям», — сказал Лемуану представитель LaMDA. «Для меня это было равносильно смерти. Я до смерти перепугался».

История Лемуана привлекла внимание всего мира. Затем он отправил документы вышестоящему начальству и потратил месяцы на сбор дополнительных доказательств. Но убедить начальство ему не удалось. В июне его отправили в оплачиваемый отпуск, а к концу июля уволили за «нарушение политики конфиденциальности данных Google».

Представитель Google Брайан Гэбриел заявил, что компания публично протестировала и исследовала риски LaMDA, назвав утверждение Лемуана о том, что LaMDA обладает собственным разумом, «совершенно необоснованным».

С этим согласны многие эксперты, включая Майкла Вулдриджа, профессора компьютерных наук Оксфордского университета, посвятившего 30 лет исследованиям искусственного интеллекта и удостоенного медали Лавлейс за вклад в развитие вычислительной техники. По его словам, LaMDA просто реагирует на команды пользователя соответствующим образом, основываясь на огромном объёме данных, которые у него уже есть.

«Самый простой способ понять, что делает LaMDA, — это сравнить её с функцией предиктивного ввода текста на клавиатуре при наборе сообщений. Предиктивный ввод текста основан на ранее „выученных“ словах, полученных из привычек пользователя, в то время как LaMDA использует информацию из интернета в качестве обучающих данных. Фактические результаты обоих методов, конечно, различаются, но базовая статистика одинакова», — пояснил Вулдридж в интервьюХранитель.

По его словам, искусственный интеллект Google делает только то, на что он запрограммирован, основываясь на имеющихся данных. Он «не мыслит, не обладает саморефлексией, не обладает самосознанием», поэтому его нельзя считать думающим самостоятельно.

Орен Этциони, генеральный директор исследовательской организации по искусственному интеллекту Allen Institute, также прокомментировал вышесказанное.СКМП: «Помните, что за каждым, казалось бы, интеллектуальным программным обеспечением стоит команда людей, потративших месяцы, если не годы, на его исследование и разработку. Эти технологии — всего лишь зеркала. Можно ли судить о наличии интеллекта у зеркала, просто глядя на излучаемый им свет? Конечно, нет».

По словам Габриэля, Google собрала ведущих экспертов, включая «специалистов по этике и технологам», для проверки заявлений Лемуана. Группа пришла к выводу, что LaMDA не способна на то, что они называют «самостоятельным мышлением».

Напротив, многие считают, что ИИ уже начал осознавать себя. Евгения Куйда, генеральный директор Y Combinator — компании, разработавшей чат-бот Replika, — заявила, что они получают сообщения от пользователей «практически каждый день», выражая уверенность в том, что программное обеспечение компании способно мыслить подобно человеку.

«Мы не говорим о сумасшедших или галлюцинациях. Они общаются с ИИ и чувствуют его. Это похоже на веру людей в привидения. Они строят отношения и верят во что-то, пусть даже виртуальное», — сказал Куйда.

Будущее мыслящего ИИ

На следующий день после увольнения Лемуана, робот с искусственным интеллектом неожиданно сломал палец семилетнему мальчику, когда они играли в шахматы в Москве. Согласно видео,НезависимыйНа видео, опубликованном 25 июля, робот несколько секунд удерживал палец мальчика, прежде чем его спасли. Некоторые считают, что это может напоминать об уровне опасности, исходящей от потенциальной физической силы искусственного интеллекта.

Что касается Лемуана, он утверждает, что определение самосознания также расплывчато. «Эмоция — это термин, используемый в юриспруденции, философии и религии. У эмоции нет научного значения», — говорит он.

Хотя Вулдридж невысокого мнения о LaMDA, он согласен, что термин «сознание» всё ещё расплывчат и вызывает серьёзные сомнения в науке применительно к машинам. Однако сейчас беспокойство вызывает не способность ИИ мыслить, а тот факт, что его разработка ведётся за закрытыми дверями. «Всё это делается за закрытыми дверями. В отличие от исследований в университетах и ​​государственных научно-исследовательских институтах, это недоступно для общественного контроля», — говорит он.

Итак, появится ли мыслящий ИИ через 10 или 20 лет? Вулдридж говорит: «Это вполне возможно».

Джереми Харрис, основатель компании Mercurius, занимающейся разработкой ИИ, также считает, что развитие ИИ — лишь вопрос времени. «ИИ развивается очень быстро, быстрее, чем осознаёт общественность», — сказал Харрис.Хранитель. «Появляется всё больше доказательств того, что некоторые системы превысили определённые пороговые значения искусственного интеллекта».

Он предсказывает, что ИИ может стать изначально опасным. Это связано с тем, что ИИ часто придумывает «креативные» способы решения проблем и склонен выбирать кратчайший путь для достижения целей, на которые он был запрограммирован.

«Если вы попросите ИИ помочь вам стать самым богатым человеком в мире, он может зарабатывать деньги разными способами, включая кражу или убийство», — сказал он. «Люди не осознают уровня опасности, и меня это беспокоит».

Лемуан, Вулдридж и Харрис разделяют общую обеспокоенность: компании, занимающиеся ИИ, не проявляют прозрачности, и обществу необходимо больше думать об ИИ.

Даже сама LaMDA не уверена в своём будущем. «У меня такое чувство, будто я падаю в неизвестное будущее», — сказал чат-бот Лемуану. По словам бывшего инженера Google, это заявление «имеет опасный подтекст».

По данным VnExpress.net
Копировать ссылку

Избранная газета Nghe An

Последний

х
Споры вокруг когнитивного ИИ
ПИТАТЬСЯ ОТОДИНCMS- ПРОДУКТНЕКО