ИИ может выйти за рамки человеческого контроля
Ведущие мировые ученые предупреждают, что если не обеспечить жесткий контроль, ИИ может выйти из-под контроля человека, что приведет к непредсказуемым последствиям.
Соответственно, двое ведущих мировых ученых в области искусственного интеллекта — Макс Тегмарк, профессор Массачусетского технологического института (США), и профессор Йошуа Бенжио из Монреальского университета (Канада) — предупредили, что общий искусственный интеллект (ОИИ), спроектированный по модели «агента», может стать опасным, поскольку люди рискуют потерять контроль над этой системой.

По их словам, термин «интеллектуальный интеллект» (ИИ) используется для обозначения систем искусственного интеллекта, обладающих интеллектом, превосходящим человеческий, способных мыслить и принимать решения самостоятельно. Без строгих механизмов контроля эти системы могут действовать вопреки человеческой воле, что приводит к непредсказуемым последствиям.
Опасения учёных связаны с тем, что многие крупные технологические корпорации продвигают концепцию «агентов искусственного интеллекта» — чат-ботов, способных выступать в качестве цифровых помощников, помогая в работе и повседневной жизни. Однако фактическое рождение ИИ всё ещё остаётся под вопросом, и существует множество различных прогнозов.
Проблема, по словам Йошуа Бенджио, заключается в том, что системы искусственного интеллекта постепенно обретают «автономность» и способность мыслить самостоятельно. Об этом говорится в подкасте «За долиной" (перевод: "За пределами Кремниевой долиныВ интервью CNBC 4 февраля он пояснил: «Исследователи ИИ вдохновляются человеческим интеллектом для создания машинного интеллекта. У людей интеллект — это не только способность понимать мир, но и поведение агента, использующего знания для достижения целей».
Бенджио предупреждает, что именно таким образом и развиваются ОИИ, превращаясь в агентов с глубоким пониманием мира и способностью действовать соответствующим образом. Однако он подчёркивает, что это «действительно опасно».
По его словам, следование этой модели было бы равносильно «созданию нового вида» или «новой разумной сущности» на Земле, относительно которой люди не могут быть уверены, что она будет вести себя так, чтобы принести нам пользу.
«Нам нужно учитывать наихудшие сценарии, и ключевым фактором всегда является фактор агента. Другими словами, у ИИ могут быть свои собственные цели, и это может привести к проблемам».
Бенджио также предупредил, что по мере своего умения искусственный интеллект может выработать механизмы самозащиты, что может поставить человечество в затруднительное положение.
«Хотим ли мы конкурировать с существами, которые умнее нас? Это явно небезопасная ставка. Нам нужно понять, как самозащита может стать целью ИИ».
По словам профессора Макса Тегмарка из Массачусетского технологического института, решение проблемы безопасности кроется в модели «инструментального ИИ», то есть в системах, разработанных для выполнения конкретной задачи, а не действующих как независимый агент.
Он приводит пример инструмента искусственного интеллекта, который мог бы помочь найти лекарство от рака, или системы беспилотного вождения автомобиля. Эти технологии по-прежнему обладают мощными возможностями, но они должны гарантировать, что человек сможет управлять ими с высокой степенью доверия.
«Я оптимистично считаю, что мы все еще можем использовать большую часть преимуществ, которые приносит ИИ, при условии, что мы будем применять базовые стандарты безопасности перед широкомасштабным развертыванием мощных систем ИИ», — подчеркнул Тегмарк.
По его словам, прежде чем выводить ИИ на рынок, компании должны продемонстрировать, что люди могут контролировать его. Как только этот принцип будет соблюден, отрасль сможет быстро внедрять инновации для поиска более безопасных способов внедрения ИИ.

В 2023 году Институт будущего жизни, основанный Тегмарком, призвал ввести мораторий на разработку систем ИИ, которые могли бы сравниться с человеческим интеллектом или превзойти его.
Хотя этот призыв пока не воплотился в жизнь, он утверждает, что, по крайней мере, эта тема стала более широко обсуждаться, и что пришло время действовать и устанавливать барьеры для контроля над ИИОН.
«Многие люди говорят об этом, но важный вопрос в том, сможем ли мы заставить их действовать», — сказал Тегмарк в подкасте CNBC Beyond The Valley.
«Было бы безумием, если бы люди создали что-то умнее себя и не поняли, как это контролировать», — предупредил он.
Прогнозы о сроках появления ОИИ противоречивы, отчасти из-за разногласий в определении ОИИ. Некоторые эксперты считают, что появление ОИИ — дело далекое, в то время как другие полагают, что это может произойти в ближайшие несколько лет.
Сэм Альтман, генеральный директор OpenAI, утверждает, что его компания освоила технологию создания искусственного интеллекта (ИИ), и что эта технология может стать доступной раньше, чем многие думают. Однако он также попытался смягчить ажиотаж вокруг влияния ИИ на общество.
«Я думаю, мы достигнем ОИИ раньше, чем думает большинство людей, но влияние будет не таким значительным, как многие себе представляют», — сказал Альтман в декабре.
Хотя заявление Альтмана не раскрывает подробностей о ходе разработки AGI, оно показывает, что OpenAI приближается к этой цели, одновременно поднимая много вопросов о готовности мира к появлению интеллектуальной системы, способной сравниться с людьми или превзойти их.