Страны и регионы по всему миру содействуют разработке правил в области искусственного интеллекта.
(Baonghean.vn) — Стремительное развитие искусственного интеллекта (ИИ) в целом и генеративного ИИ, такого как ChatGPT, в частности, приносит множество существенных преимуществ. Кроме того, развивающиеся технологии несут в себе потенциальные риски, вынуждая страны и регионы содействовать разработке регулирующих норм.

Что такое генеративный искусственный интеллект?
Генеративный искусственный интеллект (Generative AI) — это раздел искусственного интеллекта, описывающий класс алгоритмов, способных генерировать новый контент, включая текст, изображения, видео и аудио. Генеративный ИИ разработан на основе достижений в области глубокого обучения и позволяет получать результаты, аналогичные результатам, генерируемым человеком. ChatGPT — новейшая разработка в области генеративного ИИ.
Генеративный ИИ позволяет компьютерам создавать всевозможный новый и увлекательный контент — от музыки и искусства до целых виртуальных миров. Помимо развлечений, генеративный ИИ имеет широкий спектр практических применений, таких как создание новых продуктов и оптимизация бизнес-процессов.
Генеративный ИИ уже на ранних этапах своего развития добился взрывного роста в использовании и применении. Эта мощная прорывная технология будет использоваться в существующих и новых компаниях в самом ближайшем будущем для снижения затрат, повышения качества и ускорения предоставления новых услуг, а также создания новых производственных возможностей.
Генеративный ИИ открывает позитивные перспективы для экономики и общества, но он также создаёт риски. Поэтому принятие соответствующих мер противодействия будет играть важную роль.
В последнее время во всем мире обостряются дискуссии относительно регулирования генеративного ИИ. Лидеры в области науки о данных и заинтересованные стороны в сфере технологий выражают обеспокоенность по поводу социальных рисков, включая дезинформацию и сокращение рабочих мест.
30 мая ученые и лидеры в области технологий по всему миру подписали открытое письмо, чтобы публично признать опасность искусственного интеллекта и даже риск вымирания человечества.
«Минимизация риска вымирания человечества из-за искусственно созданного ИИ должна стать глобальным приоритетом наряду с другими общественными рисками, такими как пандемии и ядерная война», — говорится в письме.
Сэм Альтман, генеральный директор OpenAI — компании, которая исследовала и предоставила продукт ChatGPT, и Джеффри Хинтон, ученый-компьютерщик, известный как «крестный отец» искусственного интеллекта, а также сотни известных людей в мире подписали письмо, опубликованное на сайте Центра безопасности ИИ — некоммерческой организации, базирующейся в Сан-Франциско (США).
Растёт обеспокоенность по поводу нерегулируемых систем искусственного интеллекта, превосходящих человеческие, таких как чат-боты нового поколения, которые потенциально могут заменить людей в будущем. Появление чат-ботов на основе искусственного интеллекта, таких как ChatGPT, в последнее время побудило страны по всему миру добиваться регулирования этой развивающейся технологии, чтобы снизить риски, связанные с ней.
Австралия
Правительство Австралии недавно обнародовало федеральный бюджет на 2023 год, который предусматривает инвестиции в размере 26,9 млн долларов в сеть ответственного ИИ для внедрения ряда технологий ответственного ИИ по всей стране. Австралийские регулирующие органы добиваются принятия нормативных актов, призванных развеять опасения, высказанные уполномоченным по правам человека в Австралии Лоррейн Финли, которая заявила, что чат-боты на основе ИИ, такие как ChatGPT от Microsoft и Bard от Google, могут быть вредны для общества.
Кроме того, регулирующие органы продолжают обсуждать возможные изменения в Законе о конфиденциальности, чтобы решить проблему отсутствия прозрачности, которая может возникнуть при обучении моделей ИИ без человеческого контроля. Также обсуждается использование данных и биометрических данных для обучения моделей, что может потребовать дополнительных правил конфиденциальности.
Виктор Доминелло, член Австралийского технологического совета, призвал создать «комитет по надзору в рамках технологического регулятора» для надзора и мониторинга развития технологий генеративного ИИ, а также консультирования государственных органов по вопросам мониторинга этой новой технологии на предмет потенциальных рисков.
Бразилия
Законодательный процесс в области ИИ в Бразилии был стимулирован правовой базой, одобренной правительством в сентябре 2022 года, но подвергся критике из-за неопределенности положений.
С запуском ChatGPT в ноябре прошлого года были проведены обсуждения и правительству Бразилии был направлен отчет с подробными предложениями по регулированию ИИ. Исследование было проведено юристами, учеными, руководителями предприятий и представителями Национального органа по надзору за защитой данных (ANPD). Исследование охватывало три основных области: права граждан, классификацию рисков, а также административные меры и санкции, связанные с управлением и использованием ИИ.
В настоящее время этот документ обсуждается в правительстве Бразилии, и конкретная дата его публикации пока не названа.
Америка
Соединённые Штаты, являющиеся колыбелью новаторов и разработчиков в области искусственного интеллекта, включая создателя ChatGPT, компанию OpenAI, ужесточили регулирование инструментов искусственного интеллекта. Глава Федеральной торговой комиссии (FTC) заявил 3 мая, что ведомство намерено использовать действующее законодательство для сдерживания опасностей, связанных с искусственным интеллектом, таких как расширение влияния крупных компаний и мошенничество.
Канада
Ожидается, что Закон об искусственном интеллекте и данных (AIDA) будет принят уже в 2025 году. Кроме того, изучаются правовые нормы для управления рисками и сложностями, связанными с ИИ, чтобы стимулировать ответственное внедрение этой технологии.
По данным правительства Канады, подход, основанный на оценке риска, соответствует аналогичным нормам в Соединенных Штатах и Европейском союзе, а также планам по развитию существующих канадских законов о правах человека и защите прав потребителей с целью признания необходимости создания «высокоэффективных» систем ИИ для соблюдения законов о правах человека и информационной безопасности.
Канадские власти будут нести ответственность за обеспечение принятия новых правил, которые будут соответствовать уровню развития технологий и ограничивать их использование в вредоносных целях.
Китай
В настоящее время Администрация киберпространства Китая (CAC) разрабатывает правила предоставления услуг на базе искусственного интеллекта (ИИ) гражданам по всему Китаю, включая чат-ботов. Было выдвинуто предложение призвать китайские технологические компании регистрировать свои модели генеративного ИИ в Администрации киберпространства Китая, прежде чем выпускать их продукцию для широкой публики.
Согласно законопроекту, оценка новых продуктов ИИ должна гарантировать «законность источника данных до начала обучения», а разработчики обязаны продемонстрировать соответствие продуктов «основным ценностям социализма». Продуктам будет запрещено использовать персональные данные для обучения, и они будут обязаны требовать от пользователей подтверждения их личности. Кроме того, модели ИИ, которые распространяют экстремистский, насильственный, порнографический контент или призывы к «свержению власти», будут считаться нарушением правил.
Нарушители теперь будут оштрафованы на сумму от 10 000 юаней (около 1454 долларов США) до 100 000 юаней (около 14 545 долларов США), а также будут приостановлены услуги и возможно возбуждено уголовное дело. Кроме того, провайдеры, уличенные в распространении неприемлемого контента, будут обязаны обновить свои системы в течение трёх месяцев, чтобы предотвратить повторение подобных нарушений. Законопроект планируется завершить к концу этого года.
Евросоюз
Европейский союз рассматривается в качестве лидера в этом направлении, и ожидается, что его законопроект об искусственном интеллекте будет принят до конца этого года. Разработка этого законопроекта знаменует собой важный этап в борьбе между органами власти за регулирование искусственного интеллекта, которая в последние годы развивается стремительными темпами. Законопроект, получивший название «Европейский закон об искусственном интеллекте», также является первым законом о системах искусственного интеллекта на Западе.
Закон Европейского союза (ЕС) об искусственном интеллекте (ИИ) в настоящее время разрабатывается Европейским парламентом, а его пленарное голосование ожидается в июне этого года. Разработка нормативно-правовой базы в сфере искусственного интеллекта (ИИ) в регионе ведется уже несколько лет, и Европейская комиссия представила предложение в апреле 2021 года.
Законопроект ЕС об ИИ классифицирует приложения ИИ по четырем уровням риска: неприемлемый риск, высокий риск, ограниченный риск и минимальный или нулевой риск.
Неприемлемый риск:Включает в себя любую систему, которая представляет явную угрозу безопасности и правам граждан, например, системы, оценивающие поведение и образ жизни граждан в стране, а также голосовые помощники, которые представляют опасность.
Высокий риск:Использование искусственного интеллекта в критически важной инфраструктуре, такой как транспорт, образование, правоохранительные органы, роботы для подбора персонала и здравоохранения.
Ограниченный риск:В том числе при использовании чат-ботов, пользователи должны быть четко информированы с самого начала, с какой целью они взаимодействуют с системами.
Рминимальный или нулевой риск:К ним относятся такие системы, как видеоигры на базе искусственного интеллекта или спам-фильтры, в которых задействован генеративный ИИ.
Индия
В марте 2021 года правительство Индии объявило, что будет придерживаться осторожного подхода к регулированию ИИ, стремясь стимулировать инновации по всей стране. Министерство электроники и информационных технологий Индии назвало технологии, связанные с ИИ, «критически важными и стратегическими», но ведомство заявило, что будет внедрять политику и инфраструктурные меры для борьбы с предвзятостью, дискриминацией и этическими проблемами.
Правительство Индии предложило добровольные нормативные акты для регулирования ИИ. Национальная стратегия развития искусственного интеллекта, принятая в 2018 году, рассматривала пять ключевых направлений развития ИИ: сельское хозяйство, образование, здравоохранение, умные города и интеллектуальную мобильность. Затем, в 2020 году, этичное использование ИИ было подробно изложено в проекте Национальной стратегии развития искусственного интеллекта, которая призывает к прозрачности, подотчётности и беспристрастности всех систем.
Корея
Законопроект об искусственном интеллекте в Южной Корее в настоящее время находится на стадии разработки и, как ожидается, будет вынесен на голосование в Национальном собрании в ближайшее время. В нём будет указано, какие новые модели искусственного интеллекта могут быть созданы без одобрения правительства, а какие должны быть одобрены правительством перед выпуском на рынок.
Новый законопроект об ИИ также направлен на установление правовых норм, связанных с ответственной разработкой систем ИИ.
Кроме того, Комиссия по защите персональных данных страны объявила о планах создания целевой группы, которая займется рассмотрением защиты биометрических данных на основе развития генеративного ИИ.
Великобритания
В Великобритании правительство не только опубликовало Белую книгу, включающую конкретные рекомендации по внедрению нормативных актов, связанных с ИИ, но и объявило 9 мая, что оно начнет оценку воздействия искусственного ИИ на потребителей, бизнес и экономику, а также рассмотрит возможность применения новых мер по контролю за технологиями, такими как ChatGPT от компании OpenAI.
В настоящее время регулирование генеративного ИИ в Великобритании находится в компетенции отраслевых регуляторов, где используется ИИ, и принятие какого-либо общего законодательства, помимо Общего регламента по защите данных (GDPR) Европейского союза, не планируется. В своих официальных заявлениях по этому вопросу правительство придерживается «проинновационного подхода», стремясь позиционировать Великобританию как лидера в мировой гонке за ИИ.
Тем временем, Управление по конкуренции и рынкам Великобритании (CMA) начало проверку моделей платформ искусственного интеллекта, изучая разработку инструментов, включая ChatGPT, с точки зрения конкуренции и защиты прав потребителей. Результаты проверки будут опубликованы в начале сентября 2023 года, сообщило агентство.
Япония
По словам японских чиновников, генеративный ИИ открывает позитивные перспективы для экономики и общества, но также создаёт риски. Поэтому принятие соответствующих мер противодействия с обеих сторон будет играть важную роль.
Премьер-министр Японии Кисида Фумидо заявил, что поручит соответствующим ведомствам оперативно провести обсуждения во многих областях, чтобы максимально расширить перспективы и отреагировать на риски, связанные с искусственным интеллектом.
Японские чиновники также заявили, что разработают международные правила для искусственного ИИ.