Регуляторные гонки: как в мире собираются управлять искусственным интеллектом

Стремительное развитие искусственного интеллекта (ИИ) вызывает много противоречий в сфере контроля.

Очевидно, что общего подхода пока не существует, и многие страны находятся на стадии изучения вопроса.

Так, британский регулятор, которому поручено разработать новые руководящие принципы, касающиеся использования ИИ, консультируется с Институтом Алана Тьюринга и другими юридическими и академическими учреждениями, чтобы получить более широкие знания о технологии.

foto

Ovsyannikova Yulia / Global Look Press

4 мая британский регулятор конкуренции заявил, что начнет изучать влияние ИИ на потребителей, предприятия и экономику, а также необходимость новых мер контроля. При этом ранее, официальные лица страны заявляли, что ответственность за управление ИИ будет разделена между регулирующими органами в сфере прав человека, здравоохранения, безопасности и конкуренции. Создание нового органа не планируется.

Правительство Австралии также ведет диалог с главным научным консультативным органом страны, и обсуждает дальнейшие шаги, заявил в апреле представитель министра промышленности и науки.

Управление по защите данных Италии планирует более детально изучать ИИ, а также привлечь независимых экспертов. Ранее в стране было временно запрещено использование ChatGPT из-за опасений регулятора, сейчас доступ вновь возможен.

На всех трех изображениях — дипфейк с актером Томом Крузом. На самом деле эти видео были записаны не им. Разговор о необходимости регулировать технологии искусственного интеллекта часто возникает именно в контексте создания дипфейков. Нейросети способны генерировать голос, внешность и мимику — не только «звезд», но и политиков, что может иметь серьезные последствия.

На всех трех изображениях — дипфейк с актером Томом Крузом. На самом деле эти видео были записаны не им. Разговор о необходимости регулировать технологии искусственного интеллекта часто возникает именно в контексте создания дипфейков. Нейросети способны генерировать голос, внешность и мимику — не только «звезд», но и политиков, что может иметь серьезные последствия.

На стадии изучения вопроса находятся и лидеры «Большой семерки». На встрече в Хиросиме 20 мая они признали необходимость управления ИИ и технологиями виртуальной реальности, и договорились, что министры обсудят эти вопросы, доложив о результатах к концу текущего года. Ожидается, что страны примут общие правила в отношении искусственного интеллекта.

О необходимости регулирования без применения жестких механизмов заявляли в апреле и в Ирландской комиссии по защите данных.

Существует ряд стран, где профильные органы уже определись с дальнейшим направлением развития регулирования. Так, в апреле регулятор киберпространства Китая опубликовал проект мер по управлению генеративными сервисами искусственного интеллекта. В ведомстве сообщили, что от компаний-разработчиков ИИ ожидают предоставления информации о безопасности перед запуском новых решений.

В заявлении регулятора было сказано, что Китай поддерживает разработки в области ИИ и поощряет использование безопасного программного обеспечения, инструментов и информационных ресурсов, но контент, создаваемый искусственным интеллектом, должен соответствовать основным социалистическим ценностям страны.

Отмечалось, что провайдеры будут нести ответственность за законность данных, используемых для обучения ИИ, и должны принять меры по предотвращению дискриминации при разработке алгоритмов и упомянутых обучающих данных.

Регулятор также заявил, что поставщики услуг должны требовать от пользователей предоставления их реальных идентификационных данных. В случае несоблюдения правил провайдеры будут оштрафованы, или даже привлечены к уголовной ответственности.

Если их платформы уже генерируют неприемлемый контент, компании должны обновить технологию в течение трех месяцев, чтобы предотвратить повторное создание подобного, говорится в сообщении регулятора, на которое ссылается Reuters.

Европейские законодатели в мае этого года договорились об ужесточении проекта правил регулирования генеративного искусственного интеллекта. Ожидается, что парламент ЕС проголосует по Закону об ИИ уже в июне.

В России также ведется работа по изучению и регулированию искусственного интеллекта. В апреле этого года представитель профильного комитета Государственной Думы заявил, что партия «Единая Россия» работает над законопроектом, гарантирующим гражданам безопасную цифровую среду.

Планируется, что закон коснется и решений на основе искусственного интеллекта, однако отмечалось, что речь не идет о запрете ИИ-технологий, а, скорее, о почве для их развития.

Проанализировав текущую ситуацию в мире в сфере регулирования, можно отметить, что в основном государственные органы заняли выжидательную позицию, сконцентрировавшись на вопросах безопасности.

Это противоречит различным заявлениям публичных персон, связанных с IT-сферой, которые активно призывали к запрету искусственного интеллекта, и его жестокому регулированию. Например, бывший сотрудник Google Джеффри Хинтон, занимавшийся в компании разработкой нейросетей (его даже называют «Крестным отцом нейросетей») и покинувший ее по этическим причинам, открыто заявил, что генеративный ИИ может способствовать активному распространению дезинформации. Более того: стало размываться само понятие правды, с тревогой констатирует разработчик.

Помимо этой и целого ряд других проблем, есть и большой положительный потенциал: искусственный интеллект, который уже давно называют «Новым интернетом», в перспективе может принести существенные дивиденды, причем не только финансовые, силам, которые научатся его грамотно применять, в том числе для сокращения финансовых расходов и повышения качества жизни людей.

Однако нельзя исключать, что его практический эффект будет очень сильно завышен с помощью маркетинга, как это уже было с метавселенными, а даже самые полезные разработки могут выйти из-под контроля. К сожалению, нельзя утверждать, что крупные западные IT-компании, переживающие сейчас не самые лучшие времена, остановятся, если что-то пойдет вразрез с морально-этическими принципами.