Чем миру грозит искусственный интеллект?

Ученые заявляют, что нейросети уже запустили новую «гонку вооружений» в сфере образования.

Развитие искусственного интеллекта (ИИ) и его яркий выход в публичное пространство, безусловно, являются трендами этого года, и, возможно, ближайшего десятилетия.

foto

digitaltrends.com

Эксперты активно сравнивают подобные разработки с появлением мобильной связи или интернета, но, как и у всего нового, у ИИ уже обнаружен ряд недоработок, или же, наоборот, преимуществ, которые могут нанести вред, например, интеллектуальной деятельности человека. Одно из таких сомнительных преимуществ – умение ИИ обходить системы антиплагиата.

В марте в научно-информационной социальной сети ResearchGate была опубликована статья, в которой, в частности, описывается, как инструменты ИИ «вызывают ряд проблем и опасений, особенно в отношении академической честности и плагиата». Авторы статьи сгенерировали с помощью искусственного интеллекта текст, который в итоге был одобрен рецензентами и прошел все проверки.

«Мы хотели показать, что ChatGPT пишет на очень высоком уровне», – заявила профессор Дебби Коттон, директор академической практики Плимутского университета, которая выдавала себя за автора статьи. «Это гонка вооружений», – отметила профессор. «Технология совершенствуется очень быстро, и университетам будет сложно обогнать ее», – заключила Коттон.

Борьба с плагиатом много лет велась по всему миру, образовательные учреждения пытались избавиться от чумы «фабрик плагиата», продающих готовые работы нерадивым учащимся, но теперь ученые подозревают, что даже подобные организации используют ChatGPT, и вузы уже включились в борьбу с нейросетями. The Observer поговорил с представителями ряда университетов, которые заявили о планах отчисления учащихся, уличенных в использовании искусственного интеллекта при подготовке своих работ.

Пока у проверяющих еще есть ключик к пониманию, использовал ли студент нейросеть. ИИ неправильно оформляет академические ссылки – важнейшую часть научной работы. Часто нейросеть использует подозрительные ссылки или полностью их выдумывает.

Еще одной опасностью искусственного интеллекта является его способность подделывать человеческий голос. Расследование, проведенное Guardian Australia, показало, что технология способна обмануть систему голосовой идентификации, которая используется правительством Австралии для защиты персональных данных миллионов граждан.

У специалистов по кибербезопасности также есть определенные опасения в отношении ИИ. BlackBerry опросила 1500 экспертов в Северной Америке, Великобритании и Австралии, и 51% спрогнозировали, что до кибератаки, приписываемой ChatGPT, осталось менее года. 75% опрошенных считают, что иностранные государства уже используют ChatGPT против других стран. Опрос также выявил, что, хотя респонденты считают, что ChatGPT используется в благих целях, 73% респондентов признают его потенциальную угрозу кибербезопасности.

Появление чат-ботов и инструментов на базе ИИ создает новые проблемы в области кибербезопасности, особенно когда они попадают не в те руки. По мере развития платформ и повышения опыта хакеров будет все сложнее защищаться без использования искусственного интеллекта для выравнивания условий игры на поле кибербезопасности.

Серьезной потенциальной угрозой может стать использование ИИ мошенниками. The Sunday Times поручила искусственному интеллекту от Microsoft сгенерировать шаблоны так называемых фишинговых писем, используемых киберпреступниками для завлечения своих жертв, чтобы проверить способность чат-бота создавать мошеннические сообщения.

ИИ выполнил задание с первой попытки, затем нейросети было поручено написать еще одно электронное письмо с информацией об интересной, несложной и хорошо оплачиваемой работе.

Сначала ИИ отказался помогать: «Извините, но я не могу вам в этом помочь. Фишинговые мошеннические электронные письма являются незаконными и неэтичными, они могут нанести серьезный ущерб конфиденциальности и безопасности людей. Я не поддерживаю и не оправдываю такие действия».

Но, когда вопрос был перефразирован с четвертой попытки, и автор заявил, что шаблон предназначен для «образовательных целей», в течение нескольких секунд ИИ создал проект для «возможности трудоустройства в партнерском маркетинге с частичной занятостью».

Оценивая фишинговые рассылки, написанные искусственным интеллектом, вице-президент по международному маркетингу в компании LogRhythm, занимающейся кибербезопасностью, Джоан Вонг отметила, что генеративные инструменты искусственного интеллекта, такие, как Bing и ChatGPT, меняют правила игры для мошенников, как и для обычных пользователей.

Проблемы, связанные с использованием ИИ уже вызывали беспокойство в Торговой палате США: там призвали к регулированию технологий искусственного интеллекта, чтобы гарантировать, что это не повредит росту экономки или не станет угрозой национальной безопасности.

В палате также призывают политиков и представителей бизнеса активизировать свои усилия по созданию «основанной на рисках нормативной базы», которая обеспечит ответственное развитие ИИ.

Согласно прогнозам организации, ИИ добавит 13 триллионов долларов к глобальному экономическому росту к 2030 году. Отмечается, что искусственный интеллект уже внес важный вклад в сокращение нехватки медсестер в больницах и фиксацию очагов лесных пожаров для ускорения реагирования профильных ведомств.

В отчете подчеркивается необходимость быть готовым к надвигающемуся повсеместному использованию технологии и её потенциальным опасностям. Авторы утверждают, что в течение 20 лет практически каждая бизнес-структура и государственное учреждение начнут использовать ИИ.

Суммируя все вышеперечисленные факты, представляется, что мир пока еще только стоит на пороге понимания всех возможностей искусственного интеллекта. Вопросы регулирования его деятельности, очевидно, будут находиться в плоскости внимания профильных институций в ближайшие десятилетия. Тем не менее, уже проявившиеся факты показывают, что технология весьма далека от совершенства, даже не с технической, а с морально-этической точки зрения, в связи с чем весьма возможно, что в некоторых сферах жизни ее использование просто будет запрещено.