Темная сторона искусственного интеллекта

Как киберпреступники используют нейросети и с какими сложностями при этом сталкиваются по всему миру?

foto

Фото: NBC

Широко обсуждаемая в сети и в СМИ история Дженнифер ДеСтефано повергает в шок с самого начала. Женщина рассказывает, как ей позвонил мужчина и сообщил, что ее дочь, участвовавшая в лыжных соревнованиях, находится у него. И если Дженнифер кому-нибудь об этом расскажет, то он накачает девочку наркотиками, высадит в Мексике и мать больше никогда ее не увидит.


«Вам нужно заплатить миллион долларов, если хотите увидеть ее снова», — пригрозил голос из телефона.


Дженнифер согласилась отдать злоумышленнику $50 000: «Мне сказали, что если я не привезу деньги наличными, меня отвезут в Мексику и оставят там мертвой вместе с дочерью. Никаких сомнений не было, каждая моя клеточка, казалось, кричала: надо сделать что угодно, лишь бы спасти жизнь моего ребенка», — вспоминает женщина.

Дженнифер ДеСтефано

Неизвестно, куда бы дальше зашла это история, если бы одна из женщин, находившаяся рядом с Дженнифер и звонившая в 911, не сообщила, что это похоже на мошенничество с применением искусственного интеллекта. ДеСтефано связалась с дочерью, с которой оказалось все в порядке.

Этот случай вызвал шок в американском обществе, и даже привлек внимание законодателей. Тем не менее, обнадеживающих факторов пока мало: различные анонимайзеры позволяют злоумышленникам скрывать свое местоположение (тем более, действуют они обычно из-за рубежа), а искусственный интеллект помогает им еще успешнее достигать своих целей.

Опрос, который проводила компания-разработчик программного обеспечения для компьютерной безопасности McAfee, показал, что 70% не уверены, что смогут отличить клонированный голос от реального. В компании также сообщили, что для воспроизведения голоса человека с помощью искусственного интеллекта требуется всего три секунды аудиозаписи.

Помимо материального и морального вреда, при использовании ИИ мошенниками он также наносит вред окружающей среде, поэтому рискует нажить себе злейших и непримиримых врагов в виде многочисленных экоактивистов по всему миру.

Дело в том, что генеративные инструменты ИИ работают на графических процессорах, которые представляют собой сложные компьютерные чипы, способные обрабатывать миллиарды вычислений в секунду, необходимых для работы таких приложений как ChatGPT, Google Bard и многих других.

Специалисты в области технологий пытаются найти способы поддерживать искусственный интеллект без огромного потребления энергии, но готовых решений пока не существует. В одном из исследований, опубликованном в июле этого года, отмечается, что многие из уже предложенных обходных путей все равно приводят к снижению производительности искусственного интеллекта ради более щадящих последствий для окружающей среды.

Это ставит сектор ИИ в не самое простое положение. Пользователи уже обеспокоены ухудшением генеративных инструментов ИИ, таких как ChatGPT. Пока сложно сказать, связано ли это с личным восприятием от использования технологии, или же действительно подобная проблема существует, но, в любом случае, это косвенно свидетельствует о замедлении развития технологии.

Использованием искусственного интеллекта своими сотрудниками озабочены и в крупных компаниях. Не секрет, что многие используют ИИ, в особенности ChatGPT, для выполнения утилитарных рабочих задач, и именно это беспокоит работодателей. В США, в частности, в Microsoft и Google, уже ограничили его использование на рабочем месте.

Это связано с тем, что ИИ может воспроизводить данные, полученные им во время обучения, создавая потенциальный риск для конфиденциальности информации. Люди в основном не понимают, откуда берутся и как используются данные, которыми оперирует нейросеть, а между тем, многие сотрудники пользуются бесплатными версиями, которые даже формально не имеют каких-либо договорных обязательств перед юзером.

Опрошенные Reuters сотрудники крупных компаний приводят ряд примеров использования нейросетей, которые указывают на то, что искусственный интеллект, по сути, имеет доступ ко всем сферам бизнес-процессов. Например, сотрудник американского офиса Tinder рассказал, что его коллеги используют ChatGPT для «безобидных задач», например, для написания электронных писем, хотя компания официально не разрешает это. Многие сотрудники крупных компаний также используют ИИ для расшифровки аудио с совещаний, мониторинга СМИ и анализа документации.

И далеко не все думают о конфиденциальности, хотя есть и исключения: напомним, представитель Coca-Cola в Атланте, штат Джорджия, признался, что сотрудники используют ИИ, но отметил, что данные остаются в пределах ее брандмауэра.


«Внутри компании мы недавно запустили нашу корпоративную версию Coca-Cola ChatGPT для повышения производительности», — сказал представитель, добавив, что Coca-Cola планирует использовать искусственный интеллект для повышения эффективности и продуктивности своих команд.


Тем не менее, пока представляется, что ИИ несет в себе серьезную угрозу для корпоративной конфиденциальности, и общего решения этой проблемы пока не существует.

Возможно, помогла бы серьезная регуляторика, но прибегать к ней, не имея полного понимания технологии, законодатели не торопятся, что тоже вполне можно понять. Но времени на раскачку нет, и события, в том числе описанные в этой статье, показывают, чем уже оборачивается плохо понимаемая и плохо управляемая технология.

Жизнь в любом случае заставит государства и крупные компании поторопиться с выводами, вопрос — что в это ситуации станет критической точкой отсчета?