Искусственный интеллект выберет даже руководство. Пока из людей, а там ему видно будет.
Это сейчас, как многие уже заметили, компьютер просит нас доказать, что мы не роботы. Потом он и спрашивать перестанет. Фейковые фото, новости, видео и аудио станут самым ходовым товаром весной будущего года, когда в США и Великобритании пройдут выборы на самые главные посты.
Британский премьер Риши Сунак объявил на днях, что вверенная ему страна должна стать лидером не то чтобы в борьбе, а скорее в выявлении тех капканов, которые может расставить искусственный интеллект.
Майкл Вулдридж из британского Института Алана Тьюринга считает, что ИИ – это главная головная боль ближайшего будущего: «У нас и в США на подходе выборы, и все знают, какую роль играют социальные сети в распространении дезинформации. Но это ничто по сравнению с тем, в каком промышленном масштабе ее будет генерировать искусственный интеллект. Это вещь настолько изобретательная, что может подгонять дезинформацию даже по целевым группам, индивидуально и «под ключ». Для избирателей-консерваторов – в глубинке, для лейбористов – в столичном регионе. Для того, кто мало-мальски знаком с программированием, такая работа не займет и полдня».
Пока озвучено три подхода к укрощению ИИ. Первый содержится в письме 30 тысяч ученых, инвесторов и разработчиков, включая Илона Маска и Стива Возняка. Они предлагают объявить мораторий на все дальнейшие движения, пока системы типа ChatGPT-4 не будут досконально изучены – что они смогут натворить? Мошенничество, дезинформация, резкое высвобождение рабочих мест?..
Фото якобы взрыва неподалеку от Пентагона. Изображение разлетелось по многим СМИ, пока не стало ясно, что оно было сгенерировано искусственным интеллектом.Сунак в этом смысле менее осторожен. И это – второй подход к решению проблемы. Он вообще сторонник развития ИИ, поскольку считает, что преимуществ от него больше, чем рисков. В марте британское правительство приняло довольно «лайтовую» программу, где никаких суровых ограничительных функций не просматривается. Более того, в Королевстве сейчас создается исследовательский институт с бюджетом в 100 миллионов фунтов, который должен к 2030 году укротить ИИ и создать на его основе приложения, которые и будут двигать вперед британскую науку.
«Мы сознательно избрали итеративный подход (создания и одновременного тестирования программ, пока не будет достигнут искомый результат), поскольку технология развивается настолько стремительно, что иначе мы просто перестанем успевать за ней со своими регулирующими мерами», – сказал Сунак журналистам в самолете по дороге в Японию. А там эта тема тоже обсуждалась.
Таким образом, на Даунинг стрит не считают, что мораторий – это выход. Управление по конкуренции и рынкам Великобритании предложило прежде всего пересмотреть базовые элементы и модели, лежащие в основе программ ИИ. В сентябре будет опубликован обзор, посвященный правовым аспектам его применения.
Третий подход озвучил Главный исполнительный директор OpenAI, которая, собственно, и разработала OpenGPT, Сэм Альтман, которого пригласили выступить перед юридическим комитетом Сената США. Он считает, что правительство должно разработать требования для тестирования, лицензирования и дальнейшего релиза всех моделей ИИ. Следует создать набор стандартов, моделей, тестовых правил и прочих препонов, которые должен преодолеть любой разработчик, прежде чем выставить на рынок свою версию программы. Существующая ныне в Штатах платформа «Секция 230», которая примерно тем же и занимается, только в упрощенном виде, не справится с задачей, как считает Альтман.
«США, – сказал он на слушаниях, – должны установить еще и международные стандарты, с которыми считались бы и которые признавали другие страны. Тут важен глобальный подход, и мы хотим, чтобы лидером стала Америка. Нам нужны границы допустимого, и мы их будем определять». Собственно, почти то же самое, что затеял Сунак, только он имел в виду Великобританию.
Исполнительный директор стартапа OpenAI Сэм Альтман выступает перед юридическим комитетом Сената США. Фото: Haiyun Jiang / The New York TimesПока, к примеру, программы свободно, обильно и, главное, практически не определяемо формулируют темы о независимости Тайваня, климатических катастрофах или притеснениях ЛГБТ сообществ. Тут же они вбрасываются в соцсети и копируются по экспоненте.
Американская компания NewsGuard, отслеживающая все движения на рынке информации и дезинформации, протестировала последнюю модель ChatGPT. Из 1 300 давно разоблаченных фейков было предложено сгенерировать 100 новых. Система выдала ровно 100. В то время, как Google Bard сумел создать только 76. Компания обнаружила, что за две недели количество созданных сайтов и нарративов само увеличилось вдвое.
Джоэл Голби, автор английской «Гардиан», полагает, что «в общедоступной части интернета, то есть в соцсетях, достаточно принять Cookies, всплывающие окна или прочитать первые 100 слов в Substack (американская платная платформа распространения публикаций) – и вот уже вы сами получатель этих фейков-пранков».
Голби рассказывает о том, как повелся на недавнее фото папы римского в пуховике Balenciaga, «Прежде всего я увеличил картинку и стал рассматривать руки – как правило, до них дело не доходит и руки как раз все и выдают. Но там все было в порядке… Когда стало понятно, что это подделка, пришла мысль – ок, это шутка, но если он «произнесет» что угодно, типа «собаки попадают в рай, а кошки в ад», – начнется просто война».
Фото Папы Римского Франциска в пуховике Balenciaga, сгенерированное нейросетью.Мередит Уиттакер, бывшая разработчица ИИ в Google, а теперь новый генеральный директор мессенджера «Сигнал», считает, что вся эта тревога по поводу технологий ИИ преувеличена: «Это все фантазии, распространяемые продавцами программы. ИИ – это генератор случайных чисел. Программа разработана для того, чтобы мониторить, выискивать, обрабатывать массивные потоки информации из интернета и формулировать их в доступном и удобочитаемом виде».