Искусственный интеллект выберет даже руководство. Пока из людей, а там ему видно будет.
Это сейчас, как многие уже заметили, компьютер просит нас доказать, что мы не роботы. Потом он и спрашивать перестанет. Фейковые фото, новости, видео и аудио станут самым ходовым товаром весной будущего года, когда в США и Великобритании пройдут выборы на самые главные посты.
Британский премьер Риши Сунак объявил на днях, что вверенная ему страна должна стать лидером не то чтобы в борьбе, а скорее в выявлении тех капканов, которые может расставить искусственный интеллект.
Майкл Вулдридж из британского Института Алана Тьюринга считает, что ИИ – это главная головная боль ближайшего будущего: «У нас и в США на подходе выборы, и все знают, какую роль играют социальные сети в распространении дезинформации. Но это ничто по сравнению с тем, в каком промышленном масштабе ее будет генерировать искусственный интеллект. Это вещь настолько изобретательная, что может подгонять дезинформацию даже по целевым группам, индивидуально и «под ключ». Для избирателей-консерваторов – в глубинке, для лейбористов – в столичном регионе. Для того, кто мало-мальски знаком с программированием, такая работа не займет и полдня».
Пока озвучено три подхода к укрощению ИИ. Первый содержится в письме 30 тысяч ученых, инвесторов и разработчиков, включая Илона Маска и Стива Возняка. Они предлагают объявить мораторий на все дальнейшие движения, пока системы типа ChatGPT-4 не будут досконально изучены – что они смогут натворить? Мошенничество, дезинформация, резкое высвобождение рабочих мест?..
Сунак в этом смысле менее осторожен. И это – второй подход к решению проблемы. Он вообще сторонник развития ИИ, поскольку считает, что преимуществ от него больше, чем рисков. В марте британское правительство приняло довольно «лайтовую» программу, где никаких суровых ограничительных функций не просматривается. Более того, в Королевстве сейчас создается исследовательский институт с бюджетом в 100 миллионов фунтов, который должен к 2030 году укротить ИИ и создать на его основе приложения, которые и будут двигать вперед британскую науку.
«Мы сознательно избрали итеративный подход (создания и одновременного тестирования программ, пока не будет достигнут искомый результат), поскольку технология развивается настолько стремительно, что иначе мы просто перестанем успевать за ней со своими регулирующими мерами», – сказал Сунак журналистам в самолете по дороге в Японию. А там эта тема тоже обсуждалась.
Таким образом, на Даунинг стрит не считают, что мораторий – это выход. Управление по конкуренции и рынкам Великобритании предложило прежде всего пересмотреть базовые элементы и модели, лежащие в основе программ ИИ. В сентябре будет опубликован обзор, посвященный правовым аспектам его применения.
Третий подход озвучил Главный исполнительный директор OpenAI, которая, собственно, и разработала OpenGPT, Сэм Альтман, которого пригласили выступить перед юридическим комитетом Сената США. Он считает, что правительство должно разработать требования для тестирования, лицензирования и дальнейшего релиза всех моделей ИИ. Следует создать набор стандартов, моделей, тестовых правил и прочих препонов, которые должен преодолеть любой разработчик, прежде чем выставить на рынок свою версию программы. Существующая ныне в Штатах платформа «Секция 230», которая примерно тем же и занимается, только в упрощенном виде, не справится с задачей, как считает Альтман.
«США, – сказал он на слушаниях, – должны установить еще и международные стандарты, с которыми считались бы и которые признавали другие страны. Тут важен глобальный подход, и мы хотим, чтобы лидером стала Америка. Нам нужны границы допустимого, и мы их будем определять». Собственно, почти то же самое, что затеял Сунак, только он имел в виду Великобританию.
Пока, к примеру, программы свободно, обильно и, главное, практически не определяемо формулируют темы о независимости Тайваня, климатических катастрофах или притеснениях ЛГБТ сообществ. Тут же они вбрасываются в соцсети и копируются по экспоненте.
Американская компания NewsGuard, отслеживающая все движения на рынке информации и дезинформации, протестировала последнюю модель ChatGPT. Из 1 300 давно разоблаченных фейков было предложено сгенерировать 100 новых. Система выдала ровно 100. В то время, как Google Bard сумел создать только 76. Компания обнаружила, что за две недели количество созданных сайтов и нарративов само увеличилось вдвое.
Джоэл Голби, автор английской «Гардиан», полагает, что «в общедоступной части интернета, то есть в соцсетях, достаточно принять Cookies, всплывающие окна или прочитать первые 100 слов в Substack (американская платная платформа распространения публикаций) – и вот уже вы сами получатель этих фейков-пранков».
Голби рассказывает о том, как повелся на недавнее фото папы римского в пуховике Balenciaga, «Прежде всего я увеличил картинку и стал рассматривать руки – как правило, до них дело не доходит и руки как раз все и выдают. Но там все было в порядке… Когда стало понятно, что это подделка, пришла мысль – ок, это шутка, но если он «произнесет» что угодно, типа «собаки попадают в рай, а кошки в ад», – начнется просто война».
Мередит Уиттакер, бывшая разработчица ИИ в Google, а теперь новый генеральный директор мессенджера «Сигнал», считает, что вся эта тревога по поводу технологий ИИ преувеличена: «Это все фантазии, распространяемые продавцами программы. ИИ – это генератор случайных чисел. Программа разработана для того, чтобы мониторить, выискивать, обрабатывать массивные потоки информации из интернета и формулировать их в доступном и удобочитаемом виде».