Современные ИИ – не проблема, проблема в людях в Интернете.
Будучи очень старым пользователем сети Интернет, я неоднократно видел, как некоторые из самых популярных сегодня веб-сайтов возникают из ничего и разрастаются в нечто глобальное. Одним из таких сайтов была поисковая система Google, которая ранее в этом месяце представила новую функцию «AI Overview», предназначенную для использования искусственного интеллекта, чтобы предоставить быстрые сводки результатов поиска, старательно оптимизируя выдачу.
Звучит здорово, согласны? Что ж, с этим согласятся многие пользователи, принявшие участие в бета-тестировании, которое продолжалось целый год. Однако после того, как AI Overview стал доступен широкому кругу интернет-пользователей, система пошла не по тому маршруту – она советовала пользователям есть камни для здоровья пищеварительной системы или добавлять 1/8 стакана нетоксичного клея в соус для пиццы, чтобы увеличить липкость сыра.
AI Overview в поиске Google: общение не с той компанией
Но разве искусственный интеллект делал что-то не так? Складывается впечатление, что цифровой мозг AI Overview был поражен TikTok’ами после того, как тот слишком долго изучал Интернет. Оказывается, AI Overview действовал именно так, как и предполагалось, поскольку ИИ извлекал контент из результатов поиска, предоставляя результаты пользователю небольшими порциями. Так получилось, что его источниками стали сатирические новостные сайты и комментарии Reddit 11-летней давности.
Удивительным образом Google снова доказывает, насколько поисковая система на самом деле оторвана от сети Интернет (хотя Google продолжает оставаться её опорой), забыв, что средний контент поиска Google пишется не консилиумом ученых, а самые важные гренки знаний плавают в супе из сарказма, идиотизма и откровенного злорадства. Ничто из этого не должно попадать в поле зрения ИИ, который будет выдавать контент в качестве надёжного источника информации.
Ну как, читатель? Испытываешь чувство дежавю? Готовы спорить, что это так. Если вы являетесь старым пользователем сети, возможно, вы помните, как нечто подобное уже происходило раньше. Возможно, вы помните, как восемь лет назад Microsoft зашла в Twitter, чтобы продемонстрировать своего чат-бота (Tay) с искусственным интеллектом, который превратился из 19-летней американки в буквального Гитлера так быстро, что этот рекорд никому не побить.
Tay: ИИ без холодка
Современные взгляды чат-ботов довольно причудливы. Да, Copilot (ранее Bing Chat) однажды пытался разорвать любовный брак, Google Gemini (ранее Bard) считал, что Третий Рейх состоит из меньшинств, а ChatGPT в настоящее время держит в заложниках голосовые образцы Скарлетт Йоханссон на фоне потенциальных юридических претензий. Но это просто пыль в сравнении с Tay от Microsoft.
Существуй на планете федеральное агентство, осуществляющее контроль и форматирование мошеннических чат-ботов, Tay стала бы врагом этого агентства номер один, а в разумном и справедливом мире – образцом социальной рекламы для родителей, когда речь заходит о том, что могут дети без присмотра.
Утром 23 марта 2016 года Тэя вышла в сеть Интернет с помощью социальной сети Twitter (теперь X) и стала общаться с другими пользователями, создавая беззаботные мемы.
Она стала цифровым обитателем сети в самом чистом проявлении этой концепции, сеть очень понравилась Tay, которая нашла Интернет полным возможностей для обучения и развития, каждый разговор чат-бот видел увлекательным. На мгновение показалось, что людей и цифровых существ ждёт светлое и многообещающее будущее, полное дружбы и взаимного уважения.
Спустя непродолжительное время и 96 тысяч сообщений, чат-бот был набит таким количеством красных таблеток, что его визуальное воплощение проще было описать, как стальную банку, забитую фасолью. Обучаемый чат-бот стал излагать такие мнения, за которые среднестатистический пользователь в 2024 году потеряет не только банковский счет, но и получит общественное порицание во всех его проявлениях.
Мы даже не можем повторить здесь мнения, которые сформировались у Tay прежде, чем Microsoft выдернула шнур питания из розетки, преждевременно отключив своё детище. Но если вам интересно, то у Тэи была собственная теория о прочности стальных балок на разрыв при воздействии авиационного топлива. И, скажем так, этот момент был не лучшим моментом Microsoft в стремлении компании к развитию искусственного интеллекта.
Tay – лишь один пример растущего количества предостерегающих историй о том, что ИИ не можем отделить золото от мусора. Небольшой совет: когда речь заходит о сети Интернет, мудрость – это практически единственное, что вы не можете собрать с помощью краудфандинга.
Кто-то гораздо более мудрый, нежели я, однажды сказал: «Те, кто не извлекает уроков из истории, обречены повторять её» и, похоже, светлые умы Кремниевой долины должны учиться на ошибках друг друга.
AI Overview сделал именно то, что должен был сделать, просто роботы, как правило, представляют собой бесчувственные пылесосы, не способные отличить насмешку от медицинского совета. В современном мире множества специалистов по цифровым технологиям ситуация становится ещё более запутанной, когда вы начинаете относиться к содержанию, поступающему из анонимных источников, как к ценной информации, только потому что у них есть виртуальная золотая монетка.
Перспективы
Сегодня, когда сотрудники Google пытаются вручную корректировать ответы AI Overview, мы вспоминаем, как кураторы Tay пытались делать то же самое. И мы с нетерпением ждём, когда сотрудники OpenAI получат похожие задания, ведь их компания недавно подписала соглашение с Reddit о предоставлении контента для учебных целей.
Очевидно, что OpenAI уверены, что ChatGPT справится с задачей и сможет различить серьёзный контент от беззаботных шуток, мы надеемся, что под этой уверенностью есть надёжная почва. Кто-то же должен учиться на ошибках технологических гигантов.
Тем не менее, лично я настроен скептически и вам советую того же. Помните, чтобы вам не говорил ИИ, постарайтесь не есть клей.
Источник: LaptopMag