Человечество на пути к пропасти AICG, и не видно способа отвернуть.
Сенсационное обращение ИИ-гуру Китая Кай-Фу Ли к мировому сообществу разработчиков ИИ.
В 2023 мир столкнется с риском более серьёзным, чем риски ядерной войны, голода или пандемии. Это риск неотличимости правды от лжи, как для индивидов, так и для социумов любых масштабов.
Материализация этого риска более вероятна, чем риска гибели миллионов в результате ядерной войны, мирового голода или сверхсмертоносной пандемии.
Последствия же материализации этого риска окажутся разрушительны для большинства из существующих на Земле цивилизаций (ибо все они имеют в своей культурной основе различие правды и лжи).
Об этом говорил (1) в своем предновогоднем обращении к мировому сообществу разработчиков ИИ один из самых авторитетных в мире ИИ специалистов — Кай-Фу Ли: ученый, венчурный инвестор, человек с головокружительной карьерой (Apple, Silicon Graphics, Microsoft, Google) и автор двух мировых бестселлеров про ИИ.
Технологиями, позволяющими стирать различие правды от лжи, являются технологии AICG (генерация контента с помощью ИИ).
В основе AICG обучаемые на масштабируемых «больших данных» т.н. «базовые модели» ИИ, адаптируемые для широкого круга задач нижестоящего уровня (большие языковые модели, генераторы изображений, звука, видео, 3D ...)
Достигнутый к началу 2023 г. уровень развития AICG уже таков, что в этом году начнется их внедрение в поисковых системах и онлайн торговле товарами и услугами (как коммерческими, так и государственными).
Ключевой особенностью онлайн систем нового типа станет то, что наряду с имеющимися у них возможностями персонализации, у них появятся возможности:
• убедительного обоснования навязываемого человеку выбора, с учетом его персональных предпочтений, вкусов, склонностей, пристрастий и предубеждений;
• представления преимуществ навязываемого человеку выбора в наиболее привлекательном для него сочетании мультимедийных форматов.
Новые возможности позволят пробивать персональные фильтры критического мышления подавляющего числа людей, склоняя их к выбору, решениям или действиям, выгодным для владельцев онлайн-платформ.
Ну а наличие среди их владельцев (или тех, кто может на них влиять) лиц, не имеющих этических тормозов, будет иметь катастрофические последствия. Осуществляя любой выбор, решение или действие в онлайне, люди не будут различать правду от лжи: действуют ли они по своей воле и собственному выбору или являются объектом манипуляций заинтересованных лиц, втюхивающих им те или иные товары, услуги, идеи, суждения и т.д.
И никакие полномочия правительств не смогут подобное предотвратить уже известными методами.
Кай-Фу Ли считает, что высокая вероятность материализации вышеописанного определяется двум факторами.
1. **Непонятно, как контролировать AIGT**.
Человечество обладает средствами снижения вероятности известных смертоносных рисков (даже риск ядерного Апокалипсиса остается ограниченным уже полвека из-за наличия у сверхдержав механизма полного взаимного уничтожения).
Новый риск имеет совершенно иной характер, и способы снижения его вероятности пока неизвестны. А способы, работающие для других глобальных рисков здесь будут неэффективны.
2. **AIGT обещает столь колоссальную выгоду** для технологических гигантов (коммерческую) и правительств (политическую), что противопоставить этому что-либо проблематично.
Кай-Фу Ли полагает, что помешать материализации нового риска уже невозможно. Технологии AICG уже существуют.
И потому мировому сообществу разработчиков ИИ необходимо срочно направить максимальные усилия на поиск способов минимизации вреда при широком распространении AICG.