ИИ-пузырь, похоже, сдулся…
Вчера в издании Foreign Affairs вышла статья с громким названием — America Isn’t Ready for the Wars of the Future. And They’re Already Here (Америка не готова к войнам будущего. А они уже здесь). Авторы — бывший начальник штаба ВС США Марк Милли и бывший же гендир Google Эрих Шмидт.
Cтатья в основном рефлексивная и imho не несет какой-либо новой информации (относительно, например, той же моей «военной футурологии» начала этого года). Единственный интересный тезис, с которым я согласен — это то, что решающим полем боя в совеременной войне станет город. Потому что благодаря глобальной урбанизациий города = центры принятия решений и превалирующие места скопления живой силы.
Любой осведомленный военный специалист скажет вам, что городские бои требуют огромного количества ресурсов и после них гораздо больше потерь. Следовательно будет все больше и больше роботизированного оружия, как привычных дронов, так и различных, пока еще, фантастических устройств вроде роботов-собак с тяжелым вооружением. Это то, с чем я согласен.
А вот не согласен я с тезисом авторов о том, что т.н. искусственный интеллект развивается неконтролируемо и берет на себя все большую часть ведения боевых действий. Авторы говорят о том, что боевые роботы в ближайшее время смогут самостоятельно составлять карты поля боя и прогнозировать свои действия.
Почему я так считаю? А потому, что не верю в навязанные фильмами и сериалами нарративы о том, что «военные знают больше», «у военных другие технологии» и т.п., особенно когда речь идет о т.н. искусственном интеллекте. Так получилось, что на гребне АI-волны оказались именно гражданские инициативы. Пузырь ИИ надулся слишком быстро для того, чтобы военные успели на него среагировать. И вот теперь всеми силами пытаются это наверстать.
Все вроде бы идет как должно идти, но мир меняется слишком динамично. Еще в начале этого года я свято верил в нейросетевые перспективы и в феврале 2024 даже предлагал беларусской науке вложить 1 млн долларов в акции компаний связанных с AI 👇
Но по состоянию на август 2024 мой энтузиазм относительно скорости развития систем ИИ значительно поугас. Поугас он, судя по всему и у самих «производителей».
Судите сами на примерах самых медийных генеративных систем. Ни у OpenAI с сhatGPT, ни у Google c ее Bard, ни у Microsoft c ее Bing — ни у кого из них нет сколь либо внятной бизнес-модели, которая могла бы окупить гигантские затраты этого направления. Несмотря на сотни миллиардов долларов инвестиций вопрос надежности так и не решен, и самое главное до сих пор не решен вопрос галлюцинирования. А с этим никакой речи о глобальной применимости технологии (медицина, военные технологии etc) идти не может.
Т.н. “машинные галлюцинации” — это реально существующий термин, обозначает он правдоподобно звучащую случайную ложь, которую генеративные системы AI встраивают в генерируемый ими контент и преподносят абсолютно безапелляционно
UPD. Хотя читатели вот предлагают такой вариант:
Проблема галлюционирования будет решаться с помощью причинно-следственных моделей. Созданием таких моделей сейчас занимается остальная наука (которая не стат. анализ), т.е. сами модели уже есть, осталось прикрутить их к нейросетям
Потеряли веру пользователи, потеряли веру клиенты, потеряли веру инвесторы (см. например отчет Goldman Sachs). Нет, конечно какие-то условные успехи в той же химии, например, вроде бы есть. Но они пока так далеки от реальной жизни. Мир наигрался в генерацию картинок, в составление текстов и писем и хочет наконец увидеть реальные применения.
Мир хочет увидеть _настоящий_искусственный_интеллект_. Мир не понимает, что сейчас даже пока человеческому интеллекту определения нет, а тут уже искусственный кто-то сделал и назвал. Миру подавай результаты.
А их нет, и не может быть по определению. Если на входе нейросети некий массив информации, сильно отличный от массивов в обучающей выборке, на ответ нельзя положиться. Удивительно как сложно многим принять тезис о том, что т.н. ИИ не понимает и не мыслит, он просто создает новые данные по шаблону старых.
<…> генеративная модель, в частности лингвистическая, выполняет простейшую операцию — она предсказывает следующее слово в последовательности слов. Чем больше слов уже включено в такую последовательность, тем проще угадать каждое новое, потому что круг вариантов постоянно сужается. По сути, LLM — это доведенное до немыслимого совершенства автозаполнение. LLM не думает. Она тренируется на огромном массиве созданных людьми текстов — романов, стихов, форумов, заметок из facebook — и на этой основе предсказывает, как будет расти и развиваться новая последовательность слов <…>
Т.е. логично предположить, что все способы оценки производительности т.н. ИИ по сравнению с человеком никоим образом не характеризуют интеллект/мышление, да и вообще такие сравнения это чистый популизм (для привлечения инвестиций, например). Этакое сомнительное дело, ловля рыбы в абсолютно мутной воде. Поэтому не удивительно, что градус ожиданий снижается, в комментариях все больше скепсиса.
Нельзя не сказать о двух важных “ограничителях развития” нейросетевых систем. В первую очередь это электроэнергия, которая в огромных количествах нужна для обучения новых моделей. Упоминал про это я в своей апрельской статье. Назовем это “энергетический голод АI” 👇
Второе ограничение — это “голод обучающих данных”. О нем как-то не принято публично говорить, максимум обсуждения кулуарны. В своей футурологической статье я мельком упоминал о том, что в 2024 году очень важным направлением станет генерация т.н. синтетических данных. Когда вместо сбора, анализа и использования частной информации реальных людей (а значит, и потенциальной возможности получить от них судебный иск) системы будут программно создавать реалистично выглядящие, но вымышленные наборы данных, которые сохраняют статистические свойства реальных вещей. Но такие данные непригодны для обучения новых нейросетевых моделей. Более того, их можно даже назвать “кумулятивным токсином AI”. Использование таких данных приведет к коллапсу , когда каждая последующая модель будет учиться не на реальности, а на _предсказании_реальности_ предыдущей модели, т.е. ошибки будут накапливаться многократно, вплоть до некой критической массы «абсолютного безумия».
Периодически в информационном поле всплывают упоминания о том, что Интернет отравляют миллионы фрагментов контента, сгенерированных нейросетями. Проводятся попытки идентифицировать такие данные и исключать их из обучающих наборов, но это сложно и дорого. Единственный выход — производить и продавать 100% сертифицированные чистые наборы данных, т.н. vegan data. Предположу, что цена таких наборов будет заоблачной и выиграют на этом в первую очередь владельцы крупных социальных сетей, вроде Цукерберга с его Facebook. История с Оли Фростом и его попыткой самостоятельно выгрузить свои истории предпочтений, посты и лайки и продать эту big data, косвенно подтверждает все опасения. Я как-то видел статью, в которой было указано, что по данным Европейской комиссии, стоимость персональных данных в 2020 году приблизилась к триллиону евро (8% ВВП Европейского союза). Это явно не играет на руку тем, кто планирует обучать новые и новые нейросетевые модели.
В общем, нейросети безусловно вещь интересная, и очень полезная. И она обязательно найдет свое место в картине нашего привычного мира. Но будет это точно не завтра, не через год, и даже скорее всего не через пять (из-за достигнутых «эволюционных пределов» в виде «энергетического голода» и «голода обучающих данных»). Пока же это все просто «нейросетевая» мышиная возня и периодическими всплесками «хайп-популизма» от AI-лидеров мнений (они вынуждены для привлечения инвестиций превращаться из гиков-технарей в популистов-конферансье). Пока вся эта история очень напоминает мне “бум доткомов”. Буду рад ошибиться…
IMHO