Искусственный интеллект в следующем году будет отвечать за спецэффекты в Голливуде, поднимет песни в чарты, вмешается в президентские выборы в США и опередит людей в науке и играх Фото: ru.freepik.com

Самый драматичный год для искусственного интеллекта

В октябре был опубликован ежегодный отчет State of AI Report — одно из наиболее авторитетных и всеобъемлющих исследований в области искусственного интеллекта (ИИ) в мире. Его ежегодно составляет сооснователь лондонского венчурного фонда Air Street Capital Натан Бенайх (Nathan Benaich), известный британский инвестор, предприниматель и доктор наук. Его фонд позиционируется как первый, объединивший 19 специализирующихся на ИИ компаний Европы и Северной Америки. Буквально в сентябре этого года Air Street Capital объявил о создании второго фонда, объемом $121 млн, для поддержки ИИ-стартапов ранней стадии. Его поддержали ангелы из OpenAI, Google, DeepMind и т. д.

Обычно соавтором исследования выступал еще один известный инвестор — Ян Хогарт (Ian Hogarth), но в этом году у него появились более важные задачи. Его назначили руководителем рабочей группы при правительстве Великобритании под названием Frontier AI Taskforce, которая занимается рисками, связанными с искусственным интеллектом. Она подчиняется непосредственно премьер-министру Риши Сунаку и министру технологий, а бюджет составляет 100 млн фунтов стерлингов госфинансирования (примерно 11,3 млрд рублей). Это к вопросу о национальных приоритетах. Но вернемся к самому отчету.

Отсутствие Хогарта не помешало команде Air Street Capital пересказать на 163 страницах «самый драматичный год» для ИИ, посмотрев на все происходящее с точки зрения разработки, бизнеса, политики и безопасности, и дать прогнозы на следующий год (они сбываются обычно чуть больше, чем наполовину).

GPT-4, разработанная компанией OpenAI, сумела обойти всех конкурентов как в классических тестах для ИИ, так и в человеческих экзаменахGPT-4, разработанная компанией OpenAI, сумела обойти всех конкурентов как в классических тестах для ИИ, так и в человеческих экзаменах Фото: ru.freepik.com

Разработка: языковые модели правят бал, но данные заканчиваются

2023-й стал годом больших языковых моделей. GPT-4, разработанная компанией OpenAI, сумела обойти всех конкурентов как в классических тестах для ИИ, так и в человеческих экзаменах. Например, экзамен на адвоката GPT-4 сдает на 90%, хотя ее предшественница — GPT 3.5 — набирала только 10%. Проблему с галлюцинациями до конца решить не удалось, но ответы стали на 40% точнее.

Разработчики прячут данные, боясь конкуренции. OpenAI окончательно отошел от собственной первоначальной концепции (название компании переводится как «Открытый ИИ»). «Учитывая конкурентную среду и последствия для безопасности таких масштабных моделей, как GPT-4, данный отчет не содержит никаких дополнительных сведений об архитектуре (включая размер модели), аппаратном обеспечении, обучающих вычислениях, построении наборов данных, методе обучения и тому подобное», — честно пишет OpenAI в техническом отчете GPT-4. Другие поступили примерно так же. Google почти не раскрывал изнанку своей модели PaLM2, еще один разработчик — Anthropic — вообще не удосужился раскрыть информацию о нейросети Claude.

Дорогу небольшим. Исследователи обнаружили, что модели, обученные на узкоспециализированных наборах данных, могут соперничать с гигантами, которые в 50 раз больше, чем они.

Данные заканчиваются. Искусственный интеллект всегда обучается на данных, но оказалось, что их ограниченное количество. По прогнозам специалистов компании Epoch AI, запасы низкокачественных языковых данных закончатся к 2030–2050 годам, высококачественных языковых данных — к 2026-му, а данных, необходимых для тренировки компьютерного зрения, — к 2030–2060 годам.

Пальма ИИ-первенства — за США. Более 70% наиболее цитируемых работ по ИИ за последние три года были сделаны в американских институтах и организациях. На втором месте — Китай, на третьем — предсказуемо Великобритания. В списке есть Австралия, Финляндия и даже Иран, но Россией, разумеется и не пахнет. Топ-3 компаний-лидеров тоже не удивляет: Google, Meta* и Microsoft.

Исторически 20–25% доходов NVIDIA от продуктов, связанных с обработкой данных, приходилось на Китай Фото: © Walid Berrazeg / Keystone Press Agency / www.globallookpress.com

Индустрия: войны чипов и изобретение лекарств

Заоблачный спрос на графические процессоры. Рыночная стоимость Nvidia на этом фоне выросла до $1 трлн, их чипы в ИИ-разработках используются в 19 раз чаще, чем все альтернативы вместе взятые.

Идет война чипов. Исторически 20–25% доходов NVIDIA от продуктов, связанных с обработкой данных, приходилось на Китай. Но в прошлом году министерство торговли США внесло их самые мощные чипы в список экспортного контроля, и компании пришлось разрабатывать для Поднебесной новые модели — ниже установленного порога производительности. То же самое сделали Intel и AMD. В результате китайские ByteDance и Baidu только у NVIDIA заказали графические процессоры на сумму более $1 миллиарда.

Chat-GPT — один из самых быстрорастущих интернет-продуктов всех времен и народов. Особое место он занимает среди разработчиков, потеснив даже популярнейший ресурс Stack Overflow. Более того, сервис пытался запретить публиковать ответы, генерируемые ChatGPT, но только потерял на этом трафик.

Генеративный ИИ спасает венчурный рынок. Если бы не бум генеративных моделей, инвестиции в ИИ упали бы на 40% по сравнению с прошлым годом. А так стартапы, специализирующиеся на генеративных приложениях ИИ (включая видео, текст и кодирование), за год привлекли более $18 млрд от венчурных и корпоративных инвесторов.

Прикладное применение. ИИ становится полезным в разработке беспилотников (GAIA-1 — генеративная модель мира с 9 млрд параметров, разработанная специально для автономного вождения) и биотехнологий. Традиционные фармацевтические компании заключают миллиардные сделки. Например, BioNTech, лидер по производству мРНК-вакцин, приобрела за 500 млн евро компанию InstaDeep. Старейшая в мире фармацевтическая, химическая и биологическая компания Merck заключает новые сделки с компанией Exscientia, создающей лекарства на основе искусственного интеллекта, на сумму до $674 млн, а сделка AstraZeneca с Verge Genomics оценивается в $840 миллионов.

Проблема авторских прав. В Великобритании и США Getty Images подал в суд на Stability AI, утверждая, что модель скопировала миллионы фотографий, изменила или удалила информацию об авторских правах, а Stable Diffusion создает изображения с изменением водяного знака Getty Images. OpenAI и Meta* столкнулись с судебными исками в связи с обвинением их в неправомерном использовании книг, защищенных авторским правом, при обучении моделей. Сообщается, что The New York Times обдумывает аналогичный иск к OpenAI. Три художника подали в суд на Stability, DeviantArt и Midjourney за использование своих работ для обучения генератора изображений, который создает «производные работы, нарушающие авторские права».

Украина — полигон для тестирования ИИ как оружия

«Рынок оборонных технологий, основанных на искусственном интеллекте, оживает, военные спешат модернизировать свои возможности в ответ на происходящее на Украине, — пишут авторы исследования. — Однако столкновение между новыми технологиями и старыми лидерами не позволяет пробиться новым игрокам». Несмотря на это, объем финансирования американских оборонных стартапов в прошлом году достиг $2,4 млрд, что более чем в 100 раз превышает европейский показатель.

Украина выступает в качестве лаборатории для ведения боевых действий с использованием искусственного интеллекта. Например, сообщается, что эффективным оказалось совмещенное использование дешевых беспилотников — от турецких Bayraktar до самопальных аппаратов — со спутниковыми данными и ИИ-системами. Итоговое решение в разы дешевле американских беспилотников Reaper и Predator, цена которых составляет $30–50 миллионов.

Украинский проект Zvook, обучившись на видеозаписях, обнаруживает звуковые сигналы российских ракет с помощью сети устройств акустического мониторинга по всей стране. Используется также Delta — облачная система ситуационной осведомленности, интегрирующая в реальном времени данные с различных датчиков, спутников и беспилотников, а также разведданные. «Система отличается высокой степенью децентрализации и позволяет избежать использования уязвимых мобильных сетей или волоконно-оптических кабелей за счет применения технологии Starlink», — говорится в отчете.

Авторы исследования предупреждают, что до сих пор контент, генерируемый искусственным интеллектом, были малоубедителен, но появившиеся недорогие и высококачественные модели могут изменить ситуациюАвторы исследования предупреждают, что до сих пор контент, генерируемый искусственным интеллектом, был малоубедителен, но появившиеся недорогие и высококачественные модели могут изменить ситуацию Фото: ru.freepik.com

Политика и экзистенциальные риски

Как все регулировать? В мире существует несколько подходов к регулированию ИИ — от легких до жестких. И тут в исследовании впервые появляется российский флаг, разумеется, в разделе «Жесткое регулирование» вместе с Ираном. А что делают другие?

ЕС и США объявили о разработке совместного кодекса поведения в области ИИ, который будет включать в себя международные стандарты по аудиту рисков и прозрачности.

G7 совместно с ОЭСР создаст «Хиросимский процесс генеративного искусственного интеллекта» (G7 Hiroshima Process on Generative Artificial Intelligence), который определит «коллективный подход» к управлению ИИ.

Выборы в США подпортит ИИ? Авторы исследования предупреждают, что до сих пор контент, генерируемый искусственным интеллектом, был малоубедителен, но появившиеся недорогие и высококачественные модели могут изменить ситуацию. Генерируемые ИИ изображения и видеоконтент уже используются на местных выборах в Канаде, в ходе российско-украинских событий, на парламентских выборах в Словакии, на президентских выборах в Турции и в ходе «китайской дезинформационной кампании».

Экзистенциальный риск. Дискуссия об опасности искусственного интеллекта попала в заголовки газет: «Приостановить разработку ИИ недостаточно! Нужно закрыть все проекты», «Нужно замедлить гонку за богоподобным ИИ», «Снижение риска вымирания человечества в результате воздействия искусственного интеллекта должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война» и т. д.

Прогнозы на следующий год

  1. В Голливуде визуальные эффекты будут создаваться с помощью искусственного интеллекта.
  2. В США придется расследовать первое в истории вмешательство ИИ в выборы.
  3. ИИ уже побеждал людей в шахматах и го, а теперь опередит их и в сложных комплексных средах (лучших сюжетных играх, использовании инструментов, науке и т. д.).
  4. Рынки IPO в сфере технологий размораживаются. Произойдет как минимум один крупный листинг компании, ориентированной на ИИ (например Databricks).
  5. На обучение одной крупномасштабной модели кому-то придется потратить более $1 миллиарда.
  6. Регуляторы США и Великобритании проверят сделку Microsoft/OpenAI на предмет добросовестной конкуренции.
  7. Значительного прогресса в части глобального управления ИИ так и не удастся достигнуть.
  8. Финансовые институты заменят венчурные фонды долговыми для финансирования вычислений.
  9. Песня, созданная искусственным интеллектом, попадает в топ-10 Billboard Hot 100 или топ-хиты Spotify 2024 года.
  10. Крупная компания, специализирующаяся на ИИ-разработках (например OpenAI), приобретает производителя чипов.