Лидерство в развитии генеративных моделей — нового ресурса экономики цифрового мира — на данный момент принадлежит всего нескольким ИТ‑корпорациям, сокращенным до аббревиатуры GAMAM: Google, Amazon, Meta, Apple, Microsoft.
Совокупная численность GAMAM составляет всего около 2,3 млн человек. Это менее 5% от общей численности персонала мировой ИТ‑индустрии (по разным оценкам, их остается около 55 млн специалистов).
Эти 2+ млн создают компании капитализацией 12+ трлн долл. Это более 20% от общей капитализации американского фондового рынка. Еще в 2010 году это были скромные 5% и менее 1 трлн общей капитализации.
Разумно предположить, что дальнейший прогресс LLM в самых разных видах деятельности работников умственного труда в среднесрочной перспективе позволит GAMAM забрать себе новые сегменты бизнеса: индустрия развлечений (кино, музыка, сериалы, блогеры и т. п.), право и бухгалтерия, обучение и менеджмент и т. п.
Доступ к таким моделям, особенно когда дело касается решения конкретной бизнес-задачи, может оказаться ограниченным. Главным ограничением выступают инфраструктурные мощности, которыми обладает компания-разработчик LLM. Кроме того, разные модели способны обработать лимитированный объем контекста, измеряемого в токенах. Сами токены служат как инструментом измерения скорости отклика при одновременном количестве потоков/запросов (например, эффективность отклика LLM часто измеряется количеством токенов в секунду), так и способом тарификации. К примеру, монетизация компанийразработчиков может строиться как на генерации нового контента, так и на векторизации загруженных пользователем данных.
Отдельной сложностью выступает определение «курса» самого токена, зависящего от модели. Так, в случае с одной моделью токен может «весить» 4 знака, а с другой — 6, что значимо может затруднить сравнительный анализ и в целом прогнозирование стоимости закупаемого сервиса. Своего рода «печатным станком» в таком случае обладает даже не сам разработчик, а владелец инфраструктуры, за доступ к которой де-факто платит пользователь.
Стратегическим ответом на проприетарные модели типа ChatGPT‑4 стали модели с открытым исходным кодом. Появление доступных для дообучения и кастомизации больших и малых языковых моделей позволило создавать сервисы, решающие конкретные проблемы бизнеса, будь то категоризация клиентских обращений или создание креативов для маркетинговых акций. Однако есть основания полагать, что в обозримой перспективе безусловное лидерство останется за проприетарными моделями. Новые модели появляются регулярно, а список лидеров с 2023 года обновился практически полностью. Если раньше открытая модель Vicuna13b входила в топ‑5 и по совокупным метрикам качества набирала под 90% относительно ChatGPT‑4, то в 2024 году она вылетела из топ‑10 моделей, по оценкам пользователей портала Hugging Face. На сегодняшний день корпоративные LLM остаются лидерами рейтинга, а появление моделей open-source можно назвать попыткой улучшить уже доступные устаревшие проприетарные модели.
Вместе с тем потребности бизнеса требуют прагматичного подхода в работе с любой технологией, и генеративный ИИ не исключение. В связи с этим совершенно необязательным кажется погоня за лучшей моделью с точки зрения общепризнанных метрик. ChatGPT‑4io может занимать лидирующие позиции, однако доступ к нему ограничен и часто рискован ввиду отсутствия технической возможности предотвратить утечки сенситивной информации в случае интеграции с ним корпоративных информационных систем. Банковский бизнес во многом построен вокруг такой сенситивной информации, и качественное преобразование бизнес-процессов может быть возможно только при полноценном развертывании генеративных моделей в контуре банка.
В Уралсибе мы регулярно фиксируем растущие потребности в генеративных моделях. Так, показали высокий спрос решения в сфере анализа клиентского опыта, управления персоналом и консультирования сотрудников и клиентов. Отдельного изучения заслуживают такие направления, как анализ договоров и в целом внутренней документации банка, помощь программистам в работе с кодом (аннотирование, корректировка скрипта). Уже около 20% нашей воронки инновационных решений, поиск которых осуществляется в интересах внутренних заказчиков, содержат генеративные языковые модели в основе ИТ‑сервиса. Более того, при попытке оценить экономический эффект от масштабирования такого решения, мы зачастую приходим к выводу о необходимости его интеграции в контур банка.