Новый единорог в стеке инфраструктуры ИИ (AI Infrastructure)
В решительном шаге, который подчёркивает сдвиг отрасли от обучения крупных моделей к их развертыванию в реальном времени, LiveKit привлёк $100 млн в раунде Series C, что подняло его оценку до $1 млрд. Раунд возглавила Index Ventures при значительном участии Salesforce Ventures и вернувшихся инвесторов Altimeter Capital, Redpoint Ventures и Hanabi Capital.
Для наблюдателей из Creati.ai эта оценка — больше, чем просто финансовый рубеж; она сигнализирует о зрелости слоя инфраструктуры ИИ.
Если 2024 и 2025 годы были определены гонкой вооружений между провайдерами фундаментальных моделей (foundation model providers) такими как OpenAI и Anthropic, то 2026 год стремительно формируется как год прикладного уровня — в частности мультимодальные агенты (multimodal agents), которые могут видеть, слышать и говорить. LiveKit, основанная в 2021 году Рассом Д'Са и Дэвидом Чжао, тихо создала критическую инфраструктуру (plumbing), необходимую, чтобы эти взаимодействия ощущались мгновенными и естественными.
Новые средства будут направлены на расширение глобальной сети пограничных узлов (edge nodes) LiveKit и совершенствование фреймворка «Agents», который упрощает оркестрацию сложных AI-пайплайнов (AI pipelines). По мере того, как предприятия переходят от текстовых чатботов к голосовым ассистентам (voice-native assistants), спрос на специализированную инфраструктуру с низкой задержкой взлетел, что выводит LiveKit в статус стандартного транспортного уровня для следующего поколения вычислений.
«Plumbing», стоящая за голосовой революцией
Чтобы понять стремительный рост LiveKit, сперва нужно разобраться в технических узких местах (bottlenecks) разговорного AI. Создание голосового агента — это не просто подключение движка распознавания речи (speech-to-text, STT) к крупной языковой модели (Large Language Model, LLM) и синтезатору речи (text-to-speech, TTS). Главные сложности связаны с задержкой (latency) и управлением состояниями (state management).
В стандартной архитектуре на основе HTTP задержка между речью пользователя и ответом AI может легко превысить две-три секунды — целая вечность в человеческой беседе. Эта задержка нарушает иллюзию интеллекта и раздражает пользователей. LiveKit решает эту проблему, используя современный подход к WebRTC (Web Real-Time Communication), изначально разработанному для видеоконференций, и переориентируя его на AI-инференс (inference).
Решение узкого места задержки (latency bottleneck)
Инфраструктура LiveKit функционирует как высокопроизводительная программируемая сеть. Она управляет приёмом аудиопотоков, обрабатывает их через ультранизкозадержанный конвейер (ultralow-latency pipeline) и доставляет ответ AI пользователю за миллисекунды.
Обрабатывая логику «turn-taking» — умение определять, когда пользователь перестал говорить или прерывает AI — LiveKit позволяет разработчикам создавать сценарии, которые ощущаются как естественные телефонные разговоры, а не общение по рации. Эта возможность критична для новой волны приложений в «Voice Mode», где плавность является основным показателем успеха.
Технология компании абстрагирует сложность управления jitter-буферами, эхоподавлением и обрывами соединения, позволяя инженерам AI сосредоточиться исключительно на логике своих агентов. Такая философия «developer-first» привела к широкому распространению: платформа сейчас обеспечивает миллиарды минут взаимодействия с AI ежегодно.
Подтверждение OpenAI
Возможно, самым значительным одобрением технологии LiveKit стала её партнерство с OpenAI. LiveKit служит основой для Advanced Voice Mode в ChatGPT — функции, которая поразила технический мир своей способностью вести эмоционально нюансированные разговоры в реальном времени.
Для корпоративных клиентов логика проста: если инфраструктура LiveKit достаточно надёжна, чтобы справляться с огромной одновременной нагрузкой глобальной базы пользователей ChatGPT, значит, она более чем способна обслуживать агентов поддержки клиентов, телемедицинские консультации или внутренние корпоративные инструменты. Этот «эффект OpenAI» (OpenAI Effect) ускорил внедрение LiveKit среди компаний из Fortune 500, таких как Salesforce и Tesla, интегрирующих эту технологию в свои AI-стратегии.
Сравнение: устаревшая инфраструктура vs. AI-native инфраструктура
| Функция |
Традиционный WebRTC |
LiveKit инфраструктура ИИ |
| Управление задержкой |
Переменная, часто непредсказуемая |
Оптимизированная передача с задержкой ниже 100 мс |
| Интеграция AI |
Требуется ручной glue-код |
Нативный конвейер для STT/LLM/TTS |
| Обработка прерываний |
Трудно реализовать |
Встроенная логика определения смены говорящего |
| Масштабируемость |
Высокие операционные издержки |
Управляемая глобальная сеть edge-узлов |
| Архитектура протокола |
Ориентация на Peer-to-Peer |
Переадресация на стороне сервера (SFU) |
За пределами чатботов: агентное будущее
Хотя разговорный AI в настоящее время является двигателем роста, дорожная карта LiveKit простирается в более широкую область мультимодальных агентов. Возможность потоковой передачи видеоданных в реальном времени позволяет AI-моделям «видеть» и рассуждать о физическом мире.
Эта возможность открывает новые горизонты в робототехнике и промышленной автоматизации. Например, стартапы в области телеуправления используют LiveKit для передачи видео с низкой задержкой от роботов к операторам-людям или AI-супервизорам. В секторе здравоохранения поставщики услуг психического здоровья используют платформу для создания автономных терапевтических ассистентов, которые могут обнаруживать тонкие эмоциональные сигналы в голосе пациента — задача, требующая высококачественной аудиопередачи, которую стандартная телефония не может обеспечить.
Кроме того, участие Salesforce Ventures в этом раунде Series C говорит о глубокой интеграции в рабочие процессы управления взаимоотношениями с клиентами (Customer Relationship Management, CRM). Можно ожидать появления систем «Agentic CRM», где голосовые AI-агенты не только обрабатывают звонки в поддержку, но и автономно обновляют данные клиентов и запускают рабочие процессы в реальном времени, всё это на основе data rails LiveKit.
Экосистема, ориентированная на разработчиков
Несмотря на статус единорога и фокус на корпоративном сегменте, LiveKit остаётся глубоко вкоренившимся в open-source-сообществе. Ядро его технологии доступно разработчикам, что способствует развитию живой экосистемы плагинов и интеграций.
Фреймворк «LiveKit Agents» позволяет разработчикам писать логику агентов на Python или Node.js, рассматривая сложную обработку аудио/видео как обычный импорт из библиотеки. Такая демократизация технологий потоковых медиа в реальном времени снижает порог входа для создания сложных AI-приложений. Один разработчик теперь может прототипировать голосового ассистента за один день, на что ранее требовалась бы команда инженеров по VoIP и несколько месяцев разработки.
Рыночные последствия для 2026 года
Погружаясь в 2026 год, капитализация LiveKit подтверждает более широкий тренд: стек ИИ (AI stack) консолидируется. Эра создания индивидуальной инфраструктуры для каждого AI-приложения подходит к концу. Так же, как Twilio стал стандартным API для SMS, а Stripe для платежей, LiveKit позиционирует себя как стандартный API для связи от AI к человеку.
Для читателей Creati.ai вывод очевиден. Ограничение на полезность AI больше не в интеллектуальных возможностях модели, а в скорости и надёжности интерфейса. С оценкой в $1 млрд и запасом средств в $100 млн LiveKit гарантирует, что интерфейс будущего будет мгновенным, бесшовным и везде доступным.