Что ждет AI в 2026 году: тенденции, прогнозы.
Пока все подводят итоги уходящего года и строят планы на новый, самое время заглянуть чуть дальше — в технологическое будущее. Привет! Это TEAMLY ...

В поисках практических решений по глубокой интеграции искусственного интеллекта в настольные операционные системы я обратился к опыту китайских разработчиков. В отличие от западного подхода, где ИИ остается преимущественно облачным сервисом или отдельным приложением, в Китае его внедряют непосредственно в дистрибутивы Linux, создавая целостную пользовательскую среду. Как вы относитесь к ИИ? Нужен ли он в операционных системах? Давайте попробуем разобраться и порассуждать.
Дальше всего в интеграции ИИ в Linux продвинулись разработчики дистрибутива deepin V23 (Deepin / UOS AI). В Deepin V23 встроен помощник “UOS AI”, есть поддержка естественноязыковых команд управления системой, более 40 сценариев использования, адаптация под множество приложений.
Важнейшая архитектурная особенность — гибкость на уровне модели. Система позволяет подключать как облачные большие языковые модели (LLM) через API, совместимый с форматом OpenAI, так и запускать локальные модели непосредственно на устройстве (on-device). Это стало возможным благодаря оптимизациям, выполненным совместно с Intel для эффективной работы на периферийных устройствах.

Основные компоненты и возможности
Grand Search (“大搜索” или “Intelligent Grand Search”)


Еще одним дистрибутивом, в который встроен искусственный интеллект, является openKylin. Это полностью открытый китайский дистрибутив Linux, развиваемый сообществом под эгидой KylinSoft / China Electronics Corporation. Его цель — создать национальную настольную ОС с полным контролем над стеком и независимостью от иностранных технологий (альтернатива Windows), при этом есть коммерческий Kylin OS (银河麒麟), который ставят в госсектор и госпредприятия КНР.
Начиная с версии openKylin 2.0 (выпущена летом 2024), разработчики начали активно внедрять ИИ-функции прямо в ОС, а не только как сторонние программы.
| Возможность / компонент | UOS AI (Deepin) | openKylin AI |
| Интеграция в ОС | Полная интеграция в рабочий стол DDE | Интеграция в среду UKUI |
| Основные сценарии | Управление системой, поиск, помощь, генерация текста | Поиск, помощь, генерация текста и изображений |
| Встроенные модели | Поддержка локальных моделей (например DeepSeek-R1) | Поддержка локальных моделей |
| Облачные модели | Поддержка через OpenAI-совместимый API | Поддержка через OpenAI-совместимый API |
| Поддерживаемые платформы LLM | Baidu Qianfan, iFlytek Spark, Zhipu GLM, DeepSeek и др. | Baidu Qianfan, iFlytek Spark, Zhipu GLM, Tencent, 360 и др. |
| Подключение сторонних моделей | Да (через настройку кастомных моделей) | Да (через API-панель) |
| Локальные базы знаний | Есть: загрузка документов, векторный поиск | Есть: загрузка документов, векторный поиск |
| Генерация изображений | Нет (пока) | Есть (Text-to-Image, AIGC) |
| Ассистент по системе | Есть: справка, настройки, подсказки | Есть: справка, настройки, подсказки |
| Режим работы без сети | Да (он-девайс модели) | Да (он-девайс модели) |
| Основной язык | Китайский, частично английский | Китайский, частично английский |
| Стадия зрелости | Более зрелая, используется в коммерческом UOS | Более новая, часть функций в beta |
| Статус лицензий: базовая ОС | Полностью открытая (Deepin) | Полностью открытая |
| Статус лицензий: оболочка/раб. среда | DDE, DTK — открытые | UKUI — открытая |
| Статус лицензий: ИИ-модуль | Частично закрытый (UOS AI, код не весь открыт) | Частично открытый (openKylin AI Assistant, часть кода закрыта) |
| Зависимость от внешних сервисов | Возможна (облачные API) | Возможна (облачные API) |
Что именно открыто в openKylin
Исходный код большинства ключевых компонентов опубликован на git.openkylin.top под свободными лицензиями (GPLv3, LGPL, Apache 2.0 и др.). В открытом виде доступны: ядро Linux и системные библиотеки, графическая оболочка UKUI, менеджер пакетов, собственные системные службы и панели настроек, а также SDK для приложений и инструментальная среда.
Компоненты, которые обеспечивают интеграцию с ИИ, в том числе панели и интерфейсы openKylin AI Assistant, тоже опубликованы частично — как модули для взаимодействия с LLM через OpenAI-совместимый API (/v1/chat/completions).
Эти модули не жёстко связаны с конкретными китайскими облачными моделями — они работают с любыми API-совместимыми LLM (например, GigaChat, DeepSeek, Mistral и т. д.), если есть endpoint и API-ключ.
Практически: что можно сделать
Почему Запад не спешит? Контраст в целях и экосистемах
Причина отсутствия аналогичных решений в западных дистрибутивах (Ubuntu, Fedora) лежит не в технических, а в организационно-экономических плоскостях.
Отдельные попытки на Западе есть, но они не системные, Fedora, Ubuntu, openSUSE и др. пока не добавляют ИИ в базовую систему, но:
Canonical делает отдельные пакеты для локального запуска LLM (Ollama, LLaMA),
Red Hat развивает Enterprise Linux AI, но как отдельную платформу для обучения моделей, а не как пользовательский агент,
Есть сторонние плагины для GNOME/KDE (например, Copilot-подобные расширения), но они не входят в дистрибутивы.
То есть элементы есть, но нет стратегической цели сделать «AI-ОС», как у openKylin и Deepin.
Выводы и уроки для российской экосистемы
Нужно максимально использовать китайской опыт и развивать возможности обработки данных и документов непосредственно на устройстве либо на сервере внутренней сети, поскольку это важно для госсектора и корпоративных нужд.
Локальность и контроль. Возможность обработки данных on-device или на внутреннем сервере — не просто фича, а базовая необходимость для госсектора и корпораций, обеспечивающая безопасность и цифровой суверенитет.
Специализированный клиент. Для комфортной работы с LLM, особенно в длинных диалогах, нужны нативные приложения, а не браузер. Спецклиенты, как в Deepin или openKylin, управляют памятью и контекстом эффективнее, избегая «тормозов» веб-интерфейсов.
Интеграция в среду. ИИ должен быть вплетен в рабочий процесс: в поиск, файловый менеджер, текстовые редакторы. Это не просто чат-бот, а системный слой помощи.
Открытость и гибкость. Архитектура, позволяющая подключать различные внешние и локальные модели через стандартизированный API (OpenAI-совместимый), даёт свободу выбора и защищает от зависимости от одного вендора.