Искусственный интеллект в дистрибутивах Linux.

В поисках практических решений по глубокой интеграции искусственного интеллекта в настольные операционные системы я обратился к опыту китайских разработчиков. В отличие от западного подхода, где ИИ остается преимущественно облачным сервисом или отдельным приложением, в Китае его внедряют непосредственно в дистрибутивы Linux, создавая целостную пользовательскую среду. Как вы относитесь к ИИ? Нужен ли он в операционных системах? Давайте попробуем разобраться и порассуждать.

Дальше всего в интеграции ИИ в Linux продвинулись разработчики дистрибутива deepin V23 (Deepin / UOS AI). В Deepin V23 встроен помощник “UOS AI”, есть поддержка естественноязыковых команд управления системой, более 40 сценариев использования, адаптация под множество приложений. 

Важнейшая архитектурная особенность — гибкость на уровне модели. Система позволяет подключать как облачные большие языковые модели (LLM) через API, совместимый с форматом OpenAI, так и запускать локальные модели непосредственно на устройстве (on-device). Это стало возможным благодаря оптимизациям, выполненным совместно с Intel для эффективной работы на периферийных устройствах.

Основные компоненты и возможности
 
        Grand Search (“大搜索” или “Intelligent Grand Search”)

  • Система поиска по всему компьютеру: файлы, электронная почта, заметки и т. д.
  • Поддержка “fuzzy search” — т.е. нечёткий поиск: не обязательно правильно сформулированный запрос, система может понять по смыслу.
  • Естественно-языковые запросы: можно просто “на людском” написать “найди отчёты за прошлый месяц” — и поиск выдаёт соответствующие документы.Personal Knowledge Assistant (Персональный Помощник Знаний)
  • Позволяет загружать документы в систему, которые становятся “базой знаний”.
  • На основе этой базы можно делать запросы, создавать контент, искать информацию внутри своих документов.
  • Из-за вопроса приватности и производительности, по умолчанию используется “локальная модель” (local model) — всё происходит на машине пользователя, при определённых требованиях к железу (например, “рекомендуется процессор не ниже i5”).Deepin System Assistant
  • Ассистент, помогающий именно с системой. Вопросы типа “какие горячие клавиши?”, “как сделать скриншот?”, “как изменить настройки экрана”, “как переключить язык” и т.п.UOS AI FollowAlong & UOS AI Writing (в версии 1.5) Deepin
  • FollowAlong: когда ты выделяешь текст — появляется быстрое меню с возможностью получить разъяснение, перевод, резюме, расширение, “продолжение” текста.
  • Writing: в полях ввода (input boxes) нажатием сочетания “Super+Space” вызывается функция помощи в написании. Можно использовать шаблоны (отчёты, статьи, планы и др.)Большие модели / кастомизация моделей
  • UOS AI допускает подключение внешних моделей через API-интерфейс, совместимый с OpenAI “/v1/chat/completions”.
  • Можно подключать локальные модели: например через Ollama или через “Model Hub” Deepin.
  • Также есть возможность “private deployment” (частное развёртывание), что позволяет держать данные локальными, провайдер-независимыми.UI / взаимодействие
  • Интерфейс позволяет вызывать ассистента через сочетания клавиш (например, “Super + C” в версии 1.5) — чтобы быстро получить помощь или открыть диалог UOS AI.
  • Есть режимы: боковое окно (sidebar) и полноэкранный режим для UOS AI.
  • Подсветка UI: всплывающие меню, предварительный просмотр при поиске

Еще одним дистрибутивом, в который встроен искусственный интеллект, является openKylin. Это полностью открытый китайский дистрибутив Linux, развиваемый сообществом под эгидой KylinSoft / China Electronics Corporation. Его цель — создать национальную настольную ОС с полным контролем над стеком и независимостью от иностранных технологий (альтернатива Windows), при этом есть коммерческий Kylin OS (银河麒麟), который ставят в госсектор и госпредприятия КНР.

Начиная с версии openKylin 2.0 (выпущена летом 2024), разработчики начали активно внедрять ИИ-функции прямо в ОС, а не только как сторонние программы.

Основные ИИ-возможности openKylin 2.0

AI-ассистент (openKylin AI Assistant)

  • Встроенный персональный помощник, интегрированный в рабочий стол (среду UKUI).
  • Поддерживает естественноязыковые команды:
  • поиск файлов, заметок, писем, настроек;
  • открытие приложений и выполнение команд;
  • генерация резюме и пояснений к выделенному тексту.
  • Может отвечать на вопросы о системе: как изменить язык, где включить VPN, как настроить экран и т. д.

Генерация и обработка контента

  • Генерация изображений по текстовому описанию (Text-to-Image, AIGC).
  • Суммаризация и переписывание текстов (Summarize / Rewrite / Expand).
  • Автоматическое составление документов, планов, отчётов через шаблоны.
  • Контекстные функции в текстовых редакторах (вызываются из контекстного меню).

Работа с базами знаний

  • Поддержка векторного поиска и индексации локальных документов.
  • Пользователь может загрузить документы (PDF, DOCX и др.), и агент будет отвечать на вопросы по содержимому этих файлов.
  • Возможность создавать частные «доменные» базы знаний для организаций.

Подключение внешних моделей

  • Есть API-панель конфигурации моделей, совместимая с OpenAI-форматом (/v1/chat/completions).
  • Поддерживаются китайские LLM-платформы:
  • Baidu Qianfan / ERNIE-Bot
  • iFlytek Spark
  • Zhipu GLM
  • 360智脑, Tencent Hunyuan, Alibaba Tongyi
  • Можно подключать и любые сторонние модели (например, DeepSeek, ChatGPT), если они предоставляют совместимый API и ключ.

Локальные модели и приватность

  • Поддержка локальных LLM-моделей: можно запускать прямо на своём ПК (через Ollama, LM Studio и т. д.).
  • Все данные могут обрабатываться на устройстве (on-device) без передачи в интернет — важно для госсектора и корпоративных сред.
  • Возможность изолировать модели и базы знаний для разных пользователей и подразделений.

Технические детали и ограничения

  • Требуется современное оборудование (x86_64 или ARM64, не менее 16 ГБ RAM и желательно GPU).
  • Большие модели могут работать медленно без GPU.
  • Большая часть интерфейса и моделей ориентирована на китайский язык (английская поддержка ограничена).
  • Некоторые функции пока в стадии beta и не включены по умолчанию (нужно активировать через центр приложений).
Возможность / компонентUOS AI (Deepin)openKylin AI
Интеграция в ОСПолная интеграция в рабочий стол DDEИнтеграция в среду UKUI
Основные сценарииУправление системой, поиск, помощь, генерация текстаПоиск, помощь, генерация текста и изображений
Встроенные моделиПоддержка локальных моделей (например DeepSeek-R1)Поддержка локальных моделей
Облачные моделиПоддержка через OpenAI-совместимый APIПоддержка через OpenAI-совместимый API
Поддерживаемые платформы LLMBaidu Qianfan, iFlytek Spark, Zhipu GLM, DeepSeek и др.Baidu Qianfan, iFlytek Spark, Zhipu GLM, Tencent, 360 и др.
Подключение сторонних моделейДа (через настройку кастомных моделей)Да (через API-панель)
Локальные базы знанийЕсть: загрузка документов, векторный поискЕсть: загрузка документов, векторный поиск
Генерация изображенийНет (пока)Есть (Text-to-Image, AIGC)
Ассистент по системеЕсть: справка, настройки, подсказкиЕсть: справка, настройки, подсказки
Режим работы без сетиДа (он-девайс модели)Да (он-девайс модели)
Основной языкКитайский, частично английскийКитайский, частично английский
Стадия зрелостиБолее зрелая, используется в коммерческом UOSБолее новая, часть функций в beta
Статус лицензий: базовая ОСПолностью открытая (Deepin)Полностью открытая
Статус лицензий: оболочка/раб. средаDDE, DTK — открытыеUKUI — открытая
Статус лицензий: ИИ-модульЧастично закрытый (UOS AI, код не весь открыт)Частично открытый (openKylin AI Assistant, часть кода закрыта)
Зависимость от внешних сервисовВозможна (облачные API)Возможна (облачные API)

Что именно открыто в openKylin

Исходный код большинства ключевых компонентов опубликован на git.openkylin.top под свободными лицензиями (GPLv3, LGPL, Apache 2.0 и др.). В открытом виде доступны: ядро Linux и системные библиотеки, графическая оболочка UKUI, менеджер пакетов, собственные системные службы и панели настроек, а также SDK для приложений и инструментальная среда.

Компоненты, которые обеспечивают интеграцию с ИИ, в том числе панели и интерфейсы openKylin AI Assistant, тоже опубликованы частично — как модули для взаимодействия с LLM через OpenAI-совместимый API (/v1/chat/completions).

Эти модули не жёстко связаны с конкретными китайскими облачными моделями — они работают с любыми API-совместимыми LLM (например, GigaChat, DeepSeek, Mistral и т. д.), если есть endpoint и API-ключ.

 Практически: что можно сделать

  • Взять исходники openKylin (или UKUI) как основу.
  • Использовать их модули интеграции LLM (плагины openkylin-ai, интерфейсы вызова API).
  • Добавить собственные конфигурации внешних моделей (например, GigaChat, DeepSeek-R3, Mistral и др.).
  • Создать продукт (настольную среду, standalone-приложение) с нужной функциональностью.

 Почему Запад не спешит? Контраст в целях и экосистемах

Причина отсутствия аналогичных решений в западных дистрибутивах (Ubuntu, Fedora) лежит не в технических, а в организационно-экономических плоскостях.

  • Цели разные: Западные дистрибутивы стремятся быть минималистичными, модульными платформами. Китайские — стремятся стать готовой заменой Windows/MacOS «из коробки», где ИИ-ассистент является конкурентным преимуществом.
  •  Модель финансирования: В Китае разработка национальных ОС и LLM-платформ часто финансируется государством и крупными корпорациями, что стимулирует их тесную интеграцию. На Западе экосистема раздроблена: ОС — у одного вендора, лучшие облачные ИИ — у других, и мотивации для глубокой интеграции нет. 
  • Лицензии и приватность: Включение проприетарных облачных ИИ (ChatGPT, Claude) в дистрибутив связано с юридическими сложностями. Китайские разработчики активнее используют модели с открытыми весами (DeepSeek, Qwen) или заключают корпоративные соглашения с локальными провайдерами.

Отдельные попытки на Западе есть, но они не системные, Fedora, Ubuntu, openSUSE и др. пока не добавляют ИИ в базовую систему, но:

Canonical делает отдельные пакеты для локального запуска LLM (Ollama, LLaMA),

Red Hat развивает Enterprise Linux AI, но как отдельную платформу для обучения моделей, а не как пользовательский агент,

Есть сторонние плагины для GNOME/KDE (например, Copilot-подобные расширения), но они не входят в дистрибутивы.

То есть элементы есть, но нет стратегической цели сделать «AI-ОС», как у openKylin и Deepin.

Выводы и уроки для российской экосистемы

Нужно максимально использовать китайской опыт и развивать возможности обработки данных и документов непосредственно на устройстве либо на сервере внутренней сети, поскольку это важно для госсектора и корпоративных нужд.

Локальность и контроль. Возможность обработки данных on-device или на внутреннем сервере — не просто фича, а базовая необходимость для госсектора и корпораций, обеспечивающая безопасность и цифровой суверенитет.

 Специализированный клиент. Для комфортной работы с LLM, особенно в длинных диалогах, нужны нативные приложения, а не браузер. Спецклиенты, как в Deepin или openKylin, управляют памятью и контекстом эффективнее, избегая «тормозов» веб-интерфейсов.

 Интеграция в среду. ИИ должен быть вплетен в рабочий процесс: в поиск, файловый менеджер, текстовые редакторы. Это не просто чат-бот, а системный слой помощи.

 Открытость и гибкость. Архитектура, позволяющая подключать различные внешние и локальные модели через стандартизированный API (OpenAI-совместимый), даёт свободу выбора и защищает от зависимости от одного вендора.