Что ждет AI в 2026 году: тенденции, прогнозы.
Пока все подводят итоги уходящего года и строят планы на новый, самое время заглянуть чуть дальше — в технологическое будущее. Привет! Это TEAMLY ...
Почти весь этот год в индустрии ИИ царило убеждение, что подход, подаривший миру первый ChatGPT — так называемый первый закон масштабирования — окончательно себя исчерпал.
Считалось, что классическое предварительное обучение (pre-training) зашло в тупик, а весь реальный прогресс теперь возможен только за счёт reinforcement learning — обучения через пробу и ошибку, которое действительно дало заметный рывок за последний год.
Но эта точка зрения оказалась ошибочной. Более того, даже ведущие лаборатории, включая OpenAI, не ожидали такого поворота — и теперь вынуждены догонять.
Классическое pre-training не просто живо. В 2026 году оно готовится к настоящему ренессансу. И это напрямую влияет на выбор ИИ-продуктов и инвестиционные решения.
Существует всего два способа улучшать модели:
Снаружи ИИ-индустрия выглядит как самый динамичный рынок в истории — постоянные релизы, громкие заявления, новые прорывы.
Но если копнуть глубже, всё довольно однообразно.
Современные модели по своей сути очень похожи на те, что создавались десять лет назад. Алгоритмическая база почти не изменилась, а ключевыми факторами лидерства по-прежнему остаются данные и вычислительные бюджеты.
Всё упирается в вычисления — не только в их объём, но и в эффективность использования.

Все современные языковые модели построены на архитектуре трансформеров и состоят из двух ключевых компонентов:
Attention-слои
Они находят связи между словами в тексте. Например, позволяют понять, что «рыжеволосый пират» — это один и тот же персонаж в пределах предложения.
MLP-слои (долговременная память)
Они отвечают за доступ к знаниям. Даже если имя персонажа не упомянуто, модель может понять контекст, потому что ранее встречала подобные связи в обучающих данных.
Проще всего представить LLM как процесс накопления знаний: модель постепенно собирает информацию из текущего текста и прошлого опыта, чтобы предсказать следующий токен.
Этот закон основан на обучении через подражание. Модели дают огромные массивы данных и заставляют повторять закономерности.
Чем больше данных и параметров — тем лучше результат. Именно поэтому бюджеты на обучение выросли до октиллионов FLOPs.
Например, модель с 5 трлн параметров требует около 24 трлн слов — эквивалент 24 миллионов книг о Гарри Поттере — и это всего лишь один цикл обучения.
Долгое время считалось, что этого достаточно для достижения AGI. Нужно просто масштабироваться.
Но после неудачи GPT-4.5 стало ясно: одного масштабирования мало. Рост начал замедляться.
И когда Илья Суцкевер заявил, что привычный закон масштабирования «мертв», индустрия поверила.

Около двух лет назад исследователи OpenAI задали простой вопрос:
а что если позволить моделям думать, как люди?
Так появился подход:
Reinforcement learning сработал блестяще. Так появились reasoning-модели, и OpenAI o1 стал флагманом этого направления.
Но оказалось, что «думать дольше» — не панацея.


Интеллект нельзя оценивать только по ответу. Важно понимать как он был получен.
Модель может просто воспроизводить заученные шаблоны. Если убрать возможность «рассуждать вслух», многие ИИ резко теряют качество.
Настоящий показатель интеллекта — способность решать сложную задачу за один проход, без подсказок и промежуточных рассуждений.

Gemini и Claude показывают устойчивый рост «базового интеллекта» от версии к версии.
OpenAI же слишком сильно сделал ставку на post-training. Прогресс между поколениями GPT стал минимальным без включённого режима Thinking.
Это объясняет, почему ChatGPT стал хуже справляться с простыми задачами, где не требуется глубокое мышление.

Руководство OpenAI открыто признало: они перегнули с post-training и теперь возвращаются к классическому обучению.
DeepMind, в свою очередь, прямо заявляет: именно pre-training лежит в основе успеха Gemini 3 Pro.
Возвращение pre-training означает:
Если масштабирование «вширь» станет ключевым фактором, 2026 год станет годом оптоволокна.
Но главное остаётся неизменным: вычислительные мощности — главный двигатель прогресса ИИ.