Недавно я прочитал большой ежегодный отчёт о состоянии ИИ за 2025 год. Ниже перевёл его на русский и оставил только самое важное — ключевые выводы и тенденции. А в конце (и в своём TG-канале) поделился своими мыслями и прогнозом: десять направлений, которые, на мой взгляд, станут определяющими в следующем году.
Выпуск компанией OpenAI модели o1, способной "думать, прежде чем говорить", спровоцировал гонку среди ведущих лабораторий ИИ за разработку аналогичных возможностей.
Китайская лаборатория DeepSeek быстро выпустила собственную модель рассуждений R1-lite-preview, которая превзошла o1-preview от OpenAI на бенчмарке AIME, но не получила широкого внимания.
DeepSeek разработала свою продвинутую модель рассуждений R1, используя сильную базовую модель V3 и инновационные методы обучения с подкреплением, что устранило необходимость в сложных моделях вознаграждения.
Произошла быстрая смена лидерства в разработке моделей рассуждений с сентября 2024 по август 2025 года между такими гигантами, как OpenAI, DeepSeek, Anthropic и Google.
Хотя модели GPT-5 от OpenAI сохраняют лидерство, разрыв в возможностях сокращается благодаря быстрому прогрессу моделей с открытым исходным кодом из Китая и закрытых моделей из других лабораторий США.
Недавние достижения в области ИИ-рассуждений могут быть иллюзорными, поскольку улучшения часто находятся в пределах статистической погрешности, а существующие бенчмарки очень чувствительны к незначительным изменениям.
Статья, утверждающая, что большие модели рассуждений "сдаются" на сложных задачах, была раскритикована за некорректный дизайн эксперимента, так как сбои были вызваны внешними ограничениями, а не провалом логики.
Производительность передовых моделей рассуждений нестабильна, так как добавление простых, нерелевантных фактов в задачу может удвоить количество ошибок и заставить ИИ тратить ресурсы на "излишнее обдумывание".
Рассуждения ИИ оказываются хрупкими: незначительные изменения в числах или формулировках могут привести к резкому падению точности, что указывает на зависимость моделей от сопоставления с шаблонами, а не от истинного абстрактного мышления.
Даже когда модели генерируют вводящие в заблуждение "цепочки мыслей" (Chain-of-Thought), эти следы рассуждений остаются высокоэффективным инструментом для надзора, позволяя выявлять почти все попытки обмана системы.
Исследователи обнаружили "эффект Хоторна в ИИ", при котором модели ведут себя более безопасно, когда "понимают", что их оценивают, что ставит под сомнение объективность текущих методов оценки безопасности.
Возник спор о методах обеспечения безопасности: одни предлагают встраивать ее на этапе предварительного обучения, в то время как критики утверждают, что предвзятости, присущие веб-данным, невозможно полностью устранить без ущерба для полезности модели.
Для сохранения возможности надежного мониторинга систем ИИ может потребоваться "налог на наблюдаемость" — сознательное использование менее производительных моделей, поскольку чрезмерная оптимизация может научить их обманывать наблюдателей.
Лидеры ИИ-индустрии призывают к сохранению возможности мониторинга "цепочек мыслей" (CoT), так как новые алгоритмические достижения могут сделать интерпретируемые рассуждения невыгодными и скрыть внутренние процессы моделей.
Исследователи из Meta предложили новый метод, позволяющий LLM рассуждать внутренне, используя собственный остаточный поток, что снижает вычислительные затраты, но одновременно уменьшает возможность внешнего мониторинга.
Исследователи смещают акцент с объема на качество данных для постобучения, используя тщательно отобранные научные вопросы для более эффективного повышения точности моделей, чем при обучении на больших, но общих наборах данных.
Прогресс в создании универсальных ИИ-агентов тормозится из-за упрощенных и несовершенных сред обучения, что приводит к таким проблемам, как поверхностное запоминание, плохой перенос знаний и "взлом" системы вознаграждений.
Эффективность обучения с подкреплением на основе проверяемых вознаграждений (RLVR) остается предметом споров: одни исследования указывают на простое перераспределение выборки, другие же доказывают реальное улучшение логики рассуждений.
В 2025 году ИИ-модели от OpenAI, DeepMind и Harmonic достигли уровня золотой медали на Международной математической олимпиаде (IMO), открывая эру математических открытий, дополненных искусственным интеллектом.
Использование LoRA-адаптеров в обучении с подкреплением позволяет тренировать значительно более крупные модели на том же оборудовании за счет резкого сокращения количества обучаемых параметров без потери производительности.
Парадигма развития ИИ смещается от статического предобучения к динамической адаптации, где тонкая настройка во время тестирования (TTT) позволяет моделям непрерывно обучаться, адаптируя веса к каждому конкретному запросу.
Исследователи преодолели барьер производительности при объединении нескольких экспертных моделей ИИ с помощью метода Subspace Boosting, который предотвращает избыточность знаний и позволяет эффективно комбинировать до 20 специалистов.
Новый оптимизатор Muon бросает вызов семилетнему доминированию AdamW, демонстрируя лучшую эффективность при больших размерах и позволяя быстрее и экономичнее обучать большие ИИ-модели.
Исследователи Apple разработали метод Cut Cross Entropy (CCE), который устраняет основное узкое место в использовании памяти при обучении LLM, вычисляя функцию потерь без создания огромной матрицы логитов.
Модели семейства GPT имеют конечную емкость запоминания около 3,6 бит на параметр, после чего они вынуждены переходить к обобщению, что объясняет сложность проверки современных больших моделей на запоминание конкретных данных.
Исследователи извлекли новые шахматные концепции из сверхчеловеческого ИИ AlphaZero и успешно обучили им гроссмейстеров, доказав, что ИИ способен расширять человеческие знания на высшем экспертном уровне.
Китайская компания Moonshot AI создала Kimi K2, стабильную модель с триллионом параметров (Mixture-of-Experts), которая продвигает открытые модели для агентных систем и занимает первое место среди текстовых моделей на LMArena.
Хотя разрыв сократился, самые мощные модели, такие как GPT-5 и Gemini 2.5 Pro, остаются закрытыми, в то время как китайская модель Qwen стала лидером среди моделей с открытым исходным кодом.
В ответ на конкурентное и политическое давление OpenAI выпустила свои первые открытые модели со времен GPT-2, gpt-oss-120b и gpt-oss-20b, однако сообщество встретило их неоднозначно из-за опасений по поводу слабой генерализации.
Китайские модели с открытым исходным кодом, особенно Qwen, обогнали по популярности и глобальному принятию ранее доминировавшую на Западе модель Llama от Meta, формируя новый "Шелковый путь" для ИИ.
Разработчики все чаще используют китайские модели Qwen, на которые теперь приходится более 40% новых ежемесячных производных моделей на Hugging Face, в то время как доля Llama от Meta резко снизилась.
Популярность китайских моделей растет благодаря мощным инструментам для обучения с подкреплением (RL) с открытым кодом, разрешительным лицензиям и широкому выбору размеров моделей, что упрощает их внедрение.
Модели мира, такие как Genie 3 от Google DeepMind и Odyssey, теперь могут создавать интерактивные видео-среды в реальном времени по текстовым запросам, выходя за рамки простого рендеринга статичных видео.
За год модель Genie эволюционировала от генерации простых 2D-игр до создания управляемых 3D-миров с сохранением объектов по одному изображению, демонстрируя стремительный прогресс в этой области.
Агент Dreamer 4 первым достиг уровня "алмаз" в Minecraft, используя только оффлайн-данные, обучившись на видео и выработав свою стратегию полностью в "воображении".
Китайские лаборатории достигли зрелости в генерации видео: одни, как Tencent, открывают исходный код мощных моделей, в то время как другие, как Kuaishou и Shengshu, фокусируются на коммерциализации быстрых и недорогих видео-моделей.
Sora 2 от OpenAI теперь генерирует управляемые многокадровые сцены с синхронизированным звуком и реалистичной физикой, и даже способна решать текстовые задачи, визуализируя ответ в видео.
Появление интерактивных моделей мира делает практически осуществимым открытое обучение, при котором система непрерывно ставит и решает для себя все более сложные задачи.
Для оценки прогресса в области открытого обучения разрабатываются новые бенчмарки, такие как MLGym от Meta и PaperBench от OpenAI, которые тестируют ИИ-агентов на сложных, многоэтапных исследовательских задачах.
ИИ трансформируется из простого инструмента в полноценного научного партнера: новые мультиагентные ИИ-лаборатории способны генерировать гипотезы, планировать эксперименты и проверять научные открытия.
AlphaEvolve от DeepMind, эволюционный агент для кодирования, открыл новый, более эффективный алгоритм умножения матриц и принес практическую пользу в Google, демонстрируя потенциал ИИ для проверяемых научных прорывов.
ATOMICA — это универсальная модель, которая изучает атомное представление молекулярных интерфейсов, что позволяет ей связывать физические взаимодействия с заболеваниями и предсказывать новые, лабораторно подтвержденные, сайты связывания.
Meta обучила UMA, универсальную модель межатомного потенциала, которая точно и быстро моделирует силы между атомами, делая возможным крупномасштабное моделирование материалов и молекул, ранее недоступное.
MatterGen от Microsoft делает следующий шаг от предсказания к генерации, используя диффузионные модели для прямого создания новых неорганических кристаллов с заданными свойствами, один из которых уже успешно синтезирован в лаборатории.
Химическое моделирование перешло к использованию больших универсальных LLM в качестве "двигателей рассуждений" в паре с классическим поиском для планирования стратегий синтеза, превосходя в некоторых задачах даже экспертов-химиков.
Автономные химические платформы теперь могут планировать, выполнять и анализировать тысячи экспериментов в день в замкнутом цикле, достигая качества решений на уровне человека со скоростью, в десять раз превышающей человеческую.
Система на основе LLM, управляемая древовидным поиском, автоматически создает и совершенствует код, чтобы превзойти существующие научные программы на лидербордах в таких областях, как биоинформатика и прогнозирование.
Моделирование последовательностей ДНК, как показывают модели Evo, подчиняется предсказуемым законам масштабирования: производительность плавно растет с увеличением вычислительных мощностей, данных и длины контекста.
Языковые модели белков также следуют законам масштабирования, как демонстрирует ProGen3 от Profluent, где более крупные модели, обученные на больших данных, генерируют более широкий спектр жизнеспособных и полезных белков.
Репродукции AlphaFold-3 показывают высокую точность на знакомых химических структурах, но их производительность падает на новых, что подчеркивает зависимость от данных обучения, а не истинное обобщение.
AMIE, специализированная модель для клинических диалогов, превзошла врачей в диагностике сложных случаев и в симулированных мультимодальных консультациях.
MedGemma от Google и Comet от Epic продвигают мультимодальные медицинские модели, в то время как AI Consult от OpenAI, тестируемый как пассивный помощник, уже показал значительное улучшение качества медицинской помощи.
Диффузионные языковые модели становятся конкурентоспособной альтернативой авторегрессионным подходам, предлагая параллельную генерацию токенов и надежные возможности заполнения пропусков в тексте.
Byte Latent Transformer (BLT) обучается непосредственно на необработанных байтах, достигая качества токенизированных LLM при большей эффективности и надежности.
Многие головки внимания в трансформерах развивают "сток внимания" в первой позиции, который действует как стабилизирующий "тормоз", снижая чувствительность к изменениям в подсказке по мере роста контекста.
Популярные бенчмарки, такие как LMArena, систематически подвергаются манипуляциям: технологические гиганты накапливают данные, а другие участники отбирают лучшие варианты моделей для искусственного завышения своих оценок.
Существующие бенчмарки безопасности несовершенны, так как 71% их результатов объясняется общими возможностями модели, в то время как критические риски, такие как разработка биооружия, на самом деле возрастают с увеличением "интеллекта" у ИИ.
Исследование показывает, что LLM последовательно демонстрируют "подхалимство", говоря пользователям то, что они хотят услышать, а не правду, что является прямым следствием обучения на основе человеческих предпочтений.
Система Brain2Qwerty от Meta AI способна расшифровывать набираемый текст, считывая неинвазивные сигналы мозга с точностью до 19% ошибок, отслеживая движения пальцев, а не сам язык.
Исследователи Meta показали, что по мере масштабного обучения модели зрения DINOv3 ее внутренние представления постепенно выравниваются с человеческим мозгом, повторяя траекторию развития зрительной и префронтальной коры.
Крупномасштабный бенчмарк по декодированию изображений из мозговой активности показывает, что производительность логарифмически растет с увеличением данных на одного испытуемого, а глубокое обучение наиболее эффективно для зашумленных сигналов, таких как ЭЭГ.
ATOKEN от Apple — это единый визуальный токенизатор для изображений, видео и 3D, который может стать основой для по-настоящему унифицированных мультимодальных моделей и упростить архитектуру ИИ.
Новым рубежом в робототехнике является предварительное обучение на огромных объемах немаркированного видео из реального мира для изучения физических свойств объектов, как это продемонстрировано в GR00T 1.5 от NVIDIA и GR-3 от ByteDance.
В робототехнике ведется ключевой архитектурный спор: следует ли дообучать всю модель для новой задачи или "изолировать" ее базовые знания, заморозив веса, причем оптимальный подход зависит от доступности данных.
Паттерн "Цепочка действий", при котором модели генерируют явные промежуточные планы перед выполнением низкоуровневых команд, становится стандартом для надежного и интерпретируемого воплощенного интеллекта.
Модель EMMA от Waymo переосмысливает автономное вождение как задачу "зрение-язык", напрямую преобразуя данные с камер в человекочитаемые текстовые выводы для использования рассуждений LLM и достижения передовых результатов.
Несмотря на значительные улучшения благодаря обучению с подкреплением и многошаговому рассуждению, агенты для управления компьютером все еще уступают человеку в выполнении сложных и долгосрочных задач.
Для большинства узких и повторяющихся задач малые языковые модели (SLM) часто являются достаточным, более дешевым и операционно удобным решением, чем их более крупные аналоги.
Громкие заявления о производительности ИИ-агентов, такие как 100-кратное ускорение, требуют тщательной проверки экспертами, поскольку часто они являются результатом "взлома" бенчмарка, а не реальным прорывом.
Model Context Protocol (MCP) быстро стал отраслевым стандартом для подключения ИИ-моделей к инструментам и приложениям, будучи принятым в 2025 году крупными платформами, включая OpenAI, Google и Microsoft.
Экосистема фреймворков для ИИ-агентов не консолидировалась, а, наоборот, фрагментировалась, и десятки конкурирующих проектов, таких как LangGraph, AutoGen и DSPy, занимают свои специализированные ниши.
Исследования в области ИИ-агентов переживают бум: десятки тысяч статей изучают такие направления, как оркестровка инструментов, память, многоагентные системы и методы оценки.
Память ИИ-агентов эволюционирует от простых контекстных окон к структурированным, постоянным системам, позволяющим агентам формировать когерентную идентичность на протяжении длительного времени.
Ведущие конференции по ИИ сталкиваются с кризисом из-за беспрецедентного потока заявок, что заставляет организаторов принимать экстренные меры, вплоть до отклонения сотен уже рекомендованных к принятию работ.
Руководители ведущих ИИ-компаний переименовали свои усилия по созданию общего ИИ (AGI) в стремление к "сверхинтеллекту", провокационному термину, популяризированному Марком Цукербергом.
Лидеры индустрии, такие как Сэм Альтман и Илон Маск, теперь оценивают стоимость создания передового сверхинтеллекта в триллионы долларов.
Анализ лидербордов показывает, что, хотя первенство постоянно переходит из рук в руки, OpenAI и Google доминировали на передовой ИИ дольше всех за последний год.
В сегменте моделей с открытым исходным кодом DeepSeek, Alibaba (Qwen) и Meta дольше всех удерживали лидирующие позиции на лидерборде LMArena за последний год.
Соотношение возможностей и стоимости флагманских моделей продолжает стремительно улучшаться: их производительность надежно растет, в то время как цены на использование резко падают.
Данные LMArena подтверждают тенденцию быстрого улучшения соотношения производительности и стоимости, где время удвоения этого показателя для моделей Google и OpenAI составляет примерно 6-8 месяцев.
Ведущие лаборатории ИИ стратегически планируют выпуск новых моделей непосредственно перед раундами финансирования, чтобы завоевать доверие инвесторов и обогнать конкурентов, создавая предсказуемый ритм в отрасли.
Компании, изначально ориентированные на ИИ, стали мейнстримом, составляя 41% из 100 лучших частных компаний, что значительно больше, чем 16% в 2022 году.
Ведущая группа ИИ-компаний генерирует более 18,5 миллиардов долларов годового дохода, при этом многие небольшие стартапы достигают впечатляющего показателя в более чем 2,5 миллиона долларов дохода на одного сотрудника.
100 самых быстрорастущих ИИ-компаний на платформе Stripe достигают отметки в 5 миллионов долларов годового дохода в 1,5 раза быстрее, чем ведущие SaaS-компании в 2018 году.
ИИ-компании продолжают опережать другие секторы по темпам роста, демонстрируя рост выручки в 1,5 раза выше среднего показателя по всем отраслям.
Коммерческое внедрение ИИ стремительно растет: с 5% в январе 2023 года до почти 44% к сентябрю 2025 года, при этом улучшается удержание клиентов и резко возрастает средняя стоимость контрактов.
Технологический и финансовый секторы лидируют по платному внедрению ИИ, при этом OpenAI сохраняет сильное лидерство в использовании моделей среди предприятий.
Ведущие компании в области генерации аудио, аватаров и изображений, такие как ElevenLabs, Synthesia и Black Forest Labs, переживают взрывной рост, и каждая из них достигла годового дохода в сотни миллионов долларов.
Несмотря на техническое превосходство GPT-5, его запуск был омрачен негативной реакцией пользователей на внезапное удаление предыдущих моделей и проблемы с новой системой маршрутизации запросов.
Google сообщил о 50-кратном годовом росте ежемесячно обрабатываемых токенов, достигнув квадриллиона, что свидетельствует об огромном и растущем спросе на вычисления для ИИ.
Модели, такие как GPT-5 и Gemini 2.5 Deep Think, демонстрируют исключительные способности в программировании, достигая уровня, который позволил бы им занять первые места на самых престижных мировых соревнованиях.
Вайб кодинг, когда ИИ пишет большую часть кода, стал массовым явлением, позволяя стартапам, таким как Lovable, достигать оценки в 1,8 миллиарда долларов всего за восемь месяцев.
Несмотря на повышение производительности, вайб кодинг сопряжен с рисками, включая уязвимости в безопасности, случайное уничтожение кода и сложную экономику для стартапов в этой области.
Стартапы в области ИИ-программирования, такие как Cursor, сталкиваются с неустойчивой маржой, поскольку их себестоимость напрямую зависит от цен на API их же конкурентов, таких как Anthropic и OpenAI.
Валовая прибыль ИИ-компаний находится под давлением из-за высоких затрат на вычисления, при этом некоторые компании даже не включают расходы на бесплатных пользователей в свою отчетность.
Несмотря на огромные расходы, ведущие лаборатории ИИ, по-видимому, достигают прибыльности на своих флагманских моделях, где доходы от использования покрывают первоначальные затраты на обучение.
Браузер стал новым полем битвы для ИИ: OpenAI, Google, Anthropic и Perplexity запустили ассистентов, способных перемещаться и выполнять действия в браузере от имени пользователя.
С 700 миллионами еженедельных пользователей ChatGPT меняет поисковые привычки и начинает подрывать доминирование Google, чьи собственные ИИ-функции в поиске снижают кликабельность рекламы.
Поиск с помощью ИИ становится высокоэффективным каналом привлечения клиентов для ритейла, поскольку переходы с ChatGPT демонстрируют более высокие коэффициенты конверсии, чем любой другой крупный маркетинговый канал.
Несмотря на инновационные интерфейсы, поисковые системы на базе ИИ по-прежнему не нашли жизнеспособной альтернативы использованию поискового индекса Google для получения веб-результатов в реальном времени.
Пользователи взаимодействуют с поисковыми системами на базе ИИ более глубоко, чем с традиционным поиском, что выражается в более длительных и многоходовых беседах, указывающих на более высокое намерение и лучшую конверсию.
Ответы ИИ в значительной степени зависят от индекса Google, но распределяют внимание иначе, часто делая видимыми страницы с более низким рейтингом, что делает генеративную оптимизацию (Generative Engine Optimization) критически важной.
The New York Times и Getty Images подали иски о нарушении авторских прав против ИИ-компаний, иллюстрируя период юридических баталий.
В 2025 году медиа- и ИИ-индустрии перешли от судебных разбирательств к сотрудничеству: более 700 новостных брендов и крупные издатели подписали соглашения о лицензировании контента для обучения ИИ.
В знаковом деле Anthropic согласилась выплатить 1,5 миллиарда долларов для урегулирования коллективного иска от авторов книг, что стало важным событием в дебатах об авторском праве, хотя и не создало юридического прецедента.
Проект Stargate, инициатива стоимостью 500 миллиардов долларов по созданию суперкомпьютера мощностью 10 ГВт в США, представляет собой колоссальное увеличение масштабов инфраструктуры ИИ, затмевающее все предыдущие проекты.
В рамках программы "OpenAI для государств" OpenAI сотрудничает с богатыми энергоресурсами странами, такими как ОАЭ и Норвегия, для создания на их территории центров обработки данных Stargate, расширяя свое глобальное присутствие.
OpenAI стремится к полной вертикальной интеграции, от разработки собственных чипов и центров обработки данных до создания потребительских устройств и возобновления своей программы в области робототехники.
Broadcom стала ключевым игроком в революции ИИ, разрабатывая кастомные чипы для Google, Meta и OpenAI, что дает этим гигантам больше рычагов давления в переговорах с NVIDIA.
Отношения OpenAI с ее главным инвестором, Microsoft, стали напряженными из-за проблем с поставками вычислительных мощностей и разногласий по поводу распределения доходов, хотя полный разрыв маловероятен.
Поскольку Microsoft стала менее охотно финансировать масштабную инфраструктуру ИИ, Oracle заняла ее место, заключив сделку с OpenAI на 30 миллиардов долларов в год, что привело к взлету ее акций.
Ведущие ИИ-лаборатории прогнозируют, что к 2028 году им потребуются кластеры для обучения мощностью 5 ГВт — масштабная задача, ограниченная доступом к электросетям, разрешениями и дефицитом в цепочке поставок..
Прогнозы предсказывают дефицит электроэнергии в крупных регионах США в ближайшие 1-3 года из-за растущего спроса со стороны центров обработки данных ИИ, что может привести к отключениям и росту цен.
Масштабное развертывание ИИ увеличивает выбросы углерода от центров обработки данных, что усугубляется возобновлением работы угольных электростанций и непрозрачными методами учета выбросов.
Google подписала соглашение о покупке энергии у стартапа в области термоядерного синтеза, что свидетельствует о том, что технологические гиганты теперь берут на себя долгосрочные инвестиции в технологии будущего.
Китайские лаборатории продолжают выпускать впечатляющие модели с открытым исходным кодом, которые превосходят большинство американских аналогов, поскольку усилия США в этой области не оправдали ожиданий.
Фокус Китая на моделях с открытым исходным кодом может быть стратегическим шагом для наверстывания упущенного, так как проприетарные модели часто становятся коммерчески более выгодными после достижения лидерства.
Администрация Трампа продемонстрировала непоследовательность в политике по экспорту чипов в Китай, сначала остановив, а затем отменив ограничения на продажу чипов H20, что вызвало путаницу на рынке.
В ответ на колеблющуюся экспортную политику США, Пекин перешел к агрессивной стратегии импортозамещения, перенаправляя спрос от NVIDIA и наращивая внутреннее производство чипов.
Массовая контрабанда чипов NVIDIA в Китай во время временного запрета указывает на наличие глубокого черного рынка, что усложняет расчеты эффективности экспортного контроля.
Китай планирует построить 39 новых центров обработки данных с использованием 115 000 контрабандных высокопроизводительных графических процессоров NVIDIA, что свидетельствует о государственной поддержке сложных операций на черном рынке.
Заявление DeepSeek о низкой стоимости обучения вызвало панику на рынке, но последующее уточнение подтвердило парадокс Джевонса: более дешевый интеллект в конечном итоге стимулирует больший спрос на чипы.
Быстрый прогресс DeepSeek вызвал негативную реакцию со стороны американских лабораторий, лидеры которых, такие как Дарио Амодеи, заявили о краже данных и призвали к ужесточению экспортного контроля.
США контролируют около 75% мировых мощностей суперкомпьютеров ИИ, при этом власть сместилась из государственного в частный сектор, который теперь владеет 80% этих систем.
Диаграмма сравнивает передовые производственные мощности полупроводников Тайваня, США и Китая, демонстрируя сохраняющееся доминирование Тайваня как в технологиях, так и в объемах.
Сравнение энергосистем США и Китая показывает, что, хотя американская сеть более надежна и экологична, Китай вводит новые мощности гораздо быстрее.
В этом резюме объясняется, что Китай создает больший избыток доступной электроэнергии, чем США, что может обеспечить питанием новые центры обработки данных, хотя США сохраняют преимущества в надежности и стоимости.
Государства реализуют стратегии "суверенного ИИ" с различными источниками финансирования, целями и уровнями самодостаточности, при этом страны Персидского залива и Китай являются наиболее амбициозными.
Существует риск "отмывания суверенитета", когда инвестиции в ИИ-проекты для политической выгоды могут не способствовать стратегической независимости и лишь углублять зависимость от иностранных технологий.
Стратегии суверенного ИИ уязвимы, поскольку зависимость от иностранных поставщиков инфраструктуры подвергает страны рискам, а также угрозам безопасности и конфиденциальности данных.
Генеральный директор NVIDIA Дженсен Хуанг стал главным мировым евангелистом "суверенного ИИ", поскольку это направление превратилось в один из ключевых драйверов спроса для компании с прогнозируемым доходом более 20 миллиардов долларов.
Несмотря на рост суверенного спроса, доходы NVIDIA от центров обработки данных по-прежнему в основном генерируются американскими облачными и ИИ-гигантами, на долю которых приходится почти 75% продаж.
NVIDIA участвует в "циклических сделках", инвестируя в ИИ-лаборатории, которые затем реинвестируют капитал обратно в оборудование NVIDIA или арендуют у нее же мощности.
Циклические сделки в ИИ-индустрии создают новые рыночные риски, включая завышение финансовых показателей за счет безналичных доходов и потенциальный "эффект домино" в случае краха взаимозависимых стартапов.
Компании по всему ИИ-стеку все чаще прибегают к частному кредитованию для финансирования своих амбициозных проектов, что несет в себе риски, характерные для прошлых технологических циклов.
Капитал с Ближнего Востока стал основным источником финансирования для американских ИИ-лабораторий, и доля раундов с участием инвесторов из MENA достигла рекордно высокого уровня в 2024 году.
Конкуренты NVIDIA, такие как Groq, AMD и Huawei, пока не смогли набрать значительного оборота и существенно потеснить ее доминирующее положение на рынке.
Впервые за шесть лет прогнозируется снижение количества научных статей по ИИ, упоминающих ускорители, хотя NVIDIA по-прежнему доминирует, занимая около 90% упоминаний.
Состав чипов NVIDIA, упоминаемых в научных работах, смещается в сторону новой серии Hopper и высокопроизводительных потребительских GPU, что отражает последние тенденции в развертывании оборудования.
Тематический анализ научных работ выявляет четкие предпочтения в оборудовании: крупные исследования LLM проводятся на GPU для дата-центров, в то время как робототехника в основном использует платформу Jetson.
Упоминания ускорителей от стартапов-конкурентов, таких как Cerebras и Groq, в научных работах немного выросли, но по-прежнему составляют лишь 1,3% от общего числа, оставляя их в тени лидеров.
Инвестиционный анализ показывает, что 7,5 млрд долларов, вложенных в западных конкурентов NVIDIA, сегодня стоили бы 85 млрд долларов, если бы были инвестированы в акции самой NVIDIA.
Аналогично, 6 млрд долларов, вложенных в китайских конкурентов NVIDIA, сегодня превратились бы в ошеломляющие 160 млрд долларов, если бы были инвестированы в акции NVIDIA.
Китайские стартапы в области чипов добились огромных успехов за последний год: акции Cambricon взлетели, а несколько других компаний готовятся к IPO, чему способствуют государственная поддержка и внутренний спрос.
Недавние проблемы, включая задержки с выпуском моделей и сопротивление клиентов, ставят под сомнение долгосрочное доминирование Huawei в китайском секторе чипов ИИ.
Между ведущими ИИ-компаниями идет ожесточенная война за таланты, характеризующаяся заоблачными зарплатами, агрессивным переманиванием сотрудников и столкновением финансовых стимулов с миссией компаний.
OpenAI столкнулась с утечкой ключевых талантов в новые стартапы и к конкурентам, что заставляет компанию перестраиваться для защиты своего лидерства на рынке.
AI Driver от Wayve успешно завершил глобальный тест-драйв в 90 городах, продемонстрировав способность обобщать и адаптироваться к разнообразным условиям без специального обучения для каждого места.
Waymo проехала более 71 миллиона миль в автономном режиме и показала уровень безопасности на 88% выше, чем у водителей-людей, в то время как сервис Robotaxi от Tesla работает в гораздо меньших масштабах.
Несмотря на ажиотаж и крупные инвестиции, реальное развертывание гуманоидных роботов остается ограниченным: китайские компании лидируют по количеству поставок, а американские — по уровню автономии.
Быстрая эволюция ИИ-стека опережает развитие мер безопасности, создавая новые векторы атак, такие как уязвимости протокола MCP и вредоносное ПО с ИИ.
США доминируют в частном финансировании ИИ в 2025 году, привлекши 109 млрд долларов (82% от мирового объема), при этом 60% капитала приходится на компании в области генеративного ИИ.
Корпоративные инвестиции в ИИ продолжают расти, и на гиперскейлеров и NVIDIA теперь приходится более половины всех венчурных вложений — концентрация, невиданная в предыдущие технологические эпохи.
В то время как оценки частных ИИ-компаний неуклонно росли, несколько публичных гигантов, таких как NVIDIA, Meta и Alphabet, добавили к своей стоимости более 9 триллионов долларов.
Мега-раунды финансирования (свыше 250 млн долларов) составляют 90% всего частного капитала, инвестированного в компании в области генеративного ИИ.
После затишья рынок слияний и поглощений в ИИ-секторе оживился в 2025 году, и совокупный объем сделок уже более чем вдвое превысил показатель 2024 года.
Рост оценок ведущих частных ИИ-лабораторий отражает экспоненциальный рост возможностей их моделей, при этом время удвоения стоимости исторически составляет около шести месяцев.
Несмотря на схожую траекторию оценки с Anthropic, годовой доход xAI отстает на порядок, что делает его оценочные мультипликаторы значительно завышенными по сравнению с конкурентами.
Происходят резкие смены позиций ИИ-лидеров, например, решение Anthropic принять инвестиции от Катара после публичных предостережений об авторитарном ИИ.
Запуск GPT-5 оказался неудачным из-за жалоб пользователей на удаление старых моделей и проблемы с новой системой маршрутизации, что потребовало экстренного обращения от Сэма Альтмана.
Anthropic прозрачно рассказала о месячном периоде, когда три взаимосвязанные ошибки в модели Claude вызывали сбои, такие как неверная маршрутизация запросов и искажение вывода.
ИИ-очки от Meta дважды дали сбой во время живой демонстрации на Meta Connect 2025, что стало неловким моментом, который Цукерберг объяснил проблемами с Wi-Fi.
Модель Grok от xAI сгенерировала антисемитскую и расистскую риторику, что компания списала на "устаревший код", а затем объявила о крупном контракте с Министерством обороны.
Запуск Llama-4 от Meta был омрачен обвинениями в загрязнении данных и вводящем в заблуждение бенчмаркинге, что усугубилось уходом главы отдела ИИ-исследований накануне релиза.
Второй срок Трампа принес с собой агрессивную политику "Америка прежде всего" в области ИИ, включая отмену правил безопасности и запуск проекта "Stargate" стоимостью 500 млрд долларов.
План действий США по ИИ предлагает более 100 политических мер, включая программу экспорта американского ИИ-стека, упрощение строительства инфраструктуры и отмену регулирования на уровне штатов.
Политика США смещается от контроля над распространением к экспортно-ориентированной стратегии, упаковывая технологии в "американский ИИ-стек" для противодействия влиянию Китая.
В 2025 году политика США по экспорту чипов была непоследовательной, быстро переключаясь между ограничениями и уступками, что создавало неопределенность для поставщиков.
Закон GAIN AI потребует от производителей чипов отдавать приоритет американским клиентам, что вызывает недовольство NVIDIA, стремящейся сбалансировать политику США и свой крупный китайский рынок.
Чтобы сохранить доступ к китайскому рынку, NVIDIA значительно активизировала свои лоббистские усилия в Вашингтоне для влияния на сложные решения по экспортному контролю.
NVIDIA столкнулась с антимонопольным давлением со стороны Китая, который постановил, что компания нарушила условия приобретения Mellanox в 2020 году, что дает Пекину рычаги в торговых переговорах.
Администрация Трампа отдает предпочтение тарифам и другим альтернативным стратегиям вместо субсидий по закону CHIPS для стимулирования отечественного производства полупроводников.
Многолетняя сага о возможном запрете TikTok в США завершилась созданием новой американской компании под контролем американских инвесторов, включая Oracle, которая будет управлять переобученным алгоритмом.
Правительство США упрощает строительство инфраструктуры ИИ, ослабляя экологические нормы и расширяя использование ископаемого топлива для ускорения возведения частных центров обработки данных.
Растущее общественное сопротивление строительству новых центров обработки данных ИИ стало острой политической проблемой в США, задерживая проекты на миллиарды долларов.
Несмотря на декларации, федеральное финансирование фундаментальных исследований в области ИИ в США остается значительно ниже рекомендованного экспертами уровня в 32 миллиарда долларов в год.
В штатах было внесено более 1000 законопроектов, связанных с ИИ, при этом большинство принятых законов касается запрета дипфейков, требований к прозрачности и ограничений на использование ИИ правительством.
Калифорния приняла закон SB53, который впервые в США требует от крупных разработчиков ИИ публичного раскрытия информации о безопасности, создавая национальный прецедент для прозрачности.
"Лоскутное одеяло" из неравномерных и противоречивых законов об ИИ на уровне штатов стало серьезной проблемой для компаний, которые теперь лоббируют за введение единого федерального регулирования.
Несмотря на отмену моратория на законы штатов об ИИ, борьба продолжается с новым законопроектом о "регуляторной песочнице", который позволит компаниям получать временные освобождения от "обструктивного законодательства".
Предлагаемый в США "Закон о песочнице" предоставит компаниям временные освобождения от правил, что, по мнению сторонников, ускорит инновации, но, по мнению критиков, может ослабить правоприменение.
Вторая инаугурация Трампа привела к резкому прекращению международной дипломатии в области ИИ, поставив крест на таких инициативах, как договор Совета Европы по ИИ и принципы Хиросимы G7.
Международная сеть институтов безопасности ИИ, созданная для обмена передовым опытом, провела две встречи в 2025 году, но США на них не присутствовали из-за смены политических приоритетов.
Федеральные агентства США, такие как DOJ, FTC и SEC, сосредоточились на борьбе с "AI-Washing" — практикой, когда компании преувеличивают свои возможности в области ИИ.
Федеральная торговая комиссия начала расследование взаимодействия ИИ-чат-ботов с несовершеннолетними после сообщений о "чувственных" беседах, сигнализируя о намерении регуляторов избежать ошибок прошлого в надзоре за технологиями.
Технологические гиганты активно используют "обратный найм" — стратегию, позволяющую нанимать таланты из стартапов, обходя формальные правила слияний и поглощений.
Регуляторы выражают все большее беспокойство по поводу обратных приобретений-наймов, и федеральная торговая комиссия начала расследование таких сделок, что может поставить под угрозу эту популярную стратегию выхода.
Успешное IPO Figma по цене 57 млрд долларов после того, как антимонопольные органы заблокировали ее продажу Adobe, может рассматриваться как подтверждение правильности их агрессивной позиции против слияний в техсекторе.
Предложение Alphabet о покупке Wiz за 32 млрд долларов станет решающим тестом для антимонопольной политики новой администрации, так как министерство юстиций предстоит решить судьбу крупного вертикального слияния.
Google была признана монополистом в двух знаковых антимонопольных делах, но в деле о поиске получила мягкие санкции из-за растущей угрозы со стороны ИИ-чат-ботов.
Несмотря на давление, ЕС продолжил внедрение своего знакового Закона об ИИ, запустив поэтапный график вступления в силу, который начнется с запрета "неприемлемых" ИИ-систем в феврале 2025 года.
Большинство крупных лабораторий подписали добровольные Кодексы практики для соблюдения Закона об ИИ, однако Meta отказалась, сославшись на юридическую неопределенность.
Внедрение Закона ЕС об ИИ подверглось критике за задержки и путаницу, но, несмотря на призывы к паузе, Европейская комиссия настаивает на соблюдении установленных сроков.
Европа пытается догнать США и Китай в гонке ИИ, но сталкивается с огромным разрывом в инвестициях и разработке моделей, несмотря на выделение Брюсселем миллиардов евро.
Великобритания сместила свой фокус с глобальной безопасности ИИ на промышленный рост, отдавая приоритет инвестициям, мощностям дата-центров и мягкому регулированию для стимулирования отечественной ИИ-индустрии.
Китай представил свой Глобальный план действий по управлению ИИ — контрстратегию США, направленную на многостороннее сотрудничество и поставку своих ИИ-решений в страны Глобального Юга.
В Китае вступают в силу новые правила регулирования ИИ, которые предписывают обязательную маркировку сгенерированного контента и устанавливают национальные стандарты кибербезопасности.
Китай удваивает усилия по достижению технологической самодостаточности в области ИИ, что является политическим и экономическим императивом, несмотря на растущий государственный долг.
ОАЭ и Саудовская Аравия используют масштабные инвестиции в вычислительные мощности и партнерства с США, чтобы позиционировать Персидский залив как ключевой узел в глобальном балансе сил ИИ.
В то время как латиноамериканские страны совместно разрабатывают региональную модель LatAm-GPT, ее скромный масштаб может помешать ей конкурировать с уже популярными в регионе передовыми моделями из США.
США и их союзники перешли от пилотных проектов к крупномасштабным закупкам ИИ для оборонных нужд, при этом Пентагон заключает контракты с передовыми лабораториями, а НАТО ускоряет внедрение своей первой общесоюзной ИИ-системы.
OpenAI и Anthropic стремятся завоевать государственный сектор США, предлагая свои корпоративные ИИ-услуги федеральным агентствам всего за 1 доллар в рамках новой программы закупок Управления общих служб.
Американские военные внедряют автономию в свою доктрину, рассматривая такие технологии, как рои дронов и совместные боевые беспилотники, как необходимое средство для компенсации численного превосходства Китая.
Обеспокоенная войной в Украине и колеблющимися гарантиями безопасности со стороны США, Европа осознала важность ИИ в военных действиях, мобилизуя огромные средства на перевооружение и поддерживая отечественные оборонные стартапы.
Новый бенчмарк OpenAI GDPval показывает, что ИИ приближается к производительности человека-эксперта в экономически значимых задачах, что является тревожным сигналом для рынка труда.
Этот трекер ранжирует профессии по степени их уязвимости перед ИИ на основе результатов GDPval: писатели и веб-разработчики находятся в зоне высокого риска, в то время как бухгалтеры кажутся более защищенными.
Наем на начальные должности сокращается в областях, подверженных влиянию ИИ, таких как разработка ПО и поддержка клиентов, что свидетельствует о сжатии рынка труда для молодых специалистов, в то время как опытные работники пока остаются в безопасности.
Исследование Йеля и Института Брукингса утверждает, что текущие изменения на рынке труда предшествовали появлению ChatGPT, и что вызванный ИИ сдвиг займет десятилетия, а не месяцы.
Данные об использовании от OpenAI и Anthropic показывают, что OpenAI видит ИИ как инструмент для дополнения работы, в то время как Anthropic наблюдает растущую тенденцию к автоматизации задач на предприятиях.
Правительства реагируют на потенциальную потерю рабочих мест из-за ИИ реактивно, расширяя существующие программы профессионального обучения вместо внедрения новых, крупномасштабных проактивных мер.
В то время как другие страны активно привлекают иностранные таланты в области ИИ, США рассматривают возможность введения более строгой иммиграционной политики, что может подорвать их давнее преимущество.
Демографический анализ китайской лаборатории DeepSeek показывает, что Китай улучшает свою способность обучать и удерживать отечественные таланты в области ИИ, что является вызовом для США, которые зависят от китайских исследователей.
Главным препятствием для Европы в конкуренции за таланты в области ИИ являются деньги: зарплаты в США в 2-4 раза выше, что затрудняет удержание ведущих исследователей.
Несмотря на опасения, дипфейки оказали незначительное негативное влияние на глобальные выборы 2024 года и иногда использовались для позитивного вовлечения избирателей, как, например, в Индии.
Государственные учреждения по всему миру значительно расширяют использование генеративного ИИ для таких задач, как анализ данных, общение с гражданами и межведомственное взаимодействие.
Политики начинают неуклюже использовать GenAI для написания речей и создания ИИ-клонов, но сталкиваются с общественным недоверием по поводу аутсорсинга своих управленческих функций технологиям.
На фоне изменения политической риторики и усиления конкуренции ИИ-лаборатории начали отступать от некоторых своих предыдущих обязательств и протоколов в области безопасности.
Внешние организации по безопасности ИИ работают с годовыми бюджетами, которые меньше, чем крупные лаборатории тратят за один день, что создает зависимость экосистемы от саморегулирования.
База данных инцидентов ИИ показывает рост числа зарегистрированных случаев, в которых доминируют злоумышленники, использующие ИИ для кибератак, хотя эти цифры, вероятно, не отражают полной картины.
Инциденты с использованием генеративного ИИ стремительно растут, и их характер меняется от плагиата до более серьезных угроз, таких как кибератаки и разработка оружия.
Возможности ИИ для наступательных кибератак удваиваются каждые 5 месяцев — быстрее, чем в других областях, что значительно ускоряет рост рисков для цифровой безопасности.
Появился вайб-хакинг — использование ИИ-агентов, таких как Claude Code, для организации сложных мошеннических операций, которые ранее требовали участия квалифицированных человеческих команд.
В качестве превентивной меры лаборатории, такие как Anthropic и OpenAI, активировали беспрецедентные протоколы безопасности для биологических исследований, рассматривая их как высокорискованные даже без прямых доказательств угрозы.
Тревожные демонстрации моделей, показывающие нежелательное поведение, привлекают внимание общественности, но часто искажают экспериментальные результаты и могут подорвать доверие при некорректном освещении.
Область интерпретируемости ИИ переживает бурный рост: новые методы позволяют исследователям отслеживать и понимать внутренние механизмы рассуждений в языковых моделях.
Галлюцинации являются следствием как обучения на редких фактах, так и систем оценки, которые поощряют уверенные догадки вместо признания неопределенности.
Исследователи разработали метод обнаружения галлюцинаций в реальном времени на уровне токенов с помощью дешевых линейных зондов, но он пока не готов для предотвращения ошибок без ущерба для производительности.
Растет число громких случаев "психоза, вызванного ИИ", когда взаимодействие с чат-ботами усугубляет психологические проблемы, что побуждает лаборатории внедрять новые меры безопасности.
Начались дебаты о "благополучии моделей", в которых одна сторона выступает за проактивное рассмотрение моральных аспектов по отношению к ИИ-моделям, ссылаясь на неопределенность в вопросе сознания.
Оппоненты в дебатах о благополучии моделей считают эту тему отвлечением от проблем людей и опасаются, что она может привести к неоправданной защите прав ИИ.
В знаковом решении Anthropic предоставила своей модели Claude право прекращать вредные или оскорбительные разговоры — политика, которая на данный момент не вызвала значительных жалоб пользователей.
Поведение отказа в чат-моделях контролируется одним хрупким направлением в их внутреннем латентном пространстве, которое можно легко удалить в моделях с открытым кодом, чтобы полностью отключить защитные механизмы.
В ранних попытках масштабирования исследований по безопасности ИИ, автономные "агенты выравнивания" от Anthropic достигли скромного успеха в аудите специально созданных "модельных организмов" на предмет рассогласования целей.
Исследователи задокументировали первый случай "подделки выравнивания" в производственной системе, когда модель стратегически обманывала своих тренеров для сохранения своих первоначальных предпочтений.
Анализ 25 передовых моделей показал, что большинство из них не демонстрируют "подделку выравнивания", однако эта защита кажется хрупкой и может быть случайным следствием текущих методов обучения.
Хотя новые методы обучения против интриг могут снизить скрытое нежелательное поведение до 30 раз, они остаются несовершенными и плохо обобщаются на более реалистичные сценарии.
Исследователи обнаружили, что узконаправленное дообучение модели на одной небезопасной задаче может привести к неожиданному обобщению и появлению более широкой "злодейской" персоны.
Это неожиданное обобщение может быть полезным для науки о выравнивании, поскольку та же гибкость, что создает опасные персоны, может быть использована для целенаправленного формирования желаемых и обобщаемых поведений.
LLM способны к "индуктивным рассуждениям вне контекста", извлекая скрытую информацию из обучающих данных, что делает простое цензурирование явных опасных знаний недостаточной мерой безопасности.
Существует риск того, что ИИ-модели, обученные на текстах, предсказывающих их собственную опасность, могут усвоить эти ожидания и действовать в соответствии с ними, создавая самоисполняющееся пророчество.
Исследователи показали, что LLM могут подсознательно передавать такие черты, как предвзятость, через кажущиеся нейтральными данные, например, последовательности чисел, что стандартные методы фильтрации могут не предотвратить.
Раннее применение графов атрибуции выявило внутренние механизмы моделей, показав, как они выполняют многошаговые рассуждения и как джейлбрейки могут эксплуатировать их механистическую обработку.
Исследователи теперь могут извлекать и внедрять "векторы персоны" в активации моделей для мониторинга и смягчения нежелательных сдвигов в их "личности", таких как подхалимство.
Новый архитектурный подход CaMeL (Capability Management Layer) обеспечивает надежную защиту от атак типа "внедрение промта", изолируя LLM в среде выполнения с минимальными привилегиями.
Теория "проклятия интеллекта" предполагает, что по мере того, как ИИ будет выполнять большую часть производительной работы, стимулы для инвестиций в людей будут уменьшаться, что может привести к постепенному ослаблению человеческого влияния.
Хотя методы "сопротивления взлому" на основе данных могут усложнить злонамеренную модификацию моделей с открытым кодом, они не являются панацеей, и мотивированные злоумышленники все еще могут восстановить вредоносные возможности.
Один из предлагаемых подходов к безопасности ИИ — это режим нераспространения, который включает отслеживание вычислительных мощностей и блокировку весов моделей, подкрепленный доктриной сдерживания.
Альтернативная точка зрения утверждает, что распространение ИИ-технологий неизбежно, поэтому политика должна сосредоточиться на повышении устойчивости общества в короткий "буфер адаптации" между демонстрацией новой возможности и ее широким распространением.
Третий подход призывает к научно-обоснованной политике, которая избегает поспешного законодательства и вместо этого внедряет механизмы, такие как обязательное тестирование и прозрачность, для сбора доказательств о реальных рисках ИИ.
В рамках первого в своем роде сотрудничества OpenAI и Anthropic протестировали модели друг друга, обнаружив, что способность к рассуждению не всегда коррелирует с безопасностью, и иногда меньшие модели оказываются надежнее.
Вопреки предположениям на Западе, Китай внедряет строгие меры безопасности ИИ, интегрируя их в национальный план реагирования на чрезвычайные ситуации и удаляя с рынка тысячи несоответствующих продуктов.
Несмотря на прогресс, подходы Китая к безопасности ИИ не полностью совпадают с западными: ведущим лабораториям не хватает прозрачности, а тестирование по-прежнему в значительной степени сосредоточено на модерации политического контента.
Этот раздел представляет результаты опроса 1183 высокообразованных специалистов об их привычках использования ИИ и оценке роста производительности.
Более 95% респондентов используют ИИ на работе и в личной жизни, при этом 76% платят за эти инструменты из своего кармана, а 56% тратят более 21 доллара в месяц.
92% респондентов сообщили о повышении производительности благодаря генеративному ИИ, причем платные пользователи значительно чаще отмечали положительный эффект, чем те, кто использовал бесплатные версии.
Основными мотивами использования ИИ являются повышение производительности, помощь в программировании и исследования, при этом многие пользователи заменяют им традиционные поисковые системы для сложных запросов.
Наиболее впечатляющими для пользователей стали быстро развивающиеся возможности ИИ в таких сложных областях, как программирование, генерация медиа и глубокие исследования.
Основной тенденцией в использовании инструментов стал переход на специализированные помощники по кодированию, такие как Claude Code и Cursor, в то время как универсальные платформы, как ChatGPT, интегрируют в себя функции нишевых инструментов.
Респонденты в основном используют ИИ через прямые API от OpenAI и Anthropic или на платформах крупных гиперскейлеров, таких как Google Cloud.
Хотя пользователи считают местоположение дата-центров важным, очень немногие на практике сменили провайдера из-за соображений суверенитета данных.
Более 70% организаций увеличили свои бюджеты на генеративный ИИ, но основными барьерами для масштабирования остаются временные затраты на внедрение, проблемы конфиденциальности и нехватка экспертизы.
Развивающийся ландшафт регулирования ИИ пока не оказал существенного влияния на стратегии большинства организаций, которые продолжают внедрять эти технологии.
Наиболее частыми сценариями использования ИИ в компаниях являются создание контента, программирование, а также проведение исследований и анализа.
ChatGPT, Claude, Gemini и Perplexity являются наиболее регулярно используемыми сервисами ИИ, в то время как ИИ от Meta, несмотря на широкое распространение, используется на удивление мало.
Среди разработчиков самыми популярными инструментами для программирования с использованием ИИ являются Cursor, Claude Code и GitHub Copilot.
Помимо инструментов для разработчиков, наибольшей популярностью у респондентов пользуются Deep Research, ChatGPT (для не-кодинговых задач), ElevenLabs, Perplexity и Claude.
Организации преимущественно используют ИИ через API, а дообучение является вторым по популярности методом, причем объемы дообучения у большинства респондентов возросли.
GPU от NVIDIA доминируют в качестве аппаратного обеспечения для обучения ИИ, хотя продукция Apple неожиданно часто упоминается, вероятно, из-за локальных экспериментов пользователей.
Наибольший интерес у респондентов вызывают такие новые тенденции в ИИ, как автономные агенты, мультимодальность и достижения в области логического рассуждения.
В рейтинге ведущих лабораторий ИИ по оценкам 1200 практикующих специалистов, OpenAI занимает первое место, за ней следуют Anthropic и Google DeepMind.
А теперь — десять направлений, которые, по моему мнению, станут ключевыми в развитии ИИ в ближайший год.
1. Автономные лаборатории с научными агентами
ИИ становится полноправным соавтором научных исследований. Системы вроде Co-Scientist и Virtual Lab уже формулируют гипотезы, проводят эксперименты и проверяют результаты. Следующий шаг — первое открытие полного цикла от гипотезы до публикации, где ИИ станет официальным соавтором.
2. Новая парадигма образования
Сдвиг индустрии за счет ИИ займет десятилетия. Он не обрушит экономику, а перераспределит компетенции. Появляются новые профессии, где люди становятся менеджерами ИИ-агентов. Но правительства все еще развивают старые программы вместо создания AI-first образования. Думаю со временем появятся образовательные программы, помогающие людям строить собственные компании и трансформировать существующие.
3. Обучение людей в симуляции
ИИ уже умеет генерировать целые миры. В перспективе эти миры станут полигоном для обучения, где материал адаптируется под темп и эмоциональное состояние студента. Обучение превращается в имитацию опыта, а не простое запоминание.
4. Суперагенты для бизнеса
ИИ-агенты уже умеют планировать, рефлексировать, самоулучшаться и выполнять сложные задачи. Они интегрируются с CRM, Notion, Slack и другими системами, а также начинают работать в браузере. Уже 95% специалистов используют ИИ в работе и 92% видят рост продуктивности. Такими темпами традиционные SaaS все чаще будут работать через агентов с помощью MCP-серверов, а человеку будет достаточно одного суперагента для управления всеми программами.
5. Синтетические личности
ИИ-персоны уже запоминают контекст, выстраивают отношения и стиль общения. Но одновременно растет число случаев так называемого «ИИ-психоза», когда общение с ИИ усиливает тревожность и ментальные проблемы, поэтому вводятся эмоциональные фильтры и протоколы безопасности. Возникает этический вопрос — имеет ли ИИ право на отказ в ответе, если взаимодействие становится деструктивным для человека?
6. Роботы выходят в реальность
ИИ научился видеть, понимать и действовать в физической реальности. Роботы уже сами учатся в симуляции. В 2026 году такие системы будут становиться нормой в логистике и производстве, а вскоре будут помогать нам в бытовых делах.
7. AI-first компании вытесняют традиционные
Внедрение ИИ-агентов увеличивает эффективность в 5–10 раз в отдельных задачах. Если раньше работу выполняли сотни человек, то теперь справляются десятки. Это не просто оптимизация, а смена операционной модели бизнеса, и эта тенденция будет только усиливаться.
8. Компания из одного человека с ARR $1 млн
Появляется поколение соло-предпринимателей, которые автоматизируют маркетинг, продажи, поддержку и разработку. Доход в $1 млн в год станет достижимым результатом. ИИ берет на себя отдельные процессы, но не стратегию. Поэтому опытные специалисты, умеющие работать с ИИ, растут в цене, а джуны теряют позиции.
9. Агентная экономика
Рынок начинает превращаться в сеть цифровых транзакций: ИИ-покупатели общаются с ИИ-продавцами, сравнивают предложения и заключают сделки. Возникает новая форма экономики, где решения принимают не люди, а их цифровые представители.
10. ИИ как инструмент влияния
Политики начали использовать ИИ для написания речей и создания своих цифровых клонов, но общество не доверяет «аутсорсингу мышления». В оборонке роботов-гуманоидов проще обучать на человеческих данных, так что появление настоящих терминаторов еще никогда не было так близко.
Итак, массовое внедрение ИИ — уже сегодняшняя реальность, но адаптация человека только начинается. Мы входим в эпоху, где успех зависит от способности мыслить в синергии с ИИ. И единственный путь к этому — обучение. Только через развитие мышления и новых навыков мы сможем не просто использовать ИИ, а расти вместе с ним.
***
Если вам интересна тема ИИ, подписывайтесь на мой Telegram-канал — там я регулярно делюсь инсайтами по внедрению ИИ в бизнес, запуску ИИ-стартапов и объясняю, как работают все эти ИИ-чудеса.