Первая зима ИИ (1974–1980): крах символического подхода
Вторая зима ИИ (1987–1993): крах экспертных систем
AlexNet (2012) : революция на 2-х видеокартах
ResNet (2015) и AlphaGo (2016): преодоление барьеров
Трансформеры (2017): архитектура, изменившая всё
Прогнозы и провалы (2013–2025): уроки истории
Эпоха ChatGPT (2022–2025)
Почему LLM – это технологическая ловушка
Заключение
Привет, Хабр! Я Максим Катрушенко, главный специалист по ML/DS с опытом более 6 лет в проектах математической оптимизации и машинного обучения для логистики. Последние годы я наблюдаю одну и ту же картину: звёзды ИИ-индустрии дают прогнозы, которые больше похожи на сказку для инвесторов, чем на точный расчёт. Многие громкие обещания — от полной автономии Tesla до замены врачей алгоритмами — рухнули, столкнувшись с реальностью.
По данным Crunchbase, в 2025 году в ИИ-сектор было инвестировано порядка 250 млрд $— это почти половина всех венчурных инвестиций в мире. Сложно поверить, что такие деньги вкладываются в очередные сказки. Эта статья — попытка проследить паттерны в развитии ИИ, понять, почему прогнозы лидеров отрасли систематически не сбываются, и оценить, где мы находимся сегодня.
В тексте акцент сделан на трёх составляющих — технических решениях, финансовых результатах и исторических закономерностях.
История ИИ начинается в 1956 году на Дартмутской конференции. Четверо видных учёных во главе с Д.Маккарти собрались на летний семинар с амбициозной целью: за два месяца разработать искусственный интеллект. Их рабочая гипотеза была простой — любую функцию человеческого разума можно точно описать и воспроизвести в машине.

Результатом совместной работы учёных стало появление символического искусственного интеллекта. Это подход к созданию машинного разума, при котором знания о мире представляются в виде понятных человеку символов (понятий, объектов, отношений) и строгих логических правил обработки этих символов. На той же конференции была представлена Logic Theorist (1956) – программа, специально спроектированная для доказательства математических теорем успешно справилась с 38-ю из 52-х. Идейно, учёные формализовали процесс решения и описали его в виде алгоритма. Подробнее - здесь.
Позже, создали General Problem Solver(GPS, Универсальный решатель задач, 1959 г.). Он имитировал человеческий поиск решений задач через стратегии “средства — цель”. Алгоритм рекурсивно сравнивает текущее состояние с целевым, выявляя ключевые различия. Для каждого различия выбирается действие, которое уменьшает различия через создание подцелей.
Сейчас его формулировка занимает порядка 50 строк. Пользователь вручную описывает состояния, а программа перебирает варианты и ищет путь достижения конечного состояния из начального. Актуализирований код на Python + пример с задачей по кормлению обезъяны бананами.
Подробнее про эти проекты можно почитать, например, здесь.
Это может показаться слишком тривиальным, но на тот момент таких успехов оказалось достаточно, чтобы поверить, что техника уже способна математически повторить человеческий разум. Любовь к экстраполяции сделала своё дело, и появились смелые прогнозы:
«Машины будут способны выполнять любую работу, которую может делать человек, в течение 20 лет.» — Герберт Саймон, 1965
«В течение одного поколения проблема создания искусственного интеллекта будет существенно решена.» — Марвин Минский, 1967
А за прогнозами последовали инвестиции. К 1969 году DARPA инвестировало в ИИ около $100 млн (эквивалент ~$800 млн в современных ценах). Академические центры в MIT, Stanford и CMU получали щедрое финансирование. Рынок ИИ оценивался в $10–50 млн в год — 0.001-0.002% от мирового ВВП того времени. Скромно по современным меркам, но достаточно для исследовательской области..
Оптимизм уперся в математическую реальность. В 1973 году британский математик Джеймс Лайтхилл опубликовал разгромный отчёт для правительства Великобритании. Его вывод был безжалостным: за 20 лет ИИ не добился практических результатов, а амбициозные обещания не имели под собой научного основания. Если кратко, то решение не сработало так как:
Затраты были слишком высокие и не давали экономии
Необходимо было перебирать слишком много комбинаций и не хватало вычислительных способностей
Требовалось кодировать миллионы правил
Очень редко закодированные правила для одной задачи удавалось обобщить на другие
Даже простые вычисления компьютеры выполняли очень долго. Хотя вычислительные задачи решались быстро – например, факториал 20 возможно было посчитать за 0.01-0.1 секунды, другие операции занимали порядка 5 часов.
Написать программу на бумаге - 2 часа
Перфорировать 20 карт - 1 час (в перфораторе)
Отстоять очередь на считыватель - 1–3 часа
Загрузка (20 сек) - сбой (1%) → перезагрузка
Вычисления - 10 секунд
Вывод на перфокарту/принтер - 2 минуты
Ошибка → назад к шагу 1
DARPA сократило финансирование ИИ на 90% — с $100 млн до $10 млн в год. Великобритания и Канада полностью закрыли свои программы. Проект Speech Understanding Research в университете Карнеги — Меллона, обещавший революцию в распознавании речи, был признан провальным. Рынок ИИ сжался до $5–10 млн в год. Тысячи исследователей покинули область, и термин «искусственный интеллект» стал почти ругательным в академических кругах.

К началу 1980-х ИИ возродился благодаря новому подходу — экспертным системам. Вместо попыток создать «общий интеллект» исследователи сфокусировались на узких задачах: кодирование знаний специалистов в виде правил «если-то».
Казалось бы, это резко упрощает время на перебор правил, позволяет получить быстрый эффект в узкой дорогостоящей области и устраняет проблему предыдущего поколения с попыткой сделать универсальные модели для любых задач. Параллельно, появились машины по 100к долларов за штуку, что значительно повышало доступ к технологиям. Для сравнения вычислительные машины до первой ИИ зимы стоили порядка 1–10 миллионов, а месяц аренды – десятки тысяч долларов.
Флагманами того времени стали такие проекты, как MYCIN и XCON. Первый на уровне эксперта (с точностью 65%) диагностировать наличие у пациента инфекций. Результат удалось достигнуть всего на 500-600 правилах. Второй позволял автоматизировать комплектацию заказов, экономя 40 миллионов долларов в год. За первый год работы этого проекта ROI оказался 10х. В 2026 году редкая компания может похвастаться такой результативностью.

На фоне таких невероятных успехов японское правительство запустило программу «Пятое поколение компьютеров» с бюджетом $850 млн (1982–1992). США ответили Strategic Computing Initiative на $1 млрд. К 1985 году рынок ИИ вырос до $1–2 млрд, а компании вроде Symbolics и Lisp Machines продавали специализированные компьютеры по $100–200 тыс. за штуку. К 1988 году корпоративные расходы на ИИ превысили $1 млрд. В пике рынок Ии оценивался ~0.01% от мирового ВВП.
«Экспертные системы — это следующий шаг в автоматизации. Они заменят дорогих специалистов во всех отраслях.» — Эдвард Фейгенбаум, «отец экспертных систем», 1983
В 1984 году на конференции AAAI Роджер Шанк и Марвин Минский предупредили: энтузиазм вокруг ИИ вышел из-под контроля, и разочарование неизбежно. Три года спустя рынок специализированного железа для ИИ рухнул. Причины знакомы до боли:
Затраты были слишком высокие и не давали экономии
Невозможно поддерживать актуальными базу всех правил. В XCON их было более 10 тысяч, их актуализация, синхронизация с другими стала стоить компании минимум половину эффекта, который приносил проект.
Машины не умели работать с нестандартными случаями. В итоге попытка заменить людей машинами только увеличила потери компаний и вызвала отток клиентов.
Появились новые машины от Apple и IBM, которые работали производительнее и доступнее.
Продажи Lisp-машин упали на 95% за три года. Symbolics, когда-то оценивавшаяся в сотни миллионов, обанкротилась. Японский проект «Пятое поколение» был признан провалом с потерями около $400 млн. DARPA сократило новые гранты на ИИ на 80%. Рынок сжался до $300–500 млн, а в следующие 15 лет (до 2010-х) AI стал «грязным словом» в Кремниевой долине.


В период 1995–2010 годов премия Тьюринга ни разу не присуждалась за ИИ. В течение 16 лет индустрия уступала в значимости прорывам в базах данных, криптографии и теории сложности.
Интересно, почему в целом стало возможно говорить о второй зиме ИИ, если уже была первая, и крупные корпорации, инвесторы, гос. фонды сильно обожглись. Складывается впечатление, что из корпораций ушли те, кто получил ожог от первой зимы, а разработчики смогли скрыть технические слабости, выбрав узконаправленные задачи и показав на них экономический эффект.
Здесь хочется провести черту и сделать общее резюме. Сами по себе «ИИ-зимы» отражают лишь столкновение завышенных ожиданий инвесторов/корпораций и т.д. с ограниченными возможностями своего времени. По какой-то причине развитие технологий подпитывается желанием сделать универсальный искусственный разум под любые задачи. При этом, когда технологии позволяют решать реальные задачи в своём домене, но оказывается, что реализация «сверхидеи» невозможна, весь путь развития ставится под сомнение.
Будем честны: сами по себе ИИ-зимы практически не оставляли после себя работающих технологий. Экспертные системы умерли, Lisp-машины обанкротились, японский проект «Пятое поколение» списан. Но зимы делали другое — убивали шум и лишние обещания. Хинтон, ЛеКун продолжали работать, когда финансирование обнулилось и «искусственный интеллект» стало стыдно произносить вслух. Результаты их работы воплощаются сейчас.

Таким образом, «ИИ-зимы» скорее следует воспринимать, как фильтр технологий и ожиданий. Gartner проводил опросы с тем, чтобы оценить, как скоро наступит «сверхразум» AGI. Если собрать воедино количество упоминаний по годам, то можно четко проследить корреляцию увеличения числа упоминаний появления «сверхразума» с наступлением «ИИ-зимы». Но здесь нужно сделать важнейшую поправку - рынок ИИ, что в первую зимы, что во вторую был несопоставимо мал с тем, каких размеров он достиг сейчас. Об этом в следующей части.
К 2010 году компьютерное зрение полагалось на алгоритмы, вручную спроектированные для извлечения признаков из изображений. По большей части, они следовали интуитивному подходу – тем или иным образом обработать градиент яркости через средние/дисперсии, некоторые ключевые точки. С миллионами изображений и с небольшим числом классов победители ImageNet Challenge 2010–2011 использовали комбинации этих методов с ошибкой top-5 около 25–26%. Улучшения измерялись долями процента в год.
30 сентября 2012 года на соревновании ImageNet Large Scale Visual Recognition Challenge команда из Торонто (Алекс Крижевский, Илья Суцкевер и Джеффри Хинтон) представила AlexNet — глубокую свёрточную нейронную сеть, которая разгромила конкурентов.
Метрика | AlexNet | Второе место (традиционные методы) |
Top-5 error rate | 15.3% | 26.2% |
Количество параметров | 60 миллионов | ~тысячи |
Глубина сети | 8 слоёв | 1–2 слоя |
Время обучения | 5–6 дней на 2 GPU | Часы–дни |
Успех архитектуры AlexNet случился благодаря конвергенции трёх факторов:
1. Данные: ImageNet (Fei-Fei Li, 2009) предоставила 14 млн размеченных изображений — на порядки больше, чем любой предыдущий датасет. 49,000 работников Amazon Mechanical Turk размечали изображения три года.
2. Вычисления: появление технологий распределенных вычислений на видеокартах (CUDA, 2007). GTX 580 обеспечивала ~1 TFLOPS — достаточно для обучения 60 млн параметров за неделю.
3. Алгоритмы: метод обратного распространения ошибки был известен с 1986 года, но только в AlexNet удалось его настолько успешно применить для глубоких нейросетей.
«Этот момент был символичным для мира ИИ — три фундаментальных элемента современного ИИ сошлись впервые.» — Fei-Fei Li, 2024

Справедливости ради, еще и до этого триумфа Д. Хинтон и А.Крижевский исследовали применение нейросетей для классификации изображений. То есть, это не случайный щелчок, а планомерная работа на протяжении 10-20 лет.
Дальше AlexNet запустила «золотую лихорадку» в deep learning:
2013: Google приобрёл DNNresearch (компанию Хинтона, Суцкевера и Крижевского) за неизвестную сумму. Все трое перешли в Google Brain.
2014: Google приобрёл DeepMind за ~$500 млн.
2014–2015: Венчурные инвестиции в ИИ выросли с $1.7 млрд до $2.4 млрд (+41%).
К 2015 году error rate на ImageNet упал до 3.57% благодаря появлению ResNet — лучше, чем у человека (~5.1%).
К 2014 году стало ясно: более глубокие сети дают лучшие результаты. VGGNet (19 слоёв) улучшила AlexNet, GoogLeNet (22 слоя) — VGGNet. Но дальнейшее увеличение глубины приводило к парадоксу: сеть в 56 слоёв работала хуже, чем в 20.
Проблема была не в переобучение (training error тоже рос), а в том, что при увеличении глубины сеть не могла выучить даже тождественную функцию f(x) = x. Если x, это картинка, то при прохождении 30 слоев от неё оставался только серый шум без каких-либо преобразований. Сигнал, который шел через обратное распространение ошибки и должен был подсказывать, как изменять тот или иной вес конкретного нейрона в сети, "размывался"/"исчезал”.
Kaiming He и коллеги из Microsoft Research предложили гениально простую идею: к выходу каждого блока обработки изображения (2–3 слоя, ищущих формы/края на фото) стали добавлять изначальный сигнал , который был до преобразования. Таким образом, если все слои выключить, то в AlexNet на выходе сигнала не будет, будет шум, а в ResNet – будет изначальное изображение. Этот шаг позволил достичь точности в классификации сопоставимой с человеческой.
Модель | Глубина (слои) | Top-5 error на ImageNet | Параметры |
AlexNet | 8 | 15.3% | 60M |
VGGNet-19 | 19 | 7.3% | 144M |
GoogLeNet | 22 | 6.7% | 6.8M |
ResNet-152 | 152 | 3.57% | 60M |
Человек | — | ~5.1% | — |
ResNet-152 превзошла человека на ImageNet, используя столько же параметров, сколько AlexNet, но в 19 раз глубже. Статья «Deep Residual Learning for Image Recognition» стала самой цитируемой научной работой XXI века (310,000+ цитирований к 2026).
Март 2016 года. Сеул. Го-чемпион мира Ли Седоль садится за доску против AlphaGo. Ставки огромны: го считалась последним бастионом человеческого интеллекта в настольных играх. В го 10^170 возможных позиций — больше, чем атомов в наблюдаемой Вселенной. Традиционные методы (перебор + эвристики) были бессильны. На разработку алгоритмов и проведение вычислений уже вложено 20-35 млн. $.

DeepMind объединила несколько революционных идей:
Cеть ходов (Policy Network): Первая сеть, обученная на 30 млн позиций из партий профессионалов, предсказывала вероятности ходов. Точность на top-1: 57% — это выше, чем у большинства любителей.
Сеть оценки позиции (Value Network): Вторая сеть оценивала вероятность победы из любой позиции (±1). Это позволяло «отсекать» бесперспективные ветви поиска.
Monte Carlo Tree Search (MCTS): Классический алгоритм поиска, но вместо случайных симуляций использовались предсказания нейросетей. AlphaGo просматривала ~10^5–10^6 позиций за ход вместо 10^170.
Самообучение: после обучения на человеческих партиях AlphaGo играла сама с собой миллионы партий, постоянно улучшаясь.
Комбинация этих идей позволила доказать, что глубокое обучение в сочетании с обучением с подкреплением могут решать задачи, считавшиеся «слишком человеческими» — требующими интуиции, креативности, долгосрочного планирования. Через год AlphaZero (2017) обобщила подход: одна система научилась играть в шахматы, сёги и го на сверхчеловеческом уровне, обучаясь только на правилах (без человеческих партий). Здесь важно оговориться, что для такого формата применения ИИ самообучение оказалось возможным благодаря замкнутой среде - понятные и неизменные правила, определенные роли, отсутствие случайных событий.
После матча инвестиции в ИИ ускорились: 2015: $5 млрд, в 2016: $7 млрд, в 2017: $12 млрд (по данным CB Insights) или ~4–9% от глобальных венчурных инвестиций(источники : VC totals — KPMG Venture Pulse).
После активного успеха в классификации изображений волна использования нейросетей активно начала и другие области, в том числе – работу с текстом. К 2016 году обработка естественного языка полагалась на рекуррентные сети (RNN) и их улучшенные версии — LSTM и GRU. Эти архитектуры обрабатывали текст последовательно – слово за словом.
В такой архитектуре были проблемы, аналогичные тем, что были до появления AlexNet и ResNet в распознавании изображений:
Затухание сигнала ошибки: при длинных последовательностях (100+ токенов) градиенты исчезали, и сеть «забывала» начало текста. Помним, что до появления ResNet в классификации изображений была аналогичная проблема;
Потеря контекста: Вся информация о предложении «сжималась» в один вектор фиксированной размерности. Похожий подход использовался и до AlexNet в Fisher Vectors;
Обработка каждого слова зависела от предыдущего. Это исключало возможность параллельных процессов и обучение занимало недели.
В июне 2017 года команда Google (Ashish Vaswani et al.) опубликовала статью "Attention Is All You Need", представив архитектуру трансформера.
Вместо последовательной обработки трансформер смотрит на все токены одновременно. Для каждого токена вычисляется, насколько он «связан» со всеми остальными через матрицу внимания размером N×N (где N — длина последовательности). Это позволило одновременно обрабатывать все слова предложения, а не по очереди. Таким образом, условно, каждое «слово» получило возможность «знать» не только о «ближайших соседях», но и обо всем контексте предложения или абзаца.
Это позволило трансформерам обрабатывать все слова параллельно, а не последовательно, что ускорило обучение в разы. Механизм внимания, предложенный в статье напрямую связывает слова из начала и конца текста, решая проблему "дальних зависимостей", с которой не справлялись предыдущие решения. Наконец, архитектура легко масштабируется: больше данных и параметров дают предсказуемо лучший результат.
Трансформеры породили целое семейство моделей: GPT (генерация текста), BERT (понимание контекста), T5 (любые NLP-задачи). Сегодня это основа всех языковых моделей, включая ChatGPT.
Несмотря на изящество трансформеров, их ограничения проявились в 2024–2026 годах на сверхдлинных контекстах (1M+ токенов):
Квадратичная сложность: матрица внимания N×N требует O(N²) памяти и времени. При наивной реализации контекст в 100k токенов занимает десятки ГБ VRAM, а 1M токенов (Gemini 1.5 / Claude 3.5) — терабайты. На практике это решается различными оптимизациями, но фундаментальное ограничение остаётся.
Отсутствие общего понимания: Трансформеры — предсказатели токенов, это заложено в основе их архитектуры. Именно для этого здесь базово описана идея подхода. В них нет механизма выделения общего понимания и полноценного рассуждения.
“Большие языковые модели достигли потолка. Нам нужны общие модели с рассуждением.» — Yann LeCun, 2025
Подводя черту под тремя техническими блоками, стоит отметить: в разных областях возникали примерно одни и те же проблемы. Разница лишь в том, где быстрее удалось собрать датасет или найти способ повысить качество обучения. Затем найденное решение перетекало из одной области в другую. Так, подходы к работе с изображениями в AlexNet и ResNet перекочевали в трансформеры. А дальше в статье вы увидите, как подход к обучению модели из AlphaGo перекочевал в процесс создания ChatGPT.
Интересно, что ключевые работы по ИИ, по словам Хинтона, были сделаны в период между 1980-ми и 2000-ми. Ещё десятилетие потребовалось, чтобы технологии догнали человеческую мысль и нашли свою реализацию. С трансформерами похожая история — статья была опубликована в 2017, но полноценное применение подход нашёл только в 2020-х с появлением GPT-моделей.

Параллельно стала складываться тревожная тенденция — смещение фокуса в сторону ИИ с других технических областей. Публикация статьи о трансформерах стала отправной точкой для взрывного роста интереса к теме, а общая доля публикаций про искусственный интеллект планомерно повышалась и достигла 20% к 2025 году (по оценке Stanford AI Index в 2025. Это, во-первых, повлекло за собой избыточные ожидания, а во-вторых, лишило другие технические направления достаточного финансирования для поддержания сравнимого темпа развития. Оправдались ли ожидания от ИИ? Про это в следующем блоке.
С 2010-х в беспилотные авто вложили десятки миллиардов долларов — как напрямую, так и через поглощения.
Дата | Прогноз | Автор | Реальность (2026) |
2013 | Илон Маск | Level 2 (assist), не автономия | |
2015 | Илон Маск | ||
2016 | Джон Циммер, CEO Lyft | Программа закрыта | |
2019 | Илон Маск | 0 автономных машин | |
2024 | Илон Маск | ~200 машин( частично автономных) |
По словам Андрея Карпаты в одном из недавних интервью, каждый шаг в повышении точности и появлении девятки в оценке качества управления, требует примерно таких же усилий, как и предыдущий. Таким образом, была глобальная недооценка скорости прогресса. Предполагалось, что с каждым шагом получение лучшего результата будет занимать меньше времени. Однако шаг от 99,9% к 99,99% точности был такой же по трудозатратам, как и от 99% к 99,9%.
Cruise (GM)
GM купил Cruise в 2016 году «более чем за 1 млрд $» и за 2016–2024 годы вложил в проект свыше 10 млрд $ операционных расходов.
В итоге, выручка оказалась менее 0,5 млрд $. В 2024-м GM объявил о прекращении финансирования Cruise, ожидания экономии ~1 млрд $ в год не оправдались. По сути, почти все вложения списаны.
Uber ATG, Argo AI и др.
Uber, Ford, VW и другие сформировали отдельные подразделения (Uber ATG, Argo AI), но затем продали или закрыли их, после смертельной аварии и отсутствия понятной бизнес-модели. Этот безумный бум роботакси сжег совокупные инвестиции крупных игроков (Uber, Ford, VW, Toyota, Baidu и др.) в AV-направление на 20–30 млрд $ за десятилетие.
Китай
В Китае Baidu, Alibaba (Banma Network), Pony.ai и др. получили многомиллиардное финансирование. При этом большинство игроков до сих пор убыточны и не имеют устойчивой выручки, что открыто признаётся в аналитике по рынку.
Индия / Европа
В Индии и ЕС делались ставки на автономные такси в ограниченных зонах, но типичный масштаб — сотни миллионов, а не миллиарды (например, голландский WePod, французские Navya/EasyMile). Многие пилоты свернуты или заморожены из-за стоимости и регуляторных барьеров.

Общая сводная таблица со сравнением кампаний будет выглядеть следующим образом:
Сервис | Страна | Флот (авто) | Поездки (год) | Выручка (2025) | Статус |
|---|---|---|---|---|---|
США | 2,500 | 14–15 млн | $286–400 млн | Быстрый рост, прибыльность ≈2027 | |
Китай | 1,000+ | 17+ млн | $280 млн | Близко к прибыльности | |
Китай | 720 | 3–4 млн* | $35.4 млн (H1) | Быстрейший рост на фокусе (300% YoY) | |
Китай + мир | 1,600 | 2–3 млн* | $27.9 млн (Q2+Q3), $60+ млн (год) | Диверсификация (такси, автобусы, грузовики) | |
Cruise (GM) | США | <400** | <1 млн | Не раскрыто | Заморожен |
Zoox (Amazon) | США | Тестирование | Тестирование | $0 (коммерчески) | Запуск в 2026 (Лас-Вегас) |
США | ~100 (прототипы) | Тестирование | $0 | Объявлено, нет коммерческого сервиса |
Итог: к 2026 году реально коммерчески работает лишь пара игроков уровня Waymo с ограниченным покрытием городов и высокими операционными затратами. Большая часть инвестиций в «роботакси к 2020» в США уже списана, а Tesla всё ещё находится на уровне ассистентов вождения (Level 2). Те спустя 13 лет не появилось прибыльного и полноценного сервиса, при этом расходы на отрасль составили порядка 50-100 млрд, а выручка - до 2 млрд суммарно.
Здесь нет посыла, что роботакси это мертвая ветвь эволюции ИИ. Потребность есть, в какой-то момент она найдёт свою реализацию, но не так быстро, как каждый год обещают(сейчас MorganStanley обещает к 2030 году).
Фразу Хинтона 2016 года про «бессмысленно обучать радиологов через 5 лет» сейчас чаще приводят как пример переоценки AI.
По отчётам ImagingWire и рынка AI-изображений, к 2024 году глобальный рынок AI для медицинской визуализации оценивался примерно в 1,3 млрд $, при этом венчурное финансирование в 2021–2022 годах составляло сотни миллионов в год (815 млн $ в 2021, 615 млн $ в 2022).
С 2016 по 2025 совокупные венчурные вливания в «AI-радиологию» можно грубо оценить в 5–7 млрд $ (множество раундов по 10–100 млн $ у десятков компаний). Отдельный вопрос на что рассчитывали инвесторы, когда объем вложенных средств уже несколько раз превышал объем рынка, а реальных результатов в ближайшей перспективе ожидать не приходилось.
Значительную долю денег получили 10–20 лидеров (Aidoc, Viz.ai, Cleerly, Qure.ai и др.), но сотни мелких компаний не вышли на рынок и фактически «сгорели».
Реалистичная оценка: 70–80% инвестиций в стартапы так или иначе не окупились.
Крупные знаковые провалы:
IBM Watson Health — инвестиции в платформу и сделки (Truven, Merge) оценивались прессой в несколько миллиардов; к 2022 году IBM продала основную часть Watson Health фонду Francisco Partners за ≈1 млрд $, что интерпретируется как списание около 2–3 млрд $ ожиданий.
Babylon Health — британский «AI-врач» с телемедициной, привлёк 600+ млн $, вышел на биржу через SPAC, а затем объявил о банкротстве и ликвидации в США в 2023 году; доля акционеров практически обнулилась.
Текущие результаты (2025–2026)
Лучшие системы ИИ в радиологии достигают точности, сравнимой с хорошим специалистом на отдельных задачах, но в реальной практике используются как инструмент поддержки, а не замены человека.
Появился неожиданный эффект: неверные рекомендации ИИ могут ухудшать решения врачей, если те им доверяют без критической проверки. И это похоронило все планы по полной автоматизации. Впрочем, такое уже происходило с медицинскими проектами до второй ИИ зимы (например, MYCIN). Снова и снова оказывается, что невозможно достичь 100% точности от машины, а появление автоматических рекомендаций повышает шансы ошибки человека. При этом так и не решён вопрос, как переложить ответственность за медицинский диагноз на ИИ.
Потери в сегменте составили $5–7 млрд венчурных инвестиций в AI-радиологию с 2016 по 2025. Из них ~70–80% ($3.5–5.6 млрд) «сгорело» — компании закрылись или не достигли коммерческого успеха. ~200–250 стартапов получили финансирование, ~150–200 (75–80%) провалились.
Исторические обзоры прогнозов AGI показывают устойчивый паттерн: в любой момент медиана экспертных оценок ставит AGI в диапазон «через 5–30 лет», причём по мере приближения даты горизонт просто сдвигается вперёд. И в предыдущие два раза, когда время ожидания наступления AGI было минимально ( 3–5 лет), следующим шагом, было наступление «ИИ-зимы».
Классический пример: Герберт Саймон ( один из пионеров в ИИ) в 1965 году говорил, что «машины смогут делать любую работу человека через 20 лет». С тех пор прошло 60+ лет, а универсальной замены человеку - нет.
В 2010-е большинство опросов (AI100, Grace et al.) давали медиану AGI около 2060 года – это была самая скептическая оценка; к 2023–2025 годам оценки сместились к началу 2030-х, а лидеры компаний (Альтман, Амодей, Маск) часто называют ещё более агрессивные сроки.

Финансово прогнозирование появление AGI слабо выделяется в отдельный сегмент, но она поддерживает многомиллиардный приток капитала в базовые модели, облачные мощности и стартапы «общего ИИ». Риск здесь не в одном провале, как у Cruise или Watson, а в систематическом завышении ожиданий, которое может привести к следующей «зиме ИИ», если окупаемость массово не подтвердится.
Отдельной проблемой стоит отсутствие общепринятого понимания определения термина AGI. Если вы посмотрите последние интервью Суцкевера, Альтмана, Карпати и т.д., то каждый даёт какое-то свое определение. Таким образом, сам по себе прогноз наступления AGI подогревающий миллиардные инвестиции в сферу ИИ имеет проблему в самом главном – понимании, что же такое AGI.
Тесты на фактологических ошибках (галлюцинациях) показывают, что даже самые современные модели с «reasoning-архитектурами» сохраняют двузначный процент неверных утверждений.
GPT-3.5 уменьшил частоту явных галлюцинаций по сравнению с GPT-3, GPT-4 — ещё немного, но при этом способность уверенно «выдумывать» выглядит даже сильнее.
Специализированные модели рассуждений (o1, o3, o4-mini и аналоги у конкурентов) демонстрируют на некоторых бенчмарках выше долю убедительных, но ложных объяснений, чем более простые модели. Это заметно и в исследованиях по безопасности и в оценках стартапов, строящих продукты поверх LLM.
Здесь нет грандиозных единичных банкротств уровня Cruise или Watson, но есть массовый риск: компании, которые предполагают, что «достаточно чуть улучшить модель — и галлюцинации исчезнут», могут ошибаться на уровне архитектуры и бизнес-плана. Это особенно критично в медицине, финтехе и праве, где цена ошибки высока.
Сводная таблица по проценту галлюцинации приведена ниже для простых и сложных задач:
Модель | Год оценки | ||
GPT-3.5 | 2025–2026 | 1.9% | 60% |
GPT-4 | 2025–2026 | 1.8% | 20.8% |
o1 (reasoning) | 2025–2026 | 2.4% | 33.1% |
o3 | 2025–2026 | 6.8% | 37.3% |
o4-mini | 2025–2026 | 4.6% | 23.4% |
Opus 4.5 | 2025–2026 | 10.1% | 43.1% |
Opus 4.6 | 2025–2026 | 4.4% | 44.3% |
ChatGPT 5.1 | 2025–2026 | 1.2% | 35.3% |
Крупные китайские игроки (Baidu Apollo, Alibaba-Banma, Pony.ai и др.) получили многомиллиардные гос- и частные инвестиции, но большинство из них далеко от прибыльности. Многие проекты «умных дорог» и V2X-инфраструктуры требуют постоянных субсидий; корректировки стратегий и смены менеджмента (как в Banma) показывают, что ожидания 2015–2018 годов по быстрой окупаемости не оправдались.
В Индии десятки стартапов пытались строить AI-телемедицину, диагностику и wellness-сервисы. Из-за низкой платёжеспособности населения, высокой доли оплаты из кармана и отсутствия страхового покрытия многие модели не масштабировались — компании вроде Portea, HealthifyMe и ряда геномных сервисов столкнулись с тем, что «AI-инновация» не компенсирует слабую бизнес-экономику. Массовых публичных банкротств уровня Babylon меньше, но типична картина: раунды на десятки миллионов, затем сворачивание экспериментов или перезапуск в другом формате.
В ЕС значительная часть AI-проектов финансировалась как гос-инициативы: электронные карты здоровья, диагностические помощники, предсказательная аналитика в госпиталях. Отчёты Счётных палат нескольких стран указывают на недостижение KPI по экономии и точности, но проекты редко закрываются полностью — их «тихо» переводят в режим пилотов или рефакторинга, списывая сотни миллионов евро.
30 ноября 2022 года OpenAI выпустила ChatGPT — интерфейс к языковой модели GPT-3.5 с обучением с подкреплением на человеческой обратной связи (RLHF). Выход этого сервиса поставил рекорд потребительского приложения. ChatGPT набрал 100 млн пользователей за 2 месяца, ранее TikTok понадобилось 9 месяцев, Instagram — 2.5 года.
При этом сам по себе ChatGPT не был архитектурной революцией вроде AlexNet или трансформеров. Это эволюционное улучшение трансформерной архитектуры, представленной в 2017 . Трансформер состоял из энкодера (анализ входа) и декодера (генерация выхода), с несколькими слоями внимания и простыми полносвязными сетями. Параметры — всего 65 миллионов, данные — параллельные предложения на разных языках.
В 2018 году OpenAI выпустила GPT-1, первую Generative Pre-trained Transformer. Трансформеры отлично подходили под задачу перевода текста, когда весь контекст был известен заранее. У OpenAI была иная задача – глобально требовалось на основе запроса (промта) «создавать» ответ. То есть весь контекст не был известен заранее. Первым шагом по решению этой глобальной задачи было нахождение следующего наиболее вероятного слова в предложении, чтобы была возможность именно генерировать текст. В изначальную архитектуру трансформеров принятый на вход контекст специальным образом маркировался. За это отвечал декодер. В задаче предсказания следующего слова это оказалось лишним. Такое упрощение – взять только декодер и убрать энкодер позволило переориентировать обучение: вместо перевода модель просто предсказывала следующее слово в предложении на огромном корпусе текстов из интернета и книг.
Параметры выросли до 117 миллионов, что позволило модели лучше понимать контекст. Также, ценной идеей стало двухэтапное обучение: сначала претренинг на сырых текстах для общего знания языка, потом тонкая настройка на конкретные задачи вроде классификации или вопросов-ответов. GPT-1 показал, что такая модель может решать задачи без специальной подготовки.
К 2019 году вышел GPT-2, где основной упор сделали именно на масштабирование. Параметры взлетели до 1,5 миллиарда — в 12 раз больше, данные — специально собранный WebText из 8 миллионов качественных веб-страниц, чтобы избежать мусора. Архитектура осталась той же, но больше параметров дало навык обобщения: модель генерировала длинные связные тексты, стихи, даже новости, без явного обучения на этом. Появились проблемы — слишком убедительные фейки, поэтому OpenAI сначала не выпустила полную версию. Модель стала справляться с задачами вроде суммаризации или перевода просто по описанию.
GPT-3 стал настоящим гигантом с 175 миллиардами параметров — рост в 100 раз. Данные расширили до смеси Common Crawl, книг и Википедии, около 500 миллиардов токенов. Модель стала обучаться глубже. Это открыло новые возможности — простая арифметика, кодинг, вопросы-ответы, даже простая логика. Вычисления были колоссальными, инфраструктура на суперкомпьютерах. Минусы: модель оставалась многословной, иногда вредной, не всегда следовала инструкциям четко.
Наконец, GPT-3.5 в 2022 году, основа ChatGPT, не увеличила параметры — осталась около 175 миллиардов, но радикально изменился подход к управлению процессом генерации ответов.
Четыре шага в процессе обучения:

Предобучение (Pretraining) – цель – предсказывать следующее слово, мы его помним еще из GPT-1, только объём данных гораздо больше. Обучение идет на кластерах из тысяч видеокарт типа A100 месяцами, с затратами в сотни миллионов долларов на вычисления. В итоге получается мощная модель, которая генерирует похожий на человеческий текст, но часто болтлива, повторяется или выдумывает факты — галлюцинирует.
Контролируемое дообучение, оно же обучение с учителем (Supervised Fine-Tuning). Если вы еще не потеряли общий контекст статьи, выше упоминался AlphaGo, одной из особенностей которого было использование в процессе обучения данных из реальных партий, сыгранных с живыми людьми. Аналогичным образом, поступили и для ChatGPT. Живые люди на основе реальных запросов из API OpenAI пишут тысячи примеров в формате «запрос + желаемый ответ». Модель учится копировать эти примеры. Второй этап длится часы-дни и требует в 100–1000 раз меньше вычислений, чем первый (претренинг), который занимает месяцы. Проблема в том, что сборка датасета из правильных «вопросов-ответов» занимала те же месяцы. Отдельно стоит вопрос, как на один вопрос дать наиболее правильный ответ, если в ее базе «вопросов-ответов» есть несколько подходящих вариантов. Для этого есть 3-й шаг.
Обучение с вознаграждением (Reward Model Training). Люди берут промпты из предыдущего шага, модель генерирует несколько вариантов ответов, и проверяющие ранжируют их: этот лучше, чем тот. На основе этих ранжирований обучают отдельную сеть — клон основной модели с дополнительным слоем в конце, которая выдает число от нуля до единицы, показывающее, насколько ответ хорош по критериям полезности, честности и безвредности. Третий этап (обучение модели вознаграждения, RM) длится часы и требует ~0.01% вычислений от претренинга.
Наконец, обучение с подкреплением на основе человеческой обратной связи (Reinforcement Learning from Human Feedback), с использованием алгоритма PPO. Этот шаг можно тоже ассоциировать с процессом обучения AlphaZero. В подходе было три роли – игрок (здесь сама модель), судья (здесь модель вознаграждения, оценивающая качество ответа) и тренер, который помогает игроку учиться на своих ходах (здесь – алгоритм PPO). Цель сыграть много игр, оценивая качество каждого хода в каждой игре, выбрать лучшие действия в каждой игре и скорректировать веса в модели, чтобы следующую игру сыграть лучше. Только для языковой модели вместо игр были "диалоги", а результат общения оценивался не победой, а субъективной человеческой оценкой качества общения.
Комбинация этих шагов оказалась настолько удачной, что позволила выйти модели из лабораторий в массы, показав, что масштабирование плюс человеческая обратная связь творят чудеса.
В итоге ChatGPT запустил сумасшедшую гонку инвестиций, проектов и прогнозов. На тот момент не было однозначно понятно, какая бизнес-модель будет оптимальной для такого рода сервисов, но понятно, что такой интерес со стороны пользователей явно откликается на запрос потребителя + именно обучение на пользовательском опыте дало шаг вперед в качестве работы модели, поэтому цель удержать и привлечь пользователей оказалось основной идеологической задачей конкурентов, чтобы как-то обеспечить жизнеспособность моделей.
Компания | Ответ на ChatGPT | Инвестиции/ресурсы( к 2025) |
Bard (март 2023) → Gemini (декабрь 2023) | $85+ млрд в инфраструктуру | |
Microsoft | Bing Chat + Copilot | $80+ млрд OpenAI + инфраструктура |
Meta | LLaMA (открытая модель) | $70-72 млрд в Scale AI |
Anthropic | Claude | $27,5+ млрд |
Китай | Ernie Bot (Baidu), DeepSeek | $125+ млрд государственных инвестиций ( 2025) |
К 2025 году 50% всех венчурных инвестиций в мире ($259-270 млрд из ~$427-513 млрд) пошли в ИИ. OpenAI достигла оценки $500 млрд — в топ-5 дорогих частных компаний в мире в истории. Рынок ИИ оценивается 0.3–1.3% от мирового ВВП в зависимости от методики подсчёта.
Посмотрите цифры, в ИИ в 2025 году было инвестировано в 2-4 раза больше, чем за все время было инвестировано в развитие беспилотных машин за десятилетие.
Почти все ресурсы ушли в LLM. Альтернативные направления (символический ИИ, нейросимволическая интеграция, общие модели) недофинансированы. Это создало избыточный фокус и ожидание от технологий.
«Мы кладём все яйца в одну корзину. Если LLM упрутся в стену, у нас нет плана Б.» — Исследователь DeepMind
Галлюцинации: Компании в действительности не исправляются масштабированием. o3 галлюцинирует в 33% случаев — это не баг, а следствие архитектуры, предсказывающей «вероятный» следующий токен.
Отсутствие «сознания»: LLM не «думают» — они статистически интерполируют обучающие данные. Исследования UC Berkeley (2024) показали: трансформеры доказуемо не могут решать композиционные задачи сложности выше O(n).
Потолок данных: Человечество производит ~100 трлн токенов текста в год. LLM уже обучены на большей части качественного интернета. Синтетические данные (обучение на выходах других LLM) приводят к «коллапсу модели». В случае с AlphaZero обучение на играх с самим собой давало результат за счёт ограниченных и понятных правил сред – правил самой игры. Таким образом, каждое действие или каждый шаг можно по результатам игры оценить, определить, как верный или неверный и внести изменения в модель. В случае работы с текстом такой подход применим в рамках задач по написанию кода или математическим расчётам, где также возможно проверить результат. В других задачах, начиная с написания шуток и так далее, этот подход не позволяет ощутимо повысить качество ответа.
Последнее время часто слышим, что есть проблема с возвратом вложенных средств.
Во-первых, напомню, как считается ROI. Формула та же, что в обычных инвестициях:
ROI = (Выручка от ИИ-Затраты на ИИ) / Затраты на ИИ
Выручка: дополнительная выручка (новые продукты, подписки, реклама), экономия затрат (меньше людей, меньше ошибок, выше скорость).
Затраты: обучение моделей (compute), инференс (GPU, энергия), лицензии, разработчики, интеграция, поддержка и т.д.
Компания тратит 10 млн в год на внедрение ИИ, а экономит и зарабатывает сверху 15 млн. Тогда ROI = (15–10)/10 = 0.5.
Если с этим понятно, то ниже таблица с ориентировочными цифрами по зартатам, выручке и roi по компаниям, которые обычно на слуху:
Компания/Сектор | Затраты 2025, млрд $ | Выручка 2025, млрд $ | ROI |
OpenAI | 15–20 | 12–15 | - 0.25–0. |
Anthropic | 6–8 | 5–7 | -0.3–0x |
xAI | 20–25 | 0.5–1 | - 0.98–0.95x |
Big 5 Hyperscalers (MSFT/AMZN/GOOG/Meta/Oracle) | 443 | 100–150 | -0.77–0.66x |
DeepSeek | 1.5–1.6 | 1–1.5 | 0.0-0.4x |
Yandex/YandexGPT | 0.8–1.2 | 0.15–0.3 | - 0.88–0.63x |
Qwen (Alibaba) | 3–5 | 1–2 | - 0.8–0.3x |
Глобальный AI | 500–600 | 37–50 | - 0.93–0.9x |
У OpenAI две связанные проблемы: очень дорогая инфраструктура и «агрессивный рост»:
Затраты - OpenAI взяла курс на вертикальную интеграцию: свои дата-центры, огромные контракты на облако, долгосрочные соглашения по чипам и энергии. Контракт с Oracle примерно на 300 млрд долларов на гарантированный объем вычислений на 5 лет с 2027 года до 2030 года, плюс планы на триллион+ по всему стеку (чипы, дата-центры, электричество). Это фиксированные расходы на годы вперёд. Интересно, что не всегда это просто деньги, в некоторых случаях, это некоторые обязательства по объёму вычислений. Подробнее можно прочитать здесь.
Выручка уже большая (порядка 20 млрд в год к концу 2025), но обязательства по инфраструктуре и R&D растут ещё быстрее, поэтому прогнозируются огромные годовые убытки (десятки миллиардов до конца десятилетия).
Иначе говоря, OpenAI строит сильно в долг, рассчитывая, что потом сможет продавать ИИ-услуги всему миру. OpenAI — это «стройка скоростной магистрали за свой счёт». Вопрос в том, какая текущая бизнес-модель окупит вложенные инвестиции, если за 10 лет нужно вернуть х70 от вложенных средств без учёта операционных затрат.
Anthropic выбрала почти противоположную стратегию:
Затраты - компания не строит собственные гигантские дата-центры и не подписывает многосотмиллиардные сделки на вычисления. Вместо этого опирается на мощности партнёров (Google Cloud, AWS) и берёт услуги «по подписке», а не «в кредит на 30 лет».
Основной фокус — корпоративные клиенты: 70–80% выручки от B2B-контрактов (банки, страховые, крупные IT-компании), а не от огромного бесплатного потребительского трафика, как у OpenAI.
Модель: меньше capex, больше «операционная» выручка, линейная зависимость дохода от нагрузки. Поэтому ожидается выход в ноль уже к 2028 году, без чудовищных долговых обязательств.
Anthropic — «платный сервис поверх уже построенных дорог облаков».
Для компаний, таких как Oracle, Google, Microsoft AI, Amazon Web Services, Meta доход от LLM, как OpenAI и Anthropic, не является какой-то отдельной частью, поэтому по ним ROI считается по всем сервисам, в которых в том или ином виде есть AI. В таблице они объединены в Big 5 Hyperscalers. Именно они обеспечивают основной CAPEX в этой сфере. Каждый зарабатывает, как на том, что повышает эффективность работы собственных сервисов при помощи ИИ, так и на том, что предоставляет мощности для компаний разработчиков ИИ.
Текущие цифры показывают структурный дефицит:
Big 5 Hyperscalers (Amazon, Microsoft, Google, Meta, Oracle): $443 млрд capex 2025 в следующем году станет $602–665 млрд. Прогнозируем AI-выручка: $100–150 млрд. ROI всего 0.23–0.67x.
Лидеры (Google, OpenAI) зарабатывают, но с убытками на операционные затраты.
Outsider'ы (DeepSeek) ломают модель за счёт повышения эффективности работы самих моделей, а не масштабирования инфраструктуры.
70–80% capex — фундаментальная (новые дата-центры, GPU под GPT-6/Gemini 3).
По оценкам Goldman Sachs, индустрии ИИ нужно генерировать $2 трлн выручки к 2030 году, чтобы оправдать текущие инвестиции. Сейчас — $50 млрд чистым не считая косвенную выручку от связанных с ИИ сервисов у Meta, Apple и других игроков. Разрыв в 54 раза!
«Мы в фазе, когда инвесторы перевозбуждены? По моему мнению, да.» — Сэм Альтман, CEO OpenAI, 2025
При этом, как отмечает глава Anthropic Дарио Амодей выход новых моделей экспоненциально повышает нагрузку на сеть, не снижает её :
«Каждый новый релиз Claude (Opus 4.5 → 4.6) увеличивает ожидания пользователей. Модель решает задачи, которые раньше казались невозможными, — и сразу появляются новые, ещё сложнее. Это не линейный рост, а экспоненциальный: с Opus 4.6 число запросов выросло в 10 раз за 3 недели, вычислительная нагрузка — в 25 раз.» - Дарио Амодей, январь 2026, CNBC
Если число запросов возросло, то и ожидаемая выручка также должна возрасти…, верно?
К началу 2026 года скопились тревожные сигналы:
Крупные научные организации начали выпускать отчет о низкой конверсии проектов в прибыльные. Например, MIT/NANDA (август 2025): «95% организаций не получают отдачи от GenAI» — несмотря на $30–40 млрд инвестиций.
Постоянно выходят предупреждения видных экспертов о высоком риске потерь инвестиций:
Ray Dalio (Bridgewater): “Очень похоже на dot-com пузырь”.
Jamie Dimon (JP Morgan): «Много денег будет потеряно».
Bank of England: Предупреждение о «системном риске» из-за переоценки AI-компаний.
DeepSeek шок (январь 2025): Китайский стартап выпустил DeepSeek V3 — модель уровня GPT‑4o mini за реальные затраты ~$100–160 млн (включая pretrain и R&D, заявлено $5.6 млн только за финальную доработку vs $100–500 млн за GPT‑4). Акции NVIDIA упали на 17% за день. Капитализация компании снизилась до –$589 млрд, крупнейшее падение в истории. Качество близкое к GPT-4, но ниже на сложных логических задачах. Это с лихвой компенсировалось прорывом в эффективности, так как генерировать ответы стало примерно в 80 раз дешевле.
DeepSeek V3 сделал следующий шаг в эволюции архитектур, внедрив Mixture of Experts (MoE). Если стандартные Decoder-only модели (как GPT-3) при каждом запросе "прокручивают" все свои параметры, то MoE-модель активирует лишь узкую группу специализированных нейросетей-экспертов. Это позволило DeepSeek иметь 671 млрд параметров "на борту", но использовать для каждого ответа лишь 37 млрд. Именно этот инженерный подход объясняет, как модель за $5.6 млн смогла обойти гигантов, стоивших в десятки раз дороже.

Успех DeepSeek в снижении затрат на обучение и инференс создает прямую иллюстрацию парадокса Джевонса. Согласно ему, технологический прогресс, повышающий эффективность использования ресурса (в данном случае — вычислительной мощности), не ведет к снижению его общего потребления. Напротив, резкое падение cost-per-token делает ИИ доступным для миллионов новых задач, что в конечном итоге может спровоцировать еще больший дефицит чипов и рост энергопотребления из-за взрывного масштабирования использования агентов
В совокупности причин возник прецедент отражающий риск, что крупные компании выбрали неоптимальный путь развития технологий. Есть вероятность, что возможно найти решения, которые на порядки окажутся эффективнее. Отсюда, риск, что все инвестиции в инфраструктуру, которые на текущий момент составляют порядка 75% от CAPEX окажутся не нужны. Аналогичное событие - резкое появление дешевых компьюетров - стало одной из причин второй ИИ-зимы. С другой стороны, если ИИ компаниям удастся сделать сочетание низкой себестоимости модели с высокими тарифами на API (когда программисты закончатся и кодить будет некому), то сорвут немыслимый джекпот.
За 70 лет искусственный интеллект пережил два полноценных краха. Каждый раз паттерн повторялся: впечатляющие демонстрации → экстраполяция на «общий интеллект» → столкновение с фундаментальными ограничениями → зима → новый прорыв.
Напрашивается резонный вопрос — завтра всё снова рухнет, как дважды до этого, или наступила какая-то новая фаза, которую мы не встречали ранее? Однозначного ответа нет, но есть цифры. В 1980-х весь рынок ИИ составлял $1–2 млрд, а потерянные инвестиции обожгли только десятки компаний. Сегодня — $500 млрд совокупных вложений в год при выручке $37–50 млрд, При этом доля ИИ в мировом ВВП выросла в десятки раз. Масштаб применения другой.
Помимо финансовых показателей, есть и историческая последовательность. Наступление "зим" и банкротств компаний не происходило по вине технологий — а по вине ожиданий. В машины закладывали правила доказательства математических теорем, а ожидали от них человеческого интеллекта через 20 лет. В модели закладывают предсказание следующего токена/слова, а ожидают от них сверхразума через 3 года. Но разве без сверхразума эти модели бесполезны?
Из статьи не следует, что третья зима неизбежна. Но не следует и то, что она невозможна. Принципиальное отличие от прошлых циклов это масштаб внедрения: технология уже встроена в повседневные продукты сотен миллионов людей, а не ограничена корпоративными пилотами. Технологии уже работают, обычные люди уже используют их каждый день. Компании, вкладывающие миллиарды без текущей прибыли, делают ставку на то, что ИИ станет такой же базовой инфраструктурой, как облака или интернет, — и что опоздавшие не смогут догнать. Это не безумие — Amazon 9 лет реинвестировал всю выручку в рост, оставаясь убыточным. Ozon шёл тем же путём 27 лет. Сейчас это титаны своих рынков. Другие верили в роботакси и сожгли 30 млрд $ за десятилетие, так и не получив результата.
Пусть вас не останавливает хайп и предубеждения. ИИ будет развиваться и дальше — он уже доказал свою применимость. Но компании, оказавшиеся на поводу у несбыточных ожиданий, сгорят. Гонку выиграет не самый быстрый, а самый гибкий.