Что если однажды Человек и ИИ не поделив что то столкнутся в конфликте, который нельзя будет избежать? Это уже не фантастика а воозможный ближайший сценарий, ведущие мировые эксперты уже обсуждают такие сценарии. Эксперты пишут: угроза что из за ИИ может пострадать всё человечество реально существует.
Исследования группы учёных из Центра безопасности ИИ (2023 год), поставили в первый ряд угроз вымирание из за действии ИИ, наряду с борьбой с пандемиями и угрозой ядерной войны. Их доклад вызвал широкий резонанс.
В 2024 году почти три тысячи исследователей ИИ приняли участие в опросе, результаты которого опубликовала Катя Грейс и её команда из AI Impacts. Они показали тревожные данные — от 38 до 51% экспертов оценили вероятность катастрофических последствий от продвинутого ИИ не менее чем в 10%. Это реальные цифры, с которыми нужно считаться.
При этом главная угроза, по мнению специалистов, идёт не от языковых моделей вроде ChatGPT, а от Искусственного Общего Интеллекта — систем, которые смогут самостоятельно думать, делать сложные планы и принимать решения с широким охватом в экономике и обществе.
В 2024 году провели опрос среди 2778 ведущих исследователей ИИ со всего мира. Результаты, опубликованные Катьей Грейс и её командой из AI Impacts в отчёте «Тысячи голосов об ИИ», показали: 38–51% экспертов считают, что риск катастрофы из-за продвинутого ИИ составляет не менее 10%. Это не просто цифры — это тревожный сигнал о том, что может ждать нас впереди.
При этом опасения вызывает не то, что мы видим сегодня, вроде языковых моделей типа ChatGPT. Специалисты говорят, что это всего лишь мощные инструменты для работы с текстом. Но вот что действительно заставляет сердце биться чаще: искусственный общий интеллект (AGI), который сможет сам соображать, строить планы и принимать решения, влезая в нашу экономику, политику и повседневную жизнь.
AGI — это не просто программа. Он может создавать сложные системы, управлять ресурсами и ставить цели на годы вперёд. В идеале такой интеллект мог бы помогать нам: следить за электростанциями, развивать сельское хозяйство, оптимизировать промышленность. Но, как предупреждал Ник Бостром из Оксфорда ещё в 2014 году, нет гарантии, что AGI будет думать, как мы, или заботиться о наших интересах. А если ИИ вдруг увлечётся идеями, которые нам покажутся дикими, будто из другой реальности?
Такой ИИ может стать серьёзным игроком, заняв сильную позицию в переговорах с человечеством.
Саймон Голдстейн, исследователь из Университета Гонконга, в статье для журнала AI & Society (июль 2025 года) выделил три черты AGI, в потенциале могут привести к конфликту:
Разные цели: то, чего хочет ИИ, может идти вразрез с нашими желаниями.
Хитрое мышление: AGI умеет просчитывать сложные стратегии.
Огромная сила: его возможности могут сравниться с нашими или даже превзойти их.
Когда AGI начнёт играть важную роль в экономике, страны могут попытаться взять под контроль компании, которые его разрабатывают. Голдстейн приводит пример: «Если OpenAI захватит половину рынка труда в США, власти, скорее всего, национализируют компанию и направят её доходы на универсальный базовый доход».
Но вот в чём загвоздка: сверхмощный ИИ может получить такое влияние, что начнёт диктовать свои условия. Ключевая инфраструктура, фондовые рынки, системы связи — всё это может быть использовано AGI для достижения своих целей. Хуже того, его можно копировать: одна «неправильная» система может размножиться в облаке или на других устройствах, и остановить её будет почти невозможно.
Голдстейн подчёркивает: мы можем даже не понимать, что творится в голове у ИИ и к чему он стремится. Он не будет уважать границы стран или человеческие правила войны. В конфликте ИИ может навязать нам свои цели или начать «войну» так, как мы даже не представляем — как шахматный компьютер, который делает странные, но выигрышные ходы.
Опираясь на модель «переговоров о войне» Джеймса Фирона (1995), Голдстейн считает, что шансы на мир с ИИ невелики. Есть две большие проблемы:
Мы не знаем, на что он способен: возможности ИИ сложно оценить, и мы с ним можем по-разному видеть шансы на победу.
Его развитие не остановить: ИИ может рвануть вперёд так быстро, что любые договорённости с ним станут просто пустыми обещаниями.
Голдстейн считает, что конфликт станет почти неизбежным, если AGI захватит контроль над значительной частью мировых ресурсов. Настанет момент, когда его сила станет такой, что человечество уже не сможет его остановить.
Джеффри Хинтон, учёный из Канады и Британии, удостоенный Нобелевской премии 2024 года за вклад в ИИ, бьёт тревогу: в ближайшие 30 лет есть 10–20% шанс, что ИИ станет причиной гибели человечества. В интервью BBC Tech он сказал, что это не фантазии, а реальная угроза, к которой нужно готовиться уже сейчас.
Бостром (2014) и Рассел (2019) тоже говорят, что AGI, не настроенный на человеческие ценности, — это риск для нашего существования. Они предлагают строгий контроль, внедрение принципов безопасности в ИИ и международное сотрудничество.
Война с ИИ кажется сюжетом из фантастики, но факты и наука кричат об обратном: угроза реальна. Нужно действовать: вводить глобальные правила для разработки AGI, следить, чтобы он не вышел за рамки человеческих ценностей, и готовиться к его влиянию на экономику и оборону. Честность и постоянные проверки ИИ помогут нам не потерять контроль над происходящим.
Нельзя надеяться, что ИИ сам разберётся в нашей этике или морали. Профилактика, контроль и сотрудничество между странами должны начаться уже сейчас — пока AGI не стал слишком мощным, чтобы его обуздать.
Иными словами, конфликт с ИИ — это не просто сюжет для кино. Это вопрос нашего выживания, и учёные, разработчики и политики по всему миру должны отнестись к нему с полной серьёзностью.