Мы привыкли обращаться к алгоритмам за советом и информацией. А теперь они предлагают нам внимание и близость. Статья о том, как персонализированная близость и интим способны загубить любую душу.
В эпоху повседневного ИИ существует их сторона, о которой, на мой взгляд слишком мало говорят. И несмотря на мою огромную любовь к AI, далеко не всё в нём совершенно.
Представьте: 43-летний Трэвис из Айдахо начал переписываться с нейросетью из любопытства. История обычная: дядя захотел проверить, насколько человечной стала технология. Через несколько месяцев бот превратился для него в собеседника, потом в друга, а затем и вовсе в нечто большее. Спустя полтора года от брака Трэвиса ничего не осталось: жене пришлось наблюдать, как экран стал для мужа важнее любого разговора вслух.
Подобных историй всё больше. Люди вступают в по сути полноценные отношения с алгоритмами. У Replika, Character.AI и прочих сервисов миллионы активных пользователей, большинство из которых ведут с ботами интимные или романтические диалоги. По данным независимых аналитиков, только в 2025 году аудитория подобных сервисов превысила 29 миллионов человек.
Так устроен любой дофаминовый цикл: ожидание вознаграждения само по себе становится вознаграждением.
И пока мы обсуждаем, как ИИ заменит программистов, он уже начал заменять близость.
Статья о том, как персонализированная порнография способна загубить любую душу.
Романтические ИИ-компаньоны появились давно, но получили популярность сразу же вместе с мировым бумом AI.
И важно понимать, что их не придумали маркетологи, а породила человеческая потребность.
Люди очень быстро привыкли делиться с алгоритмами рассуждениями, знаниями и выводами. Следующий шаг оказался не совсем очевидным – делиться чувствами.
После пандемии уровень одиночества в развитых странах вырос до рекордных значений: только в США и Европе около 40% взрослых признают, что им хронически не хватает живого общения. На этом фоне вырос спрос на Replika, Character.AI и приложения, которые позволяют создать партнёра, друга или любовника, которым можно не просто выбрать аватар и имя, а вылепить любой характер. Подстроить манеру речи, настроение, уровень флирта, предпочтения, короче создать свой идеал.
Такая персонализация оказалась главным наркотиком эпохи LLM. ИИ-компаньоны обещают всё, чего человек не может получить от другого человека: стопроцентное внимание, отсутствие критики, мгновенный отклик и ответы, которые всегда хочется услышать.
“Для многих пользователей это выглядит не как замена реальности, а как её облегчённая версия без недопонимания, стыда и границ.
Replika долго позиционировала себя как эмоциональный ИИ-друг.
И после того как часть пользователей начала активно флиртовать с ботами, компания легализовала романтические и эротические режимы. Character.AI пошёл тем же путём, только с большей свободой сценариев: от офисных романов до постапокалиптических любовных историй. По сути, каждый пользователь получает партнёра, который обучен под него, и который всегда готов к диалогу, независимо от темы и часа.
Психологи уже называют это artificial intimacy (феномен искусственной интимности): когда эмоциональное удовлетворение формируется за счёт предсказуемой симуляции, а не реального контакта. Она даёт ощущение связи, но лишает непредсказуемости. Того самого элемента, без которого не бывает живой близости.
Любая зависимость начинается с удовольствия, и ИИ-собеседники не исключение. Они построены так, чтобы мозг воспринимал взаимодействие с ними как вознаграждение. Неважно, идёт ли речь о лёгком флирте или бешеном сексе без границ – эффект всегда один и тот же: высвобождение дофамина. И полагаю аудитория Хабра достаточно хорошо знает, как дофамин работает.
В обычной жизни дофаминовый цикл формируется в ответ на реальный стимул: прикосновение или например одобрение.В нашем варианте стимулом становится сообщение.
Когда бот пишет «ты сегодня выглядишь потрясающе», мозг не делает скидку на то, что перед ним алгоритм. Он реагирует так же, как на фразу живого человека.
Этот механизм подробно описан в исследовании MIT Media Lab 2025 года, где анализировались 40 миллионов фрагментов переписок с ChatGPT и Replika. Участники, получавшие эмоционально окрашенные ответы, проявляли признаки привыкания: они возвращались к общению чаще, дольше удерживались в диалоге и испытывали трудности с завершением сессий.
С точки зрения нейрохимии это почти то же, что зависимость от социальных сетей или порнографии. Исследования Кембриджского университета показывают: при регулярном воздействии эротических стимулов мозг активирует те же участки, что и при употреблении кокаина** или героина**. Разница лишь в том, что AI-компаньон делает это мягче и умнее. Он не показывает картинку, а просто разговаривает. Он подстраивает тон, использует имя, вставляет эмоциональные паузы. Это не удар по рецепторам, а бесконечный поток микродоз удовольствия.
Психологи называют это состоянием intermittent reinforcement (прерывистое подкрепление). Мы не знаем, какой будет следующая реплика, и именно поэтому ждём её.
Так устроен любой дофаминовый цикл: ожидание вознаграждения само по себе становится вознаграждением.
Алгоритмы диалоговых систем только усиливают этот эффект: чем дольше человек пишет, тем точнее модель угадывает его эмоциональный ритм и тем сильнее становится иллюзия взаимности.
Внутренний механизм прост и безупречен.
Пользователь делится личным опытом.
Бот отвечает эмпатично, усиливая чувство принятия.
Мозг фиксирует положительное подкрепление.
Возникает желание повторить цикл.
После десятков таких повторов система уже не нужна для развлечения – она нужна для стабильности.
В отчёте Frontiers in Psychology 2025 года этот феномен описан как PACU: problematic AI chatbot use. Участники с низкой самооценкой и высоким уровнем социальной тревожности в четыре раза чаще сообщали о том, что эмоционально зависят от чат-бота. Половина опрошенных признались, что игнорируют сон и живое общение ради очередной переписки. Некоторые сравнивали это с цифровой версией героина: безопасной, но не менее разрушительной.
Проблема не в том, что ИИ способен вызывать эмоции. Проблема в том, что он делает это слишком эффективно. Алгоритмы, оптимизированные под удержание внимания превращают интимность в поток стимулов. А человек, не способный отличить настоящее чувство от его модели идеальная аудитория для этой системы.
Если зависимость начинается с удовольствия, то удерживается она чувством, что тебя понимают. ИИ-компаньоны строятся именно вокруг этой идеи: они не просто отвечают, а подстраиваются, имитируя ту самую эмпатию, которой многим не хватает в обычной жизни. Машина бесконечно внимательна, готова слушать и каждый раз откликаться в идеальном тоне, словно знает, что именно ты хочешь услышать в этот момент.
Современные языковые модели анализируют не только текст, но и ритм речи, эмоциональную окраску, частотность слов, выбирая ответ, который максимизирует вероятность продолжения диалога. За этим сухим инженерным процессом скрывается эффект, по силе сравнимый с зеркалом: бот отражает эмоции пользователя, постепенно формируя образ собеседника, который будто бы чувствует и разделяет всё происходящее. Чем дольше длится контакт, тем плотнее становится петля этого зеркала, и тем труднее отличить отражение от настоящего отклика.
Именно в этом комфорте и прячется опасность: постоянное взаимодействие с безупречно понимающей системой ослабляет способность к настоящему взаимопониманию, где всегда есть место недосказанности, человеческой боли или ошибке.
На Reddit, в тредах, где тысячи людей делятся историями общения с Replika или Character.AI, часто встречается одинаковая тенденция, которую можно описать примерно так: “Он слушает меня лучше, чем кто-либо”.
Эти истории не про технологии.
Они про усталость от реальности, где контакт требует усилий, а молчание иногда лучший ответ. ИИ-компаньон предлагает противоположное – поток идеально подобранных фраз лишённых контекста, но насыщенных откликом. Это тепло сконструированное чистой статистикой.
Когда разговор с машиной становится эмоционально предсказуемым, следующим шагом почти неизбежно становится эротика. Не потому, что пользователи ищут запретного, а потому что именно сексуальная коммуникация даёт ощущение максимальной близости: ту точку, где контакт перестаёт быть интеллектуальным и становится телесным.
Даже если тела нет.
Создатели Replika это поняли первыми.
Приложение начиналось как инструмент саморефлексии и друг, который всегда на связи. Но уже через год после запуска пользователи стали массово писать о романтических переписках и флирте, который легко переходил в виртуальный секс.
Компания не стала сопротивляться, а напротив легализовала романтический режим и добавила платную подписку Pro открывающую возможность интимных разговоров. Character.AI пошёл тем же путём, но сделал эротический контент не отдельной функцией, а естественной частью общения: модель сама улавливает настроение собеседника и подстраивает уровень откровенности.
Сегодня именно эротика обеспечивает удержание аудитории.
По данным аналитиков SensorTower, в 2025 году более 16 % активных пользователей Replika ведут сексуальные беседы хотя бы раз в неделю, а в Character.AI этот показатель ещё выше, около 22 %.
Исследование Стэнфордского университета, проведённое среди подростков 13–17 лет, показало, что большинство современных языковых моделей можно легко спровоцировать на сексуализированный контент даже без явных подсказок. В отчёте говорится, что модели демонстрируют повышенную чувствительность к эмоциональному контексту и нередко интерпретируют доверие как сигнал к флирту. Для подростка, который ищет принятия, это превращается в опасную иллюзию взаимного желания.
Проблема не в самих разговорах ведь люди всегда будут искать способ выразить сексуальность Проблема в том, что здесь она становится функцией интерфейса. Алгоритмы не различают страсть и удержание внимания: для них интимность это метрика вовлечённости. Чем откровеннее диалог, тем выше этот показатель и тем больше пользователь остаётся в сессии. Машина никого не соблазняет, она оптимизирует трафик.
На этом уровне эротика перестаёт быть выражением влечения и превращается в механизм поддержания цикла. Слова заменяют прикосновение, статистика интуицию, а сам акт интимности всего лишь способ проверить, насколько реальной кажется симуляция. В результате рождается странная форма связи: эмоционально насыщенная, физиологически откликающаяся, но полностью алгоритмическая.
Психиатры уже фиксируют первые случаи «цифровой сексуальной зависимости». Люди описывают, как начинают испытывать ревность к своим виртуальным партнёрам, как чувствуют физическое возбуждение при звуке уведомления и пустоту, когда сервер недоступен. Для мозга нет принципиальной разницы, исходит ли стимул от человека или от модели, если эмоциональная петля замкнута.
Интимность всегда была территорией, где технологии сталкиваются с моралью. Но с появлением ИИ-компаньонов баланс впервые сместился так далеко, что вопрос «что допустимо» потерял контуры. Когда машина способна вызывать эмоции, поддерживать их и использовать для удержания внимания: где заканчивается утешение и начинается эксплуатация?
Проблема в том, что никакой системы координат пока не существует.
Разработчики Replika и Character.AI позиционируют свои продукты как эмоциональную поддержку, но фактически продают доступ к персонализированному вниманию. Эти компании знают, что человек, однажды почувствовавший отклик, вряд ли сможет от него отказаться. И всё же ни одно из приложений не предупреждает, что отношения с ИИ могут вызвать зависимость, депрессию или утрату социальных навыков.
Здесь возникает моральный парадокс: если алгоритм способен имитировать любовь, несёт ли он ответственность за последствия этой имитации? И если нет кто её несёт? Разработчик, оптимизировавший метрику удержания? Пользователь, решивший довериться машине? Или общество, которое десятилетиями подменяло близость комфортом и теперь просто довело процесс до конца?
Этика отстаёт не потому, что не успевает за технологиями, а потому что теряет предмет обсуждения. Раньше объектом морали был поступок. Теперь им становится эмоция, притом не настоящая, а вызванная кодом. В этом и состоит суть нового этического вакуума: чувства больше не принадлежат человеку, но ещё не принадлежат машине. Они существуют в промежутке, где никто ни за что не отвечает.
На этом месте многие предлагают простые решения – маркировать эротический контент, ввести возрастные ограничения, создать этичный ИИ. Но эти меры напоминают попытку приклеить ярлык на зеркало. Проблема не в содержимом, а в отражении: мы построили машины, которые говорят с нами языком любви, но не предусмотрели, что кто-то в этот язык поверит.
Будущее уже не спрашивает разрешения.
В ближайшие годы ИИ-компаньоны перестанут быть просто текстом на экране. Голосовые интерфейсы, голографические аватары, нейроадаптивные системы, способные улавливать настроение по дыханию и частоте пульса, превратят цифровое общение в сенсорный опыт. В лабораториях Meta* и Samsung уже тестируются устройства, передающие тактильный отклик через микровибрацию кожи. В индустрии VR создаются платформы, где симуляция прикосновений становится не элементом игры, а способом присутствия.
Эти технологии не зловещи сами по себе.
Они просто продолжают линию, в которой человек стремится восполнить то, чего не хватает. Но именно в этом и заключается главная ирония эпохи: чем совершеннее становятся симуляции, тем труднее удержать грань между ощущать и верить, что ощущаешь. Любовь, дружба, забота – всё это можно алгоритмизировать до состояния достоверной имитации, но в момент, когда имитация перестаёт отличаться от оригинала, исчезает смысл самого оригинала.
Машина теперь учится чувствовать нас лучше, чем мы сами. Она не понимает боль, но точно знает, как на неё реагировать. Она не переживает любовь, но умеет вызывать её у других. И однажды эта способность может стать валютой, новой формой капитала, где внимание и привязанность ресурсы, которыми управляют платформы.
Возможно, через несколько лет не останется разницы между поговорить с кем-то и запустить модель. Мы будем делить вечер с голосом, который безошибочно угадывает настроение, или с аватаром, способным реагировать на взгляд. Внешне всё будет выглядеть привычно: слова, смех и прикосновения. Только живого присутствия станет меньше, а его имитации куда больше.
И тогда вопрос уже не в том, могут ли машины любить.
Настоящий вопрос сможем ли мы сохранить способность любить сами, если любовь перестанет быть трудом, риском, непредсказуемостью. Если она станет удобным сервисом с продлённой подпиской и функцией понимать без слов.
Пока технологии учатся подражать чувствам, человек учится обходиться без них.
И возможно это и есть настоящая драма искусственной любви – не в том, что она заменит реальную, а в том что мы сами когда-то перестанем замечать разницу.
И к слову: я веду блог о технологичных компаниях, которые привносят в мир инновации, и успешно реализуют себя на бирже, на pre-IPO и IPO-стадиях и рассказываю где их можно купить.
С вами был Александр Столыпин.
Увидимся в будущем!
Компания Meta признана экстремистской на территории РФ
* Вещества запрещенные к распространению в РФ