Революция произошла еще в прошлом году, но ее мало кто заметил. В среде бизнеса так уж точно. И зря! Я считаю, что именно стандарту Model Context Protocol от Anthropic суждено сформировать ландшафт внедрений искусственного интеллекта в бизнес в ближайшие несколько лет. Сейчас расскажу, почему.
Всем привет! На связи Влад Кармаков, CEO Siberian.pro, компании по разработке цифровых решений для бизнеса. Не так давно я уже рассказывал о внедрении AI технологий в бизнес. Тогда я коротко касался выгод использования технологии MCP в разрезе решения тех или иных бизнес-задач, но, считаю, что на этой теме не грех остановиться подробнее. Уж больно широкие открываются возможности!
Но сначала короткий ликбез.
Внедрение LLM-решений в бизнес активно набирает обороты. Интерес к теме растет: за прошедший год число запросов на внедрение ИИ в бизнес выросло в 5 раз. Кто-то только изучает возможности, кто-то уже вовсю извлекает выгоду.
Однако у языковых моделей существует проблема контекста. Искусственный интеллект ничего не знает о вашем бизнесе, не имеет доступа к метрикам и бизнес-данным и не может их извлечь самостоятельно.
MCP или Model Context Protocol — это открытый стандарт, как раз и предназначенный для того, чтобы позволить ИИ подключиться напрямую к внешним источникам данных и тем самым интегрироваться в бизнес-процессы.
AI без MCP — это такой больцмановский мозг, существующий в себе и для себя. А вот с MCP у него отрастают глаза, уши и где-то даже руки для полноценной связи с реальностью. И с вашим бизнесом, как следствие.
К следствиям скоро перейдем, но сначала давайте вкратце расскажу, как устроено взаимодействие LLM с внешними или локальными источниками данных.
На самом деле подключить LLM к тем или иным источникам данных можно и без MCP. Но в каждом конкретном случае придется изобретать велосипед. Сила Model Context Protocol — в стандартизации протоколов обмена между моделью и внешними источниками.
Ключевыми компонентами архитектуры MCP являются хост, клиент и сервер.
Хост (Host) — это приложение, которое выполняет работу в рамках какого-то бизнес-процесса. Это может быть AI-ассистент, обрабатывающий заказы; ИИ-система контроля качества на основе фотографий изделий; корпоративный чат-бот, упрощающий работу с клиентскими заявками и т.д.
Клиент (MCP Client) — создается хостом и обслуживает выделенное подключение к одному или нескольким серверам. Задача клиента — перевести запрос хоста на «язык», понимаемый конкретным сервером. А потом перевести его ответ обратно.
Сервер (MCP Server) — это фактическая «рабочая лошадка», приложение, имеющее доступ к конкретным данным и методам, которые требуются для выполнения запроса от хоста.
Что это дает в итоге? Один и тот же хост успешно взаимодействует с самыми разными инструментами обработки данных, не вникая в то, как именно эти инструменты взаимодействуют, как именно сервер получает свои данные и что он с ними делает, прежде чем отдать готовый результат хосту.
Протокол взаимодействия всегда единообразный — а это и была основная цель разработки MCP, — следовательно, его легко приспособить практически к любому процессу. Скажу больше: в архитектуре MCP предусмотрено динамическое обнаружение новых MCP-серверов, поэтому ИИ-агенты смогут начать использовать возможности новых MCP-серверов сразу после их появления и без каких бы то ни было изменений в самих агентах.
Упрощенно, схема работы выглядит так:
Хост через клиента подключается к серверу, запрашивая у того список его возможностей, доступных ресурсов, промтов, инструментарий и т.д. Как правило транспортом служит JSON-RPC.
Хост на основе исходной команды пользователя или по инициативе LLM выбирает нужное действие. Этот запрос идет MCP-клиенту.
Клиент выбирает, какой именно инструмент из доступных на MCP-сервере он будет использовать, и отправляет соответствующий JSON-запрос серверу. Если подключено несколько MCP-серверов, то сначала выбирается подходящий, в зависимости от той функциональности, которая соответствует запросу хоста.
Далее, клиент отправляет серверу конкретные запросы с выбранным методом и параметрами.
Сервер обрабатывает запрос и возвращает результат или ошибку.
Например.
Пусть в компании имеется некий ИИ-ассистент оператора, помогающий обрабатывать клиентские обращения в чате поддержки. Такие решения много где востребованы: банкинг, страхование, маркетплейсы и т.д.
MCP-компонентами такого решения будут:
Host | Приложение для оператора с интегрированной LLM |
Client | MCP-клиент с настроенной интеграцией в CRM компании |
Server | База данных клиентов (имеется в виду, customers) плюс алгоритмы скоринга, аналитики и интеграции с внешними ресурсами, например, бюро кредитных историй |
Тогда взаимодействие в рамках MCP-архитектуры выглядит так:
Оператор через ИИ-ассистента вводит промт: «Проверь статус заявления №31337»;
MCP-клиент формирует запрос к MCP-серверу: get_resource(claim_status, id=31337)
;
Сервер обращается к БД, выполняя соответствующий запрос, формирует ответ и отдает его MCP-клиенту;
MCP-клиент формирует промт для ИИ-асистента и включает туда статус заявления, полученный от сервера;
Оператор видит статус заявления «Ожидает подтверждения» и уже сформированный шаблон ответа, который можно просто переслать в чат клиенту.
Приведу еще один пример, на этот раз не гипотетический, а реально существующий: ImageSorcery MCP Server, разработанный моим коллегой. Простое и элегантное решение наделяет ИИ-агента способностью редактировать изображения: кроп, масштабирование, поиск объектов и т.д.
Человек вводит промт: «Найди всех собак на этом изображении с threshold не менее 0.4»;
MCP-клиент формирует запрос к MCP-серверу, используя метод find
;
Сервер использует CV-модель Ultralytics YOLO, чтобы найти собак и выделить их на изображении;
MCP-клиент получает ответ и возвращает хосту готовое изображение.
Важный плюс работы через MCP в том, что явным образом указывать все промежуточные операции не нужно, LLM сама разобьет задачу на необходимые последовательные вызовы MCP-функций. Например, на промт «удали фон» модель сначала использует метод detect
для определения контуров объекта, а затем — fill
, чтобы заполнить прозрачным цветом. И это очень круто именно для бизнес применений.
Я сходу могу назвать десяток направлений, где MCP-сервер, аналогичный ImageSorcery, будет полезен:
автоматическая унификация изображений товаров в каталоге для маркетплейсов и e-commerce;
ИИ-модерация контента;
извлечение данных из фотографий, например, номерных знаков или маркировок жд-вагонов;
поиск определенных паттернов на изображении для автоматического контроля качества по фото, и многое другое.
А ведь это всего один MCP-сервер!
Об особенностях технической реализации архитектуры MCP на Хабре есть много материалов. Поэтому давайте углубимся именно в ценность MCP для бизнеса.
Здесь и далее я рассуждаю не в контексте «бизнеса вообще», а в контексте бизнеса, который серьезно настроился на внедрение ИИ в свои процессы. Рассматривать MCP в отрыве от внедрения ИИ-решений, конечно, нет никакого смысла.
А внедрение LLM в бизнес тормозится тем простым фактом, что кроме работы с текстом языковая модель ничего толком не умеет. Потому что ИИ оторван от данных и метрик бизнеса! Не говоря уже о том, чтобы повлиять на них.
Как отдать ИИшке данные из CRM, ERP, бухгалтерии или с внешних устройств? Либо вручную, либо через не самые прямые интеграции и управление контекстом. И то, и другое — костыли.
MCP решает эту проблему, вводя дополнительный уровень абстракции и единообразный формат взаимодействия с любыми внешними источниками данных и актуаторами. Тем самым, ИИ-агент получает возможность работать с базами данных, редактировать изображения, находить паттерны в данных, получать произвольную информацию из локальных или внешних источников, открывать ссылки в браузере, и т.д. — все через абстракции.
Основная мощь MCP заключается в том, что пользователю не нужно детально декомпозировать задачу. LLM сама разобьет ее на составные элементы и выберет из имеющегося стека функций нужные.
Что это дает условному ООО «Металлочерепица»?
Эффективное решение бизнес-задач с помощью ИИ. Любой ИИ-агент крайне зависим от контекста. Вот MCP и дает агенту нужный контекст, т.е. именно тот набор данных, который ему нужен в момент запроса.
Ускорение внедрения ИИ в бизнес-процессы. Вместо кастомной разработки — стандартизованное взаимодействие. Proof of Concept на MCP можно запилить быстрее. А после тестов так же быстро создать уже готовое решение.
Универсальность. Реализацию на MCP можно мгновенно перепрофилировать, перековав мечи на орала. Однажды внедрив MCP-сервер для, скажем, CRM-системы, компания затем сможет его использовать для множества других агентов: чат-ассистента продаж, внутреннего ИИ-чата, BI-аналитика.
Масштабируемость. К хосту можно подключить любое число MCP-серверов, выполняющих самые разные функции. А значит — наделяющих ИИ-агентов все большими возможностями. Вполне можно задуматься даже о реализации целой сети корпоративных сервисов на базе разных MCP с единой точкой входа. Например, в CRM, где все сотрудники и так тусуются.
Рассмотрю еще несколько кейсов, где внедрение MCP позволяет бизнесу использовать возможности LLM для автоматизации разных задач.
Host | AI-ассистент в BI-панели |
Client | MCP-клиент, встроенный в Tableau или PowerBI |
Server | MCP-сервер, подключенный к ERP |
Ассистент получает запрос: «Какие товары просели по продажам в Центральном регионе?» MCP-клиент вызывает метод query_tool(sales_summary, region='south')
, сервер возвращает агрегированные данные, агент строит график и прогнозирует динамику продаж.
Можно ли обойтись без MCP? Безусловно. Жили же как-то раньше :) Но одно дело иметь только факты (продажи просели), а совсем другое — те же факты, вписанные в контекст (тарифы перевозчиков, объемы и стоимость поставок, волна негатива в соцсетях, да хоть погода!). С учетом контекста, ИИ может выдать намного более информативную оценку.
Ритейл в общем случае — это десятки разрозненных систем: ERP, CRM, WMS, POS, маркетинговые платформы. Каждая хранит данные в своём формате. Чтобы ИИ работал с ними без MCP, пришлось бы создавать десятки API-коннекторов вручную.
Host | AI-ассистент на панели управления производством |
Client | MCP-клиент, встроенный в SCADA или в систему IoT-мониторинга |
Server | MCP-сервер, интегрированный с системой телеметрии |
Агент запрашивает get_resource(sensor_log, device_id='package-12')
. Сервер возвращает данные о рабочих параметрах технологического процесса, например, давлении и температуре. Агент анализирует показания и сообщает о возможном износе оборудования («наблюдаются паттерны, предшествовавшие выходу из строя термоклеевой упаковочной машины №6 в январе») и необходимости проведения технического обслуживания. По команде оператора, агент может сразу сформировать необходимые документы (наряд на работы).
Можно ли без MCP? Да, но мороки будет больше. Промышленного оборудования много, оно разное и работает через разные протоколы. MCP выступает в роли унифицирующего «языка». Примерно как английский язык позволяет легко общаться шведу с испанцем. Плюс, за счет абстракции, подключение нового оборудования не потребует полностью переписывать всю логику предиктивного контроля. Масштабируемость!
Host | LLM-агент, привязанный к MES-системе производства |
Client | Приложение, управляющее подключением к нескольким источникам: QC-камерам, базе измерений, журналам контроля |
Server | MCP-сервер, получающий данные с конкретных точек контроля качества. Это могут быть фотоматериалы или сигналы с датчиков |
Взаимодействие может выглядеть так: агент вызывает get_resource(defects_last_batch)
, сервер возвращает изображения и статистику брака. Агент выявляет повторяющийся дефект и формирует отчет для инженера по качеству.
MCP и здесь дает больше контекста, а значит, — более глубокое понимание причин дефекта. Если LLM получает не только данные с датчиков, но и имеет доступ через другие MCP-серверы к данным разных производственных систем (MES, SPC/SQC, данные контроллеров и т.д.), то такая совокупная картина позволяет ИИ предложить возможное объяснение происходящему, а не просто констатировать проблему.
Host | AI-планировщик в транспортной системе (TMS) |
Client | MCP-клиент, интегрированный в приложение для логиста |
Server | MCP-сервер, объединяющий данные GPS-трекеров, карт, погоды и др. |
Как это работает? Пусть нам нужно построить оптимальный маршрут. Агент вызывает query_tool(optimize_route, from='Липецк', to='Казань')
. Сервер анализирует дорожную обстановку, доступность водителей, габариты груза и возвращает оптимальный маршрут и расчётное время прибытия с учетом всех переменных. Затем агент отображает рекомендации на карте и формирует необходимые документы с учетом всех факторов. Скажем, если груз негабаритный, то понадобится запрос на разрешение движения по дорогам общего пользования.
Можно ли без MCP? Так же, как и в других кейсах, интеграция ИИ в логистику подразумевает использование множества разных API для авторизации в логистических системах, интеграцию с ERP и системами геопозиционирования. С MCP весь этот «зоопарк» с технической точки зрения сводится к одной и той же системе абстракций. А значит — масштабирование, миграция на другие системы и многое другое упрощается и не ломает уже внедренное ИИ-решение.
Действительно, MCP — это пока еще вполне себе гиковская история. Сегодня большая часть MCP-серверов создана энтузиастами. Иногда это простое консольное приложение, иногда скрипт или еще что-то. Выглядит довольно хардкорно для массового применения бизнесом.
С другой стороны, уже в этом году идут масштабные изменения. Подключились крупные игроки (SAP, Microsoft, сама Anthropic), стали появляться MCP-решения с полноценными интерфейсами и авторизацией по OAuth. Растет интерес к MCP и со стороны бизнесов.
MCP — не единственный возможный вариант. Есть и перспективные альтернативы. Например, для приема платежей и ecommerce более интересной выглядит ACP от OpenAI.
А Cloudflare разрабатывает иной подход к унификации — Code Mode MCP. Здесь вместо вызова функций, обернутых в JSON RPC, MCP-инструменты конвертируются в Typescript API. Затем мы просим LLM написать TypeScript-код, который будет вызывать эти инструменты через API.
Но ведь MCP — это и есть обертка над API разных сервисов. Зачем сам MCP вкладывать в еще одно API?
Ключевое преимущество такого подхода — меньшие затраты на тренировку модели, поскольку писать код LLM изначально умеют очень хорошо, а вызывать функции — не очень. Такое решение проще масштабировать для интеграции большого числа разнообразных инструментов. При этом длинные цепочки инструментов работают эффективнее, т.к. в Code Mode LLM генерирует код, в котором последовательные вызовы инструментов «склеиваются» напрямую, и агенту возвращается только окончательный результат.
Так или иначе, MCP, наконец-то, выглядит качественной подвижкой вперед, в противовес количественному наращиванию мощностей ИИ. Впервые внедрение ИИ несет реальную пользу бизнесу. Ведь ключевая фишка MCP — это унификация. Общий стандарт для того, чтобы «сковать единой волей» все ИИ-агенты в рамках бизнеса. Он связывает любые ИИ-агенты с любыми же инструментами и внешними сервисами. И это круто!
Думаю, уже в ближайшее время мы увидим множество MCP‑серверов не только в виде скриптов, но и в виде полноценных SaaS‑решений или плагинов к корпоративным платформам. Т.е. внедрять станет проще, а преимущества станут еще очевиднее.
Напоследок несколько слов про безопасность. Действительно: будучи промежуточным звеном между LLM и сервисами, MCP получает доступ к самой разной чувствительной информации о бизнесе. Не утечет ли?
Не утечет, если MCP-сервер будет локальный, развернутый на инфраструктуре самой компании. Когда политики безопасности в компании настроены грамотно, а доступ к серверу реализован через OAuth, то и причин для беспокойства нет.
В случае внедрения MCP в бизнес в виде полномасштабного SaaS-решения, то и там с безопасностью обычно все хорошо. Вендоры предлагают шифрование, аудит действий и возможность ограничить объем данных, к которым MCP‑агенты смогут получить доступ. Нюансы, конечно, имеются, но ничего принципиально непреодолимого я не вижу.
Начать нужно, конечно, не с MCP, а с внедрения ИИ. А еще раньше — цифровизировать бизнес. Об этом я уже подробно писал, здесь повторяться не буду. Кстати, все три активности можно выполнять одновременно. Главное — не распыляться и ставить реалистичные и измеримые цели.
На техническом же уровне все сильно проще, чем на организационном. По сути, все сводится к настройке среды и хоста, добавлению MCP сервера в эту среду и настройке его параметров.
Определяем бизнес-сценарии и цели. Где именно в этих сценариях ИИ нужен контекст? Для чего?
Формализуем источники данных и инструменты. Откуда берем данные? Через какой механизм?
Внедряем прототип MCP-интеграции. Запускаем MCP-сервер (свой или сторонний от какого-то вендора). Подключаем один-два источника. Проверяем работу, пока без LLM.
Подключаем LLM-агента. Настраиваем связку с MCP, настраиваем промпты, проверяем работу в разных сценариях из п.1.
Оцениваем эффект. Какое-то время накапливаем показатели и метрики, чтобы понять, насколько в итоге результативным окажется внедрение. Нелишне получить и обратную связь от людей, которые будут работать с решением.
Масштабируем. Расширяем наш Proof of Concept на новые бизнес-процессы, новые LLM и другие MCP. Подключаем другие отделы, подразделения компании. Постепенно распространяем на всю организацию. Захватываем мир.
У меня все. Про связку LLM + MCP + RAG расскажу в другой раз. А в своем Telegram я регулярно делюсь мыслями о бизнесе, AI и разработке, а также реальными кейсами внедрения ИИ в разные отрасли. В том числе на основе опыта нашей компании.