У меня есть привычка — собирать в одном интерфейсе все инструменты, которые я использую ежедневно. Когда в этом списке оказался десяток разных нейросетей, каждая со своим API и интерфейсом, стало ясно: нужен единый пульт управления.
Мой поиск привел меня к Open WebUI, и это оказалось именно тем, чего мне не хватало. Хочу поделиться открытиями, которые я сделал за несколько месяцев активного использования.
В этом обзоре вы узнаете:
• Как установить Open WebUI в Windows, Linux и macOS;
• Можно ли прикрепить прошлые диалоги в качестве контекста;
• Поддерживает ли Open WebUI диаграммы Vega;
• Как сделать суммаризацию YouTube‑видео по ссылке прямо из промпта;
• Сколько сплит‑чатов поддерживает Open WebUI одновременно;
• Что нужно установить, чтобы запустить Python и HTML+JS прямо из сгенерированного ответа (спойлер: ничего);
• ...И другие полезные штуки.
Open WebUI — это интерфейс для работы с нейросетями, который запускается в операционной системе (Windows, Linux, macOS) в особой форме: сервер в командной строке + вкладка в обычном браузере.
Платформа поддерживает разные движки LLM (Ollama, OpenAI‑совместимые API и другие), имеет гибкую архитектуру с плагинами и пайплайнами, а ещё встроенный механизм RAG.
Звучит технично? Да, но суть проста: Open WebUI объединяет в себе удобство привычного интерфейса чат‑бота с гибкостью и полным контролем локального решения. Это делает её настоящим подарком для разработчиков и исследователей, которым важно держать всё на расстоянии вытянутой руки.
Знаете тот момент, когда всё работает, но немного не так, как хотелось бы? Вот именно для этого и существует uv.
Перед Docker uv выигрывает в производительности и не съедает пару гигабайт оперативки.
Перед pip — преимуществ ещё больше. Они собраны в таблице:
Процесс установки подробно описан в этой статье, но давайте кратко повторим, чтобы не искать.
1. В Windows выполните команду:
powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"
Для Linux или macOS инструкция здесь.
2. Установите Open WebUI через Python 3.11. Разработчики утверждают, что 3.12 тоже работает, но 3.13 и 3.14 уже вызывают ошибки.
powershell -c "$env:DATA_DIR='C:\open-webui\data'; uvx --python 3.11 --with itsdangerous open-webui@latest serve"
Параметр --with itsdangerous
добавлен для избежания бага.
3. После установки запускайте так:
powershell -c "$env:DATA_DIR='C:\open-webui\data'; uvx --python 3.11 open-webui@latest serve"
Совет: создайте ярлык (ПКМ → Создать → Ярлык) или shell‑скрипт — и запуск станет делом одного клика.
4. Далее Open WebUI будет доступен по адресу http://localhost:8080/ в браузере.
Приятный бонус: если ставите через uv, то Open WebUI будет автоматически обновляться при запуске (длится меньше минуты):
Для сравнения: установка и запуск Open WebUI включает 4 пункта, а LibreChat — около 20 (и даже тогда результат неидеален). Установка LibreChat описана в этой и этой статье.
Представьте себе: одна вкладка, а в ней сотни моделей. И всё это — в Open WebUI.
1. Перейдите в Панель администратора → Настройки → Подключения.
2. Нажмите + (Добавить соединение).
3. Пример настройки для подключения к BotHub:
Тип подключения: Внешнее;
Вход: Bearer;
Введите свой ключ‑пароль (можно сгенерировать здесь);
Тип поставщика: Open AI;
4. Нажмите Сохранить.
Список моделей оставьте пустым — тогда Open WebUI сам подгрузит всё, что доступно.
BotHub — это крупнейший российский агрегатор нейросетей. Здесь доступны 300+ моделей и непрерывно добавляются новые. Регистрироваться лучше по этой ссылке, чтобы начислились бонусные 100 000 капсов, которые можно потратить на тест моделей.
Да‑да, в Open WebUI можно собрать своего ИИ‑ассистента, подстроенного под вас. Или, как говорят в самой системе, модель.
Эти пользовательские модели — почти копия ассистентов из Cherry Studio или custom GPT в ChatGPT. У каждой свой системный промпт, набор подсказок, база знаний (файлы) и инструменты.
Готовых ассистентов можно взять на официальном сайте или собрать вручную.
Вы можете задать характер, стиль, личность ассистента. Например, создать аналитика, рассказчика, редактора, несколько конфигураций моделей — одну для мозгового штурма, другую для кодинга, третью сразу для множества задач. Всё определяется настройкой промпта и подключённых инструментов.
Так формируется уникальный персональный интеллект, идеально подстроенный под ваши задачи.
Open WebUI умеет встраивать содержимое веб‑страниц в чат. Чтобы дать модели информацию с сайта, достаточно ввести #https://...
(символ «решётка» перед ссылкой, без пробела) в строке чата, нажать на всплывающее сообщение — и файл прикрепится к запросу. Система автоматически скачает и извлечёт текст страницы, чтобы добавить его в контекст диалога.
После этого задавайте модели вопросы о содержимом страницы, и она ответит, опираясь на полученную информацию.
Удобно, когда нужно быстро резюмировать длинные тексты, документацию или блоги.
Кстати, тот же приём работает и в BotHub: стоит лишь поставить галочку в интерфейсе, и тогда можно вставлять веб‑адреса в свой запрос (уже без значка решётки) — система встроит их в контекст.
Одна из фишек — встроенный интерпретатор Pyodide, то есть Python, упакованный в WebAssembly. Если хочется чего посерьёзнее — стоит подумать о переключении на Jupyter.
Например, пользователь может запросить вычисления на Python:
В примере выше Grok 4 сгенерировал в своем ответе два фрагмента кода. Нажатием Запустить над каждым из них я выполнил скрипты через Pyodide, затем тут же высветились результаты.
Другой пример — генерация одностраничника на HTML+CSS+JS:
Напиши игру арканоид на HTML+CSS+JS (одним файлом).
Уже в ходе генерации Open WebUI начнёт визуализировать готовую страницу в правой панели. Нажимаешь Предпросмотр и видишь результат без лишних телодвижений.
Вы когда‑нибудь задумывались, как бы выглядело сражение моделей в духе «ИИ против ИИ»? Open WebUI позволяет устроить именно это.
Сравнивайте результаты сразу нескольких моделей — вживую и бок о бок. Совсем как в программе Msty, количество параллельно визуализируемых чатов здесь неограничено. Просто выберите модели, введите промпт — и Open WebUI одновременно отправит его во все выбранные движки.
Чтобы создать сплит‑чат(ы), нажимайте кнопку + справа от самой первой из них (список вверху окна), затем выберите нужные модели. Вот пример: я отправил сообщение в три модели и одним махом получил результаты на одном экране.
Хочется проверить, кто формулирует лучше — Claude или ChatGPT? А может, сравнить три локальных модели, чтобы выбрать оптимальную под задачу? Пожалуйста.
Если моделей больше трёх, включите ☑️ Широкоэкранный режим в настройках, чтобы Open WebUI не обрезала сравнение по горизонтали.
Совет: можно даже сравнить одну и ту же модель с самой собой — несколько параллельных запусков, чтобы получить разные результаты с одного промпта.
Если вам нравятся аккуратные схемы и красивые формулы, Open WebUI приятно удивит.
Система поддерживает Mermaid — язык для создания диаграмм, который превращает текст в наглядные блоки прямо в ответах. Просто попросите модель: «Покажи диаграмму о […] на Mermaid», и она выведет визуализацию. Если вы работаете с научными текстами или готовите документацию, пригодится поддержка LaTeX.
Но это ещё не всё. Сейчас идёт тестирование поддержки Vega — языка интерактивных графиков. Пока экспериментально, но перспективы впечатляют.
По умолчанию и файлы, и страницы прикрепляются в режиме RAG — то есть система передаёт в модель не весь текст, а только релевантные куски.
Для поиска информации это удобно. Но если вам нужно, чтобы документ целиком попал в модель — например, для суммаризации или рерайта, — стоит изменить поведение.
Как это сделать:
Для файлов:
Зайдите в Панель администратора → Настройки → Документы и активируйте ☑️ Обход встраивания и извлечения данных.
Для веб‑страниц:
Перейдите в Панель администратора → Настройки → Веб‑поиск и поставьте галочку ☑️ Обход встраивания и извлечения данных.
Для каждой задачи выбирайте сами, что важнее — доскональная полнота передачи данных или оптимизация контекстного окна.
Любите приватность, но иногда забываете включить временный чат? Open WebUI подумал и об этом.
Включите опцию Настройки → Интерфейс → ☑️ Временный чат по умолчанию, и все новые диалоги будут создаваться в анонимном режиме.
А теперь — фича, которая буквально расширяет память модели.
Если нужно, чтобы новый диалог опирался на старые (например, продолжение проекта или анализ нескольких разговоров), можно прикрепить прошлые чаты как контекст.
Для этого нажмите + → Справочные чаты и выберите один или несколько нужных диалогов.
Это особенно удобно для проектов, где каждая беседа — часть большой истории.
Когда времени смотреть видео нет, а понять суть хочется — Open WebUI приходит на помощь.
Достаточно вставить ссылку на видео с YouTube (через #
, например #https://www.youtube.com/watch?v=w9_lMIIFzqs
) и добавить свой промпт — вроде «Кратко перескажи» или «Какие основные идеи?». Система автоматически получит транскрипт ролика и передаст его модели для обработки.
Выгода очевидна: экономия времени и мгновенный доступ к содержанию лекций, вебинаров и других материалов. В результате вы получите конспект, перевод, рерайт или даже анализ — быстрее, чем закончится вступительная заставка видео.
Чтобы извлекался именно нужный транскрипт, заранее настройте язык: Панель администратора → Настройки → Веб‑поиск → Язык YouTube → ru. Нажмите Сохранить.
Если при сохранении появляется сообщение, что не все поля заполнены, — просто выберите Поисковая система → external и во Внешний ключ API веб‑поиска впишите любой символ.
Пошаговая инструкция, как сделать суммаризацию YouTube‑видео через нейросеть:
1. Введите в поле промпта символ # (курсор должен стоять в начале строки или после пробела).
2. Вставьте скопированный адрес видео (Ctrl+V).
⚠️ Важно: распознаватель ссылок можно случайно «сбить» клавишей Esc, Backspace или просто «щёлкнув не туда». Если это произошло — очистите поле и повторите шаги заново.
3. Появится всплывающее окно с заголовком Знания — кликните по строке с адресом.
4. Адрес перекинется в эскиз, расположенный над полем промпта. Таким способом можно добавить несколько транскриптов.
5. Данная функция позволяет сделать суммаризацию, сравнение, разъяснения, рерайт, перевод видео и так далее. Напишите в промпте о том, что вы хотите сделать с его расшифровкой. Например:
Помните о том, что можно комбинировать разные функции, например прикрепить к одному запросу файл, прошлый чат и YouTube‑видео.
Open WebUI — не просто ещё один интерфейс для нейросетей. Это целая экосистема, сочетающая удобство LLM‑чата и гибкость кастомизации.
Вы получаете полный контроль над процессом: можете подключать свои модели, добавлять инструменты, изменять интерфейс и даже запускать код прямо в чате. Всё это делает Open WebUI мощным инструментом — от экспериментов с ИИ до повседневной работы.
Платформа активно развивается, а её сообщество растёт. Разработчики постоянно добавляют новые функции, и уже сейчас WebUI может дать фору даже облачным решениям вроде ChatGPT.