llama3&open-webuiБыстро внедрить построение локальной модели
llama3&open-webuiБыстро внедрить построение локальной модели

Предисловие

В последнее время в работе и жизни часто используют искусственный интеллект для повышения эффективности. Самое полезное — написать некоторые инструменты. Даже если написание неудовлетворительное, его можно быстро поддержать небольшой корректировкой и некоторыми командами, иногда они есть. будут забыты, если они не будут использоваться в течение длительного времени. Иногда кажется, что очень эффективно иметь модель искусственного интеллекта для предоставления подсказок;

Подготовка

Собственные параметры

Параметры беговой машины
Параметры беговой машины

оллама скачать

Адрес загрузки: https://ollama.com/

оллама скачать
оллама скачать

После загрузки просто выполните следующий шаг, не раздумывая. После завершения посетите http://localhost:11434/.

Видеть эту картинку означает успех
Видеть эту картинку означает успех

Если вы успешно получили доступ и видите работу, это означает, что операция прошла успешно.

загрузка рабочего стола докера

Адрес загрузки: https://www.docker.com/products/docker-desktop/.

Загрузка Docker автоматически определит вашу систему
Загрузка Docker автоматически определит вашу систему

После завершения загрузки запустите операцию и вы увидите следующий интерфейс

рабочий стол докера
рабочий стол докера

Найдите в строке поиска тег open-webui: просто найдите версию ollama, просто следуйте безмозглым шагам на моей картинке.

После установки open-webui интерфейс станет более дружелюбным.
После установки open-webui интерфейс станет более дружелюбным.

После установки образа можно запустить контейнер

Запуск контейнера  Интерфейс можно указать самостоятельно Здесь я указываю порт 8080 контейнера на локальный порт 3000.
Запуск контейнера Интерфейс можно указать самостоятельно Здесь я указываю порт 8080 контейнера на локальный порт 3000.

Другие параметры я не изменял. Я просто сопоставил порт во время запуска. После успешного запуска контейнера вы можете получить доступ к указанному порту 3000: http://localhost:3000/.

отображение интерфейса open-webui
отображение интерфейса open-webui

На данный момент Подготовка практически завершила большую часть работы.,Но это место по-прежнему всего лишь пустая оболочка,Вы не можете начать вопросы и ответы без модели

Загрузка модели

ollama предоставляет много Загрузка моделей

Загрузка моделиадрес
Загрузка моделиадрес

Вы можете найти много полезных моделей, нажав здесь

Вы можете найти нужную модель теста, но новая llama3 не очень хорошо поддерживает китайский язык, поэтому вы можете искать напрямую.

llama3-8b-chinese-chat-ollama-q8

Эта модель представляет собой китайскую доработанную модель llama3, относительно дружелюбную к китайцам.

Вставьте сюда название модели и нажмите «Загрузить». Прежде чем начать общение, дождитесь завершения загрузки.
Вставьте сюда название модели и нажмите «Загрузить». Прежде чем начать общение, дождитесь завершения загрузки.

Как правило, для небольших моделей требуется несколько гигабайт, и загрузка займет некоторое время. После завершения загрузки вы можете начать использовать его на домашней странице webui;

Использование локальной модели

Проверьте загруженную модель
Проверьте загруженную модель

Вы можете видеть, что в раскрывающемся списке на главной странице вы можете выбрать загруженную нами модель.

написать пузырь
написать пузырь

Запустите локальное тестирование модели, и вы сможете использовать ее в автономном режиме после отключения от Интернета. Не нужно беспокоиться об утечке информации. Однако, как правило, ее можно запускать только на персональных компьютерах, а скорость относительно низкая. любопытство. Надо еще запустить в производство. Нужна хорошая машина. Также можно скачать несколько мини-моделей с более высокой скоростью отклика для тестирования.

Как использовать вызовы интерфейса

Выше показан пример совместного использования open-webui и Ollama;

Ollama также предоставляет прямой вызов интерфейса для облегчения вторичной разработки:

Язык кода:txt
копировать
curl http://localhost:11434/api/generate -d '{
  "model": "phi3",
  "prompt":"Здравствуйте, напишите пузырь"
}'

Подвести итог

Построение локальной модели может в основном удовлетворить ваши повседневные рабочие потребности, но скорость относительно медленная, но преимущество в том, что ее можно использовать бесплатно. Если у компании есть потребности в интерфейсе, ее можно расширить и использовать.

boy illustration
Неразрушающее увеличение изображений одним щелчком мыши, чтобы сделать их более четкими артефактами искусственного интеллекта, включая руководства по установке и использованию.
boy illustration
Копикодер: этот инструмент отлично работает с Cursor, Bolt и V0! Предоставьте более качественные подсказки для разработки интерфейса (создание навигационного веб-сайта с использованием искусственного интеллекта).
boy illustration
Новый бесплатный RooCline превосходит Cline v3.1? ! Быстрее, умнее и лучше вилка Cline! (Независимое программирование AI, порог 0)
boy illustration
Разработав более 10 проектов с помощью Cursor, я собрал 10 примеров и 60 подсказок.
boy illustration
Я потратил 72 часа на изучение курсорных агентов, и вот неоспоримые факты, которыми я должен поделиться!
boy illustration
Идеальная интеграция Cursor и DeepSeek API
boy illustration
DeepSeek V3 снижает затраты на обучение больших моделей
boy illustration
Артефакт, увеличивающий количество очков: на основе улучшения характеристик препятствия малым целям Yolov8 (SEAM, MultiSEAM).
boy illustration
DeepSeek V3 раскручивался уже три дня. Сегодня я попробовал самопровозглашенную модель «ChatGPT».
boy illustration
Open Devin — инженер-программист искусственного интеллекта с открытым исходным кодом, который меньше программирует и больше создает.
boy illustration
Эксклюзивное оригинальное улучшение YOLOv8: собственная разработка SPPF | SPPF сочетается с воспринимаемой большой сверткой ядра UniRepLK, а свертка с большим ядром + без расширения улучшает восприимчивое поле
boy illustration
Популярное и подробное объяснение DeepSeek-V3: от его появления до преимуществ и сравнения с GPT-4o.
boy illustration
9 основных словесных инструкций по доработке академических работ с помощью ChatGPT, эффективных и практичных, которые стоит собрать
boy illustration
Вызовите deepseek в vscode для реализации программирования с помощью искусственного интеллекта.
boy illustration
Познакомьтесь с принципами сверточных нейронных сетей (CNN) в одной статье (суперподробно)
boy illustration
50,3 тыс. звезд! Immich: автономное решение для резервного копирования фотографий и видео, которое экономит деньги и избавляет от беспокойства.
boy illustration
Cloud Native|Практика: установка Dashbaord для K8s, графика неплохая
boy illustration
Краткий обзор статьи — использование синтетических данных при обучении больших моделей и оптимизации производительности
boy illustration
MiniPerplx: новая поисковая система искусственного интеллекта с открытым исходным кодом, спонсируемая xAI и Vercel.
boy illustration
Конструкция сервиса Synology Drive сочетает проникновение в интрасеть и синхронизацию папок заметок Obsidian в облаке.
boy illustration
Центр конфигурации————Накос
boy illustration
Начинаем с нуля при разработке в облаке Copilot: начать разработку с минимальным использованием кода стало проще
boy illustration
[Серия Docker] Docker создает мультиплатформенные образы: практика архитектуры Arm64
boy illustration
Обновление новых возможностей coze | Я использовал coze для создания апплета помощника по исправлению домашних заданий по математике
boy illustration
Советы по развертыванию Nginx: практическое создание статических веб-сайтов на облачных серверах
boy illustration
Feiniu fnos использует Docker для развертывания личного блокнота Notepad
boy illustration
Сверточная нейронная сеть VGG реализует классификацию изображений Cifar10 — практический опыт Pytorch
boy illustration
Начало работы с EdgeonePages — новым недорогим решением для хостинга веб-сайтов
boy illustration
[Зона легкого облачного игрового сервера] Управление игровыми архивами
boy illustration
Развертывание SpringCloud-проекта на базе Docker и Docker-Compose