В последнее время в работе и жизни часто используют искусственный интеллект для повышения эффективности. Самое полезное — написать некоторые инструменты. Даже если написание неудовлетворительное, его можно быстро поддержать небольшой корректировкой и некоторыми командами, иногда они есть. будут забыты, если они не будут использоваться в течение длительного времени. Иногда кажется, что очень эффективно иметь модель искусственного интеллекта для предоставления подсказок;
Адрес загрузки: https://ollama.com/
После загрузки просто выполните следующий шаг, не раздумывая. После завершения посетите http://localhost:11434/.
Если вы успешно получили доступ и видите работу, это означает, что операция прошла успешно.
Адрес загрузки: https://www.docker.com/products/docker-desktop/.
После завершения загрузки запустите операцию и вы увидите следующий интерфейс
Найдите в строке поиска тег open-webui: просто найдите версию ollama, просто следуйте безмозглым шагам на моей картинке.
После установки образа можно запустить контейнер
Другие параметры я не изменял. Я просто сопоставил порт во время запуска. После успешного запуска контейнера вы можете получить доступ к указанному порту 3000: http://localhost:3000/.
На данный момент Подготовка практически завершила большую часть работы.,Но это место по-прежнему всего лишь пустая оболочка,Вы не можете начать вопросы и ответы без модели
ollama предоставляет много Загрузка моделей
Вы можете найти много полезных моделей, нажав здесь
Вы можете найти нужную модель теста, но новая llama3 не очень хорошо поддерживает китайский язык, поэтому вы можете искать напрямую.
llama3-8b-chinese-chat-ollama-q8
Эта модель представляет собой китайскую доработанную модель llama3, относительно дружелюбную к китайцам.
Как правило, для небольших моделей требуется несколько гигабайт, и загрузка займет некоторое время. После завершения загрузки вы можете начать использовать его на домашней странице webui;
Вы можете видеть, что в раскрывающемся списке на главной странице вы можете выбрать загруженную нами модель.
Запустите локальное тестирование модели, и вы сможете использовать ее в автономном режиме после отключения от Интернета. Не нужно беспокоиться об утечке информации. Однако, как правило, ее можно запускать только на персональных компьютерах, а скорость относительно низкая. любопытство. Надо еще запустить в производство. Нужна хорошая машина. Также можно скачать несколько мини-моделей с более высокой скоростью отклика для тестирования.
Выше показан пример совместного использования open-webui и Ollama;
Ollama также предоставляет прямой вызов интерфейса для облегчения вторичной разработки:
curl http://localhost:11434/api/generate -d '{
"model": "phi3",
"prompt":"Здравствуйте, напишите пузырь"
}'
Построение локальной модели может в основном удовлетворить ваши повседневные рабочие потребности, но скорость относительно медленная, но преимущество в том, что ее можно использовать бесплатно. Если у компании есть потребности в интерфейсе, ее можно расширить и использовать.