Llama 3 — это авторегрессионная языковая модель, использующая оптимизированную архитектуру преобразователя. Адаптированная версия использует контролируемую точную настройку (SFT) и обучение с подкреплением с обратной связью с человеком (RLHF), чтобы соответствовать предпочтениям человека в отношении полезности и безопасности.
Связанные параметры
данные обучения | Количество параметров | длина контекста | Внимание к групповым запросам (GQA) | предварительноданные обучения | Срок действия знаний | |
---|---|---|---|---|---|---|
Llama 3 | Общедоступные онлайн-наборы данных | 8B | 8K | да | 15T+ | март 2023 г. |
Llama 3 | 70B | 8K | да | 15T+ | декабрь 2023 г. |
Llama3 обучается в двух новых центральных кластерах Meta, включающих более 49 000 графических процессоров Nvidia H100.
Llama3Большой Модель Затем он достигает400B,все еще тренируюсь,Целью является достижение мультимодальных и многоязычных функций.,Ожидается, что эффект будет таким же, как у GPT 4/GPT 4 В эквивалентно.
Ollama да Инструмент с открытым исходным кодом Большой языковой модели (LLM), который позволяет пользователям запускать и развертывать большую языковую модель на локальном компьютере. Оллама Разработан как основа для упрощения Docker Процесс развертывания и управления большими языковыми моделями в контейнерах делает этот процесс быстрым и простым. Пользователи могут быстро запускать локальные операции, такие как Llama 3 Такая большая языковая модель с открытым исходным кодом.
Официальный адрес сайта: https://ollama.com/download
Ollama поддерживает несколько платформ, включая Mac и Linux, и предоставляет образы Docker для упрощения процесса установки. Пользователи могут импортировать и настраивать больше моделей, написав Modelfile, который аналогичен роли Dockerfile. Ollama также имеет REST API для запуска моделей и управления ими, а также набор инструментов командной строки для взаимодействия с моделями.
Автоматическая установка Linux очень проста, просто выполните:
yum update -y nss curl libcurl
curl -fsSL https://ollama.com/install.sh >>install.sh
Скачать сертификат Curl:
wget https://curl.se/ca/cacert.pem --no-check-certificate
Добавить сертификат Curl
cat cacert.pem >> /etc/pki/tls/certs/ca-bundle.crt
sh install.sh
curl -fsSL https://ollama.com/install.sh | sh
nohup ollama serve &
Доступ к веб-интерфейсу Ollama: откройте браузер и посетите http://localhost:11434.
Если страница появляетсяOllama is бег. Это значит, что программа нормальная.
(Если ваш демон Docker работает на удаленном хосте, замените localhost соответствующим IP-адресом). Вы увидите веб-интерфейс Ollama, который позволит вам начать создавать, обучать и развертывать модели глубокого обучения.
Ensure that the Ollama server is properly configured to accept incoming connections from all origins. To do this, make sure the server is launched with the OLLAMA_ORIGINS=*
environment variable, as shown in the following command:
OLLAMA_HOST=0.0.0.0 OLLAMA_ORIGINS=* ollama serve
This configuration allows Ollama to accept connections from any source.
Доступ ко всем местам,Используйте переменные настройки,В противном случае можно получить только да127.0.0.1доступ:
export OLLAMA_HOST=0.0.0.0 export OLLAMA_ORIGINS=*
nohup ollama serve &
Чтобы разрешить внешней сетевой среде доступ к службе, необходимо настроить HOST.
Откройте файл конфигурации: vim /etc/systemd/system/ollama.service и измените переменную Environment в соответствии с ситуацией:
В среде сервера: Environment="OLLAMA_HOST=0.0.0.0:11434" В среде виртуальной машины: Environment="OLLAMA_HOST=IP-адрес интрасети сервера: 11434"
Способ первый:осуществлятьcurl http://ip:11434
Заказ,нравитьсявозвращаться“Ollama is работает", это означает, что соединение нормальное.
Способ 2. Посетите http://ip:11434 в браузере, если на странице отображается текст «Оллама. is работает", это означает, что соединение нормальное.
По умолчанию скачатьиздаллама3:8b. Двоеточие здесь обозначает имя Модель.,Тег после двоеточия представляет,Вы можете просмотреть все теги llama3iz здесь
ollama pull llama3:8b
По умолчанию скачатьиздаллама3:8b. Двоеточие здесь обозначает имя Модель.,Тег после двоеточия представляет,Вы можете просмотреть все теги llama3iz здесь
ollama pull llama3:70b
ollama run llama3
Приведенная выше команда автоматически извлечет модель и выполнит проверку подписи sha256. После завершения обработки он автоматически войдет в рабочую среду llama3. Вы можете задавать вопросы на китайском или английском языке и выйти, нажав Ctrl+D.
curl http://localhost:11434/api/generate -d '{
"model":"llama3:70b",
"prompt": «Пожалуйста, переведите на китайский, корейский и японский языки соответственно. -> Meta Llama 3: The most capable openly available LLM to date",
"stream": false
}'
Параметры объясняются следующим образом:
Расширенные параметры (необязательно):
Возврат данных JSON
{
"model": "llama3",
"created_at": "2024-04-23T08:05:11.020314Z",
"response": "Here are the translations:\n\n**Chinese:** 《Meta Llama 3》: Самый мощный общедоступный LLM на сегодняшний день.\n\n**Корейский:** 《Meta Llama 3》:현재 가장 강력한 공개 사용 가능한 LLM\n\n**Japanese:**\n\n《Meta Llama 3》:На данный момент это самый сильный общедоступный LLM\n\n\n\nПримечание: (Meta Llama 3) is a literal translation, as there is no direct equivalent for \"Meta\" in Japanese. In Japan, it's common to use the English term \"\" or \"\" when referring to Meta.",
"done": true,
"context": [
...
],
"total_duration": 30786629492,
"load_duration": 3000782,
"prompt_eval_count": 32,
"prompt_eval_duration": 6142245000,
"eval_count": 122,
"eval_duration": 24639975000
}
Возвращаемое значение объясняется следующим образом:
Чтобы рассчитать, как быстро генерируется ответ (в токенах в секунду (токен/с), вы можете вычислить eval_count/eval_duration.
curl http://localhost:11434/api/chat -d '{ "model": "llama3:70b", "messages": [ { "role": "user", "content": "why is the sky blue?" } ] }'
Вы можете напрямую использовать программу diify с открытым исходным кодом. opsинтегрированный:https://guisu.blog.csdn.net/article/details/138978737?spm=1001.2014.3001.5502
Два способа установки:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Посмотреть шлюз:Найти тегиdefault
или0.0.0.0
иззапись маршрутизации,этоиз Адрес шлюзадавам нужноизhost-gateway
。
ip route
docker run -d -p 3000:8080 --add-host=host.docker.internal:172.25.191.253 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Чтобы использовать Docker Установить Open-webui, вы можете создать Docker контейнер и запустим в нем Open-webui Служить。нижеда Установить Open-webui Шаги:
Извлеките изображение Open WebUI:
Сначала вам нужно извлечь образ Open WebUI из Docker Hub. Запустите следующую команду в терминале или командной строке:
docker search open-webui
docker pull wanjinyoung/open-webui-main
Запустите контейнер Open WebUI:
Запустите службу Open WebUI в контейнере, используя следующую команду:
docker run -d -p 3000:8080 --add-host=host.docker.internal:172.25.191.253 -v open-webui:/app/backend/data --name open-webui --restart always docker.io/wanjinyoung/open-webui-main:main
Это запустит контейнер под названием «open-webui» в фоновом режиме и сопоставит порт 3000 внутри контейнера с портом 3000 на хосте.
Чтобы получить доступ к Open WebUI: откройте браузер и посетите http://localhost:3000. Вы должны увидеть пользовательский интерфейс Open WebUI, который позволяет взаимодействовать с платформой Ollama, управлять моделями и контролировать процесс обучения.
Существует множество веб-интерфейсов, поддерживающих Ollama. Автор испытал самый популярный веб-интерфейс (github.com/open-webui/…%EF%BC%8C%E9%9C%80%E8%A6%81Docker%E6%88%96). %E8%80%85Kubernetes%E9%83%A8%E7%BD%B2 %EF%BC%8C%E6%9C%89%E7%82%B9%E9%BA%BB%E7%83%A6%EF%BC%8C%E8%80%8C%E4%B8 %94%E9%95%9C%E5%83%8F%E4%B9%9F%E5%B7%AE%E4%B8%8D%E5%A4%9A1G%E3%80%82)
В этой статье рекомендуется использоватьollama-webui-lite(github.com/ollama-webu…%EF%BC%8C%E9%9D%9E%E5%B8%B8%E8%BD%BB%E9 %87%8F%E7%BA%A7%EF%BC%8C%E5%8F%AA%E9%9C%80%E8%A6%81%E4%BE%9D%E8%B5%96Node.js%E3 %80%82)
Настройка внутреннего зеркала NPM
Внутренний доступ к официальному источнику изNPM немного медленный.,Автор рекомендует отечественным пользователям использовать Tencent.NPMисточник(Mirrors.cloud.tencent.com/npm/), до того, как автор использовал...
Откройте терминал и выполните следующую команду, чтобы настроить NPM на использование источника Tencent:
npm config set registry http://mirrors.cloud.tencent.com/npm/
Откройте терминал и выполните следующую команду Развертывание веб-интерфейса:
git clone https://github.com/ollama-webui/ollama-webui-lite.git
cd ollama-webui-lite
npm install
npm run dev
WebUI уже прослушивает локальный порт 3000:
Перейдите на страницу Open WebUI, нажмите «Настройки», нажмите «Модель» в настройках, введите модель, которую нам нужно загрузить, и нажмите «Загрузить». Мы сможем использовать ее после завершения загрузки.