Быстро начните работу с инструментом количественной оценки модели Chatglm.cpp
Быстро начните работу с инструментом количественной оценки модели Chatglm.cpp

Chatglm.cpp может количественно оценить модели серии ChatGLM, чтобы они соответствовали требованиям вывода на машинах с низкой производительностью. Руководство по его использованию выглядит следующим образом.

Скачать код

Язык кода:javascript
копировать
git clone --recursive https://github.com/li-plus/chatglm.cpp.git && cd chatglm.cpp

Количественная модель

Модели, поддерживающие количественную оценку, включают: ChatGLM-6B, ChatGLM2-6B, CodeGeeX2 и их Количественную модель.

-i Параметр указывает исходную модель, которая может быть моделью на HuggingFace или моделью на локальном пути.

-t <type>:

  • q4_0: 4-bit integer quantization with fp16 scales.
  • q4_1: 4-bit integer quantization with fp16 scales and minimum values.
  • q5_0: 5-bit integer quantization with fp16 scales.
  • q5_1: 5-bit integer quantization with fp16 scales and minimum values.
  • q8_0: 8-bit integer quantization with fp16 scales.
  • f16: half precision floating point weights without quantization.
  • f32: single precision floating point weights without quantization.

-l <lora_model_name_or_path>可以合并 LoRA weights к базовой модели.

Язык кода:javascript
копировать
python3 chatglm_cpp/convert.py -i THUDM/chatglm-6b -t q4_0 -o chatglm-ggml.bin

Запустите модель

инструмент cpp работает

Инструменты компиляции

Язык кода:javascript
копировать
cmake -B build
cmake --build build -j --config Release

бегать

Язык кода:javascript
копировать
./build/bin/main -m chatglm-ggml.bin -p Привет

Интерактивный, в этом режиме история чата будет перенесена на следующий разговор.

Язык кода:javascript
копировать
./build/bin/main -m chatglm-ggml.bin -i
Использование библиотек Python

Установите библиотеки Python.

Уведомление: В текущем каталоге есть каталог с именем Chatglm_cpp.,То же имя, что и у импортированной зависимости.,Использовать этот пакет позже,Будут конфликты,Вам нужно поместить скрипт запуска в другой каталог запуска.,И обратите внимание на путь загруженной модели. Или переименуйте каталог Chatglm_cpp после установки.,Например, измените его наchatglm_cpp.origin.

Язык кода:javascript
копировать
pip install -U chatglm-cpp

При загрузке модели этот ответ не является потоковым.

Язык кода:javascript
копировать
import chatglm_cpp

pipeline = chatglm_cpp.Pipeline("../chatglm-ggml.bin")
конвейер.чат(["Привет"])
'Привет👋! Я помощник искусственного интеллекта ChatGLM-6B,Рад встрече,Не стесняйтесь задавать мне любые вопросы. '
Используйте потоковую передачу

запуститьcli_chat.py в каталоге example/

Язык кода:javascript
копировать
python3 cli_chat.py -m ../chatglm-ggml.bin -i
# python3 cli_chat.py -m ../chatglm2-ggml.bin -p Привет --temp 0.8 --top_p 0.8  # CLI demo
Разговор в браузере

runweb_demo.py в каталоге example/.

Язык кода:javascript
копировать
python3 web_demo.py -m ../chatglm-ggml.bin
# python3 web_demo.py -m ../chatglm2-ggml.bin --temp 0.8 --top_p 0.8  # web demo
Автоматически подсчитывайте и запускайте

Путь модели может быть HuggingFace или локальным путем.

Язык кода:javascript
копировать
import chatglm_cpp

pipeline = chatglm_cpp.Pipeline("THUDM/chatglm-6b", dtype="q4_0")
конвейер.чат(["Привет"])
# 'Привет👋! Я помощник искусственного интеллекта ChatGLM-6B,Рад встрече,Не стесняйтесь задавать мне любые вопросы. '

API Server

Язык кода:javascript
копировать
pip install 'chatglm-cpp[api]'
LangChain API

Если есть конфликты зависимостей, создайте новую среду conda, переустановите зависимости и выполните запуск. Обратите внимание на имя и адрес модифицированной квантованной модели.

Язык кода:javascript
копировать
MODEL=./chatglm-ggml.bin uvicorn chatglm_cpp.langchain_api:app --host 127.0.0.1 --port 8000

API тестирования завитка

Язык кода:javascript
копировать
curl http://127.0.0.1:8000 -H 'Content-Type: application/json' -d '{"prompt": "Привет"}'

Клиент использует тест LangChain

Язык кода:javascript
копировать
from langchain.llms import ChatGLM

llm = ChatGLM(endpoint_url="http://127.0.0.1:8000")
llm.predict("Привет")
'Привет👋! Я помощник искусственного интеллекта ChatGLM2-6B,Рад встрече,Не стесняйтесь задавать мне любые вопросы. '
OpenAI API

Если есть конфликты зависимостей, создайте новую среду conda, переустановите зависимости и выполните запуск. Обратите внимание на имя и адрес модифицированной квантованной модели.

Язык кода:javascript
копировать
MODEL=./chatglm-ggml.bin uvicorn chatglm_cpp.openai_api:app --host 127.0.0.1 --port 8000

API тестирования завитка

Язык кода:javascript
копировать
curl http://127.0.0.1:8000/v1/chat/completions -H 'Content-Type: application/json' \
    -d '{"messages": [{"role": "user", "content": "Привет"}]}'

Клиент использует тест OpenAI

Язык кода:javascript
копировать
import openai

openai.api_base = "http://127.0.0.1:8000/v1"
response = openai.ChatCompletion.create(model="default-model", messages=[{"role": "user", "content": "Привет"}])
response["choices"][0]["message"]["content"]
'Привет👋! Я помощник искусственного интеллекта ChatGLM2-6B,Рад встрече,Не стесняйтесь задавать мне любые вопросы. '

Потоковый вывод клиента

Язык кода:javascript
копировать
OPENAI_API_BASE=http://127.0.0.1:8000/v1 python3 examples/openai_client.py --stream --prompt Привет

Справочник по производительности

среда:

  • ЦП: Intel(R) Xeon(R) Platinum 8260, частота 2,40 ГГц, 16 потоков.
  • CUDA: однопоточный графический процессор V100-SXM2-32GB.
  • MPS backend is measured on an Apple M2 Ultra device using 1 thread (currently only supports ChatGLM2).

ChatGLM-6B:

Q4_0

Q4_1

Q5_0

Q5_1

Q8_0

F16

F32

ms/token (CPU @ Platinum 8260)

74

77

86

89

114

189

357

ms/token (CUDA @ V100 SXM2)

10

9.8

10.7

10.6

14.6

19.8

34.2

file size

3.3GB

3.7GB

4.0GB

4.4GB

6.2GB

12GB

23GB

mem usage

4.0GB

4.4GB

4.7GB

5.1GB

6.9GB

13GB

24GB

ChatGLM2-6B:

Q4_0

Q4_1

Q5_0

Q5_1

Q8_0

F16

F32

ms/token (CPU @ Platinum 8260)

64

71

79

83

106

189

372

ms/token (CUDA @ V100 SXM2)

9.7

9.4

10.3

10.2

14

19.1

33

ms/token (MPS @ M2 Ultra)

11

11.7

N/A

N/A

N/A

32.1

N/A

file size

3.3GB

3.7GB

4.0GB

4.4GB

6.2GB

12GB

24GB

mem usage

3.4GB

3.8GB

4.1GB

4.5GB

6.2GB

12GB

23GB

boy illustration
Неразрушающее увеличение изображений одним щелчком мыши, чтобы сделать их более четкими артефактами искусственного интеллекта, включая руководства по установке и использованию.
boy illustration
Копикодер: этот инструмент отлично работает с Cursor, Bolt и V0! Предоставьте более качественные подсказки для разработки интерфейса (создание навигационного веб-сайта с использованием искусственного интеллекта).
boy illustration
Новый бесплатный RooCline превосходит Cline v3.1? ! Быстрее, умнее и лучше вилка Cline! (Независимое программирование AI, порог 0)
boy illustration
Разработав более 10 проектов с помощью Cursor, я собрал 10 примеров и 60 подсказок.
boy illustration
Я потратил 72 часа на изучение курсорных агентов, и вот неоспоримые факты, которыми я должен поделиться!
boy illustration
Идеальная интеграция Cursor и DeepSeek API
boy illustration
DeepSeek V3 снижает затраты на обучение больших моделей
boy illustration
Артефакт, увеличивающий количество очков: на основе улучшения характеристик препятствия малым целям Yolov8 (SEAM, MultiSEAM).
boy illustration
DeepSeek V3 раскручивался уже три дня. Сегодня я попробовал самопровозглашенную модель «ChatGPT».
boy illustration
Open Devin — инженер-программист искусственного интеллекта с открытым исходным кодом, который меньше программирует и больше создает.
boy illustration
Эксклюзивное оригинальное улучшение YOLOv8: собственная разработка SPPF | SPPF сочетается с воспринимаемой большой сверткой ядра UniRepLK, а свертка с большим ядром + без расширения улучшает восприимчивое поле
boy illustration
Популярное и подробное объяснение DeepSeek-V3: от его появления до преимуществ и сравнения с GPT-4o.
boy illustration
9 основных словесных инструкций по доработке академических работ с помощью ChatGPT, эффективных и практичных, которые стоит собрать
boy illustration
Вызовите deepseek в vscode для реализации программирования с помощью искусственного интеллекта.
boy illustration
Познакомьтесь с принципами сверточных нейронных сетей (CNN) в одной статье (суперподробно)
boy illustration
50,3 тыс. звезд! Immich: автономное решение для резервного копирования фотографий и видео, которое экономит деньги и избавляет от беспокойства.
boy illustration
Cloud Native|Практика: установка Dashbaord для K8s, графика неплохая
boy illustration
Краткий обзор статьи — использование синтетических данных при обучении больших моделей и оптимизации производительности
boy illustration
MiniPerplx: новая поисковая система искусственного интеллекта с открытым исходным кодом, спонсируемая xAI и Vercel.
boy illustration
Конструкция сервиса Synology Drive сочетает проникновение в интрасеть и синхронизацию папок заметок Obsidian в облаке.
boy illustration
Центр конфигурации————Накос
boy illustration
Начинаем с нуля при разработке в облаке Copilot: начать разработку с минимальным использованием кода стало проще
boy illustration
[Серия Docker] Docker создает мультиплатформенные образы: практика архитектуры Arm64
boy illustration
Обновление новых возможностей coze | Я использовал coze для создания апплета помощника по исправлению домашних заданий по математике
boy illustration
Советы по развертыванию Nginx: практическое создание статических веб-сайтов на облачных серверах
boy illustration
Feiniu fnos использует Docker для развертывания личного блокнота Notepad
boy illustration
Сверточная нейронная сеть VGG реализует классификацию изображений Cifar10 — практический опыт Pytorch
boy illustration
Начало работы с EdgeonePages — новым недорогим решением для хостинга веб-сайтов
boy illustration
[Зона легкого облачного игрового сервера] Управление игровыми архивами
boy illustration
Развертывание SpringCloud-проекта на базе Docker и Docker-Compose