После того, как 14 марта исходный код модели https://github.com/THUDM/ChatGLM-6B был открыт, Github Темпы роста Star поразительны: она занимает первое место в глобальном списке загрузок крупных моделей в течение 12 дней подряд.
На основе ГЛМ (General Language Model) Архитектура с 6,2 миллиардами параметров, без Количественной оценказанимает меньше видеопамяти13G,Поддерживает одну видеокарту потребительского уровня в соответствии с количественной оценкой INT.(нравиться2080Ti)рассуждения оКвантование INT8это глубокое обучение Модельвмассаизначение активации от16бит число с плавающей запятой(FP16)уменьшено до8битовое целое число INT8, что позволяет сократить использование памяти и сложность вычислений, сократить вычислительные ресурсы и повысить скорость вывода.
август 2022 г.,Интеллектуальный спектр AIНа основе структуры ГЛМ,Выпущена китайско-английская двуязычная плотная модельGLM-130B со 130 миллиардами параметров.,Комплексные возможности эквивалентны GPT3.
Экономия памяти 75 %,Доступно в одном устройстве3090 (*4) или один 2080 (*8) для вывода без потерь
Высокая скорость рассуждений,В 7-8 раз быстрее, чем Pytorch
Кросс-платформенный,Поддержка адаптации и приложений для различных вычислительных платформ.
https://github.com/THUDM/GLM-130B
Дополнительная ссылка: https://github.com/THUDM/ChatGLM-6B.
GLM
GLM: Предварительное обучение общей языковой модели https://aclanthology.org/2022.acl-long.26.pdf
Отправной точкой GLM является объединение трех основных моделей предварительного обучения:
https://github.com/THUDM/GLM
предположениеиспользоватьColab,и включите графический процессор A100,demo1.py Исходный код: https://github.com/dlimeng/awesome-ai-generated/blob/main/ChatGLM%E4%BD%BF%E7%94%A8/demo1.ipynb
# Step1, Установить пакеты зависимостей
!pip install transformers
!pip install sentencepiece
!pip install cpm_kernels
!pip install gradio
!pip install mdtex2html
# Step2,использоватьпредварительная подготовка Модель
from transformers import AutoTokenizer, AutoModel
tokenizer =AutoTokenizer.from_pretrained("THUDM/chatglm-6b",trust_remote_code=True)
model = AutoModel.from_pretrained("THUDM/chatglm-6b",trust_remote_code=True).half().cuda()
# Шаг 3, создайте чат-чат
response, history = model.chat(токенайзер,"Привет", history=[])
print(response)
response, history = model.chat(tokenizer,"Что делать, если я не могу спать по ночам",history=history)
print(response)
Исходный код: https://github.com/dlimeng/awesome-ai-generated/blob/main/ChatGLM%E4%BD%BF%E7%94%A8/ptuning1.ipynb Ссылка: https://github.com/THUDM/ChatGLM-6B/blob/main/ptuning/README.md. P-Tuning
!bash train.sh
Библиотека Peft: https://github.com/huggingface/peft легко преобразует обычные модели HF в модели, поддерживающие легкую точную настройку. В настоящее время она поддерживает 4 стратегии: 1) LoRA: адаптер низкого ранга для больших моделей 2) Настройка префиксов: оптимизация непрерывных подсказок для генерации 3) P-Tuning: GPT тоже понимает 4) Быстрая настройка: сила масштабирования для быстрой настройки с эффективным использованием параметров
«Дао порождает одно, одно порождает два, два порождает три, а три порождает все вещи». Только пониманием и пониманием мы можем преодолеть ограничения и создать будущее.