Буквально 19 июля MetaAI открыла исходный код большой модели LLama2. Ян Ле Кун, главный научный сотрудник Meta и лауреат премии Тьюринга, заявил в Твиттере, что шаг Meta может изменить конкурентную среду в индустрии больших моделей. В одночасье ландшафт больших моделей снова резко изменился.
На официальном сайте Llama имеется описание Llama2, модели большого языка с открытым исходным кодом нового поколения, которую можно бесплатно использовать для академических исследований или коммерческих целей.
Текущая модель имеет три спецификации: 7B, 13B и 70B. На этапе предварительного обучения используется 2 триллиона токенов, на этапе SFT используется более 100 000 данных, а данные о предпочтениях человека превышают 1 миллион.
Кроме того, в статье упоминается сравнение эффектов моделей Llama2 и ChatGPT, которые всех больше всего волнуют.
По сравнению с GPT-4 результаты оценки Llama2 лучше. Зеленая часть указывает на то, что доля Llama2 лучше, чем у GPT4.
Хотя на долю китайцев приходится всего 0,13%,Но в будущем будет большой толчок к предварительному обучению расширенному списку китайских слов.&Модель точной настройки данных домена была выпущена китайцами.。Он открыт всего несколько дней,На GIthub уже есть крупные китайские модели на базе Llama2. . .
Не буду вдаваться в технические подробности LLama2, вы можете убедиться сами. Далее я научу вас самостоятельно играть с диалоговой моделью LLama2.
У большинства людей нет локальных вычислительных мощностей графического процессора, поэтому мы предпочитаем развернуть и использовать их на облачном сервере. Здесь я использую сервер графического процессора платформы Lanrui Xingzhou (дешевый и простой в использовании, 3090 стоит всего 1,9 доллара в час, а файл модели предварительно установлен на платформе, его не нужно загружать снова)
Новые пользователи также получат 2 часа вычислительной мощности 3090.,Не забудьте закодировать4104
Авторизоваться:https://www.lanrui-ai.com/console/workspace
Создайте рабочую область и смонтируйте общедоступный образ в образе рабочей среды: pytorch:official-torch2.0-cu1117. Выберите предварительно обученные модели: lama-2-7b и llama-2-7b-chat. Затем создайте экземпляр
После создания экземпляра,Войдите на сервер с помощью jupyterLab.,Создать новый терминал,а затем введитеdata
в каталоге
cd data
Скачать код
Выполните следующую команду, чтобы получить код ламы с Github.
sudo git clone https://github.com/facebookresearch/llama.git
После завершения загрузки,будет еще одинllama
Оглавление
Входитьllama
Оглавление
cd llama
Установить зависимости
sudo pip install -e .
Выполнение командной строки:
torchrun --nproc_per_node 1 example_text_completion.py \
--ckpt_dir ../../imported_models/llama-2-7b/Llama-2-7b \
--tokenizer_path ../../imported_models/llama-2-7b/Llama-2-7b/tokenizer.model \
--max_seq_len 128 --max_batch_size 4
Пример эффекта завершения текста:
В приведенном выше примере нужно написать абзац в скрипте Python и позволить модели завершить следующее содержимое.
Измените права доступа к каталогу llama на 777.,Изменить еще разexample_chat_completion.py
в файлеckpt_dir
иtokenizer_path
путь для твоегоllama-2-7b-chat
Абсолютный путь модели
// 1. Измените права доступа к каталогу, чтобы они были доступны для записи.
chmod 777 llama
//2. Измените параметры в файле example_chat_completion.py.
ckpt_dir: str = "/home/user/imported_models/llama-2-7b-chat/Llama-2-7b-chat/",
tokenizer_path: str = "/home/user/imported_models/llama-2-7b-chat/Llama-2-7b-chat/tokenizer.model"
//3. Запуск сценария разговора.
torchrun --nproc_per_node 1 example_chat_completion.py
Здесь я изменяю подсказку для ответа на китайском языке. После выполнения сценария диалога эффект диалога следующий:
torchrun --nproc_per_node 1 example_chat_completion.py
Примечание. В настоящее время у нас нет официального интерфейса пользовательского интерфейса или кода сценария API, и нет возможности взаимодействовать друг с другом. Если у вас есть друзья, знающие Python, вы можете добавить интерфейс пользовательского интерфейса самостоятельно. оставить сообщение для обсуждения.
llamaЕсть в кодеdownload.sh
Скрипт позволяет загружать другие модели,Но URL-адрес, необходимый для загрузки, необходимо получить самостоятельно. Шаги загрузки следующие:
1. Получите URL-адрес загрузки с веб-сайта Meta AI.
MetaAIСкачать адрес страницы модели:https://ai.meta.com/llama/#download-the-model
После нажатия кнопки «Загрузить» вас попросят ввести некоторую информацию и адрес электронной почты. После отправки на ваш адрес электронной почты будет отправлен URL-адрес загрузки. Обратите внимание, что это ваша собственная ссылка для скачивания.
На рисунке ниже представлена ссылка для скачивания модели, полученная в почтовом ящике Сяоцзюаня.
2. Загрузите модель
Выполнение командной строки на сервере
sudo bash download.sh
Затем следуйте инструкциям, чтобы вставить URL-адрес загрузки и выбрать модель для загрузки.
Что касается использования отечественных больших моделей, поскольку становится все больше и больше коммерческих моделей с открытым исходным кодом, отечественные большие модели определенно снова откроют возможности для развития.
Создать оригинальную статью непросто. Пожалуйста, делайте репосты, ставьте лайки и подписывайтесь.