В одночасье DeepSeek взорвался на сцене. Громкие имена репостили его один за другим, и он был открыт с исходным кодом, как только был выпущен, непосредственно публикуя подробности обучения в более чем 50-страничном документе.
Проще говоря, DeepSeek V3 — это модель MoE с 671B параметров. Каждый токен может активировать 37B параметров. Для масштабного обучения используется около 14,8T токенов высокого качества. Изначально это система обучения смешанной точности FP8, и ее эффективность впервые была проверена на очень крупномасштабных моделях.
DeepSeek V3 продолжает идею дешевого и быстрого обучения.
DeepSeek V3из Общий объем обучения практически не используется280Десять тысячGPUЧас,иLlama 3 405BНо используется3080Десять тысячGPUЧас。Стоимость обучения моделииз С точки зрения денег,Обучение DeepSeek V3 стоит всего 5,576 миллиона долларов.,В сравнении,Простой из7B Llama Модель 3 стоит 760 000 долларов.
из бумагииз Подробности могут быть объявленыквозьмиизОценка стоимости обучения:
По сравнению с затратами десятков миллиардов юаней на обучение большой и полезной модели, DeepSeek V3из Обучение просто ниспровергло всехизпредставлять себе。Конечно, обучение здесь настолько экономично, главным образом потому, что изначально используется модель FP8, а в архитектуре модели были сделаны некоторые оптимизации, что привело к низким затратам на обучение модели.
Судя по результатам релиза, производительность этой модели с открытым исходным кодом на нескольких наборах данных может догнать самые передовые большие модели.
Например, в задачах по английскому языку в нескольких тестах английского языка (MMLU, MMLU-Redux, DROP и т. д.), Дип Сик V3 Продемонстрировал высокие результаты: в MMLU-Redux(89.1)и DROP(91.6)из Превосходит другие модели,Даже оценка GPT-4o ниже его.,существовать Продемонстрированное лидерство в сложных логических задачах.。F-Eval(Prompt Строгий) достиг 86,1, лишь немного ниже, чем Claude-3.5(86.5)。
В области программирования DeepSeek V3 неплохо справляется с задачами программирования:
При решении математических задач DeepSeek V3 хорошо справляется с задачами математического рассуждения:
Китайская задача, пожалуй, самая выгодная. Она может фактически убить некоторые передовые крупные модели из-за границы.
Несмотря на то, что DeepSeek быстрый и хороший V3изцена APIЕго тоже избили。Каждый миллион входных токенов стоит всего 0,27 доллара; каждый миллион выходных токенов требует 1,1 доллара;
Сравним цены на несколько современных крупных моделей в зарубежных странах.,GPT-4 стоит до 30 долларов за миллион входных токенов, а Claude3 Opus также стоит 15 долларов за миллион выходных токенов.С точки зрения цены,DeepSeek V3 действительно слишком дешев, настолько дешев, что я сомневаюсь, сможет ли эта компания еще зарабатывать деньги.
И если мы хотим сбалансировать производительность и стоимость, она станет единственной моделью на официальном чертеже DeepSeek, которая попадает в зону треугольника «наилучшая экономическая эффективность». Другие модели, такие как GPT-4o и Claude3.5, относительно дороги.
Помимо использования FP8, DeepSeek V3,Есть и другиеиз Детали модели。Например, он продолжает использоватьПотенциальное внимание быков(MLA)добиться эффективного рассуждения。этосуществовать Традиционный механизм внимания с несколькими головками(Multi-Head Внимание), скрытые возможности (Latent Функции) концепция еще больше улучшает возможности моделирования сложных отношений.
То есть характеристики токена сначала сжимаются в небольшой скрытый вектор, а затем посредством некоторых простых преобразований расширяются до пространств ключей и значений, необходимых для каждого заголовка. Некоторая важная информация, такая как кодирование позиции вращения RoPE, будет обрабатываться отдельно, чтобы сеть могла сохранять информацию о времени и положении.
существоватьMOEв архитектуре,представилэксперт по маршрутизации (Routed Experts) и делимся экспертами (Shared Experts) . В основном используется для активации тех параметров, которые необходимо обновить.
эксперт по маршрутизации в основном используется для выбора параметров для активации.для каждого входаизtoken,Для участия в подсчете будут выбраны лишь некоторые эксперты по маршрутизации. Этот процесс выбора определяется механизмом стробирования.,Например, метод Top-K, используемый в DeepSeekMoE, выбирается на основе показателя сходства.
иВ обработке всех входных данных всегда участвуют общие эксперты.независимо от того, какой вход,Все общие эксперты вносят свой вклад.
Также использовал одинТехнология MTP (множественное предсказание токенов),Основная идея MTP заключается в том, что во время обучения модель должна не только предсказывать следующий токен (как и традиционная языковая модель), но и одновременно предсказывать несколько токенов, следующих за последовательностью.Таким образом,Модель может получить более полную обучающую информацию.,Помогает получить более глубокое понимание контекста и зависимостей на расстоянии.
DeepSeek-V3 теперь можно протестировать непосредственно на официальной платформе, а исходный код полностью открыт и его можно загрузить в любое время. Зарубежные энтузиасты искусственного интеллекта уже начали пробовать это. Некоторые люди даже объединяют 4 или 8 компьютеров Mac M4 вместе, чтобы запустить DeepSeek V3.
Есть также разработчики, которые использовали DeepSeek-V3 для создания астероидной игры в стиле логотипа компании, занимающейся искусственным интеллектом, которую можно пройти всего за несколько минут.
В целом выпуск DeepSeek V3 — это действительно выдающаяся работа, способная превзойти некоторые существующие крупные модели при меньшей стоимости и быть сопоставимой с GPT-4o и Claude 3.5. Его эффективный метод обучения и низкая стоимость вычислений могут послужить примером для других компаний, не имеющих ресурсов. Это также доказывает, что крупномасштабные кластеры графических процессоров не являются необходимым условием для обучения больших моделей.
Ладно, это все, что есть в этом выпуске, я Лео, увидимся в следующий раз~