5 апреля известная AI-компания Cohere официально выпустила новую модель большого языка (LLM) — Command R+. Модель имеет 104 миллиарда параметров и добилась революционного прогресса в поддержке нескольких языков, возможностях расширенной генерации (RAG) и инструментальных приложениях. Ее производительность даже сравнима с GPT-4 от OpenAI.
Стоит отметить, что производительность Command R+ в многочисленных оценках не только превосходит основные отраслевые модели с открытым исходным кодом, но по некоторым показателям даже сравнима с GPT-4.
В рейтинге LMSys Chatbot Arena Command R+ занимает 6-е место, опережая GPT-4-0314. Это означает, что эта модель не только превосходит другие крупные модели с точки зрения многоязычной обработки и приложений RAG, но также может конкурировать с лучшими продуктами отрасли с точки зрения производительности диалоговой системы.
С точки зрения масштаба параметров, Command R+, несомненно, является в настоящее время одним из крупнейших LLM с открытым исходным кодом, в общей сложности насчитывающим 104 миллиарда параметров. Это дает ему исключительные способности к обучению и рассуждению при решении сложных задач. Стоит еще отметить, что Command R+ поддерживает не только английский, но и 10 языков, включая французский, немецкий, испанский, итальянский, португальский (Бразилия), японский, корейский, арабский и упрощенный китайский. Это, несомненно, значительно повышает применимость модели в глобальном масштабе.
Являясь флагманской моделью Cohere, Command R+ была полностью оптимизирована и обновлена с точки зрения возможностей расширенного поиска (RAG). RAG в настоящее время является одной из наиболее важных технологий для крупномасштабных языковых моделей. Она позволяет модели извлекать соответствующий контент из внешних источников знаний на основе заданной контекстной информации и интегрировать ее в сгенерированный ответ. Это не только значительно повышает точность ответа, но и эффективно смягчает проблему «иллюзии» модели.
У Command R+ производительность модуля RAG не только близка к GPT-4, но и превосходит ее по некоторым показателям. Например, модель может более точно предсказать, какие результаты поиска являются наиболее релевантными, и встроить их в виде цитат в сгенерированные ответы, что еще больше повысит достоверность ответов.
Кроме того, Command R+ поддерживает различные режимы ответов RAG. Пользователи могут выбрать «режим точного цитирования» или «режим быстрого цитирования» в соответствии с конкретными потребностями. Первый сначала будет прогнозировать соответствующие документы, затем генерировать ответы и вставлять ссылки, а второй будет напрямую генерировать ответы со ссылками, стремясь генерировать меньше токенов.
Помимо RAG, Command R+ также добился серьезных прорывов в использовании инструментов. Эта модель может не только вызывать различные внешние инструменты, такие как поисковые системы, API, базы данных и т. д., но также поддерживает использование многоэтапных инструментов и может объединять несколько инструментов в несколько этапов для выполнения сложных задач. Это позволяет Command R+ не только понимать и генерировать текст, но и действовать как основной механизм вывода, принимая решения и автоматизируя сложные задачи, для решения которых требуется интеллект. Гомес рассказал, что Command R+ может самостоятельно исправлять ошибки, даже если при использовании инструмента обнаруживается ошибка или сбой, и может повторять попытки несколько раз, пока задача не будет завершена, что чрезвычайно важно в практических приложениях.
Кроме того, модель имеет встроенный расширенный сегментатор слов, который хорошо работает при обработке неанглоязычных текстов. Он имеет очевидные преимущества перед другими моделями на рынке с точки зрения стоимости сжатия до 57%.
В целом, Command R+, выпущенный Cohere, несомненно, является темной лошадкой в текущей области LLM с открытым исходным кодом. Эта сверхбольшая модель со 104 миллиардами параметров не только далеко опережает по техническим показателям, но и делает инновационные попытки удовлетворения потребностей уровня предприятия, что заслуживает внимания отрасли.
HuggingfaceЗагрузка модели
Бесплатная ускоренная загрузка модели быстрой станции AI