Точная настройка может сделать общие большие модели более подходящими для конкретных отраслевых приложений.
Но теперь исследователи обнаружили:
При выполнении «тонкой настройки многозадачных инструкций» на большой мультимодальной модели большая модель может «учиться больше и делать больше ошибок», поскольку конфликты между различными задачами приводят к снижению способности к обобщению.
Например, мультимодальная задача ответа на вопросы может потребовать, чтобы ответы были как можно более краткими и точными, в то время как задача понимания документа, в свою очередь, может потребовать как можно более подробного описания больших моделей.
Точная настройка распределения данных для различных инструкций последующих задач совершенно различна, что затрудняет достижение оптимальной производительности большой модели при выполнении нескольких последующих задач.
Как решить эту проблему?
Совместная исследовательская группа из Гонконгского университета науки и технологий, Южного университета науки и технологий и лаборатории Ноева ковчега Huawei, вдохновленная большой моделью Mixtral-8×7B с открытым исходным кодом MoE (Mixed Expert Model), предложила использовать разреженные экспертные модели. для повышения эффективности обобщения последующих задач. Лучшие и более понятные мультимодальные большие модели.
Давайте посмотрим на конкретные детали.
Чтобы проверить влияние различных типов данных задачи на производительность модели при точной настройке мультимодальных инструкций, исследователи разделили данные следующим образом:
На основе приведенных выше данных исследователи использовали LoRA для тонкой настройки InstructBLIP, получили 3 экспертные модели и использовали их в других данных (описание изображения Flickr30k, GQA/SciQA/IconQA/TextVQA и другие различные типы визуальных вопросов и ответов, HM/VSR и другие задачи мультимодальной классификации или вывода) для нулевого тестирования и оценки.
Как видно из рисунка выше (справа), при точной настройке инструкций не использование полных данных дает наилучшие результаты. Напротив, только три последующие задачи (GQA, VSR, TextVQA) работают лучше всего с экспертами по полным данным.
Это показывает,Для большинства задач,данные для внедрения других задач в процессе тонкой настройки инструкций,Наоборот, это уменьшит Модельпроизводительность,Точная настройка мультимодальных инструкций приводит к конфликтам задач。
С другой стороны, в эксперименте было замечено, что две экспертные модели, VQA и Captioning, показали лучшую производительность, чем все эксперты, в своих соответствующих задачах. Кажется, что этот метод решает проблему конфликтов задач, но имеет следующие ограничения:
Чтобы решить вышеуказанные ограничения, исследовательская группа предложила использовать разреженную экспертную модель (MoE), в которой разные эксперты решают разные задачи, а метод разделения данных предназначен для передачи аналогичных задач одному и тому же эксперту.
В большой модели визуального языка (LVLM),Эта статья определяетКоманда для ввода всего текста,Как показано выше (слева), текст C1-C4.
Эти инструкции описывают цель и требования задачи. Поэтому автор использует Kmeans для группировки всех инструкций по 64 категориям.
Как показано на рисунке выше (справа),Информация о кластеризации инструкций может эффективно представлять тип задачи данных. Это экономит затраты на разделение данных вручную.。
Подобно предыдущему эксперту задач, выходные данные модели на этом уровне также генерируются замороженным линейным слоем LLM и точно настроенным LoRA.
Разница в том, что информация о кластеризации данных используется для маршрутизации гибридного LoRA. В частности, для входных данных модели информация о ее маршрутизации может быть рассчитана следующим образом:
Среди них функция topk() (рассматривая случай k=1) сохраняет неизменными первые k крупнейших элементов и устанавливает остальные в 0. C — это встроенное представление обучаемой категории, а C[xi] представляет собой кластер инструкций, соответствующих до xi. Представление класса, Wgate — линейный параметр маршрута.
Эксперименты показали, что вышеупомянутые эксперты LoRA по кластеризации инструкций действительно облегчают проблему конфликтов задач, но поскольку эксперт может видеть только часть задач, обобщение всей модели на последующие задачи сокращается.
поэтому,Исследовательская группа предложила использоватьглавный экспертот всехданные Обобщающая способность обучения инструкциям。
В отличие от MoE, в дополнение к эксперту задачи, выбранному через top1, этот метод также постоянно активирует общего эксперта, так что этот эксперт обучается на основе всех данных инструкций.
Таким образом, выходные данные модели на этом уровне представляют собой взвешенную сумму исходного замороженного параметра W LLM, эксперта задачи We и общего эксперта Wu.
При такой конструкции сотрудничество между экспертами по задачам и экспертами общего профиля не только повышает производительность модели при выполнении задач, аналогичных обучающему набору, но также обеспечивает способность модели к обобщению для новых задач.
В этом документе рассматриваются экспериментальные сценарии InstructBLIP (использование данных, критерии оценки, детали обучения), выполняется точная настройка инструкций на 13 наборах обучающих данных (включая VQA, субтитры, VQG и т. д.) и оценивается 11 наборов тестовых данных (обучающие данные). set Нет перекрытия с набором тестовых данных).
Как показано в таблице выше, после внедрения метода (MoCLE), предложенного в этой статье, InstructBLIP улучшил все последующие задачи по сравнению с базовой моделью. Среди них особенно очевидно улучшение в VSR, IconQA, TextVQA и MSVD-QA. .
На рисунке выше показаны результаты маршрутизации определенного уровня гибридных экспертов LLM LoRA при различных данных. Верхняя и нижняя пунктирные линии — это данные обучения и тестирования соответственно. (a) и (b) показывают результаты использования информации о кластеризации инструкций и среднего представления токена инструкций в качестве маршрутизации соответственно.
Видно, что при использовании маршрутизации информации кластеризации команд данные делятся между экспертами.。Например, эксперты0В основном отвечает заVQAСвязанные задачи,Эксперт 2 в основном отвечает за задачи, связанные с субтитрами.,Эффективно добиться экспертной дифференциации. с другой стороны,При использовании среднего представления токена инструкции в качестве условия,Активация экспертов аналогична для разных задач.,Никакой дифференциации не произошло.
Исследовательская группа считает, что сочетание разреженной экспертной мультимодальной большой модели + общего экспертного модуля смягчает конфликт между задачами и обеспечивает способность обобщения разреженной модели к задаче, позволяя мультимодальной большой модели более эффективно адаптироваться. Различные приложения в перерабатывающей промышленности.
Это первая работа, объединяющая LoRA и разреженные экспертные модели (MoE) в тонкой настройке инструкций мультимодальной большой модели для облегчения конфликтов задач и поддержания возможностей обобщения модели. Эта работа подтвердила свою эффективность в решении сложных последующих задач и открыла новые возможности для применения и развития мультимодальных больших моделей.
Бумажная ссылка: https://arxiv.org/abs/2312.12379
— над —