Новый отчет мудрости
Редактор: ЛРС
В сентябре OpenAI добавила в ChatGPT функцию ввода изображений, позволяющую пользователям загружать одно или несколько изображений для участия в разговоре. За этой новой функцией стоит мультимодальный (язык видения) под названием GPT4-Vision от OpenAI.
Ввиду настойчивого подхода OpenAI к «закрытому исходному коду», появилось много отличных результатов исследований мультимодальных больших моделей. Например, две репрезентативные работы MiniGPT4 и LLaVA продемонстрировали пользователям мультимодальный диалог и бесконечные возможности для рассуждений.
В области больших мультимодальных моделей эффективное согласование модальностей имеет решающее значение, но эффект согласования модальностей в существующих работах часто ограничивается отсутствием крупномасштабных высококачественных данных «изображение-текст».
Чтобы решить эту проблему, исследователи из Университета науки и технологий Китая и Шанхайской лаборатории искусственного интеллекта недавно запустили ShareGPT4V, новаторский крупномасштабный набор графических и текстовых данных.
Адрес статьи: https://arxiv.org/abs/2311.12793.
Демо: https://huggingface.co/spaces/Lin-Chen/ShareGPT4V-7B
Адрес проекта: https://github.com/InternLM/InternLM-XComposer/tree/main/projects/ShareGPT4V
Набор данных ShareGPT4V содержит 1,2 миллиона фрагментов данных «высокодетального текстового описания изображения», охватывающих многие аспекты, такие как знание мира, атрибуты объектов, пространственные отношения, оценка искусства и т. д., превосходя существующие с точки зрения разнообразия и информационного охвата. данные.
Таблица 1. Сравнение ShareGPT4V и основных наборов данных аннотаций. Среди них «LCS» относится к наборам данных LAION, CC и SBU, «Visible» указывает, видно ли изображение при аннотации, а «Avg» показывает среднее количество английских символов в текстовом описании.
В настоящее время этот набор данных занимает первое место в рейтинге трендов наборов данных Hugging Face.
данные
ShareGPT4V получен из 100 000 данных «картина-очень подробные текстовые описания», полученных из усовершенствованной модели GPT4-Vision.
Исследователи собрали данные изображений из различных источников данных изображений (таких как COCO, LAION, CC, SAM и т. д.), а затем использовали соответствующие подсказки для конкретных источников данных для управления GPT4-Vision для создания высококачественных исходных данных.
Как показано на рисунке ниже, когда модели GPT4-Vision присвоен кадр «Супермен», она может не только точно идентифицировать персонажа Супермена и его актера Генри Кавилла в кадре «Супермен», но также может полностью анализировать позиции. Взаимоотношения объектов на изображении и цветовые свойства объектов и т.д.
Рисунок 1 Используйте GPT4-Vision получатьнаборShareGPT4Vоригинальныйданныепроцесскартина
Если модели GPT4-Vision предоставить картину Ван Гога «Сеятель», она сможет не только точно определить имя и автора картины, но и проанализировать художественную школу, к которой принадлежит картина, содержание картины и эмоции, выражаемые самой картиной, информацией и идеями.
Для более полного сравнения с существующими изображениями используйте описание набора данных. Ниже мы перечисляем высококачественные текстовые описания в наборе данных ShareGPT4V вместе с текстовыми описаниями в наборе данных, используемых текущей мультимодальной большой моделью:
картина 2 「картина фото-Текстовое описание」данные сравнение качества картины
Это видно по картинке,Использование наборов COCO, аннотированных человеком, является правильным, но часто очень коротким.,Предоставляемая информация крайне ограничена.
LLaVAданныенабор Использовать язык МодельGPT4Описания воображаемых сценариев часто слишком сильно полагаются наbounding коробка неизбежно вызывает проблемы с галлюцинациями. Такие как ограничение В ящике есть аннотации для восьми человек, но двое из них находятся в поезде, а не ждут его.
Во-вторых,Набор LLaVAданные может быть ограничен только информацией аннотаций COCO.,Содержимое, не упомянутое в аннотациях вручную (например, деревья), часто пропускается.
в сравнении,Наша коллекция описаний к картинам не только дает исчерпывающее описание,На изображении нелегко пропустить важную информацию (например, информацию о платформе, текст на доске объявлений и т. д.).
После углубленного обучения этим первоначальным данным,Исследователи разработали мощную картину, похожую на описание ModelShare-Captioner. Воспользуйтесь этой моделью,Кроме того, они сгенерировали 1,2 миллиона высококачественных «картина-текстовых описаний» данныхShareGPT4V-PT для этапа предварительного обучения.
картина3 картина нравится описание Модель расширить данные установить размер процесс картина
Share-Captioner сравним с GPT4-Vision по своей способности описывать изображения изображений. Ниже приведены текстовые описания одного и того же изображения из разных источников.
Картина4 Сравнение описаний изображений из разных источников
Из вышеизложенного видно, что Share-Captioner сузил возможности модели GPT4-Vision в задачах описания изображений. Его можно использовать как «замену» для масштабного коллекционирования качественных картинных пар.
Исследователи впервые полностью продемонстрировали эффективность набора ShareGPT4Vданные на этапе контролируемой точной настройки (SFT), эквивалентно заменив эксперимент.
Это видно по картинке,Набор данных ShareGPT4V может значительно повысить производительность мультимодальной модели с несколькими архитектурами и множеством масштабов параметров!
Картина5 Используйте набор ShareGPT4Vданные, чтобы заменить изображение картины в SFT на описание данных и сравнить эффект модели изображения.
Следующий,Исследователи использовали набор ShareGPT4Vданные как на этапе предварительного обучения, так и на этапе контролируемой тонкой настройки.,Получил ПоделитьсяGPT4V-7BМодель.
ShareGPT4V-7B показал отличные результаты в большинстве мультимодальных тестов производительности и оптимальную производительность во всех размерах модели 7B!
картина6 Производительность ShareGPT4V-7B в различных мультимодальных тестах
В целом, запуск набора ShareGPT4Vданные заложил новый краеугольный камень для будущих мультимодальных исследований и приложений. Мультимодальный Открытый исходный Ожидается, что сообщество программистов разработает более мощную и интеллектуальную мультимодальную модель, ориентированную на высококачественные описания изображений.
Ссылки:
https://github.com/InternLM/InternLM-XComposer/tree/main/projects/ShareGPT4V