Исследование моделей Graph Foundation
Исследование моделей Graph Foundation

Модели Graph Foundation (GFM) — это предварительно обученные графовые модели, предназначенные для обработки графовых данных и задач в различных областях. Давайте рассмотрим эту концепцию подробно.

Github BUPT GAMMA LabGFMPapers: Must-read papers on graph foundation models (GFMs)

Этот обзорный документ о:https://arxiv.org/abs/2310.11829

Что такое базовая модель?

Базовая модель — это модель, которая предварительно обучена на широком спектре данных и может быть адаптирована к различным последующим задачам. Эти модели достигли замечательных успехов в таких областях, как обработка естественного языка (NLP) и компьютерное зрение (CV).

Архитектура База Модель и развитие стратегий обучения придают им уникальные характеристики.,нравитьсяПоявление и гомогенизация,Делая их основными строительными блоками для многочисленных последующих приложений искусственного интеллекта. Появление означает, что с расширением размера данныхи Модель,Он может спонтанно демонстрировать новые способности. в то же время,Однородность намекает на универсальность модели.,Включите его для развертывания в различных приложениях.

Проблемы изучения графов

Машинное обучение на графах претерпело трансформацию от поверхностных методов к методам глубокого обучения. Метод глубокого графического обучения,Графовые нейронные сети (GNN),Представляямеханизм передачи сообщенийИзменение ландшафта графического машинного обучения。Однако,GNNs У моделей по-прежнему есть проблемы с выразительностью и обобщением, особенно с учетом постоянно расширяющихся наборов данных и увеличения круга задач.

Существенным ограничением многих методов графовых нейронных сетей является то, что ониСлишком большая зависимость от контролируемого обучения,Это может привести к недостаточной устойчивости и обобщению в условиях разреженности и шума. Чтобы повысить способность нейронной сети к обобщению,Самостоятельное обучение стало многообещающим методом обучения представлению графов. Целью этих методов является создание графовых представлений, которые можно обобщить для различных последующих задач.,Но их все еще необходимо доработать, чтобы включить метки для последующих сценариев обучения графов. Однако,Такая зависимость от меток для последующих задач может ограничить их способность обобщать реальные ситуации.,Особенно, если сложно получить качественную этикетку.

Базовая модель достигает замечательных успехов в обработке естественного языка.

Большие языковые модели (LLM) добились замечательных успехов в НЛП в качестве базовых моделей. Они могут обрабатывать не только текст, но и изображения, видео, аудио и мультимодальный ввод. Эта универсальность делает их превосходными для решения таких разнообразных задач, как компьютерное зрение, обработка аудиосигналов, системы рекомендаций и многое другое.

Концепция графовой модели

Модели на основе графов (GFM) — это большие модели, предварительно обученные на широком спектре графовых данных для точной настройки в различных последующих задачах обучения графов. GFM обладают двумя основными характеристиками: эмерджентностью и однородностью. Эмерджентность относится к новым возможностям, которые проявляются только в крупномасштабных графовых моделях, тогда как модели однородного представления могут адаптироваться к различным типам задач обучения графов.

В настоящее время не существует четкого решения по разработке и реализации GFM, но исследователи исследовали различные подходы, основанные на GNN, на основе LLM и GNN+LLM. Разработка GFM позволит ему иметь более широкие возможности обучения представлению графов, возможность переноса и применимость к более сложным графовым данным и задачам.

GraphGPT

Бумажный адрес:https://arxiv.org/abs/2310.13023

Github адрес:https://github.com/HKUDS/GraphGPT

Вставьте сюда описание изображения
Вставьте сюда описание изображения

В целом, объединение больших языковых моделей с обучением на графах является серьезной проблемой. Во-первых, достижение надлежащего согласования между структурной информацией графа и языковым пространством требует углубленного исследования. В то же время ключевыми проблемами, с которыми в настоящее время сталкиваются, являются то, как направлять большие языковые модели для эффективного понимания структурной информации графов и как дать большим языковым моделям возможность выполнять пошаговые рассуждения по последующим задачам обучения графов.

Фреймворк GraphGPT объединяет параметры структуры графа. Модели большой язык верно,Использование парадигмы точной настройки двухэтапных графовых инструкций для улучшения понимания структур графов и их адаптируемости.,Реинтеграция ChatGPT Улучшенные возможности пошагового рассуждения, обеспечивающие более высокую скорость рассуждения и более высокую точность прогнозирования графических задач.

сипользовать «Текст-Картинка» верноQi информация о структуре кодирования:через любой графический кодер(примернравиться Graph Transformer) и кодировщики текста (например, обычные Transformer) для получения закодированного графического представления и текстового представления. Затем проведите различные измерения посредством сравнительного обучения. «Текст-Картинка» Выравнивание.

Двухэтапная точная настройка графовых инструкций

  • На первом этапе парадигмы точной настройки графовых инструкций принимается стратегия точной настройки инструкций с самоконтролем, которая интегрирует собственные знания о структуре графа в модель языка, расширяет его возможности рассуждения и позволяет ему точно фиксировать граф связанной информации в структуре. В частности, в этом исследовании создается задача сопоставления графов с учетом структуры, которая направляет языковые метки естественного языка для идентификации отдельных узлов в графе. Эта учебная задача играет центральную роль в точном сопоставлении узлов графа с соответствующими текстовыми описаниями, тем самым углубляя понимание структуры графа.
  • На втором этапе предлагается точная настройка инструкций для конкретной задачи с целью настройки поведения вывода Модели для удовлетворения конкретных ограничений и требований различных задач обучения графов, таких как классификация узлов или прогнозирование связей. Путем точной настройки использования графических инструкций для конкретной задачи, правда, большой языковой модели, она помогает модели генерировать ответы, более подходящие для текущей задачи обучения графу, что еще больше улучшает адаптивность и производительность модели при работе с различными задачами обучения графа.
  • Наконец, большой язык модели с закрытым исходным кодом (например, ChatGPT) очищается и интегрируется в GraphGPT , что расширяет возможности поэтапного рассуждения и значительно снижает снижение производительности, вызванное сдвигами распределения.

После двух вышеуказанных этапов обучения GraphGPT теперь может понимать заданную структуру графа и выполнять различные последующие задачи в предоставленном графе. В сгенерированных выходных данных модель большого языка не только делает прогнозы относительно типов узлов, но также предоставляет подробные объяснения для каждого прогноза, чтобы гарантировать, что процесс принятия решений модели является ясным и отслеживаемым.

Вклад GraphGPT

  • Согласуйте структурные знания, специфичные для предметной области графа, с возможностями рассуждения большого языка, чтобы улучшить обобщение обучения графам.
  • Предлагаемый метод направлен на интеграцию Модели большого языка со структурой графа. Выравнивание посредством парадигмы точной настройки инструкций графа. Эта парадигма сочетает в себе точную настройку инструкций с самоконтролем для улучшения понимания и способности рассуждения Модели Верно графовой структуры большого языка. Кроме того, введена точная настройка инструкций для конкретных задач, чтобы улучшить адаптируемость модели к различным задачам обучения графов.
  • Эксперимент оценил GraphGPT Производительность в задачах обучения на графе с учителем и с нулевым выстрелом. Сравнивая с современными базовыми показателями, GraphGPT Демонстрирует превосходные возможности обобщения в различных условиях.

Итоговые баллы

  1. Нейронные сети графов (GNN) эффективны при обработке и изучении данных графов, но при этом имеют разреженную и зашумленную надежность данных и низкую производительность обобщения.
  2. Обучение с самоконтролем потенциально может улучшить производительность обобщения графовых нейронных сетей, но оно по-прежнему требует точной настройки меток последующих задач, что ограничивает производительность обобщения.
  3. данные Интеллектуальная лаборатория Университета Гонконга GraphGPT В сочетании со знанием структуры графов и крупномасштабной языковой моделью это повышает производительность задач по изучению графов.
  4. GraphGPT Используйте двухэтапный метод точной настройки графовых инструкций, чтобы улучшить понимание и способность к рассуждению больших языковых структур. Модельно-графовые структуры.
  5. GraphGPT Он демонстрирует превосходную способность к обобщению в задачах обучения на графе с учителем и с нулевым выстрелом, превосходя базовую модель.
  6. GraphGPT расширяет возможности поэтапного вывода с помощью метода дистилляции мыслительной цепочки, значительно повышая производительность сложных задач по обучению графов.
  7. GraphGPT Эффективность обучения и рассуждения высока, он может обрабатывать крупномасштабные графики и снижать потребление параметров и вычислительных ресурсов.

2023 NeurIPS New Frontiers in Graph Learning Workshop - Graph Meets LLMs: Towards Large Graph Models

Бумажный адрес:https://arxiv.org/abs/2308.14522

Модель «большая картинка» — это своего рода большая Модель, которую следует использовать в области изображений.,Характеризуется законом расширения,Умеете понимать структуру и свойства графиков.,Способность обрабатывать новые наборы данных графиков и рассуждения по графикам.,Он широко используется во многих областях.

Обзор статьи: ключевые моменты

  1. Впервые Университет Цинхуа предложил концепцию большой модели с целью способствовать применению большой модели в области графики.
  2. Размер графика Модель имеет характеристики закона расширения.По мере увеличения размера Модели, размера набора данных и объема обучающих вычислений производительность продолжает оптимизироваться, а способность понимания верных данных графа улучшается.
  3. Большой график. Модель должна понимать структуру и свойства графа. Предварительное обучение графа — многообещающий метод, позволяющий уменьшить зависимость от верных меток и дать модели возможность генерировать графики.
  4. Эффективный граф-граф должен обладать способностью понимать контекст графа и обрабатывать новые наборы графов, что связано с обучением графа с несколькими или нулевыми выстрелами, многозадачным обучением графа и способностью обобщать за пределами распределения графа.
  5. Рассуждение о графах — это распространенный метод обработки задач, связанных с графами, включая анализ топологических атрибутов, рассуждение о многошаговой окрестности, обработку глобальных атрибутов, шаблонов и т. д., нейронную сеть графа и Graph Transformer Это основная графовая архитектура глубокого обучения.
  6. Разработка модели общей картины опирается на сбор данных высококачественных изображений, и для обеспечения эффективности Модели необходимо собирать более разнообразные данные изображений.
  7. Модель Туда широко используется в области рекомендательных систем, графов знаний, молекулярного конструирования, финансов, кодирования и программирования, городских вычислений и транспорта.

В этом посте обсуждается объединение графов с большими языковыми моделями (LLM).,а Также важность этой комбинации в практических приложениях, таких как работа со сложными отношениями и использование биологических данных. В статье предлагается новая таксономия, которая делит существующие методы на три категории, организованные в соответствии с ролью LLM в задачах, связанных с графами (энхансер, предиктор и другие компоненты). Кроме того, в статье обсуждаются ограничения существующих исследований и указываются возможные направления будущих исследований.

  • Рисунок с LLMs Комбинация: Исследователи объединяют графики и LLMs В сочетании с обработкой графов, содержащих узлы с текстовыми атрибутами, это оказалось успешным в нескольких областях.
  • LLMs Классификация ролей: LLM Роли в задачах, связанных с графами, можно разделить на три категории: усилители и предикторы.

В данной статье предлагается новый концептуальный прототип.,использовать для разработки универсальных методов обучения графов с использованием больших языков. Модель (LLM).,фокуссосредоточиться на "Где" и "как" аспект. от "Где" С этой точки зрения мы обобщили четыре ключевые процедуры обучения графов, включая определение задачи, разработку функций графа, выбор и оптимизацию, развертывание и предоставление услуг, и исследовали их в более широком контексте. LLMs Сценарии, которые следует использовать в этих программах. существовать "как" аспект, будет LLMs Компетенции реализуются с учетом требований каждой программы.

Это исследование указывает на то, что обучение представлению графов является важным шагом в графоориентированных задачах.,Был достигнут замечательный прогресс. Ранние технологии обычно работают в комплексной конфигурации.,Производительность во многом зависит от доступности большого количества данных тегов. Это ограничение приводит к появлению метода многократного обучения на графиках.,Для каждой из этих задач доступно лишь несколько тегов, специфичных для этой задачи. Учитывая богатую литературу в этой области,Целью данного исследования является обобщение последних событий.,Предоставьте сравнительную информацию,и определить будущие направления。Исследователи систематически классифицируют существующие исследования на три основные категории: методы метаобучения, методы предварительного обучения и гибридные методы.,Внутри каждой категории есть более подробная классификация.,помочь читателям в процессе выбора метода. в каждой категории,Проанализируйте взаимосвязь между этими методами.,И сравните их преимущества и ограничения. наконец,Обзор потенциальных будущих направлений мелкомасштабного обучения на графиках,способствовать постоянным инновациям в этой области.

краткое содержание

Da Model добилась значительного прогресса в области обработки естественного языка (NLP) и компьютерного зрения (CV).,Породил серию привлекательных приложений.,нравиться ChatGPT и Segment Anything Модель. Однако в области обучения графам то, как создать такую ​​базовую модель и может ли действительно существовать единая базовая модель для обучения графам, до сих пор остается нерешенной загадкой. Поскольку в "Семантика" Существует большая разница в моделировании структуры графа, и трудно добиться моделирования структуры графа для нескольких задач с помощью одного набора. ГрафGPT Исследование опирается на превосходные возможности семантического моделирования больших языковых моделей и дает им структурированное понимание с помощью технологии точной настройки графовых инструкций, обеспечивая возможный путь развития моделей на основе графов.

верно Data-Centric Мысли об обучении графам:База Модель Ростданные Искусственный интеллект в основе(Data-Centric AI) потенциал и преимущества. Однако из-за «структурной корреляции» между различными структурами графов Не может быть как NLP преобразован в единый token представлять или напоминать CV в пиксельное представление, так как установить и продвигать Data-Centric Концепция обучения на графах все еще остается открытым вопросом.

boy illustration
Неразрушающее увеличение изображений одним щелчком мыши, чтобы сделать их более четкими артефактами искусственного интеллекта, включая руководства по установке и использованию.
boy illustration
Копикодер: этот инструмент отлично работает с Cursor, Bolt и V0! Предоставьте более качественные подсказки для разработки интерфейса (создание навигационного веб-сайта с использованием искусственного интеллекта).
boy illustration
Новый бесплатный RooCline превосходит Cline v3.1? ! Быстрее, умнее и лучше вилка Cline! (Независимое программирование AI, порог 0)
boy illustration
Разработав более 10 проектов с помощью Cursor, я собрал 10 примеров и 60 подсказок.
boy illustration
Я потратил 72 часа на изучение курсорных агентов, и вот неоспоримые факты, которыми я должен поделиться!
boy illustration
Идеальная интеграция Cursor и DeepSeek API
boy illustration
DeepSeek V3 снижает затраты на обучение больших моделей
boy illustration
Артефакт, увеличивающий количество очков: на основе улучшения характеристик препятствия малым целям Yolov8 (SEAM, MultiSEAM).
boy illustration
DeepSeek V3 раскручивался уже три дня. Сегодня я попробовал самопровозглашенную модель «ChatGPT».
boy illustration
Open Devin — инженер-программист искусственного интеллекта с открытым исходным кодом, который меньше программирует и больше создает.
boy illustration
Эксклюзивное оригинальное улучшение YOLOv8: собственная разработка SPPF | SPPF сочетается с воспринимаемой большой сверткой ядра UniRepLK, а свертка с большим ядром + без расширения улучшает восприимчивое поле
boy illustration
Популярное и подробное объяснение DeepSeek-V3: от его появления до преимуществ и сравнения с GPT-4o.
boy illustration
9 основных словесных инструкций по доработке академических работ с помощью ChatGPT, эффективных и практичных, которые стоит собрать
boy illustration
Вызовите deepseek в vscode для реализации программирования с помощью искусственного интеллекта.
boy illustration
Познакомьтесь с принципами сверточных нейронных сетей (CNN) в одной статье (суперподробно)
boy illustration
50,3 тыс. звезд! Immich: автономное решение для резервного копирования фотографий и видео, которое экономит деньги и избавляет от беспокойства.
boy illustration
Cloud Native|Практика: установка Dashbaord для K8s, графика неплохая
boy illustration
Краткий обзор статьи — использование синтетических данных при обучении больших моделей и оптимизации производительности
boy illustration
MiniPerplx: новая поисковая система искусственного интеллекта с открытым исходным кодом, спонсируемая xAI и Vercel.
boy illustration
Конструкция сервиса Synology Drive сочетает проникновение в интрасеть и синхронизацию папок заметок Obsidian в облаке.
boy illustration
Центр конфигурации————Накос
boy illustration
Начинаем с нуля при разработке в облаке Copilot: начать разработку с минимальным использованием кода стало проще
boy illustration
[Серия Docker] Docker создает мультиплатформенные образы: практика архитектуры Arm64
boy illustration
Обновление новых возможностей coze | Я использовал coze для создания апплета помощника по исправлению домашних заданий по математике
boy illustration
Советы по развертыванию Nginx: практическое создание статических веб-сайтов на облачных серверах
boy illustration
Feiniu fnos использует Docker для развертывания личного блокнота Notepad
boy illustration
Сверточная нейронная сеть VGG реализует классификацию изображений Cifar10 — практический опыт Pytorch
boy illustration
Начало работы с EdgeonePages — новым недорогим решением для хостинга веб-сайтов
boy illustration
[Зона легкого облачного игрового сервера] Управление игровыми архивами
boy illustration
Развертывание SpringCloud-проекта на базе Docker и Docker-Compose