Модели Graph Foundation (GFM) — это предварительно обученные графовые модели, предназначенные для обработки графовых данных и задач в различных областях. Давайте рассмотрим эту концепцию подробно.
Github BUPT GAMMA Lab:GFMPapers: Must-read papers on graph foundation models (GFMs)
Этот обзорный документ о:https://arxiv.org/abs/2310.11829
Что такое базовая модель?
Базовая модель — это модель, которая предварительно обучена на широком спектре данных и может быть адаптирована к различным последующим задачам. Эти модели достигли замечательных успехов в таких областях, как обработка естественного языка (NLP) и компьютерное зрение (CV).
Архитектура База Модель и развитие стратегий обучения придают им уникальные характеристики.,нравитьсяПоявление и гомогенизация,Делая их основными строительными блоками для многочисленных последующих приложений искусственного интеллекта. Появление означает, что с расширением размера данныхи Модель,Он может спонтанно демонстрировать новые способности. в то же время,Однородность намекает на универсальность модели.,Включите его для развертывания в различных приложениях.
Проблемы изучения графов
Машинное обучение на графах претерпело трансформацию от поверхностных методов к методам глубокого обучения. Метод глубокого графического обучения,Графовые нейронные сети (GNN),Представляямеханизм передачи сообщенийИзменение ландшафта графического машинного обучения。Однако,GNNs У моделей по-прежнему есть проблемы с выразительностью и обобщением, особенно с учетом постоянно расширяющихся наборов данных и увеличения круга задач.
Существенным ограничением многих методов графовых нейронных сетей является то, что ониСлишком большая зависимость от контролируемого обучения,Это может привести к недостаточной устойчивости и обобщению в условиях разреженности и шума. Чтобы повысить способность нейронной сети к обобщению,Самостоятельное обучение стало многообещающим методом обучения представлению графов. Целью этих методов является создание графовых представлений, которые можно обобщить для различных последующих задач.,Но их все еще необходимо доработать, чтобы включить метки для последующих сценариев обучения графов. Однако,Такая зависимость от меток для последующих задач может ограничить их способность обобщать реальные ситуации.,Особенно, если сложно получить качественную этикетку.。
Базовая модель достигает замечательных успехов в обработке естественного языка.
Большие языковые модели (LLM) добились замечательных успехов в НЛП в качестве базовых моделей. Они могут обрабатывать не только текст, но и изображения, видео, аудио и мультимодальный ввод. Эта универсальность делает их превосходными для решения таких разнообразных задач, как компьютерное зрение, обработка аудиосигналов, системы рекомендаций и многое другое.
Концепция графовой модели
Модели на основе графов (GFM) — это большие модели, предварительно обученные на широком спектре графовых данных для точной настройки в различных последующих задачах обучения графов. GFM обладают двумя основными характеристиками: эмерджентностью и однородностью. Эмерджентность относится к новым возможностям, которые проявляются только в крупномасштабных графовых моделях, тогда как модели однородного представления могут адаптироваться к различным типам задач обучения графов.
В настоящее время не существует четкого решения по разработке и реализации GFM, но исследователи исследовали различные подходы, основанные на GNN, на основе LLM и GNN+LLM. Разработка GFM позволит ему иметь более широкие возможности обучения представлению графов, возможность переноса и применимость к более сложным графовым данным и задачам.
GraphGPT
Бумажный адрес:https://arxiv.org/abs/2310.13023
Github адрес:https://github.com/HKUDS/GraphGPT
В целом, объединение больших языковых моделей с обучением на графах является серьезной проблемой. Во-первых, достижение надлежащего согласования между структурной информацией графа и языковым пространством требует углубленного исследования. В то же время ключевыми проблемами, с которыми в настоящее время сталкиваются, являются то, как направлять большие языковые модели для эффективного понимания структурной информации графов и как дать большим языковым моделям возможность выполнять пошаговые рассуждения по последующим задачам обучения графов.
Фреймворк GraphGPT объединяет параметры структуры графа. Модели большой язык верно,Использование парадигмы точной настройки двухэтапных графовых инструкций для улучшения понимания структур графов и их адаптируемости.,Реинтеграция ChatGPT Улучшенные возможности пошагового рассуждения, обеспечивающие более высокую скорость рассуждения и более высокую точность прогнозирования графических задач.
сипользовать «Текст-Картинка» верноQi информация о структуре кодирования:через любой графический кодер(примернравиться Graph Transformer) и кодировщики текста (например, обычные Transformer) для получения закодированного графического представления и текстового представления. Затем проведите различные измерения посредством сравнительного обучения. «Текст-Картинка» Выравнивание.
Двухэтапная точная настройка графовых инструкций:
После двух вышеуказанных этапов обучения GraphGPT теперь может понимать заданную структуру графа и выполнять различные последующие задачи в предоставленном графе. В сгенерированных выходных данных модель большого языка не только делает прогнозы относительно типов узлов, но также предоставляет подробные объяснения для каждого прогноза, чтобы гарантировать, что процесс принятия решений модели является ясным и отслеживаемым.
Вклад GraphGPT:
Итоговые баллы:
2023 NeurIPS New Frontiers in Graph Learning Workshop - Graph Meets LLMs: Towards Large Graph Models
Бумажный адрес:https://arxiv.org/abs/2308.14522
Модель «большая картинка» — это своего рода большая Модель, которую следует использовать в области изображений.,Характеризуется законом расширения,Умеете понимать структуру и свойства графиков.,Способность обрабатывать новые наборы данных графиков и рассуждения по графикам.,Он широко используется во многих областях.
Обзор статьи: ключевые моменты:
В этом посте обсуждается объединение графов с большими языковыми моделями (LLM).,а Также важность этой комбинации в практических приложениях, таких как работа со сложными отношениями и использование биологических данных. В статье предлагается новая таксономия, которая делит существующие методы на три категории, организованные в соответствии с ролью LLM в задачах, связанных с графами (энхансер, предиктор и другие компоненты). Кроме того, в статье обсуждаются ограничения существующих исследований и указываются возможные направления будущих исследований.
В данной статье предлагается новый концептуальный прототип.,использовать для разработки универсальных методов обучения графов с использованием больших языков. Модель (LLM).,фокуссосредоточиться на "Где" и "как" аспект. от "Где" С этой точки зрения мы обобщили четыре ключевые процедуры обучения графов, включая определение задачи, разработку функций графа, выбор и оптимизацию, развертывание и предоставление услуг, и исследовали их в более широком контексте. LLMs Сценарии, которые следует использовать в этих программах. существовать "как" аспект, будет LLMs Компетенции реализуются с учетом требований каждой программы.
Это исследование указывает на то, что обучение представлению графов является важным шагом в графоориентированных задачах.,Был достигнут замечательный прогресс. Ранние технологии обычно работают в комплексной конфигурации.,Производительность во многом зависит от доступности большого количества данных тегов. Это ограничение приводит к появлению метода многократного обучения на графиках.,Для каждой из этих задач доступно лишь несколько тегов, специфичных для этой задачи. Учитывая богатую литературу в этой области,Целью данного исследования является обобщение последних событий.,Предоставьте сравнительную информацию,и определить будущие направления。Исследователи систематически классифицируют существующие исследования на три основные категории: методы метаобучения, методы предварительного обучения и гибридные методы.,Внутри каждой категории есть более подробная классификация.,помочь читателям в процессе выбора метода. в каждой категории,Проанализируйте взаимосвязь между этими методами.,И сравните их преимущества и ограничения. наконец,Обзор потенциальных будущих направлений мелкомасштабного обучения на графиках,способствовать постоянным инновациям в этой области.
краткое содержание
Da Model добилась значительного прогресса в области обработки естественного языка (NLP) и компьютерного зрения (CV).,Породил серию привлекательных приложений.,нравиться ChatGPT и Segment Anything Модель. Однако в области обучения графам то, как создать такую базовую модель и может ли действительно существовать единая базовая модель для обучения графам, до сих пор остается нерешенной загадкой. Поскольку в "Семантика" Существует большая разница в моделировании структуры графа, и трудно добиться моделирования структуры графа для нескольких задач с помощью одного набора. ГрафGPT Исследование опирается на превосходные возможности семантического моделирования больших языковых моделей и дает им структурированное понимание с помощью технологии точной настройки графовых инструкций, обеспечивая возможный путь развития моделей на основе графов.
верно Data-Centric Мысли об обучении графам:База Модель Ростданные Искусственный интеллект в основе(Data-Centric AI) потенциал и преимущества. Однако из-за «структурной корреляции» между различными структурами графов Не может быть как NLP преобразован в единый token представлять или напоминать CV в пиксельное представление, так как установить и продвигать Data-Centric Концепция обучения на графах все еще остается открытым вопросом.