https://arxiv.org/abs/2401.10891 https://github.com/LiheYoung/Depth-Anything https://depth-anything.github.io/
В данной статье предлагается метод монокулярной оценки глубины (Монокулярный Depth Estimation, MDE)очень практичное решениеDepth Anything「платить даньSegment Anything», целью которого является создание простой и мощной базовой глубокой модели, способной обрабатывать любое изображение в среде задачи. С этой целью автор исследовал три аспекта:
Автор оценил возможности модели с нулевым снимком на шести общедоступных наборах данных и случайно снятых изображениях; новый SOTA был достигнут путем точной настройки измеренной информации о глубине, а затем была создана более совершенная модель глубины, которая затем привела к созданию более эффективной сети ControlNet с контролем глубины; Для получения дополнительных демонстрационных примеров рекомендуется перейти на домашнюю страницу проекта: https://eepsearch-anything.github.io.
На рисунке выше показана архитектурная схема предлагаемого решения. В этой статье используются помеченные и немаркированные изображения для обучения лучшей монокулярной оценке глубины. гипотеза
Представляйте помеченные и немаркированные наборы данных соответственно.
Изучите модель учителя Т;
Дайте псевдоярлыки;
В приведенной выше таблице показаны помеченные и неразмеченные наборы данных, созданные в этой статье. По сравнению с MiDaS v3.1 эта схема использует меньшее количество помеченных наборов данных (6 против 12).
Хотя менее практично, есть теги данных.,Но болееЛегкодоступных и разнообразных немаркированных данных достаточно, чтобы компенсировать охват данных и значительно улучшить способность к обобщению и надежность модели.。также,Для дальнейшего повышения квалификации учителя Модель,Автор использует предварительно обученные веса DINOv2 для инициализации.。
Благодаря развитию Интернета мы можем легко создать разнообразный и крупномасштабный набор неразмеченных данных, а также использовать предварительно обученные модели MDE для создания плотных карт глубины для этих неразмеченных изображений. Это более удобно и эффективно, чем стереосогласование и реконструкция SfM.
Учитывая предварительно обученную модель учителя MDE T, мы можем преобразовать немаркированный набор данных
Преобразование в набор данных с псевдомаркировкой
:
На основе объединенных данных
,Мы можем обучать студентов Модели ~ но,к сожалению:При приведенной выше схеме самообучения нам сложно добиться повышения производительности.。
Предположение автора:Когда имеется достаточное количество размеченных данных, дополнительные знания, полученные от неразмеченных данных, весьма ограничены.。для этого,Авторы формулируют более сложные задачи оптимизации для модели студента, чтобы получить дополнительные визуальные знания из дополнительных немаркированных данных.。
во время тренировки,авторВнесение сильных возмущений в неразмеченные данные,Этот вид леченияПомогает моделям учащихся активно изучать дополнительные визуальные знания и изучать на их основе инвариантные представления.。Что касается конкретной реализации,В основном существуют два типа нарушений:
Хотя описанная выше операция относительно проста,но ониПомогает крупномасштабным немаркированным данным значительно улучшить базовый уровень маркированных изображений.。
Хотя были проведены некоторые исследования по улучшению оценки глубины с помощью задач семантической сегментации, Модельпроизводительность,Но, к сожалению: после попытки,Комбинированное решение RAM+GroundDINO+HQ-SAM не может еще больше повысить производительность исходной модели MDE.。
автор Спекулировать:Декодирование изображений в дискретные пространства категорий приведет к потере слишком большого количества семантической информации. Ограниченная информация, содержащаяся в этих семантических масках, затрудняет дальнейшее повышение производительности глубоких моделей.(Особенно Модельуже Очень конкурентоспособный)。
поэтому,Автор исследует более надежную семантическую информацию из схемы DINOv2, чтобы помочь в решении задачи оценки глубины.,Прямо сейчасПеренесите сильные семантические возможности DINOv2 в предлагаемую глубокую модель за счет потери выравнивания вспомогательных функций.。Функция потерь определяется следующим образом:
Ключом к выравниванию функций является то, что семантический кодировщик DINOv2 имеет тенденцию генерировать схожие функции для разных частей одного и того же объекта. но,углубленная оценка,Разные части могут иметь разную глубину. поэтому,Нет необходимости требовать, чтобы глубокая модель генерировала точно те же функции, что и замороженный кодировщик.。
Чтобы решить эту проблему, автор устанавливает параметр избыточности для выравнивания признаков.
:когда
Когда сходство между,Этот пиксель не включен в вышеуказанную потерю。Это делаетЭто решение имеет как представление семантического восприятия DINOv2, так и возможность представления распознавания компонентов для глубокого контроля.。
В приведенной выше таблице сравнивается производительность текущего решения SOTA MiDaS v3.1 для оценки относительной глубины и предлагаемого решения на различных наборах данных. Вы можете увидеть:
Показатель увеличился с 0,766 до 0,789;
В двух приведенных выше таблицах сравниваются углы оценки глубины измерения внутри области и вне области. Очевидно, что предложенная схема обеспечивает очень хорошие характеристики точной настройки.
Наконец, автор также проверил способность предлагаемого кодировщика MDE выполнять задачу семантической сегментации, как показано в таблице выше.