оптимизация скорости прогрева onnxruntime-gpu
оптимизация скорости прогрева onnxruntime-gpu

Первый вывод onnxruntime-gpu после запуска программы потребляет больше системных ресурсов и занимает больше времени. В этой статье описан метод оптимизации.

Описание проблемы

существовать Python Вниз onnxruntime-gpu нагрузка onnx После модели создайте seddion Сделайте выводы по данным,существование займет больше времени в первый раз, чем последующие казни,Необходимо больше ресурсов.

Язык кода:text
копировать
session = onnxruntime.InferenceSession(str(model_path),  providers=[
                "CUDAExecutionProvider",
                "CPUExecutionProvider"
            ])
session.run(None, inputs)

решение

onnxruntime В официальной документации есть некоторая информация о Provider Описание элементов конфигурации:NVIDIA - CUDA | onnxruntime

в https://onnxruntime.ai/docs/execution-providers/CUDA-ExecutionProvider.html#cudnn_conv_algo_search

cudnn_conv_algo_search

The type of search done for cuDNN convolution algorithms.

Value

Description

EXHAUSTIVE (0)

expensive exhaustive benchmarking using cudnnFindConvolutionForwardAlgorithmEx

HEURISTIC (1)

lightweight heuristic based search using cudnnGetConvolutionForwardAlgorithm_v7

DEFAULT (2)

default algorithm using CUDNN_CONVOLUTION_FWD_ALGO_IMPLICIT_PRECOMP_GEMM

Оннкс описан оптимизация Операция поиска инициализации операции свертки, существует свертка больше, и Onnx Этот вариант требует много времени при приеме нескольких входных данных переменного размера. По умолчанию EXHAUSTIVE, Это самый трудоемкий вид.

Поэтому, если вы столкнулись с вышеуказанными проблемами, вы можете попробовать изменить эту опцию на DEFAULT

Язык кода:text
копировать
session = onnxruntime.InferenceSession(str(model_path), opts, providers=[
    ("CUDAExecutionProvider", {"cudnn_conv_algo_search": "DEFAULT"}),
    "CPUExecutionProvider"
])

Этот вариантоптимизациясуществовать Linux Вниз Доход не слишком большой, существуют Windows Вниз может изменить время прогрева инициализации с 500s сокращено до 70s。

Другие настройки производительности

max_workspace

ОРТ будет использовать библиотеку CuDNN для выполнения вычислений свертки. Первый шаг — решить, какой алгоритм свертки лучше, основываясь на форме входных данных, форме фильтра…

Рабочее пространство необходимо выделить заранее. Если рабочее пространство недостаточно велико, оптимальный алгоритм свертки может не выполняться.

Поэтому вам нужно сделать рабочую область как можно больше, чтобы выбрать алгоритм свертки с более высокой производительностью.

В версиях до 1.14 флаг cudnn_conv_use_max_workspace по умолчанию равен 0, что означает, что будет выделено только 32 МБ. В версиях после 1.14 значение по умолчанию установлено на 1, что гарантирует выбор оптимального алгоритма свертки, но может привести к пиковому использованию памяти. увеличивать.

Официальное заявление: fp16. модель,cudnn_conv_use_max_workspace установлен на 1 очень важно,floatanddouble Не обязательно

Если его необходимо изменить:

Язык кода:text
копировать
providers = [("CUDAExecutionProvider", {"cudnn_conv_use_max_workspace": '1'})]
io_binding

Это может сократить время копирования данных (иногда между устройствами).

Если вы хотите использовать это, вам нужно заменить InferenceSession.run() на InferenceSession.run_with_iobinding().

При рассуждении:

Язык кода:text
копировать
session.run_with_iobinding(binding)

существования Перед этим нужно создать привязку:

Язык кода:text
копировать
binding = session.io_binding()

Привяжите необходимые входные и выходные данные к привязке:

Язык кода:text
копировать
# входить X от numpy array
io_binding.bind_cpu_input('X', X)

# входить X от torch tensor
X_tensor = X.contiguous()
binding.bind_input(
    name='X',
    device_type='cuda',
    device_id=0,
    element_type=np.float32,
    shape=tuple(x_tensor.shape),
    buffer_ptr=x_tensor.data_ptr(),
)

# Пусть выход непосредственно выводит существующий один torch tensor начальство
np_type = np.float32
DEVICE_NAME = 'cuda' if torch.cuda.is_available() else 'cpu'
DEVICE_INDEX = 0     # Replace this with the index of the device you want to run on
z_tensor = torch.empty(x_tensor.shape, dtype=torch_type, device=DEVICE).contiguous()
binding.bind_output(
    name='z',
    device_type=DEVICE_NAME,
    device_id=DEVICE_INDEX,
    element_type=np_type,
    shape=tuple(z_tensor.shape),
    buffer_ptr=z_tensor.data_ptr(),
)

# Пусть вывод идет непосредственно в существование numpy array начальство
binding.bind_output(

)
Convolution Input Padding

Когда свертка преобразуется в умножение больших матриц, вы можете выбрать два метода заполнения: N, C, D, 1 или N, C, 1, D. Результаты одинаковы, но поскольку выбраны разные алгоритмы свертки, производительность может снизиться. быть очень хорошим.

Особенно такая видеокарта, как A100.

Метод установки:

Язык кода:text
копировать
providers = [("CUDAExecutionProvider", {"cudnn_conv1d_pad_to_nc1d": '1'})]

Можно установить 0 и настройки 1 Попробуйте оба и посмотрите, какой из них быстрее.

Ссылки

Ссылка на статью:

https://cloud.tencent.com/developer/article/2411347

boy illustration
Неразрушающее увеличение изображений одним щелчком мыши, чтобы сделать их более четкими артефактами искусственного интеллекта, включая руководства по установке и использованию.
boy illustration
Копикодер: этот инструмент отлично работает с Cursor, Bolt и V0! Предоставьте более качественные подсказки для разработки интерфейса (создание навигационного веб-сайта с использованием искусственного интеллекта).
boy illustration
Новый бесплатный RooCline превосходит Cline v3.1? ! Быстрее, умнее и лучше вилка Cline! (Независимое программирование AI, порог 0)
boy illustration
Разработав более 10 проектов с помощью Cursor, я собрал 10 примеров и 60 подсказок.
boy illustration
Я потратил 72 часа на изучение курсорных агентов, и вот неоспоримые факты, которыми я должен поделиться!
boy illustration
Идеальная интеграция Cursor и DeepSeek API
boy illustration
DeepSeek V3 снижает затраты на обучение больших моделей
boy illustration
Артефакт, увеличивающий количество очков: на основе улучшения характеристик препятствия малым целям Yolov8 (SEAM, MultiSEAM).
boy illustration
DeepSeek V3 раскручивался уже три дня. Сегодня я попробовал самопровозглашенную модель «ChatGPT».
boy illustration
Open Devin — инженер-программист искусственного интеллекта с открытым исходным кодом, который меньше программирует и больше создает.
boy illustration
Эксклюзивное оригинальное улучшение YOLOv8: собственная разработка SPPF | SPPF сочетается с воспринимаемой большой сверткой ядра UniRepLK, а свертка с большим ядром + без расширения улучшает восприимчивое поле
boy illustration
Популярное и подробное объяснение DeepSeek-V3: от его появления до преимуществ и сравнения с GPT-4o.
boy illustration
9 основных словесных инструкций по доработке академических работ с помощью ChatGPT, эффективных и практичных, которые стоит собрать
boy illustration
Вызовите deepseek в vscode для реализации программирования с помощью искусственного интеллекта.
boy illustration
Познакомьтесь с принципами сверточных нейронных сетей (CNN) в одной статье (суперподробно)
boy illustration
50,3 тыс. звезд! Immich: автономное решение для резервного копирования фотографий и видео, которое экономит деньги и избавляет от беспокойства.
boy illustration
Cloud Native|Практика: установка Dashbaord для K8s, графика неплохая
boy illustration
Краткий обзор статьи — использование синтетических данных при обучении больших моделей и оптимизации производительности
boy illustration
MiniPerplx: новая поисковая система искусственного интеллекта с открытым исходным кодом, спонсируемая xAI и Vercel.
boy illustration
Конструкция сервиса Synology Drive сочетает проникновение в интрасеть и синхронизацию папок заметок Obsidian в облаке.
boy illustration
Центр конфигурации————Накос
boy illustration
Начинаем с нуля при разработке в облаке Copilot: начать разработку с минимальным использованием кода стало проще
boy illustration
[Серия Docker] Docker создает мультиплатформенные образы: практика архитектуры Arm64
boy illustration
Обновление новых возможностей coze | Я использовал coze для создания апплета помощника по исправлению домашних заданий по математике
boy illustration
Советы по развертыванию Nginx: практическое создание статических веб-сайтов на облачных серверах
boy illustration
Feiniu fnos использует Docker для развертывания личного блокнота Notepad
boy illustration
Сверточная нейронная сеть VGG реализует классификацию изображений Cifar10 — практический опыт Pytorch
boy illustration
Начало работы с EdgeonePages — новым недорогим решением для хостинга веб-сайтов
boy illustration
[Зона легкого облачного игрового сервера] Управление игровыми архивами
boy illustration
Развертывание SpringCloud-проекта на базе Docker и Docker-Compose