Прогнозирование цен на электроэнергию играет жизненно важную роль в современных энергосистемах. Технология прогнозирования цен на электроэнергию (EPF) за последние годы достигла значительного прогресса, при этом ведущую роль играют последние разработки в области машинного обучения и искусственного интеллекта. Но в области прогнозирования цен на электроэнергию (EPF) воспроизводимость всегда была серьезной проблемой. Во многих исследованиях использовались уникальные и закрытые наборы данных, а их методы проверялись на слишком коротких и ограниченных выборках рынка, что затрудняло оценку эффективности новых алгоритмов прогнозирования.
недавно,Иностранный исследователь опубликовал на arxiv новую статью: бумага,предложилНовый метод прогнозирования цен на электроэнергию (EPF) на основе чистой модели трансформатора。В отличие от других методов,Этот метод не объединяет рекуррентные нейронные сети с механизмами внимания.,Это демонстрирует, что одного уровня внимания достаточно, чтобы уловить временные закономерности. В статье также было проведено справедливое сравнение Модели с использованием набора инструментов EPF с открытым исходным кодом.,и предоставляет код для повышения воспроизводимости и прозрачности исследований EPF. Результаты экспериментов показывают,Модель трансформатора превосходит традиционные методы,Предоставление перспективных решений для надежной и устойчивой работы энергосистемы.
Название статьи:A Transformer approach for Electricity Price Forecasting
Бумажный адрес:https://arxiv.org/abs/2403.16108
Исходный код бумаги:https://github.com/osllogon/epf-transformers
модельный подход
Целью Прогноза цен на электроэнергию (EPF), предложенного автором, может быть Подвести итогдля:На основе экзогенных переменных в день D+1, прошлых цен и экзогенных переменных спрогнозируйте цену на электроэнергию в течение 24 часов в день D+1.
Рис. 1. Структура моделирования, предложенная автором
Эта модель прогнозирования цен на электроэнергию представляет собой чистую модель Transformer, особенно похожую на кодировщик Transformer в BERT или ViT. Благодаря этой структуре Transformer может улавливать временные закономерности и больше фокусироваться на долгосрочных тенденциях при составлении прогнозов, что имеет преимущества перед другими временными моделями, такими как LSTM. В области обработки естественного языка было доказано, что Transformer не забывает предыдущую информацию при обработке длинных последовательностей.
Автор считает, что мы должны установить прямую связь между экзогенными переменными и ценами и позволить модели Трансформер отвечать за динамику цен. Поэтому в качестве исторической информации в модель включены только прошлые цены.
Модель будет иметь два входа: Нет.
значение экзогенной переменной дня и прошлого
Цена за сутки. Общая структура показана на рисунке 1. Тогда диапазон, используемый для прошлых цен, будет равен
, включая эти два дня. этот
День будет гиперпараметром модели, называемым длиной последовательности, который необходимо оптимизировать.
Рисунок 2. Структура модели.
Основная архитектура модели содержит два основных потока данных, по одному для каждого входа. Результаты каждого потока затем объединяются и используются в качестве входных данных для многомерного многослойного перцептрона (MLP) для прогнозирования цены следующего дня.
Давайте поговорим об архитектуре этой модели подробнее.
С одной стороны, поток обработки экзогенных переменных в день D+1 завершается через уровень внедрения. С другой стороны, прежде всего
Прошлые цены вводятся на уровень внедрения. Затем выходные данные объединяются с позиционным кодированием, и результат передается в набор кодеров Transformer для учета временной динамики.
Рисунок 3. Структура преобразовательного энкодера.
Структура кодера Transformer показана на рисунке 3. Входные размеры первого кодера в стеке:
(где n — гиперпараметр выходной размерности слоя внедрения), а входные размерности остальных кодеров равны
, это связано с существованием слоя прямой связи. Выходные размеры стека Transformer:
, где h — скрытый размер слоя прямой связи. Наконец, только это
Последний элемент выходной последовательности дня объединяется с выходными данными потока экзогенных переменных для получения окончательного прогноза.
Как упоминалось ранее, выходные данные двух разных потоков будут объединены и переданы в многослойный перцептрон (MLP), входная размерность которого равна
. Выходом многослойного перцептрона будет
Окончательный прогноз 24-часовой цены за день (т. е. 24-мерный выходной слой).
Два слоя внедрения, определенные для предварительной обработки входных данных, представляют собой отображение данных в пространство более высокой размерности, включая уровень прямой связи и функцию активации ReLU. Эти слои преобразуют ежедневные 24-значные векторы в векторы более высокого порядка, как показано на рисунке 4 ниже.
Рис. 4. Слой внедрения
Таким образом, модель в основном содержит четыре структуры: два типа слоев внедрения, набор кодеров-трансформеров и многослойный перцептрон для окончательного прогнозирования.
Экспериментальный эффект
В таблицах 1, 2 и 3 показаны результаты собственной модели Naive, DNN, перенормированной с использованием всех прошлых данных, и модели DNN, перенормированной с использованием только прошлогодних данных соответственно. Можно заметить, что в некоторых случаях модель DNN дает лучшие результаты, а в других случаях модель Naive работает лучше, чем ансамбль DNN. Это может быть связано с тем, что модели DNN необходимо делать долгосрочные тестовые прогнозы без повторного обучения.
Таблица 1. Результаты тестирования наивной модели
Таблица 2. Результаты тестирования ансамблевой модели DNN, перенормированные с использованием всех прошлых значений
Таблица 3. Результаты тестирования ансамблевой модели DNN, перенормированные с использованием прошлогодних значений
Результат предложенной модели трансформатора в виде таблицы показано 4. также,Авторы также представляют результаты теста DM в сравнении с другими тестами Модель. В четырех из пяти эпизодов данных,TransformerМодель Результаты значительно лучше, чемForecasting day-ahead electricity prices: A review of state-of-the-art algorithms, best practices and an open-access benchmarkцелое предложение Модель(DMТестовое значение ниже, чем0.05)。в то же время,во всех выпусках данных,Результаты Трансформаторной модели также значительно лучше, чем у Наивной модели. Эти результаты демонстрируют эффективность добавления Transformer Архитектура к временным рядам цен.
Таблица 4. Результаты испытаний модели трансформатора и значение DM p.
На рисунке 4 показан пример ежедневных прогнозов для каждого набора данных. Можно заметить, что модель, предложенная авторами, более последовательна, чем другие модели, предсказывая точные прогнозы в каждом примере, даже если в некоторых случаях это не лучший прогноз.
Рисунок 5 Пример прогноза на определенный день
Подвести итог
Хотя Трансформер используется в предсказаниях в других областях.,Однако убедительных данных о его эффективности по сравнению с другими методами прогнозирования цен на электроэнергию недостаточно. В этой статье предлагается модель прогнозирования на основе трансформатора.,и вбумагаForecasting day-ahead electricity prices: A review of state-of-the-art algorithms, best practices and an open-access benchmark Предложенная структура была протестирована. Результаты показывают, что модель в большинстве случаев демонстрирует значительные преимущества и достигает самых современных результатов на четырех из пяти наборов данных. Видно, что архитектура Transformer может обеспечить хорошие результаты прогнозирования цен на электроэнергию.
Что касается будущей работы, есть несколько направлений исследований, которые стоит продолжать изучать. Например, авторы упомянутой выше статьи утверждают, что LSTM может быть более точным, чем DNN, но доказательств недостаточно. Возможным будущим исследованием будет сравнение LSTM и Transformer. Следует отметить, что предложенная в данной статье модель не является ансамблевой. Ансамблевые модели Transformer могут работать лучше, но это выходит за рамки данной статьи и заслуживает изучения в смежной области. Еще одна будущая работа будет заключаться в изучении того, как одновременно учитывать прошлые значения экзогенных переменных в архитектуре Transformer.