In diesem Projekt wird mittels Deep Reinforcement Learning (DRL) ein optimierter Betrieb eines an das Stromnetz angeschlossenen Systems bestehend aus einem Windpark und einem Batteriespeicher ermittelt. Dabei soll der Mehrwert von probabilistischen Prognosen gegenüber deterministischen Prognosen für den Folgetag demonstriert werden.
- Betreiber können an Innovationsausschreibungen mit Systemen bestehend aus Erneuerbaren-Energie-Anlagen und Flexibilitäten teilnehmen. Dazu ist es erforderlich, die Betriebskosten möglichst gut abschätzen zu können. Dies erfordert auf der einen Seite ein möglichst optimales Design des Systems, auf der anderen Seite ein optimiertes Betriebskonzept. Design und Betriebskonzept sind jedoch von Unsicherheiten der Prognosen abhängig.
- In diesem Projekt wird mittels Deep Reinforcement Learning (DRL) ein optimierter Betrieb eines an das Stromnetz angeschlossenen Systems bestehend aus einem Windpark und einem Batteriespeicher ermittelt. Ein zentrales Ergebnis ist ein Demonstrator mit interaktiver Nutzeroberfläche zur Entscheidungsunterstützung für Innovationsausschreibungen.
Das Projekt ist interessant für: Betreiber und Planer von Wind- und Solarparks
Dr.-Ing. Dinah Elena Hollermann
Fraunhofer IEE
+49 561 7294-479
Ziele
- Vergleich der optimalen Lösung mittels stochastischer Optimierung und mittels Deep Reinforcement Learning
- Evaluierung des Mehrwerts von Ensemble-Prognosen
- Entwicklung des Demonstrators zur Entscheidungsunterstützung für die Teilnahme von Betreibern von Windparks an Innovationsausschreibungen
Methoden
DRL ist ein vielversprechender Ansatz, ein solches Optimierungsproblem unter Unsicherheiten zu lösen. Dabei werden unter vorgegebene Randbedingungen sogenannte Agenten trainiert, die durch eine Bewertungsfunktion evaluiert werden. Die zudem verwendeten Ensemble-Prognosen vergrößern das Optimierungsproblem um den Faktor 20 – 40. Daher ist eine Feature Extraktion bzw. eine Reduktion der Dimensionalität für eine performante und robuste Rechnung sehr wichtig. Mittels Verfahren wie Autoencoder, Hauptkomponentenzerlegung oder anderer Verfahren werden die Ensemble-Prognosen auf ihre wichtigsten Komponenten reduziert, bevor sie im Training verwendet werden.
Beschreibung des Projektablaufs
- Zunächst werden Ensemble-Prognosen für die erwartete Windleistung für die betrachteten Standorte erstellt.
- Um Referenzlösungen zu erhalten, wird das stochastische Optimierungsproblem aufgestellt und auf Basis der erstellten Prognosen gelöst.
- Parallel wird das DRL-Modell erstellt und der Agent trainiert.
- Zuletzt wird der Demonstrator implementiert, der dem Benutzer die berechneten optimalen Lösungen interaktiv bereitstellt.
Projektpartner
- ARGE Netz GmbH & Co. KG
ARGE Netz ist ein Energieversorger, der sich eine verlässliche Versorgung aus 100 % erneuerbarer Energie zum Ziel gesetzt hat. Im Projekt unterstützt ARGE Netz das Fraunhofer IEE bei der Modellierung des Marktes und übernimmt maßgeblich die Implementierung des Demonstrators.
Ansprechpartner: Hauke Großer (grosser[at]arge-netz.de)
Homepage: https://www.arge-netz.de/ - Enertrag SE
Enertrag ist Erzeuger von erneuerbaren Energien und Betreiber von Power-to-Gas-Anlagen. Enertrag unterstützt das Projekt durch Diskussion über Konzepte und Ergebnisse. - Agrowea GmbH & Co. KG
Agrowea plant und unterstützt bei der Realisierung von Windparks und Biomasseanlagen inklusive Speicherfelder und Sektorenkopplung. Im Projekt stellt Agrowea Praxisdaten bereit und trägt zur Diskussion über die Konzepte und Ergebnisse bei.
Veröffentlichungen / Weitere Informationen
Geplant ist die Erstellung eines Videos zum Demonstrator.
Laufzeit des Projektes
1.6.2022 – 30.11.2022