Im Rahmen des Projektes wurde die Robustheit eines KI-basierten Windleistungsprognosemodells gegenüber vorsätzlich aber unmerklich veränderter Eingangsdaten untersucht, welche auf eine Verfälschung der Ausgangsdaten abzielten.

Der Einsatz von KI-Methoden in kritischen Infrastrukturen wie dem Energiesektor kann zu potenziell sicherheitskritischen Zuständen führen. So stellen mitunter sogenannte Adversarial Attacks eine große Gefahr dar. Dabei handelt es sich um leichte, aber sehr geschickte Veränderungen der Eingangsdaten, mit dem Ziel, maschinelle Lernverfahren zu manipulieren. Auch im Energiesektor eingesetzte KI-Algorithmen, wie zum Beispiel Windleistungsprognosemodelle, sind diesen Gefahren ausgesetzt. So besteht die Gefahr, dass Angreifer vorsätzliche Manipulationen der Eingangsdaten vornehmen, welche in einer für sie profitablen Verfälschung der Prognose resultieren. Daher ist es sehr wichtig, geeignete Methoden zu entwickeln, um die Robustheit dieser Modelle gegenüber Adversarial Attacks zu steigern.

Ziele

  • Entwicklung von Methoden zur Erzeugung von Adversarial Attacks, welche in der Lage sind, KI-basierte Windleistungsprognosemodelle gezielt zu manipulieren
  • Analyse der Robustheit KI-basierter Windleistungsprognosemodelle gegenüber Manipulationen der Eingangsdaten
  • Untersuchung, ob die Einbindung von Adversarial Training in den Trainingsprozess der Windleistungsprognosemodelle neben einer höheren Robustheit auch zu einer besseren Generalisierbarkeit und Prognosegüte der Modelle führt
  • Veröffentlichung der Projektergebnisse in Form eines wissenschaftlichen Papers

Methoden

  • Encoder-Decoder-LSTMs bestehen aus einem Encoder-Netzwerk, das eine Eingabesequenz verarbeitet und sie in eine latente Repräsentation kodiert, und einem Decoder-Netzwerk, das diese Kodierung verwendet, um die Ausgabesequenz sequentiell zu erzeugen
  • Projected Gradient Descent (PGD) ist ein gradientenbasiertes Verfahren zur Erzeugung von Adversarial Attacks, welches die Eingangsdaten iterativ innerhalb einer vom Angreifer vorgegebenen Grenze manipuliert
  • Adversarial Training ist eine Methode, um die Robustheit von KI-Verfahren gegenüber Manipulationen der Eingangsdaten zu erhöhen, indem neben den unveränderten Eingangsdaten auch manipulierte Daten in den Trainingsprozess miteinbezogen werden

Detaillierte Beschreibung des Projekts

Im Rahmen des Projektes wurde einerseits ein Encoder-Decoder-LSTM-Modell trainiert, um die erzeugte Windleistung einer einzelnen Windkraftanlage möglichst akkurat zu prognostizieren. Das Modell verwendete für die Prognose lediglich einige wenige Windgeschwindigkeitsprognosen in Form von Zeitreihen und wies damit niedrigdimensionale Eingangsdaten auf. Dieses Modell war selbst gegenüber stärkeren Manipulationen der Eingangsdaten sehr robust und zeigte stets ein physikalisch korrektes Verhalten. Darüber hinaus wurde auch ein Modell trainiert, um eine möglichst genaue Vorhersage über die Windenergieerzeugung in ganz Deutschland zu treffen. Dieses Modell basierte auf einer Encoder-Decoder-Convolutional-LSTM-Architektur und verwendete für die Vorhersage Windgeschwindigkeitsprognosen in Form von Wetterkarten. Die Eingangsdaten des Modells entsprachen also sehr hochdimensionalen Daten. Verschiedene Analysen haben gezeigt, dass derartige Modelle sehr anfällig gegenüber Adversarial Attacks sind. So konnten die Prognosen dieses Modells bereits durch leichte aber unmerkliche Veränderungen der Eingangsdaten nahezu beliebig manipuliert werden. Einen weiteren Untersuchungsaspekt des Projektes stellten Methoden dar, welche in der Lage sind, die Robustheit von Prognosemodellen gegenüber Adversarial Attacks zu verbessern. Als Ergebnis dieser Untersuchungen resultierte, dass die Robustheit der Prognosemodelle mithilfe von Adversarial Training exorbitant gesteigert werden kann und dass diese Steigerung lediglich mit einer geringen Verschlechterung der Prognosegüte einhergeht. Zusammenfassend hat das Projekt gezeigt, dass KI-basierte Prognosemodelle, welche hochdimensionale Eingangsdaten aus sicherheitskritischen Schnittstellen beziehen, vor der Operationalisierung stets hinsichtlich ihrer Anfälligkeit gegenüber Adversarial Attacks geprüft und ggf. entsprechende Methoden (wie z.B. Adversarial Training) angewendet werden sollten, um die Modelle vor solchen Angriffen zu schützen.

Projektablauf

  • Aufbau eines ETL-Prozesses zur Verarbeitung historischer Wetter- und Windleistungsdaten
  • Implementierung eines Windleistungsprognosemodells für eine einzelne Windkraftanlage sowie eines weiteren Modells für eine deutschlandweite Windleistungsprognose
  • Auswahl und Implementierung geeigneter Methoden zur Erzeugung von Adversarial Attacks und Generierung angriffsbelasteter Eingangsdaten zur Manipulation der beiden Windleistungsprognosemodelle
  • Einbindung von Adversarial Training in den Trainingsprozess der beiden Windleistungsprognosemodelle
  • Analyse der Auswirkungen von Adversarial Attacks und Adversarial Training auf die Performanz und die Robustheit der beiden Windleistungsprognosemodelle

Projektpartner

Fraunhofer IEE:

  • René Heinrich
  • Dr. Christoph Scholz (christoph.scholz@iee.fraunhofer.de)

Universität Kassel

  • Bei diesem Projekt haben wir mit dem Lehrstuhl Intelligente Eingebettete Systeme von der Universität Kassel zusammengearbeitet. Der Lehrstuhl hat eine besondere Expertise im Bereich Maschinelles Lernen und das Projekt sowohl in beratender Form als auch durch die Bereitstellung synthetischer Daten zur Energieeinspeisung von Windkraftanlagen unterstützt.
  • Ansprechpartner: Stephan Vogt (stephan.vogt@uni-kassel.de)
  • Link zur Homepage: https://www.uni-kassel.de/eecs/ies/startseite

Veröffentlichungen / Weitere Informationen

GEPLANT: Paper

  • Name Paper: “Targeted Adversarial Attacks on Wind Power Forecasts”
  • Name Journal: Eventuell “Scientific Reports” oder “Energy and AI”

Projektlaufzeit

1.4.2021 – 30.11.2021

René Heinrich

Informationsanalyse & -bewertung

Fraunhofer IEE

+49 (0) 160 – 3408484

Teilen Sie dieses Spotlight in Ihrem Netzwerk.

GANs4RE - Künstlicher SCADA-Datensatz für Benchmarking von Anomalieerkennungsansätzen
GRADS - Generierung künstlicher Fernwärmeversorgungssysteme