In dem Projekt werden gefährdete Vogelarten automatisiert erkannt, wodurch Flächen für den Ausbau von EE artenschutzrechtlich schneller und sicherer erschlossen werden können und somit der Ausbau beschleunigt werden kann.

Für den Bau von Windrädern sowie den späteren Betrieb der Anlagen müssen artenschutzrechtliche Belange berücksichtigt werden. Viele Windenergieprojekte können aufgrund von Klagen nicht in Betrieb gehen, wobei der Klagegrund bzgl. der Gefährdung besonders geschützter Vogel- bzw. Fledermausarten bei 48% liegt. In der Ornithologie werden in der Praxis Sounddateien aufgenommen, um windkraftsensible und gefährdete Arten zu klassifizieren. Jedoch ist das Auswerten dieser Daten sehr umständlich, weshalb eine KI-gestützte, automatisierte Datenverarbeitung einen großen Mehrwert bietet. Entsprechend ist das Ziel die Entwicklung eines Tools zur Klassifizierung von gefährdeten Vogelarten basierend auf Tonaufnahmen, wobei die Güte möglichst den aktuellen State-of-the-Art erreichen sollte.

Bearbeitende im Projekt:

Dr. Christoph Scholz, Oliver Haddenhorst, Katharina Brauns, Mira Jürgens

Das Projekt ist interessant für:

Betreiber von Windenergieanlagen, Planungsbüros, Naturschutzverbände

Ziele

Übergeordnetes Ziel von Deep Bird Detect (DBD) ist die KI-gestützte, effiziente und rechtssichere Erstellung von faunistischen Fachgutachten und damit die Beschleunigung von Genehmigungsverfahren und somit schließlich des Ausbaus der Windenergie.

Dazu gehört:

  • Die akustische Erkennung gefährdeter Vogelarten mithilfe von KI-Methoden
  • Implementierung und Evaluation von BirdNet (State-of-the-Art)
  • Entwicklung und Evaluation eines eigenen Modells inkl. geeigneter Preprocessing Verfahren zur Aufbereitung des Modellinputs (DataAugmentation der Audiosignale und Mel-Spektogramme)
  • Publikation der Ergebnisse in einer referierten Fachzeitschrift

Methoden und Anwendungsmöglichkeiten

Als Architektur des Modells zur Klassifizierung von Vogelstimmen verwenden wir ein Residual Network (ResNet) mit 152 Layern in der Version V2. Residual Networks wurden im Jahr 2015 vorgestellt und haben durch den Gewinn des ILSVRC-Wettbewerbs besondere Aufmerksamkeit erhalten. Mit ResNet war es durch die Einführung von „Skip-Connections“ möglich, besonders tiefe Neuronale Netze zu trainieren. Das Gewinnernetz des ILSVRC-Wettbewerbs benutzte hier ein tiefes „Convolutional Neural Network“ mit 152 Schichten. Im Jahr 2016 wurde die Architektur der ResNets in der Version V2 angepasst, indem Batch-Normalisierung und ReLU-Aktivierung auf die Eingabe angewendet wird, bevor die Faltungsoperation erfolgt. In der Version 1 wird zunächst die Faltungsoperation auf die Eingabe angewendet.

  • Zum Training der Modelle haben wir öffentlich zugängliche Daten von xeno-canto sowie Felddaten von einem Projektpartner verwendet und aufbereitet.
  • Im Bereich der Vogelstimmenerkennung stellt BirdNet aktuell den State-of-the-Art dar. Dieser wurde implementiert und evaluiert.
  • Für das Erstellen eines eigenen Modells wurde, wie in der Methodenbeschreibung erläutert, ein Residual Network (ResNet) mit 152 Layern in der Version V2 zur Klassifizierung von Vogelstimmen auf den Mel-Spektogrammen der Audiodaten trainiert und evaluiert. Zur Erstellung der Mel-Spektogramme haben wir zunächst alle verfügbaren Audiodaten in 5-Sekunden-Blöcke (Chunks) unterteilt. Um weiterhin dem Problem des Overfitting zu entgegnen, verwenden wir Data Augmentation Techniken aus dem Audio-Bereich, um die Anzahl von Trainingsdaten zu erhöhen. Dabei werden sowohl Data Augmentation-Techniken auf den Rohdaten (Hinzufügen von Rauschen, Frequenzverschiebung, Zeitverschiebung, Änderung der Geschwindigkeit) als auch auf den Mel-Spektogrammen (Frequenz- und Zeitmaskierung) verwendet.
  • Insgesamt haben wir für 3 Szenarien Modelle trainiert und getestet. Szenario 1, mit N=131 Klassen, umfasst qualitativ hochwertige Audiodaten (Score >= 4.0) mit einer ausreichend großen Menge an Trainingsdaten (pro Klasse > 100 Audiodaten). In Szenario 2 (N=364) nutzen wir alle Trainingsdaten, wobei mindestens 30 Audiodaten für eine Klasse verfügbar sind. Szenario 3 (N=2) betrachtet die Unterscheidung des Erkennens von Rufen (Calls) und keinen Rufen (no Calls).
  • In Szenario 1 und 2 blieben wir in beiden Fällen mit einer Genauigkeit von 65% bzw. 55% leicht unterhalb der von BirdNet. Für den Start des BMUV Projekt DeepBirdDetect im nächsten Jahr wurde damit und mit den Ergebnissen des Szenario 3, mit einer Genauigkeit von 95%, eine gute Ausgangsbasis für weiterführende Analysen gelegt.

Projektablauf

  • Datensammlung, sowohl von öffentlichen Quellen als auch von einem Projektpartner
  • Aufbereitung der Daten
  • Anwendung von DataAugmentation Techniken auf den Audiodaten und Mel-Spektogrammen
  • Implementierung und Evaluation des State-of-the-Art (BirdNet) zum Vergleich des eigenen Modells
  • Entwicklung eines ersten eigenen Klassifizierungs-Modells für drei unterschiedliche Szenarien
  • Evaluation der Ergebnisse und Publikation

Projektpartner

  • Fraunhofer IEE: Dr. Christoph Scholz, Katharina Brauns, Mira Jürgens, Oliver Haddenhorst
  • GÖFA GmbH – Ökologische Forschung und Landschaftsökologie: Horst Krummenauer ist Leiter des faunistischen Fachbüros, welches seit 1994 in zahlreichen Projekten als Gutachter tätig ist. Der Schwerpunkt der Tätigkeiten liegt in der Erstellung von Fachgutachten zu fast allen relevanten Indikatorgruppen, wie Vögeln, Fledermäusen, Amphibien, Reptilien, Tagfaltern, etc.

Projektlaufzeit

12.2021 – 30.11.2022

Dr. Christoph Scholz

Projektleiter

Fraunhofer IEE

+49-(0)160-3411329

Teilen Sie dieses Spotlight in Ihrem Netzwerk.

EV Forecast
EV Load Forecasting for Grid Operation