Melden Sie sich kostenfrei an, um Artikel vollständig zu lesen...
News und Promotion-Beiträge sind ohne Registrierung kostenfrei zu lesen
Login

Passwort vergessen?
Registrieren
   

Passwort ist zu kurz (mind. 8 Zeichen).
No risk, more fun: Je präziser Prognosen sind, desto niedriger das Risiko - das gilt auch für Energieversorger.
Spezial

0 Bewertungen

Bessere Prognosen, weniger Risiko

Text: Stefan Heimel, Soptim
Energieunternehmen müssen Prognosen und damit verbundene Prozesse den veränderten Anforderungen im Markt anpassen. Ein bestes Verfahren für alle Anwendungsfälle gibt es nicht. Mit bestimmten Methoden lassen sich aber Risiken und Margen positiv beeinflussen.

Unsichere Marktbedingungen und zunehmender Wettbewerb erschweren es Energieversorgern, wettbewerbsfähige Preise anzubieten und zugleich wirtschaftliche Ziele zu erreichen. Für die Preisgestaltung sind genaue Prognosemodelle unverzichtbar, die das Lastgangverhalten des Kunden individuell ausloten. Kennzahlen und Informationen rund um das Abnahmeverhalten müssen schon bei der Angebotslegung verfügbar sein.

Um die Qualität der Prognosen zu erhöhen, sollten die Prognosemodelle möglichst genau auf die spezifischen Parameter abgestimmt sein, die den Lastgang eines Kunden beeinflussen. Wenn es Energieversorgern gelingt, die Prozesse zu reorganisieren und den Kunden aktiv in die Prognoseerstellung einzubeziehen, könnte dies wesentlich zur Verringerung des Ausgleichsenergierisikos beitragen.

Transferpreismodell weiterentwickeln

Das Transferpreismodell gewährleistet eine klare Risikoverteilung zwischen Vertrieb und Beschaffung: Das Mengenrisiko (Bedarfsprognose) liegt beim Vertrieb, das Preisrisiko (verbindliche Preisinformationen) bei der Beschaffung. Die Beschaffung benötigt dabei zusätzliche Informationen zum Abnahmeverhalten des Kunden, damit sie günstigere Einkaufspreise erzielen kann.

Gerade im Großkundenvertrieb ist jede Abweichung von den Sollmengen essentiell für die Planung und Beschaffung: Ein einzelner Ausreißer kann ein ganzes Portfolio ins Minus reißen. Ein tägliches Mengen-Monitoring kann dieses Risiko minimieren, da es Abweichungen frühzeitig erkennt und die beteiligten Mitarbeiter aktiv informiert. Der Wunsch nach verbesserter Prognosequalität steigert also die Komplexität der Prozesse und involviert mehrere Stellen im Unternehmen.

Zwischen den Prozessen, den Prognosemodellen und der Datenqualität besteht immer eine direkte Wechselwirkung. Aus diesem Grund ist eine dauerhafte Verbesserung der Prognosequalität nur erzielbar, wenn es gelingt, alle drei Elemente ganzheitlich zu verbessern. Deshalb setzen viele Unternehmen auf eine separate Stelle in der innerbetrieblichen Struktur als Informationslieferant und übergeordnete Kontrollinstanz für den operativen Vertrieb. Zu ihren Hauptaufgaben gehört neben der Lastganganalyse für Neukunden und der damit einhergehenden Risikobewertung auch die permanente Überwachung der Datenbestände, da eine solide Datenbasis immer der Grundstein für eine bestmögliche Prognose ist. Diese Stelle bündelt die Kompetenz und entlastet so andere Mitarbeiter. Zudem ist sie zentrales Organ für das Controlling und die Minimierung des Mengenrisikos.

Vor- und Nachteile der Prognoseverfahren

Um hochwertige Prognosen für den Energievertrieb zu erstellen, gibt es in der Praxis verschiedene Verfahren. Ausschlaggebend für die Wahl des Verfahrens sind neben der Qualität der erzeugten Prognosen auch die Nachvollziehbarkeit der Ergebnisse, die Anzahl der eingesetzten Parameter, die Stabilität des Prognosemodells und die Performance der Methoden.

Multivariate Regression (MVR) und künstliche neuro­nale Netze (KNN) haben ihre Stärken in Performance, Nachvollziehbarkeit und Stabilität. Allerdings sind neuronale Netze nur bedingt massentauglich, da ihr Training sequentiell erfolgt, pro Lastgang im Vergleich zur Analysephase länger dauert und die Prognosemodelle schwer nachvollziehbar sind. Ihr Potenzial entfalten KNN besonders bei komplexen Zusammenhängen von Industriekunden. Die Multivariate Regression andererseits nutzt rein mathematische Verfahren, um die Funktionsvorschrift aus den vorgegebenen Parametern zu bestimmen. Sie ist extrem schnell, wenn eine mittlere Anzahl von Einflussgrößen vorliegt.

Clusteranalyse und Vergleichstagsverfahren stellen die robustesten Methoden dar, die auch mit wenigen Einflussgrößen verlässliche Ergebnisse liefern können. Da sie die Prognose aus dem Pool der historischen Referenzdaten synthetisieren, sind hier keine Ausreißer zu befürchten, die nicht schon einmal vorgekommen sind. Hier liegt aber auch der Schwachpunkt: Tendenzen, die aus Trainingsdaten hätten erkennbar sein müssen, werden nicht berücksichtigt. Somit können neue Randbedingungen zwar mit den ähnlichsten Ergebnissen der Vergangenheit bewertet werden, eine Anpassung der Prognosewerte erfolgt jedoch nicht. Stark prozessabhängige Verbraucher wie Stromgroßkunden, für die keine weiteren Einflussgrößen vorhanden oder identifizierbar sind, lassen sich dennoch gut erfassen und robust prognostizieren.

Simulationsverfahren sind in der Praxis noch selten anzutreffen. Sie werden jedoch in den nächsten Jahren an Bedeutung gewinnen, da die Intraday-Szenarienrechnung für erneuerbare Energien sehr gut durch stochastische Komponenten, wie eine Monte-Carlo-Simulation, abgedeckt wird. Zudem liegt die Bündelung dezentraler Erzeugungsanlagen zu virtuellen Kraftwerken im Einsatzbereich der Simulationsmodelle.

Modellaufbau und Einflussgrößen

Neben den Prognoseverfahren beeinflusst auch der Aufbau der Prognosemodelle je nach Einsatzzweck die Prognose­qualität. Autoregressive Modelle, die zur Prognose Werte aus der Vergangenheit als direkte Einflussgrößen verwenden, eignen sich für die Vorhersage im Rahmen von Kurzfristprognosen. Sie beziehen aktuelle Ist-Werte ein und können die Lastgangprognose automatisch dem aktuellen Abnahmeverhalten des Kunden anpassen. Eine Reaktion auf kurzfristige Abnahme­änderungen ist so möglich. Die Modelle sind abhängig von der Verfügbarkeit von Ist-Daten und eignen sich für eine Intraday-, Dayahead- oder Kurzfristprognose in der laufenden Versorgung.

Eine weitere Abstraktionsebene kann über Wetterdaten oder vom Kunden gelieferte Einflussgrößen wie Schichtpläne oder Anlageneinsätze eingeführt werden. Diese Daten reichen meist nicht für eine Langfristprognose über die nächsten Jahre, sondern sind in der Regel maximal für einen Monat im Voraus verfügbar. Die Wahl der Einflussgrößen, die physikalisch, meteorologisch und kalendarisch sein können, ist entscheidend bei der Modellerstellung.

Welches Modell zur Anwendung kommt, hängt von der Verfügbarkeit und Genauigkeit der Daten ab. Kalendarische Einflüsse lassen sich unendlich in die Zukunft generieren und sind integraler Bestandteil eines jeden Modells. Eine Ausnahme bilden die Ferienkalender der einzelnen Bundesländer, die nur wenige Jahre im Voraus bekannt sind. Meteorologische und physikalische Einflussgrößen wiederum sind oft nur wenige Tage, im Falle von Windgeschwindigkeiten und Wind­richtung nur wenige Stunden im Voraus verlässlich verfügbar und sollten nur in Intraday-, Dayahead- oder Kurzfristmodellen zum Einsatz kommen.

Ob die Einflussgrößen tatsächlich im finalen Modell Anwendung finden, hängt vom Prognoseverfahren ab. Intelligente Verfahren wie die multivariate Regression oder das neuronale Netz erkennen selbstständig, ob ein Einfluss überhaupt für die Ergebnisfindung relevant ist. Sind solche Verfahren nicht verfügbar, muss der Anwender im Rahmen einer fundierten Lastganganalyse die Entscheidung treffen, ob und welche Faktoren als Einflüsse geführt werden sollen.

Auf die Mischung kommt es an

Prognoseverfahren und -modelle liefern fallabhängig unterschiedlich gute Ergebnisse, deshalb gibt es immer mehr kombinierte oder kaskadierte Modelle . Sie umfassen mehrere Varianten, die jeweils nur für bestimmte Konstellationen der Einflussgrößen greifen und sich gegenseitig ergänzen. So kann ein Modell in den Wintermonaten besonders gut funktionieren, während es im Sommer schlechtere Ergebnisse liefert als ein anderes. Gerade bei mittelwertbildenden Verfahren kann es durch Glättungseffekte in einem solchen Fall zu Mengenunterschieden zwischen einzelnen Perioden kommen: Bei hohen Verbrauchsmengen wird dann zu niedrig, bei niedrigen Abnahmemengen zu hoch prognostiziert. Die Kombination eines Sommer- und eines Wintermodells in einem Gesamt­modell erlaubt robuste und qualitativ hochwertige Prognosen.

Sehr gut funktionieren in der Praxis unterschiedliche Modelle in unterschiedlichen Zeitbereichen in Verbindung mit einer automatischen Modellauswahl nach Prognosequalität. Das zeigt die Projekterfahrung von Soptim. Das Unternehmen liefert Werkzeuge für alle Prognoseanforderungen.

Ein ideales Verfahren für alle Anwendungsfälle gibt es jedoch nicht. Je nach Prognoseanforderung kann auf einen gewissen Grad an Genauigkeit verzichtet werden, wenn die Modelle auf der anderen Seite stabil, zuverlässig und mit wenig Pflegeaufwand nachvollziehbare Ergebnisse liefern. Es bleibt stets eine Einzelentscheidung, welches Verfahren und welche Kombination von Verfahren für Lastgangprognosen die beste Wahl ist.

Firmen zu diesem Artikel

Nach oben