Herausforderungen flexibel bewältigen

Bild 1 | Virtualisierung hilft dabei, viele Herausforderungen bei der Instandhaltung und Aktualisierung der Hardware in Unterstationen zu bewältigen. An dieser Station in Finnland wurden entsprechende Feldversuche durchgeführt.
Bild 1 | Virtualisierung hilft dabei, viele Herausforderungen bei der Instandhaltung und Aktualisierung der Hardware in Unterstationen zu bewältigen. An dieser Station in Finnland wurden entsprechende Feldversuche durchgeführt.

Um die in der Stationsautomatisierung erforderliche Echtzeit-Performance zu erreichen, muss die Schutzanwendung:

3 die ankommenden Strom- und Spannungsmessungen unverzüglich erhalten,

3 bei Bedarf garantierten Zugriff auf die Rechenhardware haben,

3 Berechnungen innerhalb einer begrenzten Zeit durchführen und in der Lage sein, rechtzeitig eine Reaktion zu senden.

Diese Bedingungen schaffen verschiedene Herausforderungen für ein virtualisiertes System, bei dem sich mehrere Anwendungen dasselbe Hostsystem teilen.

Latenzherausforderungen

Die erste Hürde besteht darin, Prozessdaten rechtzeitig von den Merging Units (MUs) abzurufen. MUs fungieren als Schnittstellen, die Prozessdaten wie etwa Messwerte von Messwandlern sowie Meldungen und Alarme von Schaltanlagen empfangen. Der Schwerpunkt wurde hier auf digitale Unterstationen gelegt, bei denen Prozess- und Steuerdaten gemäß IEC61850 über ein Ethernet-Netzwerk ausgetauscht werden. In solchen Fällen müssen sich mehrere Anwendungen den physischen Netzwerkzugang mit virtualisierten Netzwerktechnologien wie einem virtuellen Switch oder Macvlan (ein Netzwerktreiber, der Softwarecontainer im physischen Netzwerk wie physische Geräte darstellt) teilen. Daher wurden verschiedene Möglichkeiten untersucht, eine virtuelle Umgebung mit dem physischen Hostnetzwerk zu verbinden. Die Untersuchung erfolgte mithilfe des virtuellen Produkts ABB Ability Smart Substation Control and Protection für elektrische Anlagen SSC600 SW. Da gewöhnliche Netzwerk-Virtualisierungskonzepte nicht auf eine Optimierung der Latenz ausgelegt sind, ergaben sich (aufgrund der Art und Weise, wie Netzwerktreiber Aufgaben auf einen späteren Zeitpunkt verschieben) erhebliche Stolpersteine im Hinblick auf einen Echtzeitbetrieb. Das finale System wurde entsprechend optimiert, um diese Stolpersteine zu umgehen. Zudem kann moderne Netzwerkhardware mit expliziten Virtualisierungsfunktionen zur Verbesserung der Situation beitragen.

CPU-Zugriff, wenn erforderlich

Kommen die Daten rechtzeitig an, besteht der nächste Schritt zum Erreichen der notwendigen Echtzeit-Performance darin, Zugriff auf die CPU zu erhalten, wenn dies erforderlich ist. Die Ausführung von Prozessen zu planen (Prozess-Scheduling), gehört zu den Kernaufgaben jedes OS. Linux mit PREEMPT-RT bietet mehrere Echtzeit-Strategien und ermöglicht es der Schutzsoftware, anderen Anwendungen zuvorzukommen. Es hat sich gezeigt, dass es das Scheduling – das heißt, genau dann Zugriff auf die CPU zu bekommen, wenn es nötig ist – nicht wesentlich beeinflusst, wenn die Software in Containern auf modernder Serverhardware ausgeführt wird. Bei einem entsprechend konfigurierten System liegt hier nicht der Hauptengpass, zumindest nicht bei Latenzen von mehr als ein paar Dutzend Mikrosekunden. Dennoch kann es sein, dass der Schutzprozess oder eine ganze VM von einer anderen Anwendung mit ähnlicher Priorität bzw. einer der vielen Verwaltungsaufgaben des OS blockiert wird. Es wurden verschiedene Strategien für die Zuteilung der CPU-Kerne untersucht. Potenziell gefährliche Konflikte wurden durch exklusive Zuordnung von CPU-Kernen zu Anwendungen und eine maximale Isolierung des OS auf dedizierte CPU-Kerne vermieden. Exklusive Zuordnungen helfen zudem bei der korrekten Dimensionierung der Host-Hardware, um die Verfügbarkeit ausreichender Rechenressourcen für alle Anwendungen zu gewährleisten. Die gewählte Strategie passt auch gut zu den hohen Anforderungen von Schutzalgorithmen an die Rechenleistung und die zumeist horizontale Skalierung moderner Hardware mit einer stetig steigenden Zahl von CPU-Kernen.

Speicheraspekte

Auch wenn die Berechnungen rechtzeitig beginnen und dedizierte CPU-Kerne verfügbar sind, können Störungen die Datenverarbeitung auf inakzeptable Weise verzögern. Bei datenintensiven Anwendungen wie Schutz- und Steuerungsfunktionen hängen die Ausführungszeiten stark von der Datenübertragung zwischen Speicher und CPU ab. Ein modernes System nutzt mehrere schnelle Zwischenspeicherebenen (Cache), um die Abrufzeiten für häufig genutzte Daten zu verkürzen. Leider ist die Cachegröße begrenzt und bietet weiteres Störpotenzial zwischen Anwendungen mit hohen Datenlasten. Daher wurden Regeln zur Cache-Partitionierung und exklusiven Reservierung von Speicherbandbreite implementiert. Mit einer sorgfältig durchdachten Ressourcenreservierung ist es möglich, virtuelle Echtzeit-Anwendungen vollständig voneinander zu isolieren und einen stabilen Betrieb mit rechtzeitigen Reaktionen für alle Anwendungen auf derselben Plattform zu gewährleisten.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert