Nachrichten, Gerüchte, Meldungen und Berichte aus der IT-Szene

Redaktion: Heinz Schmitz


Nicht alle Hardware-Fehler beeinflussen Software

Hardware Testschema
Christian Bartsch erklärt anhand der Studie, dass nicht alle Fehler in der Hardware Auswirkungen auf die Software haben. (Quelle Koziel/TUK)

Ob Flugzeug, Hochgeschwindigkeitszug, Industrieroboter oder Waschmaschine – hierin laufen kleine Computer, die dafür sorgen, dass die Technik reibungslos läuft. Solche eingebetteten Systeme (Embedded Systems) kommen auch in sicherheitsrelevanten Bereichen zum Einsatz. Mit aufwendigen Tests wird die darin verbaute Hardware regelmäßig geprüft. Dass nicht alle Fehler in der Hardware Auswirkungen auf die Software haben, haben Kaiserslauterer Forscher mit einem neuen Verfahren gezeigt. Das bedeutet: Nicht die gesamte Hardware, sondern nur die Stellen, an denen Fehler Folgen für die Software haben, müssen geprüft werden.

 

Sie sorgen etwa dafür, dass ein Zug rechtzeitig bremst, dass die Landeklappen beim Flugzeug ausfahren oder dass eine Maschine unmittelbar stoppt, wenn die Hand eines Arbeiters zu nah an die Säge kommt – Embedded Systems. Diese kleinen Rechner gewährleisten die Sicherheit solcher Techniken. Um Fehler früh aufzuspüren, muss die Hardware regelmäßig getestet werden. Hinzu kommt: „In solchen Prozessoren werden die Hardware- Komponenten immer kleiner. Das macht sie anfälliger für Fehler“, sagt Christian Bartsch, Doktorand im Lehrgebiet „Entwurf Informationstechnischer Systeme“ bei Professor Dr. Wolfgang Kunz an der Technischen Universität Kaiserslautern (TUK). Faktoren wie Alterung oder hohe Temperaturen führen dazu, dass Bauteile bei solchen Chips schneller verschleißen.

 

Auf dem Markt gibt es eine Vielzahl solcher Testverfahren. Diese laufen automatisch ab, ohne dass der Nutzer etwas davon mitbekommen. Die gesamte Hardware (HW) zu überprüfen, kostet Zeit und Energie, die die Leistungsfähigkeit des Systems negativ beeinflusst.

 

Das Kaiserslauterer Forscherteam hat nun ein Modell entwickelt, mit dem sie die Auswirkungen von Hardwarefehlern auf das Verhalten der Software analysieren. „Wir haben darin an verschiedenen Stellen der Hardware Fehler eingebaut“, fährt der Doktorand fort. Dieses Modell vergleichen die Ingenieure mit einer fehlerfreien Variante, bei der die Hardware reibungsfrei läuft. Bei ihren Tests haben die Ingenieure jeweils einzelne Fehler, aber auch Mehrfachfehler untersucht. „Wir haben geprüft, ob sie Auswirkungen auf die Software haben“, sagt Bartsch, der auch Erstautor der Studie ist. Dabei haben die Wissenschaftler herausgefunden, dass ein Großteil der Fehler keine Auswirkung auf die Software hat. „Dieser Anteil liegt bei 33 Prozent“, so Bartsch.

 

Für das Testen von sicherheitsrelevanten Systemen bedeutet dies: „Es reicht sich auf bestimmte Stellen zu konzentrieren, bei denen Fehler auch für die Software von Bedeutung sind“, so der Forscher. Da solche Prüfverfahren zeitaufwendig sind und Energie verbrauchen, könnten sich auf diese Weise auch Kosten einsparen lassen. Außerdem werden Fehler schneller gefunden, wenn solche Tests nur bestimmte Bereiche in den Fokus nehmen. „Unsere Ergebnisse zeigen, dass Testverfahren künftig effizienter gestaltet werden können“, fährt Bartsch fort. Die Methode der Kaiserslauterer Forscher ermöglicht es zum Beispiel auch, Schutzmechanismen für Hardware-Fehler zu zertifizieren. Bei sicherheitsrelevanten elektrischen Systemen in PKWs gibt es dafür beispielsweise derzeit einen bekannten Standard (ISO-Norm 26262). „Für bestimmte Hardwarefehler ließen sich etwa Schutzmechanismen entwickeln, mit denen Unternehmen analysieren können, ob diese auch ausreichen.“

 

Originalveröffentlichung:

„A HW/SW Cross-Layer Approach for Determining Application- Redundant Hardware Faults in Embedded Systems”

DOI: 10.1007/s10836-017-5643-3

Zurück