Software Debugging meets Hardware-Validierung

»Es geht um die Transparenz«

20. August 2013, 16:23 Uhr | Nicole Wörner
Diesen Artikel anhören

Fortsetzung des Artikels von Teil 1

Wenn physikalischer Zugriff schwierig wird

Tiefe Einblicke in die Funktionssoftware

»Die meisten Software-Debugging-Tools setzen ein gewisses Maß an Funktionalität im System voraus, die das Debuggen von Software ermöglicht«, fährt Woppman fort. »Funktionssoftware-Debugger wie SourcePoint können aber diesen Luxus nicht erwarten, denn die Basisfunktion des Systems hängt von eben dieser Funktionssoftwareschicht ab – sie hält alle Komponenten zusammen und befindet sich unter der Betriebssystem-/Anwendungssoftware und über der Hardware. Wenn diese Software debugged werden muss, kann man davon ausgehen, dass das System nicht richtig funktioniert oder sogar komplett funktionsunfähig ist. Die Effizienz eines Software-Debuggers, der auf dem Betriebssystem aufsetzt, ist also bestenfalls fragwürdig und im schlechtesten Fall praktisch gleich Null.« Statt die Software vom Betriebssystem nach unten zu debuggen, ist es Woppmans Überzeugung nach effektiver, von der Hardware nach oben zu gehen und zu beobachten, wie die Funktionssoftware darauf läuft. »Der Designer sieht dann das Zusammenspiel von Software und Hardware und kann erkennen, wie verschiedene Softwareelemente interagieren. Die Arium-Tools bieten eine solche Perspektive. Und die Transparenz auf der Funktionssoftware-Ebene ergänzt die Einblicke, die ScanWorks in die Hardware gewährt.«

Software-basierter statt physikalischer Zugriff

Tools, die mit der Instrumentierung arbeiten, die in die Chips eingebettet ist, geben Entwicklern den Zugang zur Hardware zurück, der mit dem Verschwinden des physikalischen Zugriffs in den vergangenen Jahren verloren gegangen ist. »Testpunkte an seriellen High-Speed-Bussen verursachen zu viele Performance-Probleme«, betont Woppman. »Es ist also besser, sie vollständig aus High-Speed-Designs zu verbannen. Die Pins an den Komponenten, an die früher Sonden angelegt werden konnten, sind heute unter den Chips verschwunden. Deshalb sind Debugging-, Validierungs- und Testtools auf Basis von Embedded-Instrumentierung auch so wichtig. Durch softwarebasierten Zugang können die Entwickler die Hardware von innen nach außen debuggen und müssen sich keinen Gedanken über den fehlenden Sondenzugang von außen nach innen machen.«

Fazit

Software-Debugging und Hardware-Validierung haben also viel gemeinsam. Sie gehen eine nach Woppmans Überzeugung untrennbare Verbindung ein: »Wird nur das eine durchgeführt und das andere nicht, lassen sich nicht die Ergebnisse erzielen, die Entwickler benötigen, denn die Systeme bestehen nun mal aus Hardware UNDSoftware. Werden die Aufgaben nacheinander durchgeführt, kann das funktionieren, muss aber nicht. Die gleichzeitige Durchführung von Software-Debugging und Hardware-Validierung ist die schnellste Methode, mit der Entwickler ihre Designs an die Fertigung liefern und auf den Markt bringen können.«


  1. »Es geht um die Transparenz«
  2. Wenn physikalischer Zugriff schwierig wird

Lesen Sie mehr zum Thema


Das könnte Sie auch interessieren

Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Zertifizierung und Prüfung