Virtualisierung für die „Kleinen“

Virtualisierungstechniken für die optimale Nutzung von Multi-Core- Prozessoren

9. März 2012, 10:00 Uhr | Von Robert Hilbrich
Diesen Artikel anhören

Fortsetzung des Artikels von Teil 3

Komplexität folgt aus Funktionsvielfalt und Dynamik

Bei genauer Betrachtung des Komplexitätsbegriffs wird deutlich, dass eine hohe Komplexität das Resultat vom gleichzeitigen Zusammentreffen zweier Parameter ist: Funktionsvielfalt und Dynamik. Umfangreiche Funktionen können problemlos realisiert werden, wenn dafür ausreichend zeitliche Reserven zur Verfügung stehen. Andererseits führt die Forderung nach schnellen Reaktionen bei einfachen Aufgaben auch nicht zu hohen Komplexitäts-Niveaus. Erst wenn komplizierte Entscheidungsprozesse und Steuerungsaufgaben sehr schnell durchgeführt werden müssen, ergibt sich ein hohes Komplexitäts-Niveau.

Für eingebettete Systeme bedeutet dies, dass eine verstärkte Verwendung von Mehrkernprozessoren die Funktionsdichte weiter ansteigen lässt, ohne dass dabei Echtzeiteigenschaften vernachlässigt werden dürfen. Damit wird sich die Komplexität des Systems zwangsläufig erhöhen und zu einer Steigerung der Wahrscheinlichkeit von unentdeckten Fehlern im Systementwurf, einer höheren Anfälligkeit für zufällige Fehler zur Laufzeit, aber auch zu mehr Fehlern in der Bedienung führen.

 


  1. Virtualisierungstechniken für die optimale Nutzung von Multi-Core- Prozessoren
  2. Parallele Ausführung ist nicht neu
  3. Ein eingebettetes System ist kein Mainframe
  4. Komplexität folgt aus Funktionsvielfalt und Dynamik
  5. Virtualisierung als Kompromiss zwischen Isolation und Integration
  6. Multi-Core und Funktionale Sicherheit - auch ohne Virtualisierung?
  7. Virtualisierung als Herausforderung für die Automotive-Domäne

Lesen Sie mehr zum Thema


Das könnte Sie auch interessieren

Jetzt kostenfreie Newsletter bestellen!