Sehtest für Kamerasysteme Entwicklungsplattform für kamerabasierte Fahrerassistenzsysteme

Moderne Fahrerassistenzsysteme bieten mittlerweile ungeahnte Möglichkeiten, wenn es darum geht, Umgebungsinformationen aufzunehmen und im Fahrzeug anzuzeigen. Leistungsfähige Kamerasysteme nehmen beispielsweise während des Einparkens ein 360°-Bild der Umgebung des Fahrzeugs auf und stellen es perspektivisch als Surround View oder Bird‘s Eye View dar.

Die Umgebung wird dazu von vier hochauflösenden Kameras erfasst, die mit 185°-Weitwinkel-Linsen (Fish Eye) versehen sind. Die so erfassten Bilddaten werden verarbeitet und zu einem einzelnen Bild zusammengefügt. Dieses Bild kann dann z.B. im Zentral-Display des Fahrzeugs angezeigt werden.

Die ersten Fahrzeuge, die mit einem solchen Surround-View-System ausgerüstet waren, wurden auf dem Markt positiv aufgenommen; die Automobilhersteller prognostizieren deshalb zunehmende Verkaufszahlen für diese Technologie. Zur Entwicklung dieser Systeme wird eine geeignete Entwicklungsplattform benötigt. Diese sollte die Datenströme mehrerer Kameras verarbeiten können – bereits heute wird vielerorts mit mehr Kameras experimentiert, als für ein gewöhnliches Surround-View-System benötigt werden –, und zudem müssen flexible Schnittstellen zum Einlesen der Kameradaten zur Verfügung stehen.

Unterschiedliche Anwendungsgebiete der Fahrzeuge erfordern künftig auch weitere Kameras oder auch Kamerafunktionen. Eine denkbare Anwendung wären Side-View-Kameras oder auch Kameras zur Verkehrszeichenerkennung. Für das hier vorgestellte Bird’s-Eye-View-System sind die vier benötigten Kameras am Fahrzeug vorne und hinten sowie jeweils einmal in den Seitenspiegeln untergebracht. Die 360°-Umgebung des Fahrzeugs wird aus den vier Weitwinkel-Kamerabildern rekonstruiert, indem die Bilder perspektivisch korrigiert und zusammengefügt werden (Bild 1).

Bei den derzeit verfügbaren Systemen werden die Überlappungsbereiche mit Balken versehen, um Fehler in der Zusammenfügung oder Kamerajustierung auszublenden. Die korrekte Zusammenfügung der Bilder erfordert eine sehr akkurate und simultane Synchronisation aller Kameras mit einer Wiederholfrequenz von 30 Bildern pro Sekunde. Fehler in der Synchronisation könnten dazu führen, dass dem Fahrer ein falscher Eindruck suggeriert wird und er den Abstand zur Umgebung falsch einschätzt. Die gleiche Sorgfalt muss bei der Einlese- und Bearbeitungsgeschwindigkeit beachtet werden. Der Weg vom Sensor zum angezeigten Bild darf zwei Bildsequenzen nicht überschreiten.

Zusätzlich können Kameras von extremen Lichtverhältnissen beeinflusst werden. Während ein oder zwei Kameras im Schatten stehen, können die verbleibenden Kameras dem direkten Sonnenlicht oder anderen grellen Lichtquellen ausgesetzt sein. Dadurch entstehen unterschiedliche Helligkeits- und Kontrastwerte, was wiederum einen großen Einfluss auf die Qualität des Gesamtbilds hat. Hochwertige Bird’s-Eye-View-Lösungen müssen deshalb alle Kamerasignale so korrigieren, dass sie ohne Balken in den Schnittbereichen auskommen und ein homogenes Gesamtbild entsteht, das den Betrachter nicht in seiner Wahrnehmung beeinflusst.

Der Kameraanschluss und die Bearbeitung der eingehenden Signale sind typische Anforderungen an jedes Multi-Kamerasystem. Die Schnittstellen sind in der rauen Fahrzeugumgebung verschiedenen Anforderungen ausgesetzt. Hohe Temperaturschwankungen und elektromagnetische Strahlung, die speziell bei den langen Übertragungsstrecken zwischen Kameras und Steuergeräten zum Tragen kommt, sind nur einige dieser Anforderungen.