CMOS-Bildsensor von On Semiconductor Simultane 2D- und 3D-Bildverarbeitung

Für Kameras in Augmented-, Virtual- und Mixed-Reality-Anwendungen eignet sich der CMOS-Bildsensor AR0430 von On Semiconductor.
Für Kameras in Augmented-, Virtual- und Mixed-Reality-Anwendungen eignet sich der CMOS-Bildsensor AR0430 von On Semiconductor.

Der CMOS-Bildsensor AR0430 von On Semiconductor, erhältlich bei Framos, vereint klassische 2D-Bildverarbeitung und 3D-Bilderkennung in einem einzigen Baustein.

Mit einer Sensorgröße von 1/3,2 Zoll und 2 µm Pixelgröße liefert der AR0430 dank rückseitiger Beleuchtung und »Stacked-Pixel«-Technik eine hohe Bildqualität. Er erreicht eine Auflösung von 4 MPixel und eine Bildrate von 120 Frames/s. Sein 3D-Tiefenmodus ermöglicht eine gleichzeitige 3D-Tiefenerkennung und die Aufnahme von Videos mit 30 Frames/s.

Der AR0430 hat eine aktive Pixel-Matrix von 2312 x 1746 mit einem Seitenverhältnis von 4:3. Er zeigt einen Stromverbrauch von nur 125 mW bei 4 MPixel und 30 Frames/s. Ein spezieller Überwachungsmodus mit einem Stromverbrauch von lediglich 8 mW eignet sich besonders für Sicherheitsanwendungen mit Batteriebetrieb. Im Normalmodus liefert der AR0430 sowohl tagsüber als auch nachts eine hohe Bildqualität und bietet sich damit für Überwachungsanwendungen an. Er meistert mit hoher »Full-Well«-Kapazität und hohem Dynamikbereich auch anspruchsvolle Lichtverhältnisse mit guter Farbwidergabe. Der Sensor kann bei 120 Frames/s Slow-Motion-Videos aufnehmen und die Auflösung auch unter Zoom halten, was ihn für Wearables geeignet macht. Mit der 3D-Tiefenerfassung bei 30 Frames/s ist die Erkennung von Objekten und Personen sowie das Ausblenden von Bildbereichen möglich.

Die simultane Videoaufnahme und 3D-Tieferkennung wird durch die »Super Depth Technology« von On Semiconductor auf Basis der neuesten »Stacked-Die«-Technik möglich. Ausgestattet mit einem Color Filter Array (CFA) und Mikrolinsen auf jedem Pixel generiert die »Super Depth Technology« gleichzeitig Bild- und Tiefendaten. Ein Algorithmus kombiniert diese Daten direkt im Sensor; das Ergebnis ist ein Videostream mit 30 Frames/s und eine 3D-Tiefenkarte aller Objekte innerhalb eines Ein-Meter-Radius um die Kamera. Der AR0430 ist flexibel konfigurierbar; die Pixel-Ausbeute, die horizontale und vertikale Rasterung, die Bildgröße und -rate, die Belichtung, eine Umkehr des Bildes und Bildverschiebungen lassen sich programmieren. Entwicklungsmuster sind im Bare-Die-Format erhältlich. Die Massenproduktion beginnt Ende des ersten Quartals 2018.