Menschliche Sinne für Cobots

Drei von fünf sind schon da

20. Mai 2020, 9:30 Uhr | Markus Haller
Für eine effiziente Mensch-Maschine-Kollaboration werden menschliche Sinne auf Cobots übertragen. Sehen, Hören und Tasten werden dabei als die wichtigsten angesehen und können technisch umgesetzt werden.
Für eine effiziente Mensch-Maschine-Kollaboration werden menschliche Sinne auf Cobots übertragen. Sehen, Hören und Tasten werden dabei als die wichtigsten angesehen und können technisch auf einem gewissen Level bereits umgesetzt werden.
© d1sk | Shutterstock.com

Kollaborative Roboter arbeiten nicht hinter Schutzzäunen, sondern Hand in Hand mit dem Menschen. Um die nötigen Sicherheitsfunktionen bereitzustellen, werden die menschlichen Sinne mit Halbleiterbausteinen nachgebaut – drei der insgesamt fünf sind schon umgesetzt.

Der zunehmende Bedarf an Automatisierung in sämtlichen Industriezweigen führt zu einem vermehrten Einsatz von kollaborativen Robotern (Cobots). Sie werden für Aufgaben eingesetzt, bei denen für den Menschen ein hohes Verletzungsrisiko besteht einhergehen oder ein hohes Maß an Wiederholung beinhalten.

Anbieter zum Thema

zu Matchmaker+
Bild 1. Beispiel eines kollaborativen Roboters, der Seite an Seite mit einem Menschen arbeitet
Bild 1. Beispiel eines kollaborativen Roboters, der Seite an Seite mit einem Menschen arbeitet
© Texas Instruments

Cobots arbeiten dabei Hand in Hand mit Menschen und müssen potenzielle Kollisionen mit den menschlichen Bedienern schnell erkennen und ihren Betrieb unterbrechen oder verlangsamen können. Zu diesem Zweck müssen Cobots mit einem hohen Grad an Umgebungswahrnehmung und Redundanz ausgestattet werden. Die in Cobots verbauten Sensoren haben auf gewisse Weise Ähnlichkeit mit menschlichen Sinnen. Mindestens drei dieser Sinne – Seh-, Hör- und Tastsinn – sind Schlüsselparameter für die Kollaboration, Kooperation und Koexistenz mit Menschen.

Sehen

Die Stärke des menschlichen Auges ist es, auch über größere Distanzen Formen, Entfernungen, Bewegungen und Tiefe wahrnehmen. Das Analogon des Auges ist beim Cobot ein Lidar-Sensor (Light Detection And Ranging). Mit ihm kann ein Cobot seine eigene Position und Geschwindigkeit in unterschiedlichen Abschnitten eines Arbeitsbereichs überwachen und damit Cobot und Mensch an ein und demselben Ort unabhängig nebeneinander arbeiten zu lassen. Sobald sich eine Person nähert, kann ein Cobot seine Geschwindigkeit verringern oder komplett anhalten.

Die Erkennungsschwelle des Lidar-Sensors, also die Distanz, ab der ein Bediener wahrgenommen wird, ist umso größer, je stärker das emittierte Laserlicht ist. Einschlägige Augensicherheits-Normen sollen die Belastung der Augen durch Laserstrahlen minimieren und Schädigungen der Netzhaut vermeiden. Technisch lassen sich die Forderungen über kurze Laserpulse umsetzen, die schnell schaltende Elektronik in der Sende- und der Empfangskette erfordern. Der LMG1020, ein Single-Low-Side-Treiber zum Ansteuern von Galliumnitrid-Feldeffekt-Transistoren und Logikpegel-MOSFETs, erzeugt Pulse mit einer Dauer von 1 ns bei mehr als 50 A. Für eine schnelle Bewertung bietet Texas Instruments ein Evaluationsboard (LMG1020EVM-006) an.

Die Empfangskette muss allerdings genau so schnell sein, um diese sehr kurzen Impulse zu erfassen. Mit den Bausteinen OPA855 und OPA858 stehen breitbandige, rauscharme Operationsverstärker für breitbandige Transimpedanz-Anwendungen zur Verfügung, die bis zu 1 ns kurze Stromimpulse mit Anstiegs- und Abfallzeiten von 500 ps erfassen können. Das liegt im typischen Bereich von Empfänger-Photodioden.

Der Sehsinn benötigt ein Cobots auch beim Aufnehmen von Objekten. Dafür müssen die genaue dreidimensionale Position des Objekts, die Abmessungen und die Ausrichtung relativ zum Greifwerkzeug bestimmt werden. Für das Navigieren um die Wandungen eines Behälters oder um andere darin befindliche Objekte herum, muss das 3D-Bildverarbeitungssystem des Cobots auch Tiefeninformationen sowie 2D-Kamerainformationen erfassen können.

Bild 2. Führerloses Transportfahrzeug (Autonomous Guided Vehicle, AGV) mit einem Cobot zur Entnahme von Werkstücken aus einem Metall-3D-Drucker.
Bild 2. Führerloses Transportfahrzeug (Autonomous Guided Vehicle, AGV) mit einem Cobot zur Entnahme von Werkstücken aus einem Metall-3D-Drucker.
© Texas Instruments

Tiefeninformationen lassen sich mit strukturiertem Licht gewinnen. Die Methode wird für den »Griff in die Kiste« eingesetzt, der Beispiel für ein AGV in Bild 2 gezeigt ist. Dafür projiziert ein 3D-Scanner, der z.B. mit DLP-Technik arbeitet, eine Reihe von Mustern auf das zu scannende Objekt. Eine Kamera oder ein Sensor erfassen die Verzerrungen dieser Muster. Mithilfe geeigneter Algorithmen werden die Daten anschließend zu einer 3D-Punktwolke aufbereitet und mit Bildverarbeitungs-Software die Position des Objekts berechnet. Aus den Daten wird abschließen der optimalen Annäherungsweg des Cobot-Arms ermittelt.

Bei der DLP-Technik werden die Muster über eine Mikrospiegel-Matrix (Digital Micromirror Device) projiziert, die sich auf der Oberseite eines Halbleiterchips befindet. Dafür können Wellenlängen zwischen 355 nm bis 2.500 nm aus unterschiedlichen Lichtquellen  - Glühlampen, LEDs und Laser – verwendet werden.

Hören

Das Ohr eines Cobots ist ein Radar- oder Ultraschallsensor. Ähnlich wie die Lidar-Technik kann ein Cobot Radarsensoren nutzen, um sein Umfeld zu überwachen, während sich mit Ultraschallsensoren detektieren lässt, welche Objekte es zu greifen gilt. Radar- und Ultraschallsensoren sind elektronische Bauelemente, die das Echoprinzip zum Detektieren und Lokalisieren von Objekten nutzen.

Für die Entwicklung von Radarsystemen eignen sich die SIL-2 tauglichen Einzelchip-Millimeterwellensensoren von Texas Instruments, die im Frequenzband von 60 bis 64 GHz arbeiten. Sie enthalten einen digitalen Signalprozessor, einen Mikrocontroller, ein HF-Frontend und generieren Messwerte über die Entfernung, die Geschwindigkeit und den Einfallswinkel mehrerer Objekte in einer Szenerie. Mit den Sensoren lässt sich ein Flächenscanner implementieren, der Cobots ein Detektieren und Lokalisieren im dreidimensionalen Raum ermöglicht. Neben der Anwesenheit einer Person werden auch die Laufrichtung und Geschwindigkeit ermittelt. Mit diesen Informationen lässt sich ein Sicherheitsbereich um den Cobot definieren und dynamisch in Abhängigkeit von der Annäherungsgeschwindigkeit anpassen. Mit einem Sensor lässt sich ein Sichtfeld von 120 ° abdecken und Entfernungen zwischen 0 m und 10 m bestimmen. Für eine schnelle Inbetriebnahme oder zur Prototypenentwicklung steht ein Referenzkit (TIDEP-01010) zur Verfügung.

Die Bausteine TUSS4440 und TUSS4470 sind kompakte Ultraschallsensor-ICs mit eingebautem logarithmischem Verstärker für eine hohe Empfindlichkeit zum Erfassen schwacher Echos und hohem Dynamikbereich. Die geringe Gehäusegröße vereinfacht die Integration in einen Cobot-Greifer. Sie können sie Objekte unabhängig von ihrer Farbe oder ihrer Oberflächentextur detektieren und werden nicht durch Vibrationen infolge des Greifersystems beeinträchtigt. Durch den stark fokussierten Schall kann ein Hochfrequenz-Wandler auch kleine Zielobjekte auf einer eng umgrenzten Fläche detektieren.

Tasten

Der Tastsinn ermöglicht das Erkennen von Texturen, Vibrationen, Erhebungen, Konturen, Formen und Gewicht. Die Informationen nutzt ein Mensch, um seine Bewegungen zu lenken. Das Sinnesorgan dafür, die Haut, erstreckt sich über den gesamten Körper.

Das Analogon zur Haut ist beim Cobot ein Überzug aus weichen Pads, die Drucksensoren oder kapazitive Sensoren enthalten. Sie dient dazu, Zusammenstöße mit einem menschlichen Bediener abzumildern. Der Berührungssensor wird aktiviert, nachdem die Anwesenheit eines Menschen in der Nähe des Cobots erkannt und seine Bewegungen bereits verlangsamt wurde. Mikrocontroller der Reihe MSP430 CapTIvate bieten kapazitive Berührungssensor-Funktionen bei überschaubarer Leistungsaufnahme.

Die drei Sinne Sehen, Hören und Fühlen sind nötig, damit Cobots mit Menschen Hand in Hand arbeiten können und so effizientere Fertigungsprozesse ermöglichen. Für ihre technische Nachbildung sind Halbleiterbausteine mit dem nötigen Funktionsumfang vorhanden.

 

Über den Autor:

ist Systems Manager bei Texas Instruments und Gruppenleiter. Sein Team unterstützt Kunden weltweit bei der Schaltungsentwicklung. Er studierte Elektrotechnik und Telekommunikationstechnik an der University of Bologna (B.S.) und hat am Politecnico di
Giovanni Campanella, Texas Instruments.
© Texas Instruments

Giovanni Campanella ist Systems Manager bei Texas Instruments und Gruppenleiter. Sein Team unterstützt Kunden weltweit bei der Schaltungsentwicklung. Er studierte Elektrotechnik und Telekommunikationstechnik an der University of Bologna (B.S.) und hat am Politecnico di Torino mit dem Master in Elektrotechnik abgeschlossen.


Das könnte Sie auch interessieren

Verwandte Artikel

Texas Instruments, Texas Instruments Deutschland GmbH