Viacheslav Gromov ist Geschäftsführer und Gründer des Embedded-KI-Herstellers AITAD. Der jüngst verabschiedetet AI Act stellt für ihn eine große Hürde im Kampf um deutsche und europäische Innovationen dar. Wie er dem begegnen möchte, erfahren Sie exklusiv im Interview der Markt&Technik.
Markt&Technik: Herr Gromov, was können wir von der Embedded-KI-Technologie im Jahr 2024 erwarten?
Viacheslav Gromov: Predictive beziehungsweise Preventive Maintenance gewinnt im globalen Wettbewerb weiter an Bedeutung, insbesondere im Vergleich zu Asien mit seinen Service-Geschäftsmodellen. Zudem verstärkt der Fachkräftemangel die Bemühungen, User-Interaction-Themen wie Gesten-, Sprach- und Cobot-Automatisierungen zu integrieren. Hinzu kommen das wachsende Bewusstsein für Datenschutz und die zunehmende Regulierung durch die EU. Diese fördern das Verwenden lokaler und autonomer Embedded-KI-Lösungen, um Datenschutzrichtlinien einzuhalten. Embedded-KI wird beispielsweise im Gesundheitswesen viele Fortschritte bringen, insbesondere beim Verbessern des Patientenwohls. Die Analyse von Verhaltensweisen wie Laufstil, Gesichtszüge oder Stimme ermöglicht eine objektivere Diagnose von Schlaganfällen und Herzinfarkten, sowohl im Auto als auch im Krankenhaus. Außerdem ist die Akzeptanz von KI durch Tools wie ChatGPT größer als zuvor.
Viele Seiten fordern die Regulierung künstlicher Intelligenz (KI). Welche Herausforderungen sollten unter einen Hut gebracht werden – und welche Punkte sind lediglich Aufmerksamkeitshascherei?
Der jüngst abgestimmte EU AI Act bringt einige Herausforderungen mit sich: Es bleibt unklar, was unter der detailreichen Datenbanktransparenz zu verstehen ist, also wie und mit welchem bürokratischem Dokumentationsaufwand ein Unternehmen diese adäquat erfüllt. Eine weitere Herausforderung ist die Unterscheidung von Basismodellen, auch Foundation-Models genannt, auf denen beispielsweise ChatGPT und DALL-E basieren, deren Einstufung als (Hoch-)Risikosystem in zwei Stufen unterteilt wird. Maßgeblich ist dabei die Anzahl der Rechenoperationen, die jedoch keinerlei Auskunft über das Risiko der Anwendung gibt.
Der Gedanke der Entlastung von kleinen und mittleren Unternehmen ist zwar richtig, in der technischen Umsetzung aber misslungen. Nicht zuletzt verbleiben noch alte Themen im Einigungs-Papier wie der Nachweis beziehungsweise die Eliminierung von Bias, was seitens der Technologie enorm schwierig bis unmöglich umzusetzen ist. In der Folge könnten die Testing- und Dokumentationspflichten ins Unermessliche wachsen. Zum Glück betrifft dies nicht direkt unsere Embedded-KI-Systeme, da es sich nicht um generative und im Vergleich auch kleine Modelle handelt.
Welche Punkte des AI Act sehen Sie außerdem als wichtig an?
Als wettbewerbsfähig betrachte ich die Vorschläge der 18 Nationen gegen Missbrauch sowie eine eigene Missbrauchsregulierung. Auch der Vorschlag von Deutschland, Frankreich und Italien, eine Selbstverpflichtung bei der KI-Regulierung, erstmal ohne Sanktionen – mehr oder weniger als Übergangsphase – einzuführen, geht in die richtige Richtung. Leider kamen diese Vorschläge einige Jahre zu spät und fanden im AI Act keinen Anklang mehr. Nach wie vor ist das Haftungsthema auf nationaler Ebene ungelöst, aber oft erforderlich. Würden wir eine Haftungsbeschränkung für KI-Systeme sowie Sandboxes als Freiheiten einführen, würden wir damit einen globalen Standortfaktor schaffen, der uns viel KI-Wirtschaft ins Land brächte.
Ist den Unternehmen klar, wann und wie sie Embedded-KI einsetzen sollten, oder spüren Sie eine gewisse Zurückhaltung? Welche Rolle spielt dabei die Diskussion um die Regulierung von KI?
Unsere Erfahrung ist, dass unsere noch sehr junge – und dennoch robuste – Technologie noch wenigen Unternehmen bekannt ist. Setzt ein Unternehmen KI ein, dann meist im Bereich Cloud- und Edge-KI – allerdings meist einhergehend mit einer großen Abhängigkeit von großen Playern, einem sicheren Netzwerk und den beschränkten Datenraten. Gerade die anhaltende Regulierungs-Unsicherheit der EU hat nicht zur Akzeptanz beigetragen.
Aus diesem Grund beraten wir Unternehmen zum KI-Einsatz, denn meist fehlt eine Vorstellung davon, wie KI Probleme lösen könnte, geschweige denn, wie ein Business-Case daraus wird. Oft entdecken wir in diesem Prozess das ein oder andere »Hidden Need«. Das Denken, dass man überall KI oder konkreter Machine-Learning als »kleine Gehirne« in Autos, Maschinen und Haushaltsgeräte verpflanzen kann, kommt in der Vorstellung gerade erst an.
Wie steht es um den Innovationsgeist der deutschen und der europäischen Wirtschaft?
Einerseits gibt es Unternehmen – vom Mittelstand bis zu den Konzernen –, die die aktuelle Krisenlage als Herausforderung mit Chancen erleben und sich auf ihr »Innovationsgen« besinnen. Hier entstehen beeindruckende, teils disruptive Ideen, die das langfristige Überleben sichern können. Andererseits gibt es Unternehmen, die eher auf angsterstarrtes »Weiter so« setzen. Die Geschichte hat schon mehrfach gezeigt, dass dies keine nachhaltige Strategie ist: Weniger Neuerung und Weiterentwicklung führen zur Ausdehnung der »schlechten Zeiten«.
Welche aktuellen Beispiele aus Industrie, Automotive, Medizin oder Luftfahrt zeigen eine klare Zukunftsorientierung?
Wir spüren, dass die Industrie beispielsweise Themen wie »Datenmüll vs. sinnvolle Daten« vermehrt diskutiert. Das führt zu neuen Architekturansichten und der Erkenntnis, dass der einfachste Weg nicht immer der effizienteste ist. Bei Automotive steht das Thema Insassenmonitoring und Gesundheit des Fahrers im Vordergrund, was vor wenigen Jahren noch als Zukunftsmusik abgetan wurde. Die Medizintechnik hat verstanden, dass als Folge des Ärzte- und Fachkräftemangels nicht nur bessere High-Tech-Technologie, sondern auch Bedienbarkeit und eigene Intelligenz in Maschinen nötig ist. Selbst die Luftfahrt hat die Iterationsschleife vor sich, in der die alte Windows-XP-Architektur in Hauptrechnern endgültig obsolet wird und eine Chance für gänzlich neue Architekturen eröffnet.
Lassen Sie uns kurz über Technik sprechen. Immer wieder steht im Raum, es könnte Engpässe bei Halbleitern geben. Wie wirkt sich das auf Embedded-KI aus?
Wir spüren das bei unseren kleinen Mikrocontrollern, Mikroprozessoren und Field-Programmable Gate-Arrays kaum, ganz im Gegenteil: Selbst die Halbleiterhersteller sagen uns, dass sich der Trend normalisiert und die Preise auf ein gewohntes Niveau sinken – mit Inflationszuschlag natürlich. Dennoch macht uns die geopolitische Halbleitersituation Sorgen, und wir sind froh, dass zumindest ein kleiner Teil der Fabriken in Deutschland entstehen soll. Im Übrigen gibt es immer mehr KI-beschleunigte Halbleiter wie den Cortex-M85-Kern, außerdem proprietäre, integrierte Neural-Processing-Units, zum Beispiel von Renesas, oder neuromorphe Chips wie Memristor-Arrays.
KI entsteht meist auf großen Systemen. Wie schaffen Sie es, solche komplexen Anwendungen auf kleine Chips zu bekommen?
Das ist unsere Kernkompetenz: Wir entwickeln Embedded-KI vom Sammeln von Daten mit dem Kunden bis hin zum intelligenten Sensor mit autarker KI in Serienreife. Um eine große KI auf Halbleitern aus verschiedenen Preissegmenten einzusetzen, setzen wir verschiedene Methoden im Offline- wie im Online-Tooling ein. Angefangen bei typischen Pruning- oder Weight-Interveaving-Methoden bis hin zur spezifischen Halbleiterwahl mit NPU, Direct Memory Access, digitalem Signalprozessor oder Heterogeneous Multicore-Processor – immer anwendungsbezogen. Hierbei darf das Preprocessing nicht zu kurz gedacht werden. Im Transformationsprozess von den auf großen Servern trainierten Netzen auf den effizienten Halbleiter drehen wir buchstäblich Bit für Bit um, bis die KI auf einem sehr kleinen System robust und performant läuft.
Der große Hype um KI begann im vergangenen Jahr mit ChatGPT. Hierbei handelt es sich um eine generative KI. Was ist der wesentliche Unterschied zu Embedded-KI?
Im Gegensatz zu generativer KI handelt es sich bei Embedded-KI um eine sogenannte diskriminative KI. Sie generiert keine Inhalte, sondern analysiert, klassifiziert oder prädiktiert Daten, um zum Beispiel bei Predictive Maintenance zuverlässige Vorhersagen des künftigen Maschinenzustands zu treffen – oder um in Echtzeit Sprache, Gesten oder Personen zu erkennen. Mit diesen Informationen lassen sich Maschinen oder Geräte zum Beispiel berührungslos und damit hygienisch steuern – dazu muss die KI erkennen, ob eine Person absichtsvoll mit ihr interagiert. Embedded-KI mit diskriminativer KI unterstützt in Geräten, Maschinen und Fahrzeugen die internen, intelligenten Entscheidungen, während generative KI wie ChatGPT meist für die inhaltliche Interaktion mit Menschen gedacht ist.
Embedded-KI-Systeme zeichnen sich durch Ressourcenbeschränkungen aus. Entstehen dadurch Nachteile? Und wie könnte man diesen begegnen?
Ein autarkes System kann auf Wunsch gänzlich von der Welt abgeschottet sein, was sowohl ein Vorteil als auch ein Nachteil sein kann. Ein Vorteil ist die Sicherheit – Embedded-KI-Systeme sind dezentral, energieeffizient und hiermit nachhaltig bei einer hohen Echtzeitfähigkeit und Verfügbarkeit. Gleichzeitig ist die größte Kundensorge stets die Wartbarkeit beziehungsweise Weiterentwicklung des Systems. Dieser entgegnen wir mit einer Update-Fähigkeit entweder durch eine Schnittstelle vor Ort oder remote unter niedrigen Datenraten. Zudem wird mehr und mehr an adaptiven Systemen geforscht, die lokal zum Teil weiterlernen können respektive dürfen.
Wie wird sich Ihrer Ansicht nach die Welt durch künstliche Intelligenz bis zum Jahr 2030 verändern?
Wir stehen gesellschaftlich und wirtschaftlich vor der Entscheidung: Verbieten wir die Technologie aus protektionistischen Gründen, verpassen wir die Transformation und machen uns abhängig, manipulierbar und im Werteschema erpressbar. Zudem verpassen wir einen Wachstums- beziehungsweise Resilienzfaktor für die bestehenden Wirtschaftszweige. Die positive Botschaft: Das Wettrennen ist noch nicht entschieden, noch haben wir die Chance, KI für uns zu nutzen. Ich denke, in Zukunft wird es aufgrund einer gewissen »Automatisierung des Gehirns« zu geopolitischen Spannungen, demografischen Problemen und einer Belastung des Sozialstaates kommen, jedoch sollten wir die Chancen für Wertschöpfungssteigerung, eine bessere Medizin oder mehr Zeit für das Menschliche nicht verkennen.