AMDs Vice President Dr. Salil Raje hält die Keynote zur Eröffnung der embedded world Conference 2024. Mit CPUs, GPUs und konfigurierbaren Bausteinen hat AMD alle Prozessorarchitekturen im Portfolio, die für künstliche Intelligenz eingesetzt werden. Wir fragten ihn vorab nach seiner Sicht auf die KI.
KI bringt viele Funktionen mit sich, die die Produktivität oder den Nutzerkomfort verbessern, wie z. B. die Generierung von Bildern, die Erstellung von Dokumenten oder die Interpretation von Sprachbefehlen. Wie lassen sich mit KI technische und gesellschaftliche Herausforderungen bewältigen?
Salil Raje: KI verändert das tägliche Leben in vielen Bereichen – und es geht nicht nur um Training und Inferenz in der Cloud. KI findet auch an der Edge und an den Endpunkten statt – und da wird es ganz konkret.
Im Gesundheitswesen kann KI zu Durchbrüchen in der Arzneimittelforschung und der medizinischen Forschung führen und sogar medizinische Diagnosen und Behandlungen verbessern. Die AMD-Kunden für adaptives Computing, Clarius und Topcon, nutzen beispielsweise bereits KI, um Ärzten bei der Diagnose von Verletzungen sowie Augenkrankheiten zu helfen, und die japanische Hiroshima-Universität verwendet KI, um Ärzte bei der Diagnose bestimmter Krebsarten zu unterstützen. KI kann auch dazu beitragen, Medikamententests zu beschleunigen und Medikamente sicherer zu machen, indem ihre Auswirkungen auf den menschlichen Körper modelliert werden.
In der Automobilindustrie hilft KI bei der Entwicklung fortschrittlicher Sicherheitssysteme, indem sie Autos in die Lage versetzt, verschiedene Arten von Gefahren zu erkennen und die Sicherheit zu erhöhen. KI wird auch für Fahrerüberwachungs- und Insassenerkennungssysteme eingesetzt.
Auch auf den Fertigungssektor wird KI einen tiefgreifenden Einfluss haben. Mit Industrie 5.0 können Produkte mithilfe von KI-gesteuerten Robotern kostengünstiger hergestellt werden, wobei das Risiko menschlicher Verletzungen sinkt. Darüber hinaus kann KI dazu beitragen, Produkttests zu rationalisieren, um Unternehmen eine noch schnellere Markteinführung von Produkten für die Massenproduktion zu ermöglichen.
Dr. Salil Raje |
---|
ist Senior Vice President und General Manager der Adaptive and Embedded Computing Group bei AMD. In dieser Funktion ist er für alle Aspekte der Strategie, des Geschäftsmanagements und -betriebs, der Geschäftsentwicklung und der Technik für FPGAs, adaptive Systems-on-Chips und eingebettete Prozessoren verantwortlich. Salil kam 2022 von Xilinx zu AMD, wo er ein aufstrebendes Rechenzentrumsgeschäft zu einem der am schnellsten wachsenden Segmente des Unternehmens ausbaute. Während seiner 17-jährigen Tätigkeit bei Xilinx führte Salil die Vivado Design Suite mit Algorithmen und Benutzeroberflächen der ASIC-Klasse für FPGA-Designer ein. Bei AMD brachte Salil das Entwicklungssystem Vitis zur Marktreife, mit dem Anwendungen auf der AMD-Plattform bereitgestellt werden können. |
Und auf einigen der weltweit schnellsten Supercomputer auf Exascale-Niveau wie Frontier, LUMI und dem kommenden El Capitan wird KI es Forschern ermöglichen, den Klimawandel zu untersuchen, medizinische Forschung zu betreiben und potenzielle neue Quellen für saubere Energie zu erkunden.
Künstliche Intelligenz braucht viel Rechenleistung und hat einen entsprechend hohen Energiebedarf. Ist das Training anspruchsvoller als die Inferenzierung?
Bei generativer KI kann die Inferenz ebenso rechenintensiv sein wie das Training. Beide erfordern ein hohes Maß an Rechenleistung und Energie, je nach Anwendungsfall und Einsatzort. Die meisten technologischen Weiterentwicklungen werden durch die Randbedingungen der Plattform beschränkt (Größe, Kosten, Wärmebudget usw.). Im Laufe der Jahre hat die Industrie gute Arbeit geleistet und diese Herausforderungen so entschärft, damit sie nicht zu K.-o.-Kriterien werden. Die Verbesserung der Energieeffizienz hat dazu geführt, dass KI-Anwendungen auch in Endgeräten möglich werden. Wir untersuchen eine Reihe von Lösungen, die von Hardware, Software und Datentypen bis hin zur Feinabstimmung von Modellen reichen, um Entwicklern bei der Innovation von KI im Edge-Bereich zu helfen.
__________________________________________________________________
Die embedded world Exhibition & Conference findet vom 9. bis 11. April 2024 im Messezentrum Nürnberg statt. Am Dienstag, den 9. April um 10:00 Uhr hält Dr. Salil Raje die Keynote des ersten Messe- und Konferenztages. Er spricht zum Thema
»Improving AI Efficiency from Edge to Cloud with Heterogeneous Computing«. Das gesamte Konferenzprogramm und die Anmeldung finden Sie auf der Konferenz-Website www.embedded-world.eu. ____________________________________________________________________
Kann man sagen, dass GPUs die beste Wahl für die Verarbeitung in der Cloud sind, während dedizierte KI-Beschleuniger oder FPGAs die beste Leistung am Edge bieten?
Wir glauben an einen heterogenen Verarbeitungsansatz, der die Aufgaben auf den passenden Prozessortyp (z. B. GPU, CPU, adaptives SoC) ausrichtet, um sowohl die Rechen- und Energieeffizienz als auch die Speicherbandbreite zu optimieren. GPUs sind oft eine gute Wahl für die Cloud, aber einige Dienstanbieter entscheiden sich für einen dedizierten/spezialisierten KI-Beschleuniger für bestimmte Aufgaben, die sich wiederholen und in großem Umfang ausgeführt werden, wie z. B. die Suche.
Edge-Workloads haben in der Regel Einschränkungen in Bezug auf Latenz bei Echtzeit-Inferencing, Platzverhältnissen und Leistungsaufnahme. Adaptive SoCs, mit einer heterogenen Architektur aus programmierbarer Logik, KI-Engines, CPUs und GPUs sind gut geeignet, um Edge-Anforderungen zu erfüllen und bieten eine optimierte Mischung von Ressourcen, die ideal für die Verarbeitung am Edge ist.
Gibt es auch Beispiele, wo Inferencing in der Cloud sinnvoll ist?
Wir stellen uns einen nahtlosen, hybriden Computing-Ansatz für Cloud, Edge und Endpunkte vor, der die Vorteile des Cloud Computing mit energieeffizientem Echtzeit-Inferencing verbindet. In vielen Fällen liefert ein anpassungsfähiger und skalierbarer KI-Verarbeitungsansatz, der sowohl die Cloud als auch die lokale Verarbeitung nutzt, optimale Ergebnisse für jede Arbeitslast.
Inferencing in der Cloud ist in Fällen sinnvoll, in denen die Geräte entweder so kompakt oder bezüglich der Batterieleistung oder der Kosten so eingeschränkt sind, dass es besser ist, die Daten für das Inferencing in die Cloud zu senden. Ein Beispiel hierfür könnte ein Sicherheitssystem sein. Die Sensoren des Systems müssen klein, kostengünstig und stromsparend sein, sodass die Verarbeitung der erfassten Videos, Bilder und Einbruchsdaten in der Cloud sinnvoll ist. In der Landwirtschaft könnten Drohnen, die zur Überwachung von Nutzpflanzen eingesetzt werden, die Batterielebensdauer verlängern, indem sie Sensordaten zur Verarbeitung und Inferenzierung in die Cloud streamen, anstatt diese Aufgaben lokal auf der Drohne auszuführen.
Zu den Arbeitslasten, die besser an der Edge verarbeitet werden, gehören latenzempfindliche Aufgaben und z. B. Anwendungen im Gesundheitswesen, wo die Beschränkung der Speicherung oder Übertragung von Informationen dem Datenschutz- und der Datensicherheit dient.
Mikrocontroller und Prozessoren sind universelle Geräte, die bei Entwicklern gut bekannt sind. Was bedeutet es, wenn sie für bestimmte Aufgaben spezielle Hardware benötigen?
Bei AMD stellen wir uns den Herausforderungen der zunehmenden Designkomplexität durch Hardwareabstraktion und einen einheitlichen Software-Stack mit einer Open-Source-Community und einem Ökosystem. Das bedeutet, dass Entwickler die Sprachen und Tools verwenden können, mit denen sie vertraut sind, um verschiedene Prozessortypen (GPUs, CPUs, adaptive SoCs) mit demselben oder ähnlichem Code anzusprechen. Und wenn nötig, haben Entwickler die Möglichkeit, Teile des Codes zu optimieren, um die Rechen- und Leistungseffizienz zu verbessern.
Unser Ziel ist es, ein offenes, bewährtes und einsatzfähiges Ökosystem aufzubauen, das die Softwareentwicklung beschleunigt und die Komplexität der Hardware reduziert. Wir streben einen einheitlichen KI-Stack für das gesamte AMD-Portfolio an, bei dem alles, was Sie in der Cloud entwickeln, nahtlos in den Edge-Bereich übertragen werden kann. Die Vorteile der Entwicklung mit spezialisierten Architekturen liegen zwar auf der Hand, aber der Nachteil ist die Lernkurve. Wir können dazu beitragen, diese durch die Integration mit offenen Frameworks und einem offenen und breiten Ökosystem zu minimieren.
Hat der Trend zum heterogenen Computing auch damit zu tun, dass die Fortschritte in der Halbleiterfertigung nicht mehr so viel Verbesserung bei Leistung und Energieeinsparung bringen?
Der Trend zum heterogenen Rechnen besteht, weil kein einzelner Prozessor für alle Arten der Verarbeitung optimiert ist. Beispielsweise gab es schon immer bestimmte Prozessoren, die bei bestimmten arithmetischen Funktionen effizienter sind als andere. Heterogenes Rechnen ermöglicht es Entwicklern, bestimmte Arbeitslasten auf die Prozessoren zu verteilen, die für diese Aufgabe die beste Leistung und Effizienz bieten.
Da die Arbeitslasten immer domänenspezifischer werden, können wir bei jeder Generation durch Architekturänderungen erhebliche Verbesserungen erzielen. Darüber hinaus bieten skalierbare adaptive Architekturen wie die Versal-Architektur von AMD Verbesserungen bei Leistung und Energieeffizienz, sodass mehrere KI-Workloads gleichzeitig in Echtzeit ausgeführt werden können. Und mit unseren Fortschritten bei Packaging- und Chiplet-Technologie wird die Energieeffizienz unserer Bausteine mit jeder neuen Generation besser.