Es ist bereits bekannt, dass Amazon AWS Xilinx-FPGAs in ihren Rechenzentren einsetzt, z.B. um Millionen von Zuschauern weltweit Live-Content auf Twitch zur Verfügung zu stellen (XDF 2018) und »AWS F1 FPGA-as-a-Service« anzubieten. Beim XDF 2019 legte das Unternehmen nach: Peng lud Gadi Hutt, Senior Director of Business Development und Product bei Amazon/Annapurna Labs, sowie Vin Sharma, Head of Engineering bei Amazon Sagemaker Neo und AWS AI, auf die Bühne.
Hutt kündigte dem XDF-Publikum an, dass AWS seinen Virtex UltraScale+ FPGA-basierten F1-Service auf die kanadische Region ausweiten werde. Als größter Anbieter von Cloud-Speicher- und Compute-Lösungen bedeutet die zunehmende Verfügbarkeit in der gesamten geografischen Reichweite von AWS Cloud, dass es für FPGA-Applikationsentwickler einfacher denn je sein wird, ihre Produkte weltweit in wenigen Minuten und in großem Maßstab auf den Markt zu bringen.
Einige der weltweit renommiertesten Unternehmen nutzen die Vorteile von F1, um rechenintensive Anwendungen zu betreiben. Hutt erwähnte, dass der führende Anbieter von Netzwerksicherheit für Unternehmen, Trend Micro, beispielsweise gerade eine leistungsfähige Version seiner virtuellen Netzwerksicherheits-Anwendung auf dem AWS-Marktplatz auf einer FPGA-Instanz gestartet hat. Diese ermöglicht AWS-Kunden, ihre lokale Netzwerküberwachung und -Sicherheit auf die AWS-Cloud zu erweitern. Er stellte auch das biopharmazeutische Unternehmen AstraZeneca vor, das F1 zur Beschleunigung seiner Forschung einsetzt und die möglicherweise schnellste und operativ effizienteste Datenverarbeitungspipeline für Genomsequenzen in der Branche aufgebaut hat. Die Pipeline hat mehr als 100.000 Genome in 100 Stunden verarbeitet und wird voraussichtlich mit neuen Pipeline-Optimierungen noch schneller laufen. Insgesamt plant AstraZeneca, bis 2026 2 Millionen Genome zu analysieren, mit dem Ziel, Genom-Daten zu nutzen, um Krankheiten besser zu verstehen, die Entwicklung neuer Medikamente zu beschleunigen und Patienten mit besseren Therapien zu versorgen.
Sharma stellte Amazon »SageMaker Neo« vor, das maschinelle Lernmodelle so optimiert, dass sie bis zu doppelt so schnell laufen, mit weniger als einem Zehntel des Speicherbedarfs und ohne Genauigkeitsverlust gegenüber alternativen Lösungen. SageMaker Neo-Anwender können in Kürze ihre Modelle vor Ort mit Xilinx Alveo-Modulen berechnen, in der Cloud über AWS F1 und am Edge über Xilinx Embedded KI-Implementierungen. Entwicklern und Datenwissenschaftlern gibt dies die Flexibilität, maschinelle Lernmodelle (TensorFlow, MXNet, PyTorch, ONNX und XGBoost) überall dort zu erstellen, zu trainieren und einzusetzen, wo sie sie benötigen.
Außerdem begrüßte Peng Melur Raghuraman, GM und Distinguished Engineer in der Compute Division von Microsoft Azure, auf der Bühne, der die laufende Zusammenarbeit bezüglich Azure vorstellte.
Hitachi ist ein Tier-1-Anbieter von fortschrittlichen Fahrerassistenzsystemen (Advanced Driver Assistance Systems — ADAS) für verschiedene Automobilhersteller, darunter Toyota, Honda, Nissan und Subaru, und treibt auch die Weiterentwicklung von autonomen Fahrzeugen voran. Hiroki Uchiyama, VP, Hitachi Automotive Systems Americas, erklärte auf der Bühne wie Hitachi-Kunden von FPGAs und SoCs profitiert haben und wie sein Team nun daran arbeitet, mit programmierbarer Logik die Pilotierung der Fahrzeuge von morgen umzusetzen.
Hiroki gab dem Publikum einen Einblick in Hitachis neues Frontkamerasystem, das in einem Level-2+-ADAS verwendet wird und SDI-Capture, ISP, ML (SSD), Postprocessing und HDMI-Ausgang beinhaltet. Es ermöglicht sicheres autonomes Fahren durch eine schnelle, anpassungsfähige Datenverarbeitung mit hoher Bandbreite, die in Echtzeit auf Umgebungen reagiert.
Als Early-Access-Kunde hat Hitachi mit Versal-Boards und der Xilinx Vitis-Plattform gearbeitet. So gelang es Hirokis Team, in nur zwei Monaten ein durchgängiges Automobil-Design mit lernbasierter Objekterkennung zu entwickeln.
Als nächstes bat der Xilinx-CEO seinen Namensvetter James Peng, CEO von Pony.ai, auf die Bühne, um den Einsatz von FPGAs in autonomen Level-4-Fahrsysteme unter der Bezeichnung »PonyPilot« zu zeigen. Von der Wahrnehmung über die HD-Mapping-Funktion bis hin zum Datenmanagement bietet PonyPilot eine Plattform, um selbstfahrende Fahrzeuge sicherer und reaktionsfähiger zu machen als menschliche Fahrer. Als Komplettlösung für autonome Fahrzeuge werden PonyPilot-Systeme bereits von Toyota für Roboterachsen in Fremont, CA, und Guangzhou, China, eingesetzt.
FPGAs — und demnächst auch Versal-Bausteine — erhöhen die Genauigkeit des PonyPilot-Sensor-Fusionssystems erheblich. Der CEO von pony.ai zeigte Videos von komplexen, realen Fahrsituationen in China und Fremont, CA. Zu den Anforderungen unter diesen Bedingungen gehören strenge Rechenlatenzzeiten, Chips in Automobilqualität, hohe Leistung und Energieeffizienz sowie Anpassung (Anpassungsfähigkeit an unterschiedliche Aufgaben) — bei gleichzeitiger Erfüllung strenger Anforderungen an die funktionale Sicherheit und Validierung.
Vor der Integration von FPGAs bläuft sich die Sensor-Fusionssystem-Ausgangsdiskrepanz auf fast eine halbe Fahrzeuglänge. Mit FPGAs von Xilinx erreichte das Pony.ai-Team eine Null-Diskrepanz bei der Sensor-Fusion-Ausgabe für Echtzeit-Reaktionen auf der Straße. Die Beseitigung dieser Leistungsengpässe verhindert gefährliche Verzögerungen für autonome Fahrzeuge, damit sie unmittelbarer auf Umweltgefahren, andere Fahrzeuge oder Überraschungen auf der Straße reagieren können, was dazu beiträgt, Unfälle zu vermeiden und Leben zu retten.