Programmierumgebungen Die Zukunft des Graphical System Design

Jeff Kodosky, LabVIEW-Erfinder und Mitbegründer von National Instruments: „Künftige Versionen von Programmiersoftware, auch der Graphical System Design-Software LabVIEW, werden Touchscreen-Bedienung und Gestik-Steuerung umfassen.“
Jeff Kodosky, LabVIEW-Erfinder und Mitbegründer von National Instruments: „Künftige Versionen von Programmiersoftware, auch der Graphical-System-Design-Software LabVIEW, werden Touchscreen-Bedienung und Gestik-Steuerung umfassen.“

In seinem Vortrag auf dem National-Instruments-Firmenkongress „NI Week“ im texanischen Austin gab Jeff Kodosky, Mitbegründer des Unternehmens und LabVIEW-Erfinder, einen Ausblick auf die Zukunft des „Graphical System Design“.

Die mit so genannten „Virtuellen Instrumenten“ (VIs) arbeitende Programmierumgebung „LabVIEW“ kann auf ein mittlerweile 25jähriges Bestehen zurückblicken. Basis des Programms sind funktionsspezifische Icons, die man auf dem Bildschirm per Mausklick anordnet und miteinander verschaltet. Diese Icons repräsentieren optisch die auch in angeschlossener Hardware verfügbaren Funktionsblöcke wie z.B. A/D-Wandler, Digitizer, Generatoren oder Digital-I/O-Ports.

Mittlerweile – in den zurückliegenden 25 Jahren - hat sich diese Programmierumgebung zu einer recht universell einsetzbaren Softwareoberfläche für das „Graphical System Design“ weiterentwickelt. Gleichgeblieben ist in diesem Vierteljahrhundert allerdings das „Human Interface“ für den Pprogrammierer: Bildschirm, Tastatur und Maus.

Mit der Verfügbarkeit anderer Ein-/Ausgabetechnologien überlegt man allerdings bei  National Instruments, auch beispielsweise Touchscreens und Gestik-Steuerungen mit einzubeziehen. Der Programmierer könnte dann beispielsweise die zu konfigurierenden Funktionsblöcke per Fingerzeig auf dem Bildschirm anordnen und ebenfalls die Verbindungsleitungen  ziehen.

Dass diese Programmiervariante bereits deutlich in Arbeit ist, zeigten auf der NI-Firmenkonferenz einige Prototypen-Vorführungen, die neben der Touchscreen-Eingabe auch die Steuerung per Gestik-Bewegungen umfassten.

Ob eventuell die Spracheingabe oder auch Eye-tracking-Systeme zum Einsatz kommen könnten, war nicht zu erfahren.

Doch auch am inneren Gefüge der Programmierumgebung wird gearbeitet. Um die Programmsequenzen noch schneller zu machen, will man den internen Compiler weiter optimieren. Dies nicht zuletzt deshalb, um bessere Parallelitätseigenschaften auf künftigen Multicore-Systemen sicherzustellen. Auch will man die High-Level-Synthesestrukturen verbessern, um im Sinne höherer Geschwindigkeit noch kürzere Code-Sequenzen zu erhalten.

In die gleiche Richtung geht auch das Bestreben, noch höhere Abstrahierungs-Ebenen für den die Funktionen repräsentierenden Code zu erreichen, um noch kürzere Design-Zeiten bei weiter gesteigerter Übersichtlichkeit zu erreichen.

Mit einbeziehen will man auch HF- und andere neue (Wireless-) Kommunikationsverfahren sowie einen Web-UI-Builder konzipieren (User Interface via Web, um universellen Zugriff von allen Internet-fähigen Geräten aus sicher zu stellen). Überhaupt steht obenauf der Prioritätenliste die noch flexiblere Nutzung mobiler Geräte wie Smartphones oder Netbooks.

Nicht in der Zukunft, sondern bereits in den Herbst-Monaten 2011 will man bei National Instruments allerdings die „Technical Data Cloud“ in Betrieb setzen, in der jeder Anwender Programme und Daten für weltweiten Zugriff mit entsprechenden Schutzmechanismen ablegen kann.