Beckhoff Automation hat für seine Engineering-Umgebung TwinCAT XAE den TwinCAT Chat Client entwickelt und damit Large Language Models (LLMs) wie etwa ChatGPT von OpenAI für die Programmierung von Steuerungs-Anwendungen nutzbar gemacht.
Mit dem TwinCAT Chat Client von Beckhoff Automation lassen sich LLMs für die Entwicklung von TwinCAT-Projekten nutzen. Dies soll die Produktivität in der Steuerungsprogrammierung erhöhen und Optimierungspotenzial für den Direkt-Support eröffnen.
Large Language Models sind Sprachmodelle, die auf Basis eines neuronalen Netzwerks erstellt und mit einer hohen Anzahl von Texten trainiert worden sind. LLMs haben in den vergangenen Jahren eine weite Verbreitung erfahren und werden für viele verschiedene Aufgaben verwendet, etwa als Grundlage für Chatbots oder Sprachübersetzungstools.
Der TwinCAT Chat Client ermöglicht Engineering auf KI-Basis, um Aufgaben wie das Erstellen oder Hinzufügen von Funktionsbaustein-Code zu automatisieren, bis hin zur Code-Optimierung, -Dokumentation und -Umstrukturierung (Refacturing). Der in TwinCAT XAE implementierte Client stellt eine Verbindung zur Host-Cloud der jeweiligen LLM her – etwa Microsoft Azure im Fall von ChatGPT –, bietet ein User Interface und stellt über das Automation Interface die Kommunikation zur PLC-Entwicklungsumgebung bereit. Zur Verfügung steht dies über ein entsprechendes Chat-Fenster in Visual Studio, wobei die LLM-Funktionalität speziell für TwinCAT-3-Nutzer optimiert ist, sprich: um umfangreiche TwinCAT-spezifische Inhalte ergänzt wurde.