interview

Tempomacher KI mittels Beckhoff-Lösungen

Für die Engineering-Umgebung TwinCAT XAE hat Beckhoff TwinCAT Chat entwickelt. Mit TwinCAT Chat lassen sich die sogenannten Large Language Models (LLMs) wie ChatGPT von OpenAI problemlos für die Entwicklung eines TwinCAT-Projekts nutzen. Dies erhöht die Produktivität in der Steuerungsprogrammierung. Doch wohin entwickelt sich die KI-Reise?

„Das LLM wird künftig die neue Programmiersprache werden und die konventionelle PLC-Programmierung ersetzen.“ Dr. Fabian Bause, Produktmanager TwinCAT bei Beckhoff Automation

„Das LLM wird künftig die neue Programmiersprache werden und die konventionelle PLC-Programmierung ersetzen.“ Dr. Fabian Bause, Produktmanager TwinCAT bei Beckhoff Automation

Herr Dr. Bause, TwinCAT Chat von Beckhoff integriert LLMs in die Automatisierungswelt. Welche Vorteile bieten LLMs bzw. wie sind sie definiert?

Sogenannte Large Language Models, kurz LLMs, sind umfangreiche, generative Sprachmodelle, die mittels Künstlicher Intelligenz (KI) entstehen. Sie sind mit riesigen Mengen an Textdaten trainiert und basieren auf Neuronalen Netzen. LLMs bieten sowohl für Automatisierer als auch für das Unternehmensmanagement eine Vielzahl an Vorteilen. Für Automatisierer haben LLMs das Potenzial, den Entwicklungsprozess zu revolutionieren, indem sie Applikationscode, zumindest fragmentweise, automatisch erzeugen und vervollständigen und somit den gesamten Prozess um ein Vielfaches beschleunigen. Aus der Perspektive des Unternehmensmanagements können LLMs den Wissenstransfer innerhalb der Organisation fördern. Sie können als zentrale Wissensdatenbank genutzt werden. Zudem können LLMs den Support entlasten, indem sie als erster Ansprechpartner für Kundenanfragen dienen, sogenannte Chatbots.

TwinCAT Chat wurde entwickelt, um LLMs tiefgehend in das Steuerungsengineering zu integrieren und so den Anwendern gegenüber der herkömmlichen Nutzung einen klaren Vorteil zu bieten

TwinCAT Chat wurde entwickelt, um LLMs tiefgehend in das Steuerungsengineering zu integrieren und so den Anwendern gegenüber der herkömmlichen Nutzung einen klaren Vorteil zu bieten

Anfang 2023 sprach jeder von ChatGPT. Spätestens zu diesem Zeitpunkt waren LLMs „in aller Munde“. Inwiefern hat Beckhoff davon Gebrauch gemacht?

Als ChatGPT Anfang 2023 publik wurde, waren Sprachmodelle plötzlich für jeden greifbar(er). Dennoch traf uns dieses Thema „plötzlich“ und im Grunde genommen auch unvorbereitet. Die durch eine hohe Anzahl an Texten trainierten Sprachmodelle bieten vielerlei Möglichkeiten und Beckhoff hat mit TwinCAT Chat auf der Hannover Messe 2023 als einer der ersten Anbieter eine Anwendung im Automatisierungsbereich vorgestellt. Unsere ersten Schritte basierten zum damaligen Zeitpunkt auf PLC-Code-Generierungen, sprich Programmierhilfen für Maschinensteuerungen. Schließlich mussten wir uns erst einmal die Frage stellen, was man anhand von LLMs in der Praxis wirklich alles umsetzen kann. Die Codeoptimierung oder auch automatische Codegenerierung waren damals unsere ersten Gehversuche.

Mit dem C6043 präsentiert Beckhoff einen ultrakompakten Industrie-PC für KI- und ML-Anwendungen.

Mit dem C6043 präsentiert Beckhoff einen ultrakompakten Industrie-PC für KI- und ML-Anwendungen.

Was bietet TwinCAT Chat den Anwendern?

TwinCAT Chat wurde entwickelt, um LLMs tiefgehend in das Steuerungsengineering zu integrieren und so den Anwendern gegenüber der herkömmlichen Nutzung – etwa von ChatGPT im Webbrowser – einen klaren Vorteil zu bieten. Dies erleichtert den Entwicklungsprozess erheblich, da die Kommunikation und der Code-Austausch nahtlos ineinandergreifen. Weiters wurde das LLM speziell für TwinCAT-Anfragen grundinitialisiert. So kann man direkt spezifische Fragen stellen und muss dem LLM nicht erst mitteilen, dass TwinCAT verwendet wird und die Code-Beispiele in strukturiertem Text erwartet werden. Zudem lässt sich generierter Code einfach übernehmen, was den Entwicklern nicht nur Zeit spart, sondern auch Fehler beim manuellen Übertragen vermeidet.

Im Grunde genommen bedeutet es auch, dass eine praxisnahe Anwendung und das Ausprobieren eines Sprachmodells letztendlich zum Ergebnis führen?

Richtig. Auch wir von Beckhoff haben viel mit den neuen Möglichkeiten gearbeitet und ausprobiert, um schließlich mit neuen Erfahrungen gut in das Thema einzusteigen. Inzwischen arbeiten wir konkreter mit ChatGPT und auch anderen Sprachmodellen. Man darf jedoch nicht vergessen, dass die technologische Weiterentwicklung im Hintergrund bei OpenAI und auch deren Marktbegleitern sehr dynamisch voranschreitet. Wir müssen uns diesem Tempo soweit wie es geht anpassen und an unseren Prozessen ebenfalls schneller arbeiten bzw. mögliche Prozesse schneller denken. Diese Tatsache ist zwar anstrengend, hat aber auch für uns klare Vorteile. Es führt zwar dazu, dass es schwierig ist, eine konkrete Produktentwicklung zu kreieren, geschweige denn ein Businessmodell zu erarbeiten. Allerdings führen wir diesen Entwicklungsprozess quasi als ShowCase und nicht unter dem Oberbegriff der konkreten Produktentwicklung. Dafür ändert sich zu viel – zu schnell, um in eine langfristige Produktentwicklung einzusteigen. Dennoch sind wir als Unternehmen gefordert am Entwicklungsball zu bleiben, und das ist gut so.

Wäre es sinnvoll, als Beckhoff etwas „Eigenes“ auf den Markt zu bringen?

Das ist eine spannende Frage, die nicht sehr leicht zu beantworten ist. Denn: Es gibt zwei Gruppen von Anwendern. Die eine Gruppe, die die hohen Datenschutzanforderungen in den Fokus stellt, meint, dass „der Quellcode nicht das Haus verlassen“ darf. Daher haben wir uns bei Beckhoff schon dafür entschieden, vom OpenAI-Dienst auf den Azure-Dienst umzuziehen. Datenschutzrechtlich ist dies somit eleganter gelöst, genügt aber natürlich nicht allen. Die andere Gruppe sind diejenigen, die weniger Bedenken haben. Das ist aber auch oft unternehmensabhängig bzw. unternehmensgrößenabhängig. Die Meinungen werden immer auseinandergehen.

Sind die verschiedenen Meinungen auch länderspezifisch?

Ja. Unsere Kollegen von Beckhoff China haben beispielweise keinen Zugriff auf ChatGPT und die LLMs von Google. Und China ist ein KI-agnostischer Markt und somit auch ein wichtiger für Beckhoff. Hier müssen wir eigene Entscheidungen und Entwicklungen vorantreiben in Form von Sonderlösungen. Zudem gibt es am dortigen Markt ERNIE von Baidu – ebenfalls ein Sprachmodell. Letztendlich ist es doch so: Ob ChatGPT von OpenAI oder Bard von Google bzw. ERNIE von Baidu – die großen Modelle haben gemeinsam, dass sie alle als Cloud-Services via API angeboten werden und eben marktspezifische Anpassungen bieten. Hier müssen wir flexibel reagieren.

Das bedeutet konkret?

Wir beschäftigen uns intensiv mit dem Trainieren eigener Modelle – natürlich nicht von null an, sondern auf Basis kommerziell nutzbarer offener LLMs. Somit konkurrieren wir nicht mit den allgemeinen Modellen wie ChatGPT, sondern wir fokussieren uns auf einen klar definierten, deutlich kleineren Anwendungsraum. Ein wesentlicher Vorteil eigener Modelle wäre, diese auch lokal ausführbar zu machen, also im Netzwerk unseres Kunden. Damit könnten wir sowohl die chinesischen als auch europäischen Kunden mit hohen Datenschutzansprüchen abholen. Es stellt sich nur die Frage, ob es langfristig zielführend ist. Das Entscheidende ist, sich nicht diesen Technologien zu verschließen. Wir müssen sie aktiv integrieren, weil wir auch ihre Vorteile sehen.

Für den Einsatz von KI- bzw. ML-Anwendungen wird entsprechende Hardware benötigt. Was bietet Beckhoff derzeit an?

Auf der SPS 2023 konnten wir bereits mit dem C6043, einer Erweiterung der Baureihe der ultrakompakten Industrie-PCs von Beckhoff, aufwarten. Es handelt sich um ein performantes Gerät mit einem ab Werk belegbaren Slot für leistungsstarke Grafikkarten, die für genau solche ML- und KI-Anwendungen Grundvoraussetzung sind. Durch den Einsatz von Intel-Core-Prozessoren der 12. und 13. Generation bietet der C6043 eine enorme Rechenleistung. Und: Mit dem ab Werk belegbaren Slot für leistungsstarke Grafikkarten lässt sich der C6043 neben seinen modernen Intel-Core-Prozessoren mit hochparallelisierenden und langzeitverfügbaren NVIDIA-GPUs ausstatten. Damit eignet er sich ideal als zentrale Steuerungseinheit für anspruchsvolle Applikationen, etwa mit hohen Ansprüchen an 3D-Grafiken oder mit tief integrierten Vision- und KI-Programmbausteinen bei minimalen Zykluszeiten. Die Automatisierungssoftware TwinCAT 3 kann diese Funktionen neben der klassischen Steuerung vollintegriert abbilden – ohne zusätzliche Software oder Schnittstellen.

Inwieweit ist Beckhoff beim Thema „KI“ Marktführer?

Wir haben den Mut gezeigt, recht früh ChatGPT auszuprobieren und in Modelle zu integrieren. Wir sehen dies als essenzielle Entwicklung und möchten diese Techniken für die Automatisierung nutzen und weit vorne mit dabei sein. Das erfordert Mut und Know-how, beides weisen wir vor.

Vielen Dank!

Filtern

Suchbegriff

Unterkategorie

Firmen

Inhaltstyp

Firmentyp

Land