interview

Dr. Bause im Interview: KI smart integriert dank Beckhoff-Lösungen

Dr. Fabian Bause ist Produktmanager TwinCAT bei Beckhoff. Zudem beschäftigt er sich mit den Fragestellungen und Anwendungen rund um die Themen Machine Learning (ML) und Künstliche Intelligenz (KI). Dabei sieht er nicht nur das enorme Potenzial dieser Technologien, sondern auch ihre Herausforderung. Was Kunden fordern, ist nicht nur Support, sondern eine langfristige Lösung. Doch kann man dem bei einer gewissen Schnelllebigkeit, die KI fordert, gerecht werden?

Es gibt unglaublich viel Bewegung im KI-Chipmarkt und sehr viele Start-ups bieten – wie Sie sagen – sehr viele KI-Beschleuniger, auch als Akzeleratoren bekannt, an. Dr. Fabian Bause, TwinCat-Produktmanager TwinCAT bei Beckhoff

Es gibt unglaublich viel Bewegung im KI-Chipmarkt und sehr viele Start-ups bieten – wie Sie sagen – sehr viele KI-Beschleuniger, auch als Akzeleratoren bekannt, an. Dr. Fabian Bause, TwinCat-Produktmanager TwinCAT bei Beckhoff

Dr. Fabian Bause
TwinCat-Produktmanager TwinCAT bei Beckhoff

„Wir Europäer werden vermutlich nicht die Weltmeister der KI-Grundlagenforschung. Dazu investieren wir im Vergleich zu Asien und Amerika zu wenig Geld in die Infrastruktur. Aber wir waren schon immer Vorreiter in der ingenieursmäßigen Anwendung von Technologien – hier sehe ich enormes Potenzial und bereits viele gute Anwendungen in der Industrie.“

Dr. Bause, Ihr Aufgabengebiet bei Beckhoff begann mit der Integration von MATLAB und Simulink, dann kamen ML und KI dazu. Ein Zukunftsmarkt?

Das Thema KI entwickelt sich unglaublich schnell und es zählt zu den sogenannten Hype-Themen. Das bezieht sich sowohl auf die potenziellen industriellen Anwendungsgebiete als auch auf das, was Beckhoff auf diesem Gebiet alles entwickelt. Wir als Beckhoff verfolgen die schnellen Entwicklungen am Markt und agieren in unseren Entwicklungen so, dass unsere Kunden die Lösungen dann auch langfristig in den Maschinen einsetzen können.

Innerhalb der Automatisierung sind wir dazu angehalten, in langen Zeitskalen zu denken. Somit stellt sich die Frage, inwiefern bestimmte KI-Lösungen bildlich gesprochen ein „Stern am Himmel sind“ oder eine wirklich greifbare Zukunftstechnologie.

Innerhalb der Automatisierung sind wir dazu angehalten, in langen Zeitskalen zu denken. Somit stellt sich die Frage, inwiefern bestimmte KI-Lösungen bildlich gesprochen ein „Stern am Himmel sind“ oder eine wirklich greifbare Zukunftstechnologie.

Weshalb?

Innerhalb der Automatisierung sind wir dazu angehalten, in langen Zeitskalen zu denken. Somit stellt sich die Frage, inwiefern bestimmte KI-Lösungen bildlich gesprochen ein „Stern am Himmel sind“ oder eine wirklich greifbare Zukunftstechnologie. Wir können unseren Kunden jedenfalls keine nur kurzfristig relevanten Lösungen anbieten, sondern müssen mit ihnen langfristig denken und arbeiten, denn das verlangen auch ihre Prozesse im Unternehmen.

Mit TwinCAT 3 stehen dem Automatisierer die neuen Möglichkeiten von Machine- und Deep Learning in seiner gewohnten Steuerungswelt zur Verfügung.

Mit TwinCAT 3 stehen dem Automatisierer die neuen Möglichkeiten von Machine- und Deep Learning in seiner gewohnten Steuerungswelt zur Verfügung.

Nach wie vor schießen viele kleine, neue Unternehmen aus dem Boden und versuchen, umfassend den KI-Markt zu bedienen. Wie sehen Sie diese Entwicklungen?

Es gibt unglaublich viel Bewegung im KI-Chipmarkt und sehr viele Start-ups bieten – wie Sie sagen – sehr viele KI-Beschleuniger, auch als Akzeleratoren bekannt, an. Es handelt sich dabei um Spezialhardware bzw. Hardwarebausteine für die Ausführung von neuronalen Netzen. Diese können zwar oft effizienter oder schneller das neuronale Netz berechnen als die CPU, doch wir müssen unseren Kunden in Bezug auf Hardware etwas anbieten, was wir in zehn Jahren ebenfalls noch anbieten können. Die Start-ups agieren naturgemäß zunächst in kürzeren Dimensionen, die für unsere Kunden eher unrealistisch sind. Man sieht die Herausforderung etwa bei Intel, das Unternehmen wie Nervana Systems, Habana Labs und auch Movidius aufgekauft hat und versucht, das dazugewonnene Angebot mit in den Intel-Konzern zu integrieren – mehr oder weniger: Nervana Systems wurde zugunsten von Habana Labs geschlossen. Das ist nicht die Strategie, die Beckhoff pflegt. Aber es sind dennoch interessante Entwicklungen am Markt, die wir beobachten.

Zu sehen ist der ML-Workflow von der Datenaufnahme über das Training bis hin zur Integration des trainierten Modells in die TwinCAT Runtime.

Zu sehen ist der ML-Workflow von der Datenaufnahme über das Training bis hin zur Integration des trainierten Modells in die TwinCAT Runtime.

Worum geht es bei ML/KI im Wesentlichen?

Die Grundidee von ML ist es, Lösungen für bestimmte Aufgaben nicht mehr durch klassisches Engineering, z. B. auf Basis physikalischer Zusammenhänge, zu erarbeiten und in einen Algorithmus zu überführen. Vielmehr soll der gesuchte Zusammenhang von Eingangsgrößen zu Ausgangsgrößen anhand von Beispieldaten erlernt werden. Dieser Vorgang ist vor allem dann erfolgversprechend, wenn mit schwer vorhersehbarer Varianz in den Prozessen gerechnet werden muss, auf die in klassisch erarbeiteten Methoden nur schwer reagiert werden kann.

Können Sie dies anhand eines Beispiels näher darstellen?

Soll beispielsweise die Qualität von Holzbrettern oder landwirtschaftlichen Produkten visuell bewertet werden, muss die große Varianz dieser natürlichen Produkte in die Auswertung mit einbezogen werden. Deep-Learning-Ansätze sind dazu in der Lage und versprechen schnell gute Ergebnisse.

Der Kunde, der ML/KI als Lösung fordert, muss bereits im Vorfeld wissen, wo der Schuh im Unternehmen drückt. Inwiefern unterstützt Beckhoff, wenn das Wissen noch nicht zur Gänze vorhanden ist?

Wenn unsere Kunden eigene Anwendungsbeispiele vorliegen haben, dann bieten wir Workshops an, um gezielt „KI im Einsatz“ zu besprechen und um zu sehen, inwieweit man die Lösungen von uns integrieren kann. Wir sehen dann genau, welche Daten vorhanden sind, welche Daten erhoben werden könnten und erarbeiten zusammen ein erstes Testmuster, um dann in Folge zu sehen, was man aus dem Basismaterial alles herausholen kann. Hierbei handelt es sich um eine initiale Startphase. Wir können Supportleistung geben und möchten unsere Kunden dazu befähigen, ihre Herausforderungen selbst zu lösen. KI bietet zwar Marktvorteile, wenn man es gut umsetzt, aber bis dahin ist es dann doch noch ein längerer Weg, den wir versuchen gemeinsam zu gehen.

Haben Sie auch hierfür ein Beispiel?

Ein Beispiel ist das Thema Predictive Maintenance. Hier sind wir im Wesentlichen seit über einem Jahr damit beschäftigt, Daten zu sammeln. Manche Geräte fallen einfach nicht so schnell aus (lacht). Wenn ich vorbeugende Wartung irgendwie implementieren möchte, muss ich ja erst einmal Daten von Geräten sammeln, die defekt sind oder in Kürze auszufallen drohen. Ich brauche das Verhalten der Komponenten und das kann dauern, wenn sie einfach keinen Fehler aufweisen. Für ein prädiktives Wartungsmodell ist das herausfordernd und man benötigt Zeit. Wir haben auch sehr schöne Projekte in der Produktprüfung, wo es darum geht, eine integrierte Qualitätsüberwachung zu implementieren. Damit kommt man deutlich schneller an Daten und schlussendlich zum KI-Modell.

Eine große Hürde scheint immer noch der Gedanke zu sein, man benötige große Rechenleistungen beim KI-Einsatz. Was entgegnen Sie?

Bei KI denken die meisten an tiefe neuronale Netze, sogenanntes Deep Learning, und daran, dass man einen Hardwarebeschleuniger benötigt. Es ist aber ein Trugschluss, denn diese Deep-Learning-Netze werden im industriellen Umfeld fast ausschließlich im Vision-Bereich verwendet. Ansonsten sind kleine neuronale Netze oder klassische KI-Modelle oft völlig ausreichend. Selbst bei großen Deep-Learning-Netzen sind viele Anwendungen auf der CPU realisierbar. Denn entscheidend ist am Ende nicht die Größe des neuronalen Netzes, sondern dessen erlaubte Ausführungszeit, die wiederum vom Prozess bestimmt wird. Vernachlässigen sollten wir dabei auch nicht, dass CPUs immer leistungsfähiger werden. Auf der SPS 2022 haben wir aktuell die nächsten Intel-basierten IPCs mit der 11. und 12. Generation Core-i-Prozessoren mit bis zu 16 Kernen gezeigt.

Welche generellen Herausforderungen tragen die Entwicklungen von ML bzw. KI derzeit?

In diesem Bereich sind auch immer wieder politische Aspekte zu beachten, denn das, was etwa zwischen den USA und China passiert, ist für den KI-Markt eine spannende und entscheidende Entwicklung.

Sie meinen, Geopolitik bestimmt das Voranschreiten von KI auch im industriellen Umfeld?

Wenn die USA den Markt zu regulieren versuchen und in Folge bestimmen, welche Grafikkarten künftig nach China verkauft werden dürfen, dann erreichen wir in dieser Hinsicht neue Dimensionen. Aktuell konzentriert sich die Exportbeschränkung auf die großen Datacenter GPU der Firma Nvidia, die für das Training von immens großen neuronalen Netzen eingesetzt werden, sogenannten Foundation Models. Aber eine Ausweitung bzw. Begrenzung kann durch die USA künftig auch weitreichender stattfinden. Wir als Beckhoff können dies nur als gegeben akzeptieren. Ein Einfluss liegt außerhalb unserer Möglichkeiten. Dennoch muss man bedenken, dass China für uns ein großer und wichtiger Markt ist und auch das Thema KI dort eine sehr entscheidende Rolle spielt. Die chinesische Industriestrategie 2025 treibt Unternehmen dazu, KI gezielt einzusetzen. All diese erwähnten Entwicklungen am KI-Markt bestärken uns als Beckhoff in unserer Strategie, alles auf dem IPC abzubilden. Wir setzen auf eine Standard-IPC-Architektur und sehen uns mit dieser Entscheidung aktuell auf dem richtigen Weg – aber immer mit einem wachsamen Auge.

Welche Rolle spielen die USA im industriellen Umfeld der KI-Entwicklungen?

Interessanterweise spielen die USA beim Einsatz von KI im Automatisierungsmarkt weniger eine Rolle, als man vielleicht vermuten würde. Hingegen im IT-Sektor sind die USA weltweit führend. Von daher können sich europäische Unternehmen freuen, hier ein wenig die Nase vorn zu haben. Der Blick sollte in diesem Fall eher Richtung Asien gerichtet sein. Aber: KI ist nicht das Allheilmittel für alle Anwendungen im Rahmen einer Digitalisierung. Es geht doch eher um konkrete Anwendungen, die man sucht und wo man KI einsetzen möchte, um mehr aus der Maschine herauszuholen. Auch auf der Messe SPS habe ich verstärkt hierzu mit Kunden gesprochen.

Was bietet Beckhoff seinen Kunden an?

Wir offerieren sowohl die Hardware- als auch die Softwareinfrastruktur für die Integration von KI in die Maschinensteuerung. Die Kunden wollen gezielt unsere Lösungen für ihre Anwendung im Einsatz sehen. Das Grundverständnis zu KI haben sie sich inzwischen oft schon erarbeitet.

Um welche Beckhoff-Produkte geht es konkret?

Wir sprechen gezielt über unsere Ausführungseinheiten für KI-Modelle: die TwinCAT Machine Learning Inference Engine sowie die TwinCAT Neural Network Inference Engine. Mit diesen Produkten adressieren wir die OT-Welt, denn sie ermöglichen die Ausführung von KI-Modellen innerhalb der TwinCAT-Echtzeitumgebung. Die Ausführungseinheit der KI-Modelle wird als Standard-SPS-Funktionsbaustein angeboten, sodass die KI integraler Bestandteil der Maschinenapplikation wird. Das KI-Modell läuft demnach deterministisch auf der Standard-Beckhoff-IPC-Plattform. Um den Bogen in die KI-Welt aufzuspannen, setzen wir auf das standardisierte ONNX-Austauschformat, welches von allen einschlägigen KI-Softwareumgebungen, in denen Modelle trainiert werden, unterstützt wird. So kann ein Data Scientist ein Modell trainieren, als ONNX-Datei exportieren und an einen SPS-Programmierer übergeben, welcher die Datei in TwinCAT importiert.

Welche Möglichkeiten bieten Sie den Anwendern darüber hinaus an, um die Optimierung der Maschinen zu fokussieren?

Ergänzend bieten wir eine weitere Ausführungseinheit für KI-Modelle, aber mit anderen Eigenschaften, an: den TwinCAT-Machine-Learning-Server. Während wir mit den zuerst genannten Produkten auf die deterministische Ausführung der KI-Modelle in der TwinCAT-Echtzeit fokussieren, legen wir das Augenmerk mit dem Machine-Learning-Server auf Flexibilität hinsichtlich der KI-Modelle sowie auf optimale Ausführungsgeschwindigkeit – auch mithilfe von optionalen KI-Hardwarebeschleunigern. Konkret heißt das, dass die Ausführung der KI-Modelle, obwohl weiterhin als SPS-Funktionsbaustein zur Verfügung gestellt, nicht mehr in der TwinCAT-Echtzeit stattfindet, sondern ein eigenständiger Prozess im Betriebssystem des IPC ist. Dadurch gewinnen wir den Zugriff auf Hardwarebeschleuniger und die Flexibilität, beliebige, auch nicht für die Echtzeit-Ausführung optimierte KI-Modelle auszuführen. Ansonsten bleibt alles beim Alten, die Konfiguration erfolgt weiterhin über ONNX und der SPS-Programmierer arbeitet den Funktionsbaustein in den Maschinen-Code ein.

Ein sehr umfangreiches Portfolio. Dann steht dem Einsatz von KI also nichts mehr im Weg?

Es ist doch so: Der Kunde kennt seine Maschine immer am besten und er kennt seinen Markt und weiß, wo ein Benefit für ihn möglich wäre. Grundsätzlich suchen wir keine Einsatzmöglichkeit für KI, sondern beschäftigen uns mit den Herausforderungen der Kunden, die wir potenziell mit KI lösen können. KI ist dabei nur die mögliche Methode und genau betrachtet lediglich ein weiteres Hilfsmittel im Köcher des Ingenieurs, um ein Problem zu lösen.

Vielen Dank für das Gespräch.

Filtern

Suchbegriff

Unterkategorie

Firmen

Inhaltstyp

Firmentyp

Land