chevron_left
chevron_right
News

Ein Blick in die Trickkiste von Ingenieuren

Die Möglichkeiten und Anwendungsfelder künstlicher Intelligenz (KI) werden heutzutage mit zunehmender Komplexität der Technologie immer grösser. Folglich stehen Ingenieure bei der Integration von KI in Systeme vor neuen Herausforderungen. Ein Teil dieser Komplexität beruht auf der Erkenntnis, dass KI-Modelle nur so effektiv sein können wie die Daten, mit denen sie trainiert wurden. Sind die Daten unzureichend, ungenau oder verzerrt, werden auch die Berechnungen des Modells entsprechend ausfallen.

Generell gibt es drei zentrale Punkte, an denen sich KI und Simulation überschneiden. Zunächst geht es um die Bewältigung des Problems unzureichender Daten, da Simulationsmodelle dazu verwendet werden können, Daten zu erzeugen, deren Erhebung unter Umständen aufwendig oder kostspielig ist. Der zweite Punkt ist die Verwendung von KI-Modellen als Näherungen für komplexe, rechenintensive hochrealistische Simulationen, was auch als Reduced-Order-Modellierung bezeichnet wird. Als Drittes werden KI-Modelle in Embedded Systems für Anwendungen wie Regelungstechnik, Signalverarbeitung und Embedded Vision eingesetzt, bei denen die Simulation zu einem entscheidenden Faktor im Entwicklungsprozess geworden ist.

Angesichts der Tatsache, dass Ingenieure neue Wege finden, um effektivere KI-Modelle zu entwickeln, wird in diesem Beitrag untersucht, wie man Simulationen und KI kombinieren kann, um sich den Herausforderungen von Zeit, Modellzuverlässigkeit und Datenqualität zu stellen.

 

1. Herausforderung: Daten zumTrainieren und Validieren von KI-Modellen
Das Sammeln realer Daten und das Erstellen geeigneter, sauberer und katalogisierter Daten ist ein schwieriger und zeitaufwendiger Prozess. Dabei müssen Ingenieure auch berücksichtigen, dass die meisten KI-Modelle zwar statisch sind (sie arbeiten also mithilfe von festen Parameterwerten), jedoch ständig mit neuen Daten konfrontiert werden, die nicht unbedingt im Trainingssatz enthalten sind.
Ohne robuste Daten zum Trainieren eines Modells werden Projekte in der Regel scheitern, weshalb die Datenaufbereitung einen entscheidenden Schritt im KI-Workflow darstellt. "Schlechte Daten" können dazu führen, dass ein Ingenieur Stunden vergeudet, um herauszufinden, warum das Modell nicht funktioniert, ohne dass aufschlussreiche Ergebnisse  zu erwarten wären.
Mit Simulationen kann diese Problematik überwunden werden. In den letzten Jahren hat die datenzentrierte KI den Fokus der KI-Gemeinschaft auf die Bedeutung von Trainingsdaten gelenkt. Anstatt die gesamte Zeit eines Projekts für die Optimierung der Architektur und der Parameter des KI-Modells zu verwenden, hat sich gezeigt, dass die Zeit, die zur Verbesserung der Trainingsdaten aufgewendet wird, oft zu grösseren Genauigkeitssteigerungen führt. Der Einsatz von Simulationen zur Ergänzung vorhandener Trainingsdaten bietet eine Reihe von Vorteilen:

  • Computersimulationen sind in der Regel wesentlich kostengünstiger als physikalische Experimente.
  • Der Ingenieur besitzt die volle Kontrolle über die Umgebung und kann so Szenarien simulieren, die in der realen Welt nur schwer oder gar nicht durchführbar sind.
  • Mithilfe der Simulation lassen sich interne Zustände ermitteln, die in einem Versuchsaufbau möglicherweise nicht gemessen werden können, was bei der Fehlersuche, sprich warum ein KI-Modell in bestimmten Situationen nicht erfolgreich ist, sehr nützlich sein kann.

Da die Leistung eines Modells so massgeblich von der Qualität der Daten abhängt, mit denen es trainiert wird, können Ingenieure die Ergebnisse durch einen iterativen Prozess verbessern. Dabei simulieren sie Daten, aktualisieren ein KI-Modell und beobachten die Bedingungen, die es nicht ausreichend vorhersagen kann. So sammeln sie weitere simulierte Daten für diese Bedingungen.
Mithilfe von Branchen-Tools wie Simulink und Simscape haben Ingenieure die Möglichkeit, simulierte Daten zu erzeugen, die reale Szenarien widerspiegeln. Die Kombination von Simulink und MATLAB gestattet es Ingenieuren, ihre Daten in der gleichen Umgebung zu simulieren, in der sie auch ihre KI-Modelle erstellen. Auf diese Weise können sie einen Grossteil des Prozesses automatisieren und müssen sich keine Gedanken über einen Wechsel der Toolchain machen.

2. Herausforderung: Annäherung an komplexe Systeme mit KI
Bei der Entwicklung von Algorithmen, die mit physikalischen Systemen interagieren, wie zum Beispiel ein Algorithmus zur Steuerung eines Hydraulikventils, ist ein simulationsbasiertes Modell des Systems der Schlüssel zu einer effizienten Entwicklungsiteration für Algorithmen. Im Regelungssektor wird dies als "Streckenmodell2 bezeichnet, im Bereich der drahtlosen Kommunikation heisst es «Kanalmodell». Beim Reinforcement Learning nennt man dieses Modell das "Umgebungsmodell". Wie man es auch nennen mag, der Grundgedanke ist derselbe: Es gilt, ein simulationsbasiertes Modell zu erstellen, das die notwendige Genauigkeit bietet, um das physikalische System, mit dem die Algorithmen interagieren, nachzubilden.
Die Schwierigkeit bei diesem Ansatz besteht jedoch darin, dass zur Erreichung der "erforderlichen Genauigkeit" bislang Modelle mit einem hohen Genauigkeitsgrad auf der Grundlage physikalischer Gesetzmässigkeiten erstellt wurden. Das kann bei komplexen Systemen sowohl für die Erstellung als auch für die Simulation an sich viel Zeit in Anspruch nehmen. Bei langlaufenden Simulationen sind weniger Entwicklungsiterationen möglich, sodass möglicherweise nicht genug Zeit bleibt, um potenziell bessere Entwicklungsalternativen zu bewerten.
Hier kommt die KI ins Spiel: Das von Ingenieuren erstellte hochrealistische Modell des physikalischen Systems kann durch ein KI-Modell (ein Reduced-Order-Modell) approximiert werden. In anderen Situationen wird das KI-Modell vielleicht einfach anhand von experimentellen Daten trainiert, ohne dass ein physikalisches Modell erstellt werden muss. Der Vorteil hierbei besteht in dem geringeren Rechenaufwand des Reduced-Order-Modells im Vergleich zum Modell auf Basis der Physik, was bedeutet, dass der Ingenieur den Lösungsraum eingehender untersuchen kann. Wenn es ein physikalisches Modell des Systems gibt, kann dieses jederzeit im weiteren Verlauf des Prozesses verwendet werden, um die mithilfe des KI-Modells ermittelte Entwicklung zu validieren.
Jüngste Fortschritte im KI-Bereich, wie beispielsweise neural ODEs (neuronale gewöhnliche Differenzialgleichungen), kombinieren KI-Trainingstechniken mit Modellen, in die physikalische Prinzipien eingebettet sind. Solche Modelle können sich als nützlich erweisen, wenn bestimmte Aspekte des physischen Systems beibehalten werden sollen, während der Rest des Systems mit einem eher datenzentrierten Ansatz approximiert wird.


3. Herausforderung: KI zur Entwicklung von Algorithmen
Ingenieure, die sich mit Anwendungen wie Regelungssystemen befassen, stützen sich bei der Entwicklung ihrer Algorithmen immer mehr auf Simulationen. In vielen Fällen entwickeln diese Ingenieure virtuelle Sensoren, die versuchen, einen Wert zu berechnen, der nicht direkt von den verfügbaren Sensoren gemessen wird. Dazu werden verschiedene Ansätze verwendet, beispielsweise lineare Modelle und Kalman-Filter.
Allerdings sind diese Methoden nur begrenzt in der Lage, das nichtlineare Verhalten vieler realer Systeme zu erfassen, weshalb sich Ingenieure zunehmend KI-basierten Ansätzen zuwenden, die über die nötige Flexibilität verfügen, um diese Komplexitäten zu modellieren. Sie verwenden Daten (entweder gemessene oder simulierte), um ein KI-Modell zu trainieren, das den unbeobachteten Zustand aus den bisher beobachteten Zuständen vorhersagen kann, und integrieren dieses KI-Modell anschliessend in das System.
In diesem Fall ist das KI-Modell Teil des Regelungsalgorithmus, der auf der physischen Hardware landet, die eine begrenzte Leistung und Speicherkapazität aufweist und in der Regel in einer Programmiersprache wie C/C++ geschrieben werden muss. Diese Anforderungen können die Arten von KI-Modellen, die für solche Anwendungen geeignet sind, einschränken, sodass es notwendig sein kann, mehrere Modelle zu testen und Kompromisse in puncto Genauigkeit und Leistung der Hardware zu vergleichen.
An der Spitze der Forschung in diesem Bereich geht das Reinforcement Learning mit diesem Ansatz sogar noch einen Schritt weiter. Anstatt nur den Schätzer zu erlernen, lernt das Reinforcement Learning die gesamte Regelungsstrategie. Dies hat sich in einigen anspruchsvollen Anwendungen wie der Robotik und autonomen Systemen als leistungsfähige Technik erwiesen – jedoch erfordert der Aufbau eines solchen Modells ein genaues Umgebungsmodell, das unter Umständen nicht sofort verfügbar ist, sowie die nötige Rechenleistung, um eine grosse Anzahl von Simulationen durchzuführen.
Neben virtuellen Sensoren und dem Reinforcement Learning werden KI-Algorithmen zunehmend im Bereich Embedded Vision sowie in der Audio- und Signalverarbeitung und bei Drahtlosanwendungen eingesetzt. So kann beispielsweise in einem Auto mit automatisierten Fahrfunktionen ein KI-Algorithmus Fahrbahnmarkierungen auf der Strasse erkennen und so dazu beitragen, dass das Auto in der Mitte der Fahrspur bleibt. Bei Hörgeräten können KI-Algorithmen dazu beitragen, die Sprachqualität zu verbessern und Lärm zu unterdrücken. In einer drahtlosen Anwendung ermöglichen KI-Algorithmen eine digitale Vorverzerrung, um die Auswirkungen von Nichtlinearitäten in einem Leistungsverstärker auszugleichen. All diese Anwendungen haben eines gemeinsam: Die KI-Algorithmen sind Teil eines grösseren Systems. Simulationen werden für Integrationstests verwendet, um sicherzustellen, dass die gesamte Entwicklung den Anforderungen entspricht.

 

Die Zukunft der KI für Simulationen

Angesichts der zunehmenden Grösse und Komplexität von Modellen für immer anspruchsvollere Anwendungen werden KI und Simulationen zu immer wichtigeren Tools in der Trickkiste von Ingenieuren. Mithilfe von Branchentools wie Simulink und MATLAB können Ingenieure ihre Workflows optimieren und die Entwicklungszeit verkürzen, indem sie Techniken wie die Generierung synthetischer Daten, die Reduced-Order-Modellierung und eingebettete KI-Algorithmen für Regelungen, zur Signalverarbeitung und Embedded Vision sowie für Drahtlosanwendungen einsetzen.
Mit der Möglichkeit, Modelle auf präzise und kostengünstige Weise zu entwickeln, zu testen und zu validieren, bevor die entsprechende Hardware eingeführt wird, werden diese Methoden in Zukunft immer häufiger zum Einsatz kommen.

 

Mehr auf der SPS – 14. bis 16. November in Nürnberg

Erfahren Sie mehr über die Rolle von KI im Maschinenbau und die Entwicklung von KI-Applikationen mit Low-Code-Methoden sowie über modellbasierte Entwicklung und Simulation und weitere Fokusthemen auf der diesjährigen SPS Nürnberg. Am Stand 6-227 der diesjährigen SPS bieten MathWorks-Experten eine Reihe von spannenden Demos und hilfreichen Informationen für Ingenieure und Entwickler.

  • KI für die visuelle Inspektion auf einer Beckhoff SPS: Überblick über den kompletten Arbeitsablauf für die Entwicklung und den Einsatz von KI-Algorithmen zur Bildklassifizierung auf SPSen – vom Entwurf des Deep-Learning-Modells bis zum Einsatz auf der Hardware.
  • Low-Code-Workflow für Predictive Maintenance (vorausschauende Wartung): Low-Code-Workflows für die Extraktion von physikalischen Merkmalen zur Erkennung von Fehlern und zur Abschätzung der verbleibenden Nutzungsdauer von technischen Systemen.
  • Virtuelles Fliessband: Das virtuelle Fliessband ist ein digitaler Zwilling, der durch den Import von CAD-Dateien in Simulink erstellt wird. 
  • Echtzeitsimulation mit SPSen: Erweiterung der Demo "Virtuelles Fliessband" auf Echtzeitsimulation mit Code, der auf einer SPS mit automatischer Codegenerierung eingesetzt wird.

 

www.mathworks.ch