Newsletter 01/2024
Unsere Experten André Schneider, Olaf Enge-Rosenblatt und Björn Zeugmann beantworten die Frage, wie für KI-Algorithmen die jeweils richtige Hardware- und Software-Plattform gefunden werden kann.
Im Rahmen von Digitalisierungs- und Industrie-4.0-Initiativen werden in den letzten Jahren verstärkt datengetriebene Ansätze für das fortlaufende Monitoring von Industrieanlagen realisiert. Die Hoffnung ist, kritische Zustände früh zu erkennen, Wartungs- und Ausfallzeiten zu minimieren und kontinuierlich eine hohe Produktqualität oder Prozessstabi- lität zu erreichen. Neben klassischen Lösungen, bei denen mit Hilfe von Sensoren Signale beobachtet und beispielsweise bezüglich kritischer Schwellwerte ausgewertet werden, rücken aktuell Datenanalysen auf Basis von Algorithmen der Künstlichen Intelligenz (KI) in den Vordergrund. Diese bieten grundsätzlich den Vorteil, in sehr großen Mengen an Monitoringdaten versteckte Muster, Trends oder Auffälligkeiten zu finden und darüber deutlich präzisere Informationen zum aktuellen Anlagen- oder Prozesszustand zu geben.
Bevor jedoch KI-basierte Lösungen realisiert werden können, müssen anwendungsspezifisch und kontextbezogen Antworten auf eine Reihe von Fragen gefunden werden: Welche physikalischen Effekte geben zuverlässig Auskunft zum Anlagenzustand? Wo kann welche Sensorik genutzt oder ergänzt werden, um die notwendigen Daten hinreichend gut und vollständig zu erfassen? Wie kann die Sensor- und Prozessdatenaggregation organisiert werden? Wie lassen sich relevante Merkmale aus den Rohdaten extrahieren? Welche KI-Modelle liefern zuverlässig und hinreichend genau die gewünschten Ergebnisse? All diese Fragen betreffen zunächst den Entwurf einer Prototyplösung. Ist diese gefunden, rücken Fragen der effizienten Umsetzung dieser KI-Lösung im jeweiligen industriellen Gesamtumfeld in den Fokus. Hier geht es primär darum, die Sensorik- wie Edge-Device-Infrastruktur vor Ort minimal-invasiv und kostengünstig aufzubauen und danach einen zuverlässigen, wartungsarmen und energieeffizienten Betrieb zu sichern.
Um die Herausforderungen im Bereich der Edge Devices genauer zu untersuchen und Know-how und Expertise aufzubauen, befasst sich das Fraunhofer IIS/EAS im Rahmen des KI-Labors ATKI (Anwendungs- und Testzentrum Künstliche Intelligenz) mit der Frage, welche KI-Algorithmen für welche Hard- und Softwareplattformen im Edge-Bereich geeignet sind und welche Kosten initial und fortlaufend jeweils zu erwarten sind. Dazu werden aktuell eine Reihe von Benchmarks definiert, die dann anhand von Leistungs- und Ressourcenbedarfskennwerten validiert und quantitativ bewertet werden. Parallel zu den Benchmarks werden in Kooperation mit Partnern aus der Industrie Pilotanwendungen aufgebaut und untersucht. Ziel ist es jeweils, erfolgversprechende Ansätze für den Einsatz von KI im Unternehmen zu finden und Lösungen inklusive einer Umsetzungsstrategie und Aufwandsabschätzung vorzuschlagen und dies auf Basis der Benchmark-Ergebnisse quantitativ zu belegen.
Das Edge-Device-Portfolio umfasst gegenwärtig Hardware, die den Bereich vom Mikrocontroller bis hin zum leistungsstarken Industrie-PC alle Geräteklassen abdeckt, die sich derzeit am Markt befinden. Hierzu zählen unter anderem TPU-basierte Boards und Devices aus der Google-Coral-Serie (Micro, Mini, Dev Board, USB Accelerator), GPU-basierte Geräte aus der Nvidia-Jetson-Serie (Nano, Xavier, Orin) sowie verschiedene (primär CPU-basierte) Systeme wie Rasperry-PI-Devices und die im industriellen Umfeld etablierten Systeme von Beckhoff, Siemens und Gantner Instruments.
Entscheidende Kriterien bei der Umsetzung von KI-Lösungen auf der betrachteten Hardware sind primär der Speicherbedarf und die Rechenleistung sowie sekundär die Kosten und der Energiebedarf. Insbesondere Mikrocontroller sowie TPU- und GPU-basierte Hardwarelösungen versprechen hier hohe Leistung bei geringem Ressourcenbedarf und kompakter Bauweise. Von diesen Vorteilen kann jedoch nur dann profitiert werden, wenn sich auch die Merkmalsextraktion und der KI-Algorithmus, in der Regel also das passende, vortrainierte neuronale Netz, auf der Ebene der Software passend umsetzen lassen. Gefragt ist hier Know-how zum Reduzieren sehr großer neuronaler Netze (pruning) sowie zum Quantisieren von vortrainierten Modellen.
Um die aufgeworfenen Fragen für konkrete Anwendungen in der Industrie zielgerichtet und effektiv beantworten zu können, wird im ATKI des Fraunhofer IIS/EAS neben dem Aufbau der Edge-Device-Hardware an der Implementierung teilautomatisierter KI-Workflows gearbeitet. Diese gestatten insbesondere für große Sensordatenmengen, wie sie oft von Partnern online oder offline für die Analyse bereitgestellt werden, eine Abschätzung der mit KI erreichbaren Analyseziele in kurzer Zeit. Zudem erlauben diese Workflows, im oft sehr großen Raum der Möglichkeiten (zum Beispiel bei der Merkmalsextraktion und der KI-Modellarchitektur) effektiv, parallel und automatisiert nach potenziell robusten Lösungen zu suchen und das Potenzial fundiert abzuschätzen.