Embedded-KI-Lösungen zur Entwicklung von ML-Anwendungen

Zur Aufwertung seiner Tools für eine beschleunigte Entwicklung von Projekten mit künstlicher Intelligenz (KI) und Machine Learning (ML) hat STMicroelectronics Ende 2022 Upgrades für NanoEdge AI Studio und STM32Cube.AI herausgegeben. Die Werkzeuge sollen das Auslagern von KI und ML an die Edge einer Applikation erleichtern.

NanoEdge AI Studio ist ein automatisiertes ML-Tool für Anwendungen, die keine Entwicklung neuronaler Netze erfordern. Es wird mit STM32-Mikrocontrollern (MCUs) und MEMS-Sensoren eingesetzt, die mit der eingebetteten ISPU (Intelligent Sensor Processing Unit) des Unternehmens ausgestattet sind. Für Entwickler, die auf die Verwendung neuronaler Netze angewiesen sind, eignet sich dagegen STM32Cube.AI als KI-Modelloptimierer und Compiler für STM32-MCUs. Beide neuen Releases warten mit Funktionen auf, die dabei helfen sollen, leistungsfähige KI/ML-Lösungen schnell und mit geringem Aufwand designen und implementieren zu können.

NanoEdge AI Studio Version 3.2 enthält nun einen automatischen Datenlogger-Generator zur Steigerung der Entwicklungsproduktivität. Das Tool benötigt Angaben über das jeweils verwendete ST-Entwicklungsboard sowie über die entwicklerseitig definierten Sensorparameter. Auf der Grundlage der Informationen generiert NanoEdge AI Studio die Binärdatei für das Entwicklungsboard, ohne dass vom Entwickler eine Codezeile geschrieben werden muss. Die jüngste Verbesserung umfasst weitere Preprocessing-Techniken und ML-Modelle für die Anomalie-Erkennung sowie Regressionsalgorithmen zur Steigerung der Leistungsfähigkeit.

Das verbesserte STM32Cube.AI soll sich durch vermehrte Flexibilität zur Anpassung neuronaler Netze auszeichnen. Es soll bestehende neuronale Netze adaptieren, um die Performance-Erwartungen zu erfüllen, sich dem verfügbaren Speicher anpassen oder mit einer ausgewogenen Implementierung beiden Anforderungen gerecht werden können. Das Update bietet zudem auch Unterstützung für TensorFlow-2.10-Modelle sowie neue Verbesserungen der Kernel-Performance.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert