Spezialisierung, Interoperabilität und stärkere Zusammenarbeit Diese sechs KI-Trends werden 2019 wichtig

Dr. Frank Graeber ist Manager Application Engineering bei Mathworks.

Bild: Mathworks
17.01.2019

Trends wie KI, Deep Learning, Datenanalyse, IoT und andere Konzepte sind längst nicht mehr neu. Doch heute greifen sie immer mehr ineinander und machen so technische Fortschritte möglich, die noch vor ein paar Jahren nach Zukunftsmusik klangen. Insbesondere Künstliche Intelligenz (KI) sticht hier heraus.

Mit der zunehmenden Verbreitung von KI in allen Branchen wächst die Notwendigkeit, sie verfügbar, zugänglich und anwendbar für Ingenieure und Wissenschaftler unterschiedlicher Fachrichtungen zu machen. Die Komplexität immer größerer Datensätze, Cloud Computing, die Implementierung in Embedded-Anwendungen und größere Entwicklungsteams stellen Entwickler vor neue Herausforderungen.

Um diesen zu begegnen, werden Lösungsanbieter an Wegen für mehr Zusammenarbeit und Interoperabilität arbeiten. So werden produktivere Workflows entstehen und die Abhängigkeit von IT-Abteilungen wird abnehmen. Dr. Frank Graeber, Manager Application Engineering bei Mathworks, fasst nachfolgend die sechs Trends zusammen, die im nächsten Jahr die Entwicklung und Anwendung von KI maßgeblich bestimmen werden.

1. KI ist nicht nur für Datenwissenschaftler gedacht

Nicht nur Datenwissenschaftler, auch Ingenieure und Wissenschaftler werden die Einführung von Deep Learning vorantreiben. Neben der Offenheit für neue Techniken werden auch wirtschaftliche Vorteile, die Künstliche Intelligenz und Automatisierungstools versprechen, den zunehmenden Einsatz von KI durch Ingenieure und Wissenschaftler anheizen.

Neue Workflow-Tools vereinfachen und automatisieren die Daten-Synthese, das Labeling, die Vorverarbeitung und Bereitstellung von Daten. Diese Tools erweitern auch die Bandbreite der Anwendungen von Bild- und Computer-Vision bis hin zu Zeitreihen-Daten wie Audio, Signalverarbeitung und IoT. So wird KI abseits der Datenwissenschaft zum Beispiel in unbemannten Luftfahrzeugen (UAV) eingesetzt werden, um mithilfe von KI Objekte in Satellitenbildern zu erkennen, oder bei Krebsvorsorgeuntersuchungen zur Früherkennung von Krankheiten.

2. Industrielle Anwendungen erfordern Spezialisierung

Industrielle Anwendungsmöglichkeiten werden zu einem wichtigen Einsatzfeld für KI, erfordern aber auch eine größere Spezialisierung. Damit IoT- und KI-getriebene Anwendungen wie Smart Cities, Predictive Maintenance und Industry 4.0 von visionären Konzepten zur Realität werden, müssen einige Kriterien erfüllt sein.

Sicherheitskritische Anwendungen verlangen beispielsweise nach einer höheren Verlässlichkeit und Verifizierbarkeit, wohingegen fortschrittliche mechatronische Systeme Designansätze benötigen, die mechanische, elektrische und andere Komponenten integrieren. Eine weitere Herausforderung ist, dass diese spezialisierten Anwendungen wie etwa Systeme zur Erkennung von Überhitzung bei Flugzeugtriebwerken oft von dezentralen Entwicklungs- und Serviceteams entwickelt und verwaltet werden. Sie sind somit nicht unter der IT zentralisiert.

3. Interoperabilität

Für den Aufbau einer umfassenden KI-Lösung ist die Zusammenarbeit von verschiedenen Systemen, Programmen oder Plattformen essenziell. Die Realität ist, dass es kein einzelnes Framework gibt, das die besten Lösungen für alle Anwendungsbereiche der KI bieten kann. Derzeit konzentriert sich jedes Deep Learning Framework auf einige wenige Anwendungen und Produktionsplattformen, während effektive Lösungen Teile aus mehreren verschiedenen Workflows zusammenführen müssen.

Dies erzeugt jedoch Reibung und reduziert die Produktivität. Diesem Problem nehmen sich Unternehmen wie Onnx.ai an. Sie bieten eine Umgebung, in der Entwickler das beste Werkzeug frei wählen, ihre Modelle einfacher teilen und ihre Lösungen auf einer breiten Palette von Produktionsplattformen einsetzen können.

4. Cloud Computing

Gerade Public Clouds werden zunehmend als Host-Plattform für KI genutzt. Sie werden sich weiterentwickeln, um die Komplexität zu reduzieren, und werden die Abhängigkeit von IT-Abteilungen verringern.
Leistungsstarke GPU-Instanzen, flexible Speicheroptionen und produktionsreife Containertechnologien sind nur drei Gründe, warum KI-Anwendungen zunehmend Cloud-basiert sind.

Für Ingenieure und Wissenschaftler erleichtert die Cloud-basierte Entwicklung die Zusammenarbeit und ermöglicht die bedarfsgerechte Nutzung von Computerressourcen, anstatt teure Hardware mit begrenzter Lebensdauer zu kaufen. Cloud-, Hard- und Softwareanbieter erkennen jedoch, dass diese Technologieplattformen für Ingenieure und Wissenschaftler oft schwierig einzurichten und in ihren Entwicklungsabläufen zu nutzen sind.

5. Edge Computing

Edge Computing wird KI-Anwendungen in Szenarien ermöglichen, in denen die Verarbeitung lokal erfolgen muss. Edge Computing für leistungsstarke, immer komplexere KI-Lösungen in Echtzeit wird durch die Fortschritte bei Sensoren und energiesparenden Computerarchitekturen möglich gemacht. Gerade für die Sicherheit in autonomen Fahrzeugen, die ihre Umgebung verstehen und davon ausgehend Verkehrssituationen in Echtzeit bewerten müssen, wird Edge Computing von entscheidender Bedeutung sein.

6. Komplexität erfordert eine stärkere Zusammenarbeit

Der zunehmende Einsatz von Machine und Deep Learning in komplexen Systemen wird viel mehr Mitarbeiter und eine stärkere Zusammenarbeit erfordern. Datenerhebung, -synthese und -kennzeichnung erhöhen den Umfang und die Komplexität von Deep-Learning-Projekten und erfordern größere, dezentralisierte Teams.

System- und Embedded-Ingenieure benötigen Flexibilität bei der Bereitstellung von Inferenzmodellen in Rechenzentren, Cloud-Plattformen und Embedded-Architekturen wie FPGAs, ASICs und Mikrocontrollern. Zusätzlich müssen sie über Fachwissen in den Bereichen Optimierung, Energiemanagement und Wiederverwendung von Komponenten verfügen. Ingenieure, die Inferenzmodelle entwickeln, müssen diese Informationen zusammenführen. Sie benötigen Werkzeuge, um die ständig wachsende Menge an Trainingsdaten zu bewerten und zu verwalten sowie für das Lifecycle-Management der Inferenzmodelle, die sie an Systemingenieure weitergeben.

Firmen zu diesem Artikel
Verwandte Artikel