Neue maschinelle Lernmethoden entwickeln Wie technische Systeme aus wenigen Beispielen lernen können

In der industriellen Produktion liegen teils nur wenige Daten auf einmal vor, aus denen ein System lernen kann.

10.01.2020

Aktuelle Ansätze des maschinellen Lernens benötigen unzählige Beispiele, um Gesetzmäßigkeiten zu erkennen und daraus allgemeine Regeln abzuleiten. Was aber, wenn es zu wenig Trainingsmaterial gibt? Ute Schmid, Informatik-Professorin an der Uni Bamberg und Research Fellow bei Fortiss, entwickelt Methoden, mit denen auch aus wenigen Daten gelernt werden kann.

Ein Anwendungsfeld sind Programme wie Tabellenkalkulation. Damit könnten Menschen ohne Programmierkenntnisse beispielsweise die volle Funktionalität solch komplexer Anwenderprogramme nutzen. Sie müssten dem System einfach Beispiele für das gewünschte Systemverhalten angeben, erklärt die Grundlagenforscherin im Interview.

Induktive Programmierung heißt die Methode, mit der sich die Leiterin der Forschungsgruppe Kognitive Systeme an der Uni Bamberg beschäftigt. Sie erforscht, wie Programme aus Ein-/Ausgabe-Beispielen oder beobachteten Eingabefolgen in einem System lernen.

Die Methode ergänzt aktuelle Blackbox-Ansätze des Deep Learning, einem Teilgebiet des maschinellen Lernens (ML), das künstliche neuronale Netze einsetzt und viele Trainingsdaten benötigt. Außerdem ermöglicht sie, Hintergrund- und Expertenwissen zu berücksichtigen.

Benötigt werden solche Verfahren beispielsweise bei medizinischen Diagnosen oder in der industriellen Produktion, wo nur wenige Daten auf einmal vorliegen, die sich zum Training eines Modells nutzen lassen. Ein weiterer Anwendungsbereich ist das sogenannte Data Wrangling: Hier geht es um Unterstützung bei der Bereinigung und Transformation komplexer Datensätze.

Menschliche Hilfe benötigt

Die große Herausforderung für den Einsatz von ML liege darin, dass die meisten Ansätze sehr viele korrekt vorklassifizierte Trainingsbeispiele benötigen. Seien die Daten, mit denen gelernt wird, falsch vorklassifiziert, werde dementsprechend auch das gelernte Programm fehlerhaft sein.

In manchen Anwendungsbereichen, etwa der medizinischen Diagnose, gibt es oft gar keine „ground truth“. Das heißt, auch ein Experte kann nur nach bestem Wissen einschätzen, welche Diagnose korrekt wäre.

„Ich gehe davon aus, dass es für viele praktische Anwendungen notwendig wird, interaktive Ansätze des maschinellen Lernens zu nutzen oder zu entwickeln, da es gar nicht möglich oder sehr teuer ist, Trainingsdaten ohne menschliche Hilfe korrekt zu kennzeichnen“, prognostiziert Schmid.

Ein weiteres Problem besteht darin, dass Entscheidungen von KI-Algorithmen nicht transparent sind. Gemeinsam mit Fortiss wird sich die Informatikerin mit der Generierung von Erklärungen beschäftigen, mit denen sich die Entscheidungen von KI-Algorithmen nachvollziehen lassen.

Forschungspartnerschaft mit Fortiss

Prof. Ute Schmid lehrt Künstliche Intelligenz und maschinelles Lernen an der Universität Bamberg. Ihr Schwerpunkt liegt auf induktiver Programmierung, interpretierbarem und menschenähnlichem (human-level) maschinellen Lernen sowie der Generierung von Erklärungen für gelernte Modelle (Klassifikatoren). Schmid wird bei Fortiss in das Leitprojekt Robuste KI und im IBM Fortiss Center for AI eingebunden.

Firmen zu diesem Artikel
Verwandte Artikel