UMFORMtechnik (Massiv)

 
 
   

Aus wenigen Beispielen den richtigen Schluss ziehen

Maschinelles Lernen heißt, aus Beispielen die Gesetzmäßigkeit zu destillieren und Regeln abzuleiten. Hierzu braucht es Übungsmaterial. Was aber tun, wenn hiervon zu wenig vorliegt? Die Universität Bamberg entwickelt Methoden, mit denen auch aus wenigen Daten gelernt werden kann.

Mehr zur Firma

How to draw the right conclusion from a few cases

Machine learning means to identify principles from examples and to derive general  rules. This requires practice material. But what to do if there are still too few of them? The University of Bamberg has developed methods with which learning can also be done from too little data.

Um Gesetzmäßigkeiten zu erkennen und daraus Richtlinien abzuleiten, brauchen braucht Maschinelles Lernen (ML) derzeit noch viele Beispiele. Gibt es zu wenig Trainingsmaterial, wird’s schwierig mit der Erkenntnis. Oder vielleicht doch nicht?

Ute Schmid ist Informatik-Professorin an der Uni Bamberg und Research Fellow beim Forschungsinstitut des Freistaats Bayern für softwareintensive Systeme und Services (Fortiss). Sie entwickelt Methoden, mit denen auch aus wenigen Daten gelernt werden kann. Ein Anwendungsfeld sind Programme wie Tabellenkalkulation. Damit könnten Menschen ohne Programmierkenntnisse etwa die volle Funktionalität solcher Programme nutzen. Sie müssten dem System einfach Beispiele für das gewünschte Systemverhalten angeben, sagt Schmid.

Das Mittel zum Zweck heiße „Induktive Programmierung“. Mit ihr beschäftigt sich Leiterin der Forschungsgruppe Kognitive Systeme. Sie erforscht, wie Programme aus Ein-/Ausgabe-Beispielen oder beobachteten Eingabefolgen in einem System lernen. Die Methode ergänzt aktuelle Blackbox-Ansätze des „Deep Learning“, einem Teilgebiet des Maschinellen Lernens, das künstliche neuronale Netze einsetzt und viele Trainingsdaten benötigt. Außerdem ermöglicht sie, Hintergrund- und Expertenwissen zu berücksichtigen.

Solche Verfahren werden beispielsweise bei medizinischen Diagnosen gebraucht oder in der industriellen Produktion, wo nur wenige Daten auf einmal vorliegen, die sich zum Training eines Modells nutzen lassen. Ein weiterer Anwendungsbereich ist das sogenannte Data Wrangling: Hier geht es um Unterstützung bei der Bereinigung und Transformation komplexer Datensätze.

Ein Problem beim Einsatz von ML liege darin, dass die meisten Ansätze viele korrekt vorklassifizierte Trainingsbeispiele benötigen, erklärt Ute Schmid. Seien die Daten, mit denen gelernt wird, falsch vorklassifiziert, werde dementsprechend auch das gelernte Programm fehlerhaft sein.

In manchen Anwendungsbereichen gibt es oft gar keine sogenannte „ground truth“. Das heißt: Auch ein Experte kann nur nach bestem Wissen einschätzen, welche Diagnose korrekt wäre. „Ich gehe davon aus, dass es für viele praktische Anwendungen notwendig wird, interaktive Ansätze des Maschinellen Lernens zu nutzen oder zu entwickeln, da es gar nicht möglich oder sehr teuer ist, Trainingsdaten ohne menschliche Hilfe korrekt zu kennzeichnen“, prognostiziert Ute Schmid, die Künstliche Intelligenz und Maschinelles Lernen an der Universität Bamberg lehrt.

Ihr Schwerpunkt liegt auf induktiver Programmierung, interpretierbarem und menschenähnlichem (human-level) maschinellem Lernen sowie der Generierung von Erklärungen für gelernte Modelle. Ute Schmid wird bei Fortiss in das Leitprojekt Robuste KI und im IBM Fortiss Center for AI eingebunden. Schwerpunkte bei Fortiss sind die Erforschung moderner Methoden, Techniken und Werkzeuge der Softwareentwicklung, des Systems- und Service-Engineering und deren Anwendung auf kognitive cyber-physische Systeme wie das Internet of Things (IoT).

Otto-Friedrich-Universität Bamberg
Forschungsgruppe Kognitive Systeme
Feldkirchenstraße 21
96052 Bamberg
Ansprechpartner ist Ansprechpartnerin ist Ute Schmid
Tel.: +49 951 863-0 
ute.schmid@uni-bamberg.de
www.uni-bamberg.de/kogsys

Fortiss GmbH
Forschungsinstitut des Freistaats Bayern für softwareintensive Systeme und Services
Guerickestraße 25
80805 München
Tel.: +49 89 3603522-0
info@fortiss.org
www.fortiss.org