Structuring Autoencoders for Sparsely Supervised Labeling

// Elektronik und Elektrotechnik // Informations- und Kommunikationstechnik // Mess- und Regeltechnik // Software
Ref-Nr: 16790

Einleitung / Abstract

Die Erfindung betrifft ein Verfahren für das kostengünstige und zeiteffiziente Labeln bzw. Klassifizieren von Daten in neuronalen Netzwerken, einsetzbar u. a. in der Informations- und Kommunikationstechnik z.B. auf den Gebieten Bild- und Datenverarbeitung, Mustererkennung, Spracherkennung sowie in der Steuerungs- und Regelungstechnik.

Abb. 1: Structuring AutoEncoder (SAE)

Hintergrund

Die Erzeugung von gelabelten Daten ist extrem kostenintensiv und fehleranfällig. Die Nutzung von z.B. Amazon Mechanical Turk erfordert eine genaue Überprüfung der Labelergebnisse, automatisiertes Nachlabeln und Filtern brauchbarer Ergebnisse.

Problemstellung

Es ist nicht immer klar, welche Daten am besten gelabelt werden sollten. Für einen Maschine-Learning-Algorithmus ist es z.B. wichtig, möglichst "extreme" Beispiele eines Zustandsraums zu erhalten, um den Raum der Möglichkeiten am besten erfassen und repräsentieren zu können. Andernfalls entsteht eine Stichprobenverzerrung.

Lösung

Wichtiger als die Menge der Daten ist die Qualität dieser. Daher sind automatisierte Algorithmen, die selber Anfragen können, welche Daten gelabelt werden sollen, wirtschaftlich von besonderem Interesse. Das erfindungsgemäße Verfahren „Structuring AutoEncoder“ (SAE) ist eine Lösung für genau dieses Problem (neben einigen anderen Aspekten). SAEs sind neuronale Netze, die mit einer geringen Menge Daten trainiert werden und wahlweise mit vorgegebenen Labeln eine gewünschte Struktur im latenten Raum bilden. Dabei gibt es zwei erfindungsgemäße Verlustfunktionen, die zum Einen den Rekonstruktionsfehler und zum Anderen den strukturellen Verlust der Daten im latenten Raum optimieren. Somit wird hier eine semantisch strukturierte, niederdimensionale Darstellung von Daten ermöglicht.

Vorteile

Kosten- und zeiteffizientes Labeln/ Klassifizieren von Daten Verringerung der Anzahl erforderlicher Trainingszyklen Optimierung von Autoencodern bspw. bzgl. der Klassifizierungsmöglichkeiten

Anwendungsbereiche

Bild- und Datenverarbeitung, Mustererkennung, Steuerungs- und Regelungstechnik, Spracherkennung, Maschinen- und Anlagenbau.

Sie können dieses Fenster schließen. Ihre Suchergebnisse finden Sie in dem vorherigen Fenster

Top
EZN - Navigation