Gibt es einen Unterschied zwischen Fernüberwachung, Selbstausbildung, selbstüberwachtem Lernen und schwacher Überwachung?


12

Nach dem, was ich gelesen habe:


Fernüberwachung :

A Distant supervision algorithm usually has the following steps: 
1] It may have some labeled training data 
2] It "has" access to a pool of unlabeled data 
3] It has an operator that allows it to sample from this unlabeled 
   data and label them and this operator is expected to be noisy in its labels 
4] The algorithm then collectively utilizes the original labeled training data
    if it had and this new noisily labeled data to give the final output.

Selbsttraining :

Bildbeschreibung hier eingeben


Selbstlernen ( Yates, Alexander, et al. "Textrunner: offene Informationsextraktion im Web." Verfahren der menschlichen Sprachtechnologien: Die Jahreskonferenz des nordamerikanischen Kapitels der Association for Computational Linguistics: Demonstrations. Association for Computational Linguistics, 2007. ):

Der Lernende arbeitet in zwei Schritten. Erstens werden die eigenen Trainingsdaten automatisch als positiv oder negativ gekennzeichnet. Zweitens werden diese beschrifteten Daten verwendet, um einen Naive Bayes-Klassifikator zu trainieren.


Schwache Supervision (Hoffmann, Raphael, et al. "Wissensbasierte schwache Supervision zur Informationsgewinnung überlappender Beziehungen". Tagungsband 49. Jahrestagung der Vereinigung für Computerlinguistik: Human Language Technologies-Band 1. Vereinigung für Computerlinguistik, 2011 .):

Ein vielversprechenderer Ansatz, der oft als „schwache“ oder „entfernte“ Überwachung bezeichnet wird, erstellt seine eigenen Trainingsdaten, indem der Inhalt einer Datenbank heuristisch mit dem entsprechenden Text abgeglichen wird.


Für mich klingt alles gleich, mit der Ausnahme, dass das Selbsttraining insofern etwas anders zu sein scheint, als die Etikettierungsheuristik der trainierte Klassifikator ist und es eine Schleife zwischen der Etikettierungsphase und der Klassifikatortrainingsphase gibt. Allerdings Yao, Limin, Sebastian Riedel und Andrew McCallum. " Kollektive dokumentenübergreifende Relationsextraktion ohne beschriftete Daten. " Vortrag der Konferenz 2010 über empirische Methoden in der Verarbeitung natürlicher Sprache. Association for Computational Linguistics, 2010. Behauptet, dass Fernüberwachung == Selbsttraining == schwache Überwachung.

Gibt es auch andere Synonyme ?


Interessante Frage. Könnte dies auf Data Science gehören?
Goangit

@ Goangit Wahrscheinlich, wie ein guter Teil dieser Website;)
Franck Dernoncourt

Antworten:


7

Bei all den verschiedenen Begriffen, die Sie angegeben haben, gibt es zwei Aspekte: 1) Prozess des Erlangens von Trainingsdaten 2) Algorithmus, der trainiert f

Der Algorithmus, der trainiertf , unabhängig davon, wie die Trainingsdaten erhalten werden, wird überwacht. Der Unterschied zwischen Fernüberwachung, selbstlernender, selbstüberwachter oder schwacher Überwachung liegt lediglich in der Art und Weise, wie die Trainingsdaten erhalten werden.

Herkömmlicherweise wird in jedem maschinellen Lernpapier zum überwachten Lernen implizit davon ausgegangen, dass die Trainingsdaten verfügbar sind und für welchen Wert sie auch immer verwendet werden. In der Regel wird davon ausgegangen, dass die Etiketten präzise sind und dass die Etiketten keine Mehrdeutigkeiten aufweisen das sind die Instanzen in den Trainingsdaten gegeben. Bei weit entfernten / schwachen Aufsichtspapieren wurde den Teilnehmern jedoch klar, dass ihre Trainingsdaten ungenaue Beschriftungen aufweisen. Sie möchten in der Regel hervorheben, dass sie trotz des offensichtlichen Nachteils der Verwendung ungenauer Beschriftungen gute Ergebnisse erzielen (und sie haben möglicherweise andere algorithmische Möglichkeiten) um das Problem der ungenauen Etiketten zu überwinden, indem zusätzliche Filterprozesse usw. durchgeführt werden, und in der Regel möchten die Artikel hervorheben, dass diese zusätzlichen Prozesse wichtig und nützlich sind). Dies führte zu den Begriffen "schwach" oder "entfernt", um anzuzeigen, dass die Beschriftungen auf den Trainingsdaten ungenau sind. Beachten Sie, dass dies nicht unbedingt den Lernaspekt des Klassifikators beeinflusst. Der Klassifikator, den diese Typen verwenden, geht immer noch implizit davon aus, dass die Bezeichnungen präzise sind und der Trainingsalgorithmus kaum verändert wird.

Das Selbsttraining ist in diesem Sinne etwas Besonderes. Wie Sie bereits bemerkt haben, bezieht es seine Bezeichnungen von einem eigenen Klassifikator und hat eine Art Rückkopplungsschleife zur Korrektur. Im Allgemeinen untersuchen wir überwachte Klassifizierer unter einem etwas größeren Bereich von "induktiven" Algorithmen, wobei der erlernte Klassifizierer eine induktive Folgerung ist, die aus den Trainingsdaten über die gesamten Daten gebildet wird. Die Menschen haben eine andere Form untersucht, die wir als transduktive Inferenz bezeichnen, bei der eine allgemeine induktive Inferenz nicht die Ausgabe des Algorithmus ist, sondern der Algorithmus gemeinsam sowohl Trainingsdaten als auch Testdaten als Eingabe verwendet und Beschriftungen auf den Testdaten erzeugt. Es stellte sich jedoch heraus, warum man beim induktiven Lernen nicht die transduktive Inferenz verwendet, um einen Klassifikator mit größeren Trainingsdaten zu erhalten.

Hoffentlich habe ich Sie nicht weiter verwirrt, zögern Sie nicht, Kommentare abzugeben und gegebenenfalls weitere Erläuterungen anzufordern.

[1] Könnte nützlich sein - http://www.is.tuebingen.mpg.de/fileadmin/user_upload/files/publications/pdf2527.pdf


Danke, Ihre Antwort ist sehr interessant! Wie wäre es mit Selbstlernen? Gleich wie entfernte / schwache Aufsicht?
Franck Dernoncourt

1
Ja. Ich sehe keinen besonderen Unterschied zwischen selbstlernender und entfernter / schwacher Überwachung, da die Etiketten getrennt von einer ungenauen Quelle erhalten und dann einem überwachten Klassifikator zugeführt werden.
TenaliRaman
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.