Welche Strategien der künstlichen Intelligenz sind für die Zusammenfassung nützlich?


8

Wenn ich einen Absatz habe, den ich zusammenfassen möchte, zum Beispiel:

Ponzo und Fila gingen tagsüber ins Einkaufszentrum. Sie gingen lange und hielten in Geschäften an. Sie gingen zu vielen Geschäften. Zuerst haben sie nichts gekauft. Nachdem sie in eine Reihe von Geschäften gegangen waren, kauften sie schließlich ein Hemd und eine Hose.

Besser zusammengefasst als:

Sie haben heute im Einkaufszentrum eingekauft und ein paar Klamotten gekauft.

Was ist die beste KI-Strategie, um diesen Prozess zu automatisieren, wenn es eine gibt? Wenn nicht, liegt es daran, dass es davon abhängt, zuerst eine externe Informationsressource zu haben, die einen Algorithmus informiert? Oder liegt es daran, dass das Problem von Natur aus kontextabhängig ist?

Antworten:


6

Der folgende Beitrag enthält ein bisschen Mathematik, was hoffentlich dazu beiträgt, das Problem besser zu erklären. Leider scheint diese SE-Site LaTex nicht zu unterstützen:

Die Zusammenfassung von Dokumenten ist ein offenes Problem in der KI-Forschung. Eine Möglichkeit, wie diese Aufgabe derzeit behandelt wird, heißt "extraktive Zusammenfassung". Die grundlegende Strategie lautet wie folgt: Teilen Sie dieses Dokument in Sätze auf, und wir werden als Zusammenfassung eine Teilmenge von Sätzen präsentieren, die zusammen alle wichtigen Details des Beitrags abdecken. Weisen Sie Satz , , eine Variable , wobei angibt, dass der Satz ausgewählt wurde, und bedeutet, dass der Satz wurde. Dann ist genau dann, wenn beide Sätze gewählt wurden. Wir werden auch die Wichtigkeit jedes Satzes für den Satzi1inzi{0,1}zi=1zi=0zizj=1wiiund Interaktionsterme zwischen den Sätzen und .wi,jij

Sei die Merkmalsvektoren für Satz . erfasst, wie wichtig es ist, diesen Satz (oder die darin behandelten Themen) aufzunehmen, während das Ausmaß der Überlappung zwischen Sätzen in unserer Zusammenfassung angibt. Schließlich setzen wir all dies in ein Minimierungsproblem:xiiwi=w(xi)wi,j=w(xi,xj)

maximize ziiwiziwi,jzizjs.t. zi=0 or 1

Dies versucht, das Gesamtgewicht der abgedeckten Sätze zu maximieren und das Ausmaß der Überlappung zu minimieren. Dies ist ein ganzzahliges Programmierproblem, das dem Finden des unabhängigen Satzes mit dem niedrigsten Gewicht in einem Diagramm ähnlich ist, und es gibt viele Techniken, um solche Probleme zu lösen.

Dieses Design erfasst meiner Meinung nach die grundlegenden Probleme bei der Zusammenfassung von Texten und kann auf viele Arten erweitert werden. Wir werden diese in Kürze diskutieren, aber zuerst müssen wir die Funktionen vollständig spezifizieren . könnte nur eine Funktion des Satzes , aber es könnte auch von der Stelle des Satzes im Dokument oder seinem Kontext abhängen (Ist der Satz am Anfang eines Absatzes? Hat er gemeinsame Wörter mit der Titel? Wie lang ist er? Erwähnt er irgendwelche Eigennamen? etc)wwi=w(xi)i

wi,j=w(xi,xj) ist ein Ähnlichkeitsmaß. Es misst, wie viele Wiederholungen es geben wird, wenn wir beide Wörter in den Satz aufnehmen. Es kann definiert werden, indem gemeinsame Wörter zwischen Sätzen betrachtet werden. Wir können auch Themen oder Konzepte aus jedem Satz extrahieren und sehen, wie viele unter ihnen gemeinsam sind, und Sprachfunktionen wie Pronomen verwenden, um zu sehen, ob sich ein Satz auf einen anderen erweitert.

Um das Design zu verbessern, könnten wir zunächst eine Schlüsselwortextraktion durchführen, dh Schlüsselphrasen im Text identifizieren und das obige Problem in Bezug auf diese definieren, anstatt zu versuchen, Sätze auszuwählen. Das ist ein ähnliches Problem wie bei Google, um Nachrichtenartikel in ihren Suchergebnissen zusammenzufassen, aber mir sind die Details ihres Ansatzes nicht bekannt. Wir könnten die Sätze auch weiter in Konzepte aufteilen und versuchen, die semantische Bedeutung der Sätze zu bestimmen (Ponzo und Fila sind die Menschen P1 und P2, ein Einkaufszentrum ist ein Ort P, P1 und P2 gingen zum Zeitpunkt T (Tag) an den Ort P. ). Transportmittel zu Fuß .... und so weiter). Dazu müssten wir eine semantische Ontologie oder andere Common-Sense-Wissensdatenbanken verwenden. Alle Teile dieses letzten semantischen Klassifizierungsproblems sind jedoch offen, und ich habe noch niemanden gesehen, der zufriedenstellende Fortschritte erzielt hat.

Wir könnten auch die obige Verlustfunktion optimieren, so dass wir den Kompromiss zwischen der und dem Diversity-Score von Hand , sondern aus Daten lernen könnten. Eine Möglichkeit, dies zu tun, besteht darin, bedingte Zufallsfelder zum Modellieren der Daten zu verwenden, aber es gibt sicherlich noch viele andere.wiwi,j

Ich hoffe, diese Antwort hat die grundlegenden Probleme erklärt, die gelöst werden müssen, um Fortschritte auf dem Weg zu guten Zusammenfassungssystemen zu erzielen. Dies ist ein aktives Forschungsfeld, und Sie finden die neuesten Artikel über Google Scholar. Lesen Sie jedoch zuerst die Wikipedia-Seite , um die relevanten Begriffe zu erfahren

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.