Textgenerierung

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Bullshit-Generator)
Zur Navigation springen Zur Suche springen

Als Textgenerierung (auch natürlichsprachliche Generierung; englisch Natural Language Generation, NLG) bezeichnet man die automatische Produktion von natürlicher Sprache durch eine Maschine. Die Generierung von Texten ist sowohl ein Teilbereich der Computerlinguistik als auch der künstlichen Intelligenz.[1] Für eine Beispielanwendung zur Textgenerierung siehe ChatGPT.

Generierungsprozess

[Bearbeiten | Quelltext bearbeiten]

Beim Generierungsprozess können sowohl anhand unterschiedlicher Eingabeformate, als auch nach unterschiedlichen technischen Herangehensweise klassifiziert werden. Basierend auf dem Format der Daten, die der Textgenerierung zugrunde liegen, wird unterschieden zwischen:[2]

  • Daten zu Text: Textgenerierung basierend auf strukturierten Daten (zum Beispiel Generierung von Wetterberichten)
  • Bilder zu Text: Textgenerierung basierend auf Bildern oder Videos (zum Beispiel Generierung von Bildunterschriften)
  • Text zu Text: Textgenerierung basierend auf Texten (zum Beispiel Generierung von Übersetzungen)

Während die klassische Definition der Textgenerierung noch eine nicht-linguistische Quelle als Eingabe vorsah[1], also die Text zu Text Generierung ausschloss, ist die Generierung basierend auf Texten, wie bei der Übersetzung oder der Vereinfachung von Texten, inzwischen fester Bestandteil des Feldes.[2]

Auf technischer Ebene wird insbesondere zwischen Pipeline- und End-to-end-Architekturen unterschieden. Pipeline-Architekturen bestehen dabei aus einzelnen, meist regelbasierten, Komponenten, die die Textgenerierung schrittweise vollführen. Nach Reiter und Dale[1] sind die Schritte zur Textgenerierung:

  1. Inhaltsbestimmung: Entscheidung welche Information im zu generierenden Text enthalten sein sollen.
  2. Dokumentenstrukturierung: Organisation der Struktur in der die Informationen übertragen werden sollen.
  3. Aggregation: Zusammenführung ähnlicher Sätze um die Lesbarkeit und Natürlichkeit des Textes zu verbessern.
  4. Lexikalische Wahl: Wahl der konkreten Worte um eine Information zu kommunizieren.
  5. Referenzgenerierung: Generierung von Koreferenzen innerhalb des Textes.
  6. Realisierung: Tatsächliche Generierung des Textes basieren auf der Syntax, Morphologie und Orthographie der Zielsprache.

Moderne Systeme zur Textgenerierung, insbesondere in der Forschung[3], verwenden heute häufig End-to-end Architekturen. Hierbei werden Modelle des Maschinellen Lernens auf großen Datensätzen bestehend aus Eingabedaten (zum Beispiel strukturierte Daten) und korrespondierenden, häufig menschlich verfassten, Texten trainiert.

Anwendungsgebiete

[Bearbeiten | Quelltext bearbeiten]

Roboterjournalismus

[Bearbeiten | Quelltext bearbeiten]

Unter dem medial geprägten Begriff „Roboterjournalismus“ werden Algorithmen verstanden, die aus Datenbanken und ‑kolonnen fertige Nachrichtentexte generieren können. Bei diesem Verfahren steht die Einsparung bzw. Fokussierung humaner Journalisten im Vordergrund. Redaktionen können durch die maschinelle Entlastung einerseits mit weniger Mitarbeitern höherwertige weil aufwändiger recherchierte Nachrichtenprodukte gewinnen. Andererseits können sie Berichte veröffentlichen, die aus Mangel an Zeit oder wegen zu wenig Interessenten nicht geschrieben werden könnten. Der Einsatz von Software im Journalismus ist noch umstritten, es wird vor allem diskutiert, worin der menschliche Journalist der Software überlegen ist.[4] Zudem ist die Frage ungeklärt, inwiefern automatisch generierte Texte dem Urheberrecht unterliegen.[5] Die speziell auf die Inputdaten zugeschnittenen Algorithmen berechnen permanent Werte und verfassen Berichte über diese, entweder in bestimmten Zeitintervallen (z. B. tägliche Wetterberichte) oder wenn sich Werte stark verändern (z. B. Erdbeben-Warnung[6]). Besonders häufige Einsatzgebiete von „Roboterjournalisten“ sind zum Beispiel Sportmeldungen[7], Wetterberichte und Börsenticker.[8] Aber auch die datengetriebene Erstellung von automatisierten Inhalten für die Berichterstattung zu lokalen Themen kommt bereits zur Anwendung.[9]

In textbasierten Dialogsystemen, wie Chatbots, wird die Textgenerierung zur Kommunikation mit dem Nutzer verwendet. Bekanntes historisches Beispiel ist das Programm ELIZA.[10]

Ein Teil der Kommunikation mit hochentwickelten Intelligenten virtuellen Agenten beruht auf diesem Prinzip, wobei die Qualität des Dialogs unter anderem von der Verknüpfung des Agenten mit Wissensbasen abhängt. Der Dialog eines Menschen mit verschiedenen Schnittstellen kann erleichtert werden, wenn ein Agent Text generiert, der Fragen produktiv beantwortet:

  • Beim Abrufen eines Informationsangebots, unter anderem als Präsentationsagent einer Webseite (auch „Online Moderator“ genannt)
  • Bei einem sprachfähigen Programm zur Wahl eines Beraters (oft für telefonisches Vorsortieren von Kunden genutzt)
  • Bei Dialogen mit Figuren in Computerspielen

Content Marketing

[Bearbeiten | Quelltext bearbeiten]

Laut einer Studie ist die Marketing-Branche, die Branche, auf die Künstliche Intelligenz den größten Einfluss haben wird[11]. Im Marketing werden verschiedene Tools genutzt, um Inhalte zu generieren, wie z. B. das Erstellen von Werbetexten, die Generierung von Newsletter-Betreffzeilen, und das Validieren von den KI-generierten Ergebnissen.

Laut einer Umfrage des Digitalverbandes Bitkom Anfang 2023 plant jedes sechste Unternehmen den KI-Einsatz zur Textgenerierung.[12]

Kunst und Kreativität

[Bearbeiten | Quelltext bearbeiten]
  • Eingriffe in die generierende Software oder die Wissensbasis (künstlerische und literarische Experimente). Beispiel (nach Reinhard Döhl): Max Bense und seine Stuttgarter Gruppe benutzten 1959 eine Zuse Z22, um "mit Hilfe eines eingegebenen Lexikons und einer Anzahl von syntaktischen Regeln Texte zu synthetisieren und auszugeben"[13].
  • Nachbearbeitung oder Einbau generierten Textes durch Autoren (Literatur).[14]
  • Dialog mit Publikum (beispielsweise in Kunstinstallationen). Beispiel: David Link, Poetry Machine[15]

Phrasendreschmaschinen

[Bearbeiten | Quelltext bearbeiten]
BULLSHIT-Phrasen-Stempel

Phrasendreschmaschinen oder Bullshit-Generatoren (englisch bullshit generators, auch buzzword generators) gab es vor der Umsetzung in Software als mechanische Geräte. Wahrscheinlich die erste als Software ausgeführte Phrasendreschmaschine war LoveLetters_1.0, 1952 programmiert von Christopher Strachey an der University of Manchester für den Ferranti Mark I.[16] Ähnliche Generatoren sind in vielen weiter entwickelten Ausführungen im Internet zu finden.

Solche Programme arbeiten nach einfachen Konzepten, die bei anspruchsvolleren Verfahren der Textgenerierung komplexer ausgestaltet angewandt werden: Begriffe oder Satzteile werden aus Listen entnommen, aneinandergereiht und grammatikalisch korrekt angepasst (grammatische Realisierung). Ein dafür oft angewendetes Verfahren ist die Generierung mit Markow-Ketten.[17] Es entsteht syntaktisch korrekter Text, der sinnhaltig wirken kann, tatsächlich aber Blödsinn (englisch bullshit) ist, weil Phrasendreschmaschinen nicht auf Wissen über die Bedeutung verwendeter Partikel zugreifen. So lässt sich scherzhaft beispielsweise leere Rhetorik von Fachliteratur persiflieren.

Abgesehen von mechanischen Phrasendreschmaschinen als Vorläufern und abgesehen von frühesten Versuchen, Texte durch Software zu generieren, beginnt die erste Phase natürlichsprachiger Generierung mit Programmen, die zur Textgenerierung schematisch auf Wissen zugreifen, das bereits in Textform abgelegt ist. So funktionierte ab 1963 BASEBALL, ein Interface zu den Baseballdaten der amerikanischen Baseballiga und SAD SAM, ein Interface zur Eingabe von Verwandtschaftsbeziehungen, das bereits auf Fragen antwortete. Nach mehreren anderen Arbeiten in dieser Richtung erschien 1966 ELIZA, programmiert von Joseph Weizenbaum. In der zweiten Phase ist das Wissen in Fakten und Regeln kodiert: LUNAR, 1972, ist das Interface zur Datenbank über die Mondprobensammlung der Apollo 11 Mission. PARRY, 1975, simuliert einen Paranoiden im Gespräch mit einem Psychiater. ROBOT, 1977, ist das erste kommerzielle Frage-Antwort-System. VIE-LANG, 1982, von Ernst Buchberger, ist ein Dialogsystem in deutscher Sprache, das Sätze aus einem semantischen Netz generiert.[18] HAM-ANS, 1983, von Wolfgang Hoeppner, ist ein Dialogsystem in deutscher Sprache, das beispielsweise einen Hotelmanager simuliert.[19]

  • Ehud Reiter, Robert Dale: Building natural language generation systems. Cambridge University Press, Cambridge 2000, ISBN 0-521-62036-8.
  • Helmut Horacek: Textgenerierung in: Kai-Uwe Carstensen, Ralf Klabunde et al. (Hrsg.): Computerlinguistik und Sprachtechnologie. Heidelberg: Spektrum Akademischer Verlag, 3. Auflage, 2010, ISBN 978-3827420237, S. 436–465
  • John Bateman: Angewandte natürlichsprachliche Generierungs- und Auskunftsysteme in: Ralf Klabunde et al. (Hrsg.): Computerlinguistik und Sprachtechnologie. s. o. Heidelberg 2010 S. 633–641
  • Patrick Reichelt: Einführung in den Roboterjournalismus: Bedrohung oder Chance?. Tectum Wissenschaftsverlag, Baden-Baden 2017, ISBN 978-3828840591.
  • Stefan Weber: Roboterjournalismus, Chatbots & Co.: Wie Algorithmen Inhalte produzieren und unser Denken beeinflussen. Heise Medien, Hannover 2018, ISBN 978-3957881045.
  • Gerhard Schreiber, Lukas Ohly (Hrsg.): KI:Text. Diskurse über KI-Textgeneratoren. Berlin/Boston: De Gruyter 2024 (581 S.), ISBN 978-3111350967.

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. a b c Ehud Reiter, Robert Dale: Building applied natural language generation systems. In: Natural Language Engineering. 3. Jahrgang, Nr. 1, März 1997, ISSN 1469-8110, S. 57–87, doi:10.1017/S1351324997001502 (englisch, cambridge.org).
  2. a b Gatt A, Krahmer E: Survey of the state of the art in natural language generation: Core tasks, applications and evaluation. In: Journal of Artificial Intelligence Research. 61. Jahrgang, Nr. 61, 2018, S. 65–170, doi:10.1613/jair.5477, arxiv:1703.09902 (englisch).
  3. E2E NLG Challenge. Archiviert vom Original am 4. Dezember 2022; abgerufen am 10. Februar 2023.  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/www.macs.hw.ac.uk
  4. Archivierte Kopie (Memento des Originals vom 29. Oktober 2014 im Internet Archive)  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/www.text-gold.de, abgerufen am 29. Oktober 2014
  5. Von Computern autonom geschaffene Werke: Urheberrechtlich schützenswert? Abgerufen am 8. November 2018.
  6. Julian Maitra: Medien : Die Roboterjournalisten sind schon unter uns. In: welt.de. 15. Mai 2014, abgerufen am 7. Oktober 2018.
  7. Cécile Schneider und Uli Köppen: Wie Textautomatisierung BR Sport unterstützt. BR24, 17. Februar 2021, abgerufen am 10. Februar 2023.
  8. Andreas Graefe: Guide to Automated Journalism. Columbia Journalism Review, New York City 2016 (cjr.org [abgerufen am 14. Februar 2018]).
  9. Roboterjournalisten retten die Lokalpresse. Wer rettet uns davor? Abgerufen am 20. November 2018 (deutsch).
  10. Josef Karner: Mailüfterl, Al Chorezmi und Künstliche Intelligenz: Ein Gespräch mit dem Computerpionier Heinz Zemanek. Telepolis, 8. August 1999, S. 1, archiviert vom Original am 22. Januar 2005; abgerufen am 20. März 2010 (Frage 20 ff): „Weizenbaum hat aber nicht Intelligenz oder gar Bewusstsein erschaffen, sondern gezeigt, mit welch einfachen Mitteln man einen Betrachter glauben machen kann, er hätte es mit Intelligenz zu tun.“
  11. Sizing the potential value of AI and advanced analytics | McKinsey. Abgerufen am 26. Mai 2021.
  12. Andreas Streim, Merle Uhl: ChatGPT & Co.: Jedes sechste Unternehmen plant KI-Einsatz zur Textgenerierung. In: bitkom.org. 11. April 2023, abgerufen am 7. Mai 2023.
  13. Reinhard Doehl: Der Kreis um Max Bense. Abgerufen am 16. März 2010 (Abteilung: Künstliche Poesie, Abschnitt 5).
  14. Reinhard Doehl: Der Kreis um Max Bense. Abgerufen am 16. März 2010 (Abteilung: Künstliche Poesie, Abschnitt 6).
  15. Miriam Stürner: David Link, Poetry Machine (version 1.0), 2001-2002. ZKM, Zentrum für Kunst und Medientechnologie Karlsruhe, archiviert vom Original (nicht mehr online verfügbar) am 20. November 2010; abgerufen am 15. März 2010.  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/www.zkm.de
  16. David Link: LoveLetters_1.0. MUC=Resurrection. A Memorial. Archiviert vom Original (nicht mehr online verfügbar) am 28. März 2010; abgerufen am 15. März 2010.  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/www.alpha60.de
  17. Andreas Stuhlmüller: Texten mit Markov. 14. Februar 2005, archiviert vom Original (nicht mehr online verfügbar) am 17. Juni 2010; abgerufen am 24. März 2010.  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/www.aiplayground.org
  18. VIE-GEN. NLG Systems Wiki, 17. November 2009, archiviert vom Original (nicht mehr online verfügbar) am 14. Dezember 2014; abgerufen am 15. März 2010 (englisch).  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/www.nlg-wiki.org
  19. Jörg Roth:: Einführung in natürlichsprachliche Textgenerierung. 1989, abgerufen am 14. März 2010.