Computerlinguistik

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von Natural Language Understanding)
Zur Navigation springen Zur Suche springen

Die Computerlinguistik (CL) oder linguistische Datenverarbeitung (LDV)[1] untersucht, wie natürliche Sprache in Form von Text- oder Sprachdaten mit Hilfe des Computers algorithmisch verarbeitet werden kann. „Sie erarbeitet die theoretischen Grundlagen der Darstellung, Erkennung und Erzeugung gesprochener und geschriebener Sprache durch Maschinen“[2] und ist Schnittstelle zwischen Sprachwissenschaft und Informatik. In der englischsprachigen Literatur und Informatik ist neben dem Begriff natural language processing (NLP) auch computational linguistics (CL) gebräuchlich.

Computerlinguistik lässt sich als Begriff in die 1960er Jahre zurückverfolgen.[3] Mit den Anfängen der künstlichen Intelligenz auch bei Alan Turing war die Aufgabenstellung schon nahegelegt. Noam Chomskys Syntactic Structures von 1957 präsentierte eine Sprachauffassung, nach der die Sprache in einem formalen Rahmen beschreibbar wurde (Chomsky-Hierarchie der formalen Sprachen). Hinzu kamen die Sprachlogiken von Saul Kripke und Richard Montague. Die teilweise aus dem US-Verteidigungsbudget sehr hoch geförderten Forschungen brachten jedoch nicht die erhofften Durchbrüche. Besonders Chomsky und Joseph Weizenbaum dämpften die Erwartungen an Automatisierungen von Sprachübersetzung. Der Wende von behavioristischen Wissenschaftskonzeptionen zu mentalistischen (Chomsky) folgten umfassende Konzipierungen in den Kognitionswissenschaften.

In den siebziger Jahren erschienen zunehmend häufiger Publikationen mit dem Begriff Computerlinguistik im Titel. In Deutschland wurde parallel der Begriff Linguistische Datenverarbeitung (LDV) verwendet.[4] Es gab bereits finanziell aufwändige Versuche der Anwendungen (Konkordanzen, Wort- und Formstatistik), aber auch schon größere Projekte zur maschinellen Sprachanalyse und zu Übersetzungen. Die ersten Computerlinguistik-Studiengänge in Deutschland wurden in den 1980er Jahren an der Universität des Saarlandes und in Stuttgart eingerichtet. Die Computerlinguistik bekam mit der Verbreitung von Arbeitsplatzrechnern (Personal Computer) und mit dem Aufkommen des Internets neue Anwendungsgebiete. Im Gegensatz zu einer Internetlinguistik, die insbesondere menschliches Sprachverhalten und die Sprachformen im und mittels Internet untersucht, entstand in der Computerlinguistik eine stärker informatisch-praktische Ausrichtung. Dennoch gab das Fach die klassischen philosophisch-linguistischen Fragen nicht ganz auf und wird heute in theoretische und praktische Computerlinguistik unterschieden.

Natural language processing (NLP) verwendet verschiedene Techniken, um gesprochene und geschriebene Sprache zu verarbeiten. Dazu zählen Interpretationen statistischer Daten, Datenmaterial aus sozialen Netzwerken, Suchergebnisse sowie Methoden des machine learning und von Regeln durchsetzte algorithmische Herangehensweisen.[5] Methoden verschiedener Disziplinen wie Informatik, Künstliche Intelligenz, Linguistik und Datenwissenschaft werden genutzt, um Computern das Verständnis natürlicher Sprache zu ermöglichen. NLP gliedert sich in die Unterbereiche natural language understanding (NLU), and natural language generation (NLG).[6] Künstliche Intelligenz wird auch in Übersetzungsprogrammen wie zum Beispiel DeepL verwendet, wodurch Sprachbarrieren reduziert werden können.[7] Mittels Computerlinguistik wird die digitale Transformation in Unternehmen und Gesellschaft beschleunigt, da Arbeitsprozesse durch Algorithmen ausgeführt werden. So nutzt zum Beispiel das Software-Unternehmen Nvidia NLP.[8] Allerdings gibt es auch Gefahren durch inhaltliche Verzerrungen, die in den verarbeiteten sprachlichen Daten enthalten sind und durch Algorithmen dann verstärkt werden, z. B. eine Benachteiligung marginalisierter Bevölkerungsgruppen.[9]

Das Saarbrücker Pipelinemodell

[Bearbeiten | Quelltext bearbeiten]

Computer verarbeiten Sprache entweder in der Form von akustischer Information oder in der Form von Buchstabenketten (wenn die Sprache in Schriftform vorliegt). Um die Sprache zu analysieren, arbeitet man sich schrittweise von dieser Eingangsrepräsentation in Richtung Bedeutung vor und durchläuft dabei verschiedene sprachliche Repräsentationsebenen. In praktischen Systemen werden diese Schritte typischerweise sequentiell durchgeführt, daher spricht man vom Pipelinemodell,[10] mit folgenden Schritten:

Spracherkennung
Falls der Text als Schallinformation vorliegt, muss er erst in Textform umgewandelt werden.
Tokenisierung
Die Buchstabenkette wird in Wörter, Sätze etc. segmentiert.
Morphologische Analyse
Personalformen oder Fallmarkierungen werden analysiert, um die grammatische Information zu extrahieren und die Wörter im Text auf Grundformen (Lemmata) zurückzuführen, wie sie z. B. im Lexikon stehen.
Syntaktische Analyse
Die Wörter jedes Satzes werden auf ihre strukturelle Funktion im Satz hin analysiert (z. B. Subjekt, Objekt, Modifikator, Artikel etc.).
Semantische Analyse
Den Sätzen bzw. ihren Teilen wird Bedeutung zugeordnet. Dieser Schritt umfasst potentiell eine Vielzahl verschiedener Einzelschritte, da Bedeutung schwer fassbar ist.
Dialog- und Diskursanalyse
Die Beziehungen zwischen aufeinander folgenden Sätzen werden erkannt. Im Dialog könnten das z. B. Frage und Antwort sein, im Diskurs eine Aussage und ihre Begründung oder ihre Einschränkung.

Es ist allerdings nicht so, dass sämtliche Verfahren der Computerlinguistik diese komplette Kette durchlaufen. Die zunehmende Verwendung von maschinellen Lernverfahren hat zu der Einsicht geführt, dass auf jeder der Analyseebenen statistische Regelmäßigkeiten existieren, die zur Modellierung sprachlicher Phänomene genutzt werden können. Beispielsweise verwenden viele aktuelle Modelle der maschinellen Übersetzung Syntax nur in eingeschränktem Umfang und Semantik so gut wie gar nicht; stattdessen beschränken sie sich darauf, Korrespondenzmuster auf Wortebene auszunutzen.[11]

Am anderen Ende der Skala stehen Verfahren, die nach dem Prinzip Semantics first, syntax second arbeiten. So baut die auf dem MultiNet-Paradigma beruhende, kognitiv orientierte Sprachverarbeitung auf einem semantikbasierten Computerlexikon auf, das auf einem im Wesentlichen sprachunabhängigen semantischen Kern mit sprachspezifischen morphosyntaktischen Ergänzungen beruht.[12] Dieses Lexikon wird beim Parsing von einer Wortklassen-gesteuerten Analyse zur unmittelbaren Erzeugung von semantischen Strukturen eingesetzt.

Beispiele für Probleme der Sprachverarbeitung

[Bearbeiten | Quelltext bearbeiten]
  • Auflösung syntaktischer Mehrdeutigkeiten. In einigen Fällen lässt sich ein Satz auf mehrere Arten analysieren und deuten. Die richtige auszuwählen, erfordert manchmal semantische Information über den Sprechakt und die Intention der Sprecher, mindestens jedoch statistisches Vorwissen über das gemeinsame Auftreten von Wörtern. Beispiel: „Peter sah Maria mit dem Fernglas“ – hier ist nicht zwangsläufig klar, ob Peter Maria gesehen hat, die ein Fernglas in der Hand hielt, oder ob Peter Maria mit Hilfe eines Fernglases sehen konnte.
  • Bestimmen der Semantik. Die gleiche Wortform kann je nach Kontext eine andere Bedeutung aufweisen (vergleiche Homonym, Polysem). Man muss die für den Kontext zutreffende Bedeutung auswählen. Auf der anderen Seite braucht man Formalismen zur Repräsentation von Wortbedeutungen.
  • Erkennen der Absicht einer sprachlichen Äußerung (siehe Pragmatik). Manche Sätze sind nicht wörtlich gemeint. Beispielsweise erwartet man auf die Frage „Können Sie mir sagen, wie spät es ist?“ nicht eine Antwort wie „Ja“ oder „Nein“, sondern bittet damit um Auskunft über die Uhrzeit.

Anwendungen in der Praxis

[Bearbeiten | Quelltext bearbeiten]

Praktische Computerlinguistik ist ein Begriff, der sich im Lehrangebot einiger Universitäten etabliert hat. Solche Ausbildungsgänge sind nahe an konkreten Berufsbildern um die informatisch-technische Wartung und Entwicklung von sprachverarbeitenden Maschinen und ihrer Programme. Dazu gehören zum Beispiel:

Computerlinguistik wird an mehreren Hochschulen im deutschsprachigen Raum als eigenständiger Studiengang angeboten. In der deutschen Hochschulpolitik ist die Computerlinguistik als Kleines Fach eingestuft.[14] Es sind Bachelor- wie auch Master-Studienabschlüsse[15] möglich. Zu den bekanntesten Angeboten zählen die Studiengänge der:

  • Universität Bielefeld,
  • Ruprecht-Karls-Universität Heidelberg,
  • Ludwig-Maximilians-Universität München,
  • Universität Potsdam,
  • Universität Stuttgart,
  • Eberhard-Karls-Universität Tübingen,
  • Heinrich-Heine Universität Düsseldorf,
  • Universität des Saarlandes und
  • Universität Trier.
  • Die Universität Konstanz bietet ein Weiterführendes Studium Speech and Language Processing – Master of Arts an, das einen ersten Hochschulabschluss voraussetzt.[16]
  • Konferenz der „Association of Computational Linguistics (ACL)“: findet jährlich statt;[17]
  • „COLING“: internationale Konferenz, findet seit 1965 in zweijährigem Abstand statt;[18]
  • „Recent Advances in Computational Linguistics (RANLP)“: ging aus einer Sommerschule hervor, findet seit 2001 in zweijährigem Abstand statt;[19]
  • „International Joint Conference on Natural Language Processing (IJCLP)“: findet seit 2004 in unregelmäßigen Abständen im asiatischen Raum statt;[20][21]
  • Studentische Tagung Sprachwissenschaft (StuTS)“: drei- bis viertägige Tagung von Studenten für Studenten, findet jährlich statt;
  • „Tagung der Computerlinguistik-Studierenden (TaCoS)“: deutschsprachiger Universitäten, findet seit 1992 jährlich an jeweils einer anderen Universität statt;
  • Jahrestagung der „Gesellschaft für linguistische Datenverarbeitung (GLDV)“ bzw. (seit 2008) „Gesellschaft für Sprachtechnologie und Computerlinguistik (GSCL)“: findet alle zwei Jahre statt;
  • „KONVENS – Konferenz zur Verarbeitung natürlicher Sprache“: findet jährlich statt, abwechselnd organisiert von den Gesellschaften ÖGAI, DGfS-CL und GSCL.[22]
  • James Allen: Natural Language Understanding. The Benjamin / Cummings Publishing Company, Redwood City, CA 1995, ISBN 0-8053-0334-0.
  • Kai-Uwe Carstensen, Christian Ebert, Cornelia Ebert, Susanne Jekat, Ralf Klabunde, Hagen Langer (Hrsg.): Computerlinguistik und Sprachtechnologie. 3. Auflage. Spektrum Akademischer Verlag, Heidelberg 2010, ISBN 978-3-8274-2023-7.
  • Rainer Dietrich: Computerlinguistik. 1973.
  • Roland Hausser: Foundations of Computational Linguistics: Human-Computer Communication in Natural Language. 3. Auflage. Springer, 2014, ISBN 978-3-642-41430-5.
  • Nitin Indurkhya, Fred J. Damerau: Handbook of Natural Language Processing. 2. Auflage. Chapman and Hall/CRC, 2010, ISBN 978-1-4200-8592-1.
  • Daniel Jurafsky, James H. Martin: Speech and Language Processing - An Introduction to Natural Language Processing, Computational Linguistics and Speech Recognition. 2. Auflage. Prentice Hall, Upper Saddle River, New Jersey 2008, ISBN 978-0-13-187321-6.
  • Henning Lobin: Computerlinguistik und Texttechnologie. Fink, Paderborn / München 2010, ISBN 978-3-8252-3282-5.
  • Christopher D. Manning, Hinrich Schütze: Foundations of Statistical Natural Language Processing. MIT Press, Cambridge/MA 1999, ISBN 0-262-13360-1.
  • Ruslan Mitkov (Hrsg.): The Oxford Handbook of Computational Linguistics. Oxford University Press, 2003, ISBN 0-19-823882-7.
Wiktionary: Computerlinguistik – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. I. Bátori, J. Krause, H. D. Lutz (Hrsg.): Linguistische Datenverarbeitung. Versuch einer Standortbestimmung im Umfeld von Informationslinguistik und Künstlicher Intelligenz. Niemeyer Verlag, Tübingen 1982.
  2. CIS COMPUTER LINGUISTIK. (PDF) Centrum für Informations- und Sprachvermittlung, Ludwig-Maximilians-Universität München, abgerufen am 3. Januar 2023.
  3. David Crystal äußerte sich Mitte der 60er Jahre mehrfach hierzu in Medien und Aufsätzen.
  4. Winfried Lenders, Gerd Willée: Linguistische Datenverarbeitung: ein Lehrbuch. Westdeutscher Verlag, Opladen 1986, ISBN 978-3-531-11745-4, S. 9.
  5. Natural Language Processing (NLP): What it is and why it matters. Abgerufen am 7. August 2022 (englisch).
  6. NLP vs. NLU vs. NLG: the differences between three natural language processing concepts. 12. November 2020, abgerufen am 7. August 2022 (amerikanisches Englisch).
  7. Ruth Fulterer: DeepL, Google Translate und Co: Wie KI-Übersetzung funktioniert. In: Neue Zürcher Zeitung. (nzz.ch [abgerufen am 7. August 2022]).
  8. NVIDIA. In: Automated Insights. Abgerufen am 7. August 2022 (amerikanisches Englisch).
  9. Amazon Scraps Secret AI Recruiting Engine that Showed Biases Against Women. Carnegie Mellon University, 11. Oktober 2018, abgerufen am 7. August 2022 (englisch).
  10. Hans Uszkoreit: VL Einführung in die Computerlinguistik, Repräsentationen und Prozesse in der Sprachverarbeitung.
  11. Peter Kolb: Was ist statistische maschinelle Übersetzung? (Memento vom 4. März 2011 im Internet Archive)
  12. Hermann Helbig: Knowledge Representation and the Semantics of Natural Language. Springer, Berlin 2006, ISBN 978-3-540-24461-5.
  13. Thiemo Wambsganss, Christina Niklaus, Matthias Cetto, Matthias Söllner, Siegfried Handschuh: AL: An Adaptive Learning Support System for Argumentation Skills. In: Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems. ACM, Honolulu HI USA 2020, ISBN 978-1-4503-6708-0, S. 1–14, doi:10.1145/3313831.3376732 (acm.org [abgerufen am 11. März 2021]).
  14. Arbeitsstelle Kleine Fächer: Computerlinguistik auf dem Portal Kleine Fächer. Abgerufen am 23. April 2019.
  15. StudiScan: Master-Studium Computerlinguistik - 17 Master-Studiengänge. Abgerufen am 31. Januar 2019.
  16. Master | Studienangebot | Vor dem Studium | Studieren | Universität Konstanz. Abgerufen am 27. November 2021.
  17. ACL 2018: 56th Annual Meeting of the Association for Computational Linguistics. Abgerufen am 30. Januar 2019 (englisch).
  18. 27th International Conference on Computational Linguistics (COLING 2018). Abgerufen am 30. Januar 2019 (amerikanisches Englisch).
  19. Department of Linguistic Modelling and Knowledge Processing: Events. Abgerufen am 30. Januar 2019.
  20. IJCNLP: Introduction (Memento vom 15. Juli 2013 im Internet Archive)
  21. Conference on Empirical Methods in Natural Language Processing & International Joint Conference on Natural Language Processing 2019. In: emnlp-ijcnlp2019.org. Archiviert vom Original (nicht mehr online verfügbar) am 20. Februar 2019; abgerufen am 19. Februar 2019 (englisch).  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/www.emnlp-ijcnlp2019.org
  22. Konferenz zur Verarbeitung natürlicher Sprache. Abgerufen am 24. Februar 2023.
  23. Österreichische Gesellschaft für Artificial Intelligence (ÖGAI). Abgerufen am 30. Januar 2019.