Diskussion:Sprachmodell

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 10 Monaten von Arbre à palabres in Abschnitt Warum ist der Artikel auf einem deutschsprachigen Lemma?
Zur Navigation springen Zur Suche springen

Referenzen überarbeiten

[Quelltext bearbeiten]

Hallo, die Referenzen müssen dringend überarbeitet werden:

  • Referenzen sind keine Anmerkungen (siehe: Hilfe:Einzelnachweise), also keine Anmerkungen in den <ref>-tag, sondern in den <ref group="A">-Tag.
  • Bitte keine Referenzen der Form: Goldstone (2017). Was soll das sein? Ein Buch, ein Artikel? Welcher Vorname hat der Autor? etc. Bitte vollständige angaben.

--Tensorproduct 15:33, 6. Jul. 2023 (CEST)Beantworten

Zum zweiten Punkt: Goldberg (2017) bezieht sich offensichtlich auf den ersten Eintrag unter „Literatur“. Ich nehme an, der Verfasser des Artikels wollte nicht immer wieder die komplette Referenz duplizieren. --141.22.103.21 10:51, 7. Jul. 2023 (CEST)Beantworten
Ok, habe ich nicht gesehen. Trotzdem ist das nicht der Weg, wie man auf Wikipedia Referenzen angibt. --Tensorproduct 19:20, 7. Jul. 2023 (CEST)Beantworten
@Tensorproduct: Ist genau, wie die IP vermutet. Ich wollte gerade fragen, ob es eine andere Möglichkeit gibt, auf x-malige Duplizierung der vollständigen Referenz zu verzichten. Anscheinend nicht.
Die Lösung mit den Anmerkungen finde ich nicht so toll, okay, es sind keine Einzelnachweise im eigentlichen Sinn, aber es geht schon um Belege (einmal für die deutsche Bezeichnung, einmal für die Kurzschreibweise). --Sabrieleauftistik (Diskussion) 11:27, 8. Jul. 2023 (CEST)Beantworten
Ok, aber meines Erachtens könnte man sowieso auf diese Anmerkung verzichten.--Tensorproduct 13:23, 9. Jul. 2023 (CEST)Beantworten
Ich habe (zum Beispiel in Löschdiskussionen) immer mal wieder das Argument gehört, einen Artikel unter einem deutschen Lemma zu führen, aber nur Belege zu haben, in denen der englische (Fach-)Ausdruck vorkommt, sei Begriffsetablierung. Deswegen wollte ich „Sprachmodell“ nicht „unbelegt“ als Lemma nehmen. Von mir aus können die drei Qualifikationsarbeiten aber auch weg. Die anderen beiden Anmerkungen finde ich eigentlich der Klarheit wegen geboten und zumindest die erste der beiden (zur Kurzschreibweise) würde ich nicht im Haupttext unterbringen wollen. Da ist allerdings die Frage, ob sich jemand daran stört, dass die Notation im Goldberg stellenweise nachlässig ist und ich eine eigene gewählt habe. --Sabrieleauftistik (Diskussion) 14:23, 9. Jul. 2023 (CEST)Beantworten

Anmerkungen aus der Löschdiskussion

[Quelltext bearbeiten]

@Siegbert v2: Ich beteilige mich nicht an der Löschdiskussion zu meinem eigenen Artikel (die Antragsbegründung finde ich aber auch eher hanebüchen), möchte jedoch einige deiner Anmerkungen von dort hier auf der Diskussionsseite erörtern.

Zu Dieser Artikel hier ist hingegen ein Fachartikel, der nicht von Jedermann ohne Vorkenntnisse ohne weiteres verstanden werden wird: Allgemeinverständichkeit wäre natürlich schon wünschenswert, das ist bei stark mathematischen Artikeln bekanntlich schwierig. Recht hat der Löschantragsteller, dass viele Artikel zu neuralen Architekturen und daraus entstandenen Produkten (inkl. dem über ChatGPT) eher oberflächlich geschrieben sind, das ist aber ein Problem jener Artikel, nicht dieses.

Zu Ist der Artikel überhastet als Reaktion auf den ChatGPT-Hype entstanden? – jein. Durch den „ChatGPT-Hype“ ist mir überhaupt erst aufgefallen, dass ein Artikel zu Sprachmodellen allgemein bisher fehlt. Da es in dem Lehrbuch von Goldberg ein Kapitel dazu gab, habe ich daraus dann mal einen Anfang gestrickt. Einen Abschnitt „Geschichte“ hätte ich übrigens auch gern, den gab der Goldberg bloß nicht her und andere Literatur hatte ich nicht so schnell zur Hand, daher habe ich das auf später verschoben (vielleicht ist auch jemand schneller als ich). Angeblich soll man in der Dissertation von Tomáš Mikolov was dazu finden können: Tomáš Mikolov: Statistical language models based on neural networks. Dissertation an der Technischen Universität Brünn. 2012. Nach sonstiger Literatur müsste ich erst noch suchen.

Zu Zugegeben, die Einleitung könnte hier etwas üppiger ausfallen (Vorbild: englischen Version): Da sah ich mich in einer Zwickmühle, denn die englische Version nimmt meines Erachtens keine wirklich saubere Trennung vor in:

  • die allgemeine Aufgabenstellung (Sprache im Sinne formale Sprache, also Sequenzen, modellieren);
  • das Paradigma, das sich dafür durchgesetzt hat (Modellierung als stochastischer Prozess) – ich weiß gar nicht, ob es jemals größere Versuche mit anderen Paradigmen gab;
  • die Problemformulierung in diesem Paradigma, also die Wahrscheinlichkeit von Gesamtsequenzen mit dem Gesetz der totalen Wahrscheinlichkeit umzuschreiben und sich auf die Wahrscheinlichkeit des nächsten Elements gegeben die bisherige Sequenz zu fokussieren;
  • in der Praxis verwendete (Varianten zur) Modellierung dieser bedingten Wahrscheinlichkeiten:
    • den Klassiker N-Gramme – es gibt bestimmt noch weitere, da kenne ich mich nicht so aus –,
    • neurale Ansätze mit und ohne Markov-Annahme;
  • den Einsatz: als Wahrscheinlichkeitsmaß klar, Generierung weniger offensichtlich.

Statt das alles in die Einleitung zu pferchen, wollte ich es lieber auf einzelne Abschnitte aufteilen. Wenn jemand eine Idee hat, wie man das in der Einleitung kompakter zusammenfassen kann: nur zu ein lächelnder Smiley  --Sabrieleauftistik (Diskussion) 11:28, 8. Jul. 2023 (CEST)Beantworten

Warum ist der Artikel auf einem deutschsprachigen Lemma?

[Quelltext bearbeiten]

Warum ist der Artikel auf einem deutschsprachigen Lemma? (vgl. Diskussion:großes Sprachmodell) --Arbre à palabres (Diskussion) 21:47, 14. Jan. 2024 (CET)Beantworten