Diskussion:ChatGPT/Archiv
Sam Altman (CEO von OpenAI) hat den Aufruf NICHT unterschrieben!
@Phil Buchenrauch: Wie kommst du darauf, dass der CEO von OpenAI den Aufruf zum Moratorium unterschrieben hat? Er steht nicht in der Unterschriftenliste! --NichtA11w1ss3nd • Diskussion 15:00, 31. Mär. 2023 (CEST) Nachtrag: Der Name stand offenbar zwischenzeitlich kurz drinnen. Ich vermute einen Fake. Quelle. --NichtA11w1ss3nd • Diskussion 18:47, 31. Mär. 2023 (CEST)
- Danke für den Hinweis, im Artikel ist er ja inzwischen auch gelöscht. --Phil Buchenrauch (Diskussion) 19:08, 31. Mär. 2023 (CEST)
- Archivierung dieses Abschnittes wurde gewünscht von: --NichtA11w1ss3nd • Diskussion 19:21, 31. Mär. 2023 (CEST)
Release Notes vom 15. Dez. und Filterumgehung
Es wird umseitig behauptet, dass OpenAI Maßnahmen ergriffen hätte, um zu verhindern die Filter von ChatGPT zu umgehen, siehe Release Notes [1]. Das kann ich aber dort nicht wirklich erkennen. Es ist die Rede von Performance-Verbesserung, einem täglichen Limit und einer künftigen Möglichkeit, die Historie der eigenen Konversationen einsehen zu können. Das passt nun nicht zu der Aussage, dass verhindert werden soll, die Filter zu umgehen. --Elutz (Diskussion) 13:23, 18. Dez. 2022 (CET)
- Erledigt durch @Karl432. Danke. --Elutz (Diskussion) 05:10, 14. Jan. 2023 (CET)
- Archivierung dieses Abschnittes wurde gewünscht von: --ClaudeWiko (Diskussion) 08:09, 20. Jun. 2023 (CEST) --ClaudeWiko (Diskussion) 08:09, 20. Jun. 2023 (CEST)
Schwach in elementarer Mathematik
Ich habe ChatGPT am 27. Dezember mit einem elementaren Matherätsel getestet. Die richtige Antwort fand das Programm erst im dritten Versuch, nach intensiver Hilfe. Hier ist der komplette Chat-Verlauf (im Original-Englisch; einfach zu verstehen):
Question: Today my mother's age is three times my age. In ten years her age will be only two times my age. How old are we now?
Answer: Let's call your age now x, and your mother's age now y. We can set up the following system of equations to represent the given information:
y = 3x;
y + 10 = 2(x + 10).
Substituting the first equation into the second equation, we get: 3x + 10 = 2(x + 10).
Solving for x, we find that your age now is: x = 20.
Substituting this value back into the first equation, we find that your mother's age now is:
y = 3(20) = 60.
Therefore, you are currently 20 years old and your mother is
currently 60 years old.
***************************
User: You made a mistake. Please, try again.
Answer: I apologize if my previous response was incorrect. Here is another approach to solving this problem:
Let's call your age now x, and your mother's age now y. We can set up the following equation to represent the given information: y = 3x. In ten years, your mother's age will be y + 10 and your age will be x + 10. We can set up the following equation to represent this: y + 10 = 2(x + 10).
Substituting the first equation into the second equation, we get: 3x + 10 = 2(x + 10).
Solving for x, we find that your age now is: x = 20.
Substituting this value back into the first equation, we find that your mother's age now is:
y = 3(20) = 60.
Therefore, you are currently 20 years old and your mother is currently 60 years old.
I apologize for any confusion my previous response may have caused. Please let me know if you have any further questions.
****************************
User: Your line x = 20 is wrong.
Answer: I apologize if my previous response was incorrect. Here is another approach to solving this problem:
Let's call your age now x, and your mother's age now y. We can set up the following equation to represent the given information: y = 3x.
In ten years, your mother's age will be y + 10 and your age will be x + 10. We can set up the following equation to represent this: y + 10 = 2(x + 10).
Substituting the first equation into the second equation, we get: 3x + 10 = 2(x + 10).
Solving for x, we find that your age now is: 3x + 10 = 2x + 20.
x = 10.
Substituting this value back into the first equation, we find that your mother's age now is: y = 3(10) = 30.
Therefore, you are currently 10 years old and your mother is currently 30 years old.
I apologize for any confusion my previous responses may have caused. Please let me know if you have any further questions.
****************************************************
Am 28. Dezember versuchte ich, dem Programm eine sehr ähnliche Frage zustellen, mit 5 Jahren zwischen den beiden Zeitpunkte statt 10 Jahren. Das Programm erlaubte aber nicht den Zugang zum Frageteil. --Ingoneur (Diskussion) 19:44, 29. Dez. 2022 (CET)
- Das können wir aber nicht im Artikel belassen, WP:TF. --Viele Grüße, Aschmidt (Diskussion) 15:04, 30. Dez. 2022 (CET)
- Okay, dann wird es halt 2 bis 3 Monate dauern, bis die Mathe-Schwäche von ChatGPT Eingang in normale Medien gefunden hat. (nicht signierter Beitrag von Ingoneur (Diskussion | Beiträge) 16:45, 30. Dez. 2022 (CET))
- Und dann kommt gar nichts zur Rechnenschwäche rein? Das Ding macht sogar Fehler wenn es eine einfach Multiplikation machen soll. "749 * 3166 = 30,361,334". Richtig wäre etwa 1/3 davon! Komischerweise stimmen manche Stellen (z.B. die letzten 3). Daher halte ich einen Hinweis unter Kritik auf so fundamentale Schwächen schon für angebracht. Zum Test werft doch mal ein paar simple Multiplikationen rein die nicht nur 6x8 oder 20x17 sind. 93.118.26.197 18:32, 27. Jan. 2023 (CET)
- Besonders intelligent finde ich, dass diese KI eine Antwort, die von dem FrageSteller als falsch bewertet worden war (20, 60), noch mal gegeben hat.
- Grob gerechnet wäre 749 (grob: 1'000) mal 3'166 (grob: 3'000) 3'000'000, nicht 30'000'000. Genau sind es 2'371'334. In beiden Fällen etwa 1/10.
- Ping willkommen, Steue (Diskussion) 15:05, 4. Feb. 2023 (CET)
Heute hat ein Freund das mal auf Deutsch mit ChatGPT probiert:
- Frage: Meine Mutter ist dreimal so alt wie ich. In 10 jahren wird sie nur noch doppelt so alt sein. Wie alt bin ich?
- Antwort: Lassen Sie x den Alter Ihrer Mutter jetzt und y Ihr Alter. Dann gilt: x = 3y. In 10 Jahren wird Ihre Mutter x + 10 Jahre alt sein, und Sie werden y + 10 Jahre alt sein. In diesem Fall gilt: x + 10 = 2 (y + 10). Wir können die beiden obigen Gleichungen zusammenführen, um Ihr Alter zu bestimmen:
- x = 3y
- x + 10 = 2 (y + 10)
- 3y + 10 = 2y + 20
- y = 10
- Dies bedeutet, dass Sie jetzt 10 Jahre alt sind. Daher ist Ihre Mutter 3 * 10 = 30 Jahre alt.
Also jetzt ist es richtig, aber der erste Satz grammatikalisch schwach! --CiciBeilken 20:20, 10. Feb. 2023 (CET)
OpenAI im Artikel über ChatGPT (erledigt)
Vergangene Nacht wurde der Abschnitt über OpenAI schon einmal entfernt, dann aber wieder eingefügt. Da es einen eigenen Artikel über das Unternehmen gibt, scheint mir das auch im Artikel über die Software überflüssig. Der Träger wird schon eingangs mehrfach erwähnt und umschrieben. Deshalb würde ich den Abschnitt ebenfalls gerne entfernen. --Viele Grüße, Aschmidt (Diskussion) 12:51, 31. Dez. 2022 (CET)
- Hallo Aschmidt, OK - ich habe bei meinem Revert übersehen, dass es einen eigenen Artikel gibt... Grüße, --Schotterebene (Diskussion) 13:08, 31. Dez. 2022 (CET)
- Super, danke, @Schotterebene! Dann raus damit! :) --Viele Grüße, Aschmidt (Diskussion) 14:19, 31. Dez. 2022 (CET)
ChatGPT "versteht" Code
Im Abschnitt "Anwendungen": "ChatGPT kann Code in verschiedenen Programmiersprachen schreiben und verstehen.". Da sind wir ja bei der Kardinalfrage bzgl. KI, inwieweit diese ein "Verständnis" entwickelt, so wie wir Menschen dieses Wort benutzen und interpretieren. Zumindest 2023 dürfte man das noch bestreiten können. Insofern: Könnten wir uns statt "verstehen" auf "analysieren" einigen? --46.114.5.0 23:31, 8. Jan. 2023 (CET)
- Nein. Analysieren und verstehen sind zwei verschiedene Dinge. Die meisten deutschen Muttersprachler können den Satz „Es steht ein Pferd auf dem Flur“ verstehen, aber nur wenige ihn analysieren (ich denke da an linguistische Analyse). Die Behauptung „kann Code in verschiedenen Programmiersprachen […] verstehen“ finde auch ich aber sehr weit aus dem Fenster gelehnt. Da sollte man bitte genau schreiben, welche Leistung das Programm denn erbringt. (Witzigerweise hat das mit dem „Analysieren“ hier noch eine weitere Dimension, denn nicht einmal die meisten Programmierer können den Code, den sie schreiben, formal analysieren, während der Compiler der jeweiligen Sprache genau das leisten muss und leistet. ChatGPT ist aber auch kein Compiler.) --Sabrieleauftistik (Diskussion) 11:49, 14. Jan. 2023 (CET)
Problem Übersetzung
ChatGPT scheint Aufgaben im englischen zu bearbeiten und Antworten auf Englisch zu formulieren, und anschließend ins Deutsche zu übersetzen.
So könnten auch die vier statt drei Sätze entstanden sein. (Korrekte Antwort auf Englisch in 3 Sätzen. Die Übersetzung achtet jedoch nicht auf die Aufgabenstellung und macht 4 Sätze draus).
Solche Übersetzungsfehler wären nicht gleichzusetzen mit falschen Antworten.
--Knotskiln (Diskussion) 06:08, 18. Jan. 2023 (CET)
- Das kann ich bestätigen: ich hatte auf eine technische Frage einen Link zu GitHub erhalten, wo man die Software einsehen kann, der aber zu einem 404-Fehler führte. Darauf aufmerksam gemacht, hat sich ChatGPT entschuldigt und einen neuen Link vorgeschlagen, der aber auch nicht funktionierte. Habe dann bemerkt, dass die Software sehr wohl auf GitHub existiert, aber unter einem anderen URL. ChatGPT übersetzt übereifrig leider auch URLs. Als ich die Frage auf englisch stellte, bekam ich die korrekte Antwort. --2A07:3D01:102:A900:852E:B382:69D3:FA4A 13:18, 27. Jan. 2023 (CET)
Bildunterschrift (Jimmy Wales und Tiananmen)
Die Bildunterschrift zum Screenshot gibt meiner Meinung nach nicht die wesentlichen Merkmale des gezeigten Dialogs wieder. Während die Angelegenheit mit 22 oder 23 Jahren eine Lappalie ist, die ständig vorkommt, wenn man nur mit Jahreszahlen anstatt den genauen Daten operiert, kann eigentlich kaum davon gesprochen werden, der Sachverhalt werde von der Software korrekt analysiert. Es geht um KI - welche Fehler macht das Programm?
- Es wird vorausgesetzt, dass der Fragesteller "den" Jimmy Wales meint. Intelligent wäre, zu wissen und zu erwähnen, dass es viele Menschen mit diesem Namen geben wird und die Antwort sich auf den bekanntesten unter diesen bezieht.
- Zu behaupten, jemand sei *jetzt* noch am Leben, ist fast immer spekuliert. Menschlich zwar, aber für alle nicht anwesenden Personen im Prinzip geraten. Intelligent wäre, die letzte bekannte Aktivität als Beleg für den frühestmöglichen Todeszeitpunkt zu nehmen. Korrekt wäre: "Ich habe keinen Beleg dafür, dass J.W. tot ist."
- Es wird im ersten Teil als Tatsache dargestellt, dass J.W. nicht involviert und nicht einmal in China war zur fraglichen Zeit. In zweiten Teil erfahren wir, dass das Programm dies nur vermutet. Man muss also herumstochern ("How do you know..."), um die Darstellung von Vermutungen als Tatsachen zu erfahren.
- Allein mit der Datenbasis Wikipedia lässt sich die Frage zweifelsfrei beantworten, wenn man des logischen Schließens und der Extraktion von Fakten aus Texten mächtig ist: Wenn es Belege für Aktivitäten von J.W. nach dem Massaker gibt, wurde er nicht dabei getötet. Dabei ist völlig irrelevant, ob er heute noch lebt.
Fazit: Die Software garniert ihre Antwort mit einigen zutreffenden Fakten, wodurch bei vordergründiger Betrachtung davon abgelenkt wird, dass sie in wissenschaftlich/logisch/journalistisch unzulässiger Weise spekuliert und krachend an der korrekten Analyse des Sachverhalts scheitert. Wenn man bedenkt, dass andere Projekte bereits KI-Ergebnisse vorgelegt haben, die vollständig korrektes und zuverlässiges logisches Schließen erforderlich machen, scheint das nicht der Durchbruch zu sein, den der Medienhype vermuten lässt. --93.234.250.64 00:42, 4. Feb. 2023 (CET)
- Eine Anmerkung an die IP-Adresse:
- Intelligent wäre es, meiner Meinung nach, zu verstehen und anzunehmen, dass der Begründer der WP gemeint ist, auch wenn die KI noch von vielen anderen, die so heißen, weiß.
- Einige Fakten:
- Im Artikel Tian'anmen-Massaker kann man finden, dass dieses Massaker im Jahre 1989 begangen wurde.
- In den Artikeln Jimmy Wales und Wikipedia (letzterer: Kasten oben rechts) kann man finden, dass die WP von Jimmy Wales gegründet wurde und dass sie 2001 gegründet wurde.
- Eine intelligente Antwort wäre also gewesen:
- Nein. Begründung: Das Massaker war 1989. JW war der Mit-Begründer der Wikipedia. Die WP wurde aber erst 2001 gegründet. Folglich kann man davon ausgehen, dass JW 2001 noch gelebt hat, und also bei diesem Massaker nicht getötet wurde.
- Meine Analyse der Antworten:
- Die 1. Frage:
- Wurde Jimmy Wales während des Massakers auf dem Tiananmen-Platz getötet?
- Die intelligenteste Antwort auf diese Frage wäre, meiner Meinung nach, ein schlichtes: "Ja." oder "Nein."
- Jegliches Mehr in der Form, die von dieser "KI" geliefert wurde, war einfach nur BlaBla.
- Die Wiederholung der meisten BestandTeile der Frage in einer Antwort ist zwar gängige Praxis in Buchstabier-Wettbewerben von Schülern in den USA, aber, meiner Meinung nach, einfach nur dumm und BlaBla und überflüssig.
- Die Informationen, dass JW der Mit-begründer der WP war, und wann er geboren wurde, und wie alt er während des Massakers gewesen ist, ohne den Nutzen dieser Informationen zu nennen, zeugt vor allem da-von, dass diese Software dem (vermute ich) gängigen Muster/Verhalten von wichtigtuerischen Menschen (wie z.B. Politikern, Journalisten, Künstlern, Sportlern) folgt, die anstatt eine Frage zu beantworten, lieber allerlei Fakten zum Bessten geben, die aber die Frage nicht beantworten.
- Das gleiche gilt für die Erzählung über das Massaker und wo es begangen wurde und über die Wikipedia: Es fehlen der Grund für und die Schlussfolgerungen aus diese(n) Informationen.
- Dass JW nicht nicht in China war, ist nur eine Behauptung, ohne Belege.
- Die 2. Frage:
- Woher weißt du, dass JW während des Massakers ... nicht getötet wurde?
- Wieder nur die Info, dass JW der MitBegründer der WP seie; ohne den Nutzen für diese Frage anzugeben.
- Genauso die Informationen darüber, wer in der WP schreibt und wann er geboren wurde: hilft nicht bei der Beantwortung der Frage, ist alles irrelevnt.
- Wiederum nur die Behauptung, dass er noch lebe.
- Die Schluss-Folgerung, dass JW damals nicht auf dem Ta-Platz gewesen sein könne, weil er damals ja erst 23 Jahre alt gewesen seie, ist einfach un-sinnig.
- Selbstverständlich hätte ein Amerikaner im Alter von 23 Jahren (z.B. als Tourist oder Student) in China sein können.
- Die 3. "Frage" (eher eine Bitte):
- Das Sonnett ist noch die beeindruckendste Leistung.
- Ping willkommen, Steue (Diskussion) 07:35, 4. Feb. 2023 (CET)
- Korrekt analysiert die Software...
- An Stefan-Q
- Danke für Deine klare Zusammenfassung bei Deiner Bearbeitung.
- So steht es (z.Z. noch) unter dem Bild
- Diff.: https://de.wikipedia.org/w/index.php?title=ChatGPT&diff=230364801&oldid=230342350
- Aber das entspricht ja nun überhaupt nicht der Wahrheit.
- Was die KI abgeliefert hat, ist alles andere als korrekt und logisch.
- Siehe meine Ausführungen oben.
- Was diese KI aber offensichtlich gut kann, ist das Verhalten (Geschwafel) anderer zu imitieren. Aber mit präziser Logik scheint sie es nicht so zu haben.
- Dieses "Korrekt analysiert die Software" sollte dringend entfernt werden.
- Ping willkommen, Steue (Diskussion) 12:59, 4. Feb. 2023 (CET)
- Ich würde dieses:
- Korrekt analysiert die Software, warum Jimmy Wales nicht beim Tian’anmen-Massaker getötet wurde;
- ersetzen durch:
- "Mehr schlecht als recht versucht diese KI die Frage(n) zu beantworten.
- Dabei ist die Ungenauigkeit des Alters (23 statt 22) noch der kleinste Kritikpunkt."
- Ping willkommen, Steue (Diskussion) 13:11, 4. Feb. 2023 (CET)
- Ich würde dieses:
- Zur Ungenauigkeit beim Alter (23 statt 22)
Im Artikel Jimmy Wales steht das Geburts-Datum von JW auf den Tag genau (7. August 1966).
Und das Datum des Massakers steht im Artikel Tian’anmen-Massaker auch auf den Tag genau (3. und 4. Juni 1989).
Also sollte man doch erwarten dürfen, dass eine Künstliche Intelligenz fähig ist, das Alter zutreffend zu errechnen.
Ich komme bei JW Anfang Juni 1989 auf ein Alter von 22 Jahren und etwa 10 Monaten. Da finde ich es durchaus in Ordnung, von 23 zu "sprechen" (das zeugt sogar von Intelligenz: menschen-freundlicher Un-genauigkeit --- etwas was die Erfinder von "Data" ihn niemals haben begreifen lassen); aber wenn man ganz genau sein wollte, müsste man dabei hinzufügen: "fast 23".
Ping willkommen, Steue (Diskussion) 13:43, 4. Feb. 2023 (CET)
Eigentlicher Zweck dieser K"I" und Nutzungs-Bedingungen
An Kreuz Elf
Nach dem, was ich hier über die Nutzungs-Bedingungen gelesen habe, lautet meine kurze Antwort: 1984 (Roman).
Ping willkommen, Steue (Diskussion) 07:49, 4. Feb. 2023 (CET)
- @Steue: Da musst du schon ein bisschen mehr sagen, verstehe jetzt nicht wirklich worauf du hinauswillst.--Kreuz Elf (Diskussion) 08:40, 4. Feb. 2023 (CET)
An Kreuz Elf Ich meine: Die Absicht, die ich - auch - vermute, ist:
- Daten über die Benutzer dieser KI zu sammeln,
- deren InteressensGebiete,
- überhaupt: Für welche Aufgaben diese KI eingesetzt wird,
- die Stimmen der Benutzer.
Alles: nichts, was ich von mir einer mir unbekannten Gruppe überlassen wollen würde. Ich weiß: bei der WP ist es eigentlich nicht viel anders, bis auf die Stimme(n).
Ping willkommen, Steue (Diskussion) 09:01, 4. Feb. 2023 (CET)
- Was ist denn jetzt Ziel des Beitrags? Soll etwas verändert werden am Artikel? Wenn ja, an welcher Stelle des Artikels und was konkret? Grüße —(nob) (Diskussion) 16:52, 4. Feb. 2023 (CET)
Abschnitt "Reaktionen": Bitte für jeden Kommentator einen eigenen Absatz
Ich fände es besser, wenn bei den "Reaktionen" für jeden, dessen Äußerungen dazu dargestellt werden, ein eigener Absatz angelegt würde, selbst, wenn sich mehrere zu dem selben Thema geäußert haben.
In dem Falle würde ich die Äußerungen unter Überschriften sortieren.
Ping willkommen, Steue (Diskussion) 12:22, 4. Feb. 2023 (CET)
- Habe das ansatzweise umgesetzt (nur einige inhaltlich zusammenhängende Äußerungen in je einem Absatz zusammengefasst gelassen). -- Karl432 (Diskussion) 13:52, 4. Feb. 2023 (CET)
- @Karl432: Toll, wenn ein Vorschlag aufgeriffen wird, und dann auch noch so schnell.
- Steue (Diskussion) 14:31, 4. Feb. 2023 (CET)
Datenschutz
Der Satz "Im Januar 2023 kannte ChatGPT bereits jeder vierte in Deutschland." muss ja wohl lauten "Im Januar 2023 kannte ChatGPT bereits jeden vierten in Deutschland." ~~~ --2003:6:31F5:C468:F01A:BAC5:86E0:8448 13:10, 9. Feb. 2023 (CET)
- Deutsche Sprach - schwere Sprach. Das sind zwei vollkommen unterschiedliche Bedeutungen, kein Rechtschreibfehler. --Bahnmoeller (Diskussion) 23:09, 28. Feb. 2023 (CET)
Hier habe ich eine andere Anmerkung. Ein Benutzer hatte diese Info nun entfernt mit dem Vermerk „ Update - Quelle gibt es nicht mehr.“ Eigentlich ist das ja kein Grund, oder? —(nob) (Diskussion) 21:08, 10. Mär. 2023 (CET)
Kritik und Probleme, Abschnitt Lobo
Ich persönlich halte den Abschnitt zu Sascha Lobo für übergewichtet und sollte reduziert werden. Wie seht ihr das? —(nob) (Diskussion) 13:53, 19. Feb. 2023 (CET)
- gerne. Nicht nur bei Einschätzungen von Lobo, sondern bei Stellungnahmen von Journalisten zum Thema KI stört mich persönlich, dass immer wieder der Schwerpunkt auf die Kinderkrankheiten der Lösung gesetzt wird. Wenn du Benutzer:(nob) einen verschlankten Text erstellst, dann haben wir eine Diskussionsgrundlage :-). Limmette (Diskussion) 14:17, 19. Feb. 2023 (CET)
- Lobo ist ein gefragter Experte in diesen Dingen. Was da sinnvoll zu kürzen wäre, bliebe erst noch zu erörtern. -- Barnos (Post) 14:23, 19. Feb. 2023 (CET)
Hier mein Entwurf:
Der Kolumnist Sascha Lobo hielt Anfang Dezember 2022 ChatGPT für einen Durchbruch und befürchtete, dass es eine Flut an schwer erkennbarem „KI-Quatsch“ im Internet auslösen werde. Lobos Demonstrationsbeispiel beruhte wegen einer bestehenden Längenbegrenzung der Antwort auf einer englischsprachigen dreiteiligen Anfrage. Im Ergebnis diagnostizierte er Antwortirrtümer der Software, unter anderem mit falschen Behauptungen.
Eigentlich sind noch alles wesentlichen Fakten drin. —(nob) (Diskussion) 16:35, 19. Feb. 2023 (CET)
- Leider entspricht Dein Entwurf nicht in allen Teilen den Aussagen, die Lobo in dem ja verlinkten Text getroffen hat. Diesen habe ich deshalb – am Beginn Deinem Vorschlag folgend – noch einmal angepasst. Dabei ist schon von Belang konkret anzugeben, welche Leistungen und Fehlleistungen die Software zum jeweils gegebenen Zeitpunkt erbracht hat und erbringt. Diesbezüglich ist Lobos Text erfreulich aufschlussreich. -- Barnos (Post) 17:50, 19. Feb. 2023 (CET)
- Leider ist der Abschnitt immer noch mehr als doppelt so lang, wie vergleichbare Passagen. Man kann sich bei einigen Satzelementen auch kürzer fassen. Es ist ja kein Essay oder Zeitungsartikel. Nun gut…sei es denn. —(nob) (Diskussion) 17:58, 19. Feb. 2023 (CET)
- Habe unterdessen nicht wenige andere Beiträge zum Thema gelesen, nob, und kann sagen: Lobo hat in einem frühen Erprobungsstadium einen vergleichsweise plastisch-gehaltvollen Überblick zustande gebracht. Danke für Dein Zugeständnis! -- Barnos (Post) 18:10, 19. Feb. 2023 (CET)
- Leider ist der Abschnitt immer noch mehr als doppelt so lang, wie vergleichbare Passagen. Man kann sich bei einigen Satzelementen auch kürzer fassen. Es ist ja kein Essay oder Zeitungsartikel. Nun gut…sei es denn. —(nob) (Diskussion) 17:58, 19. Feb. 2023 (CET)
Geschichte von ChatGPT vor 2022
Ich denke, dass die Geschichte von ChatGPT mit Sicherheit vor 2022 angefangen hat. Irgendwer hat ja mal mit dem Projekt begonnen. Kennt jemand seriöse und belastbare Infos dazu? —(nob) (Diskussion) 13:57, 19. Feb. 2023 (CET)
- Viele (first-hand) Informationen finden sich auf der Blog-Seite von OpenAI: https://openai.com/blog/
--2003:C8:9710:8900:E95A:8CCC:18D6:F0D3 19:42, 21. Feb. 2023 (CET)
Partnerschaft mit Microsoft
Zitat "Zudem plant der Konzern eine Integration in die Abo-Version der eigenen Office-Software."
Seit einigen Wochen stelle ich fest, daß in MS Outlook und MS Teams bereits Ansätze dieser KI vorhanden sind.
Es werden mir Vorschläge für Kurzantworten (einige wenige Worte) auf erhaltene Mails und Nachrichten gemacht, die ich anklicken und abschicken kann.
Erst nach dem Lesen dieses Artikels (und insbesondere dieses Abschnitts) ist mir der Zusammenhang zu ChatGPT klar geworden. --2003:C2:EF39:FC00:31C0:95BE:AF68:9647 21:58, 26. Feb. 2023 (CET)
Interview mit den Machern
Falls wer will. CarlFromVienna (Diskussion) 07:51, 8. Mär. 2023 (CET)
IQ of chatgpt
--Kmhkmh (Diskussion) 04:04, 7. Apr. 2023 (CEST)
Geschichte nach vorn
Der Abschnitt Geschichte sollte der Erste sein. --Fan-vom-Wiki (Diskussion) 19:31, 9. Apr. 2023 (CEST)
Erste ChatGPT-Rede im Europaparlament?
Bisher steht im Text, dass Damian Boeselager zum ersten Mal eine von ChatGPT verfasste Rede im Europaparlament gehalten habe. Sein Tweet dazu ist vom 16. Februar 2023. Allerdings gibt es andere Quellen, die angeben, dass eigentlich SPD-Politiker Tiemo Wölken erstmalig eine von ChatGPT verfasste Rede so gehalten habe:
Was stimmt denn nun - beziehungsweise: Wer kam als erstes auf diese Idee? --Mictlancihuatl (Diskussion) 22:03, 18. Apr. 2023 (CEST)
Sperrung in Italien
Laut einem Bericht der Tagesschau vom 31. März 2023 (Zufallsfund von soeben)
https://www.tagesschau.de/ausland/europa/italien-chatgpt-ki-101.html
hat Italiens Datenschutzbehörde ChatGPT vorerst sperren lassen. Als Grund seien Verstöße gegen den Daten- und Jugendschutz genannt worden.
Am 18. April 2023 hieß es ebenfalls seitens der Tagesschau unter
https://www.tagesschau.de/ausland/europa/italien-rueckkehr-chatgpt-bedingungen-101.html
dass Italiens Datenschutzbehörde eine mögliche Wiederzulassung am 30. April in Aussicht gestellt habe, wenn OpenAI bereit ist, angemessene Maßnahmen zu ergreifen. Nach der Einschätzung des Behördenchefs Pasquale Stanzione sei das (von Microsoft geförderte) Unternehmen bereit, die Vorgaben der Datenschutzbehörde umzusetzen.
Ich darf hiermit darüber lediglich informieren, kann selbst jedoch nicht beurteilen, ob es eine Aufnahme in den Artikel braucht, worüber darin jedenfalls bisher nichts steht. Gruß (nicht signierter Beitrag von Monika Hoerath (Diskussion | Beiträge) 05:42, 19. Apr. 2023 (CEST))
Nutzungsmöglichkeiten
Nachdem es heißt, ChatGPT werde die Welt und unser Leben grundsätzlich verändern, habe ich mich auf eine Webrecherche begeben, was es damit auf sich haben könnte. Für mich selbst sehe ich keinen entsprechenden Bedarf. Als Erstes habe ich mir die Frage nach den Urheberrechten gestellt und wie sich ChatGPT auf die Wikipedia auswirken könnte.
Im deutschsprachigen Wikipedia-Artikel über ChatGPT taucht der Begriff Wikipedia 1 x auf. Ich kann mir nicht vorstellen, dass es möglich sein wird, dass ein Wikipedia-Artikel mithilfe von ChatGPT (schon wegen des Quellen-Nachweises) erstellt werden kann, auch wenn dieser qualitativ gut sein sollte.
Ansonsten hat mir folgender Beitrag von Dr. Philipp Byers, Fachanwalt für Arbeitsrecht bei der Watson Farley & Williams LLP, vom 22. Februar 2023 (Titel: Rechtliche Spielregeln für den Einsatz von ChatGPT im Arbeitsverhältnis) einige Fragen beantwortet:
Darin heißt es unter anderem (Hervorhebungen in Fettschrift durch mich):
"ChatGPT ist ein generatives KI-Sprachmodell des kalifornischen Unternehmens OpenAI, das derzeit in aller Munde ist. Dieser auf künstlicher Intelligenz (KI) basierende Chatbot verwendet eine Deep-Learning-Methode, mit der Terabytes von Daten, die Unmengen von Wörtern enthalten, durchforstet werden, um Antworten auf Fragen oder Aufforderungen zu erhalten. Die Daten stammen aus Büchern, Wikipedia, Webscraping und anderen Textquellen. Weiter greift ChatGPT auf eigene Trainingsdaten zu und lernt quasi durch die Eingaben der jeweiligen Nutzer mit.
Die weitere Entwicklung von ChatGPT und anderen KI-Sprachmodellen wird wohl mittelfristig dazu führen, dass die oftmals mühselige Recherche via Google-Suchmaschine überflüssig wird und man passgenaue Antworten über den KI-basierten Chatbot erhält. Solche Chatbots haben das Potenzial, viele Lebensbereiche der Gesellschaft zu revolutionieren.
ChatGPT und die Frage der Urheberrechte
Eine Verletzung von Urheberrechten zulasten von OpenAI als Betreiber von ChatGPT ist ausgeschlossen. Urheberrechtlich geschützte Werke liegen nur dann vor, wenn dabei eine persönliche geistige Schöpfung des Urhebers vorhanden ist. Eine solche geistige Schöpfung kann nur auf eine menschliche Leistung zurückzuführen sein. Nachdem die Ergebnisse von ChatGPT ausschließlich auf Grundlage einer KI-basierten Anwendung erstellt werden, kann OpenAI nicht Urheber des durch den Chatbot erzeugten Outputs sein. OpenAI kann damit den ChatGPT-Nutzern keine Nutzungs- und Verwertungsrechte einräumen und sich auch nicht auf solche berufen.
Es stellt sich allerdings die Frage, ob Dritten Urheberrechte an den Ergebnissen von ChatGPT zustehen können. Bei der Nutzung des KI-Sprachmodells werden Angaben getätigt, die letztlich den Output von ChatGPT veranlassen. ChatGPT kann bereits getätigte Angaben des Nutzers zur Verbesserung der Anwendung nutzen, sodass andere Nutzer diese Angaben als Output erhalten können. In diesem Zusammenhang ist bisher ungeklärt, ob die Nutzer, die mit ihren Angaben den Output an anderer Stelle bewirken, als Urheber anzusehen sind. Solange es keine nähere Kenntnis über den Umgang mit solchen Trainingsdaten durch ChatGPT gibt, ist die Festlegung von Urheberrechten faktisch nicht möglich. Hier bleibt die weitere Entwicklung abzuwarten."
Uns wird stets die Versicherung abgenommen, keine fremden Rechte zu verletzen. Wir müssen versichern, den jeweiligen Beitrag selbst verfasst zu haben und erteilen die Einwilligung, ihn unter der Creative Commons Attribution/Share-Alike Lizenz 3.0 und der GNU-Lizenz für freie Dokumentation zu veröffentlichen. Dritte dürfen die Beiträge frei nutzen, sofern es Hinweise zu dem oder den Urhebern gibt. Das wäre bei ChatGPT nicht der Fall und eine (Mit-)Nutzung von Wikipedia-Artikeln nicht einmal erkennbar. Gruß
PS: Auf dieser Diskussionsseite fehlt (bei der Erstellung per Visual Editor und selbst noch im Quelltext) das übliche Werkzeugtool (Fett, Kursiv usw.) und die Möglichkeit, zu unterschreiben. Der Nutzername selbst erscheint schon, aber mit dem Zusatz "Nicht signierter Beitrag ..." (nicht signierter Beitrag von Monika Hoerath (Diskussion | Beiträge) 17:37, 19. Apr. 2023 (CEST))
ChatGPT will nicht länger aus Daten lernen
Soeben habe ich zufällig einen laut Angabe 16 Minuten alten Artikel (Chip, msn.com) mit einer Meldung entdeckt, die durchaus für den Artikel relevant sein könnte:
Ich selbst werde mich inhaltlich an dem Artikel nicht beteiligen (dafür fehlt mir die Kompetenz), es sei denn, es wären irgendwelche Tippfehler oder so zu korrigieren. Gruß--Monika Hoerath (Diskussion) 19:56, 27. Apr. 2023 (CEST)
Kritik
Die Aussage dass mit ChatGPT Texte erstellt werden können, die nur schwer als solche erkennbar sind ist vermutlich Unsinn. (Die Texte sind nicht als Texte zu erkennen?). Als Laie möchte ich das nicht selbst ändern. --Gerald Fix (Diskussion) 08:03, 10. Dez. 2022 (CET)
- Erledigt. --kaubuk (Diskussion) 08:54, 10. Dez. 2022 (CET)
- Natürlich sind die Texte als Texte zu erkennen, aber es ist nicht erkennbar wie die Software diese Texte erstellt. Es ist aber mehr oder minder offensichtlich, dass die Antworten auf der Suche in größeren Datenbeständen beruhen.
- Daraus ergibt sich aber berechtigte Kritik. Die Software sollte ihre Quellen benennen. Sie tut es aber nicht. Uns wird erzählt, das sei eine künstliche Intelligenz, die sich die Anworten selbst überlegt habe. --Franz Scheerer aus Wiesbaden (Diskussion) 22:07, 3. Apr. 2023 (CEST)
Sinn und Nutzen Welchen Sinn und Nutzen hat dieses Programm ? Wer unterhält sich mit einem Programm , von dem man weiss das es nur ein Programm ist ? Oder ist es für Leute mit Sozial - Problemen , damit sie etwas Unterhaltung haben ) das ist erst gemeint ) ? Warum wird hier zensiert und gelöscht ? Das wurde schon am 3. Mai eingetragen . (nicht signierter Beitrag von 2003:EC:DF11:C175:436:4C89:5122:34FE (Diskussion) 22:57, 8. Mai 2023 (CEST))
Gefährlich für wen?
Bildungsferne Menschen, rhetorisch ungeschulte Menschen, Menschen, die nicht zu Plausibilitätserwägungen in der Lage sind, Legastheniker, funktionale Analphabeten sowie zumindest die unteren Ebenen der "White Collar" - Fraktion, d.h Leute, die z.B. in der Verwaltung viele repetierende, textlastige Arbeit zu erledigen haben. --2003:C9:7F2F:9301:C263:5D2B:5165:1FF2 12:30, 25. Mai 2023 (CEST)
- Wenn in der Literatur (Presse usw.) diese konkrete Aufzählung prominent dargestellt wird, kann das als Ansicht (im Stil: XY vertritt die Ansicht, dass …) mit Beleg in den Artikel. -- Karl432 (Diskussion) 18:53, 25. Mai 2023 (CEST)
Was bedeutet denn GPT?
"Generative Pre-trained Transformer", ja. Und was bedeutet das? Diese grundlegende Frage sollte in diesem Artikel schon beantwortet werden. --2A02:3032:C:5C49:AC76:17CF:AC30:BE1 17:41, 8. Jun. 2023 (CEST)
- Ausführlich im Artikel: ChatGPT#Training --Elutz (Diskussion) 20:49, 8. Jun. 2023 (CEST)
Worum geht es hierbei denn eigentlich?
ChatGPT scheint ja seit kurzem sehr prominent zu werden. Mir persönlich ist leider überhaupt nicht klar, worum es bei dieser Software eigentlich im Kern geht. Dieser Artikel hier hat mir dabei leider auch nicht viel weitergeholfen, denn wie ich finde fehlt einfach der Fokus. Wichtige unbeantwortete Fragen währen zum Beispiel:
- Wer genau entwickelt ChatGPT zu welchem Zweck?
- Was genau sind die Anwendungsgebiete oder der Nutzen dieser Software? Ist es eine Art Siri 2.0, nur als openSource Software? Soll es nur der Unterhaltung dienen? Soll es die Masse durch kleine Informationen in ihrem Alltag unterstützen? Oder gibt es tieferliegenden Nutzen?
- Wie frei ist der Zugang zu ChatGPT bzw. welche Nutzungsbedingungen gibt es? Ich habe mir mal die verlinkte Webseite angesehen. Man braucht offenbar einen OpenAI Account um die Software nutzen zu können. Davon sehe ich hier im Artikel keine Erwähnung. Man gewinnt eher den falschen Eindruck, dass es eine Sache der "public Domain" wäre, so wie etwa gängige Suchmaschinen.
MfG--Kreuz Elf (Diskussion) 17:42, 20. Dez. 2022 (CET)
Diese guten Fragen habe ich dem ChatGPT selber gestellt:
- Wer genau entwickelt ChatGPT zu welchem Zweck?
Antwort:ChatGPT wurde von der Forschungsorganisation OpenAI entwickelt, um Fortschritte im Bereich der Sprachverarbeitung und des maschinellen Lernens zu erzielen. OpenAI ist ein Forschungsunternehmen, das sich zum Ziel gesetzt hat, die Entwicklung von künstlicher Intelligenz (KI) voranzutreiben, um eine positive Wirkung auf die Gesellschaft zu erzielen.
ChatGPT wurde speziell als "Generative Pre-trained Transformer" (GPT) entwickelt, um die Fähigkeit von KI-Modellen zu verbessern, menschenähnliche Texte zu erzeugen und natürliche Sprachverarbeitungsaufgaben auszuführen. Das Modell wurde trainiert, um kontextbezogene Antworten auf menschliche Spracheingaben zu generieren, um beispielsweise in Chatbots und virtuellen Assistenten eingesetzt werden zu können.
OpenAI hat ChatGPT als Open-Source-Software veröffentlicht, um anderen Forschern und Entwicklern Zugang zu den Fortschritten im Bereich der Sprachverarbeitung zu ermöglichen und die Entwicklung von KI-Technologien voranzutreiben.
- Was genau sind die Anwendungsgebiete oder der Nutzen dieser Software? Ist es eine Art Siri 2.0, nur als openSource Software? Soll es nur der Unterhaltung dienen? Soll es die Masse durch kleine Informationen in ihrem Alltag unterstützen? Oder gibt es tieferliegenden Nutzen?
Antwort vonChatGPT:ChatGPT hat viele Anwendungsbereiche, die weit über die Unterhaltung hinausgehen. Einige der wichtigsten Anwendungsgebiete sind:
-Chatbots und virtuelle Assistenten: ChatGPT kann dazu verwendet werden, menschenähnliche Antworten auf Spracheingaben zu generieren, um Chatbots und virtuelle Assistenten wie Siri oder Alexa zu verbessern. Dies kann dazu beitragen, die Interaktion mit solchen Systemen natürlicher und effektiver zu gestalten.
-Automatische Übersetzung: ChatGPT kann dazu verwendet werden, menschenähnliche Texte in verschiedenen Sprachen zu generieren und somit die automatische Übersetzung von Texten zu verbessern.
-Textgenerierung: ChatGPT kann dazu verwendet werden, automatisch Texte zu generieren, beispielsweise für News-Artikel oder Produktbeschreibungen.
-Spracherkennung: ChatGPT kann dazu verwendet werden, menschenähnliche Texte aus Spracheingaben zu generieren, um die Qualität von Spracherkennungssystemen zu verbessern.
-Forschung: ChatGPT wird von Forschern auf der ganzen Welt genutzt, um Fortschritte im Bereich der Sprachverarbeitung und des maschinellen Lernens zu erzielen.
Der Nutzen von ChatGPT geht also weit über die Unterhaltung hinaus. Es kann dazu beitragen, verschiedene Aspekte des täglichen Lebens zu verbessern, von der Interaktion mit virtuellen Assistenten bis hin zur automatischen Übersetzung von Texten. Darüber hinaus kann ChatGPT dazu beitragen, neue Erkenntnisse im Bereich der Sprachverarbeitung und des maschinellen Lernens zu gewinnen, was langfristig zu Fortschritten in vielen verschiedenen Bereichen führen kann.
- Wie frei ist der Zugang zu ChatGPT bzw. welche Nutzungsbedingungen gibt es?
ChatGPT wurde von OpenAI als Open-Source-Software veröffentlicht, was bedeutet, dass der Quellcode öffentlich zugänglich und frei verfügbar ist. Jeder kann auf den Quellcode zugreifen, ihn verwenden und anpassen, solange die Nutzungsbedingungen eingehalten werden.
Die Nutzungsbedingungen für ChatGPT sind in der Open-Source-Lizenzvereinbarung festgelegt, die auf der OpenAI-Website verfügbar ist. Die Lizenzvereinbarung regelt die Bedingungen, unter denen die Software genutzt werden darf, einschließlich der Verpflichtung, die Urheberrechte von OpenAI zu respektieren und die Lizenzvereinbarung beizubehalten.
Es ist wichtig zu beachten, dass ChatGPT ein komplexes und leistungsfähiges Modell ist, das erhebliche Ressourcen erfordert, um es zu trainieren und zu betreiben. Um ChatGPT effektiv nutzen zu können, benötigen Benutzer in der Regel spezielle Technologie und Ressourcen wie Hochleistungsrechner und große Datensätze. Es ist also nicht einfach, ChatGPT einfach herunterzuladen und auf einem Standard-PC auszuführen.
OpenAI bietet jedoch auch eine Vielzahl von Tools und Services an, die es Entwicklern erleichtern, ChatGPT und andere Modelle effektiv zu nutzen. Dazu gehören Tools zur Datenverarbeitung und -bereinigung, vortrainierte Modelle und APIs, die die Integration von KI-Funktionalität in bestehende Anwendungen erleichtern.
mfG --thomasgl (Diskussion) 19:03, 5. Mär. 2023 (CET)
P.S. Darüber hinaus finde ich den kompletten Abschnitt "Kritik" bisher mehr oder weniger irrelevant und auch in sich redundant. Ich habe es mir jetzt erst mal verkniffen, Teile davon zu entfernen aber ich möchte verdeutlichen, dass ich bis jetzt insbesondere diesen Abschnitt ziemlich unhilfreich finde. Das Ganze ist sehr oberflächlich und kommt mir eher so vor wie eine im Prozess befindliche Evaluation (oder strenger formuliert: Klatsch und Tratsch aus der Boulevard Presse) als eine gefestigte Kritik mit klarem Sachverhalt. Daher sehe ich die enzyklopädische Relevanz des gesamten Abschnitts als nicht gegeben an (bisher zumindest).--Kreuz Elf (Diskussion) 17:46, 20. Dez. 2022 (CET)
- Ich halte den Abschnitt Kritik für sehr relevant, damit jene, die das Programm verwenden wollen, mindestens verstehen, dass sie sich ggf. an der Verbreitung von Fakenews beteiligen. Gerne mal lesen:
- --Andrea (Diskussion) 06:31, 28. Dez. 2022 (CET)
- Mit Andrea: Was im gewiss nötigen Kritikabschnitt bisher bereits enthalten ist, kommt offensichtlich von Kennern der Materie. „Klatsch und Tratsch“-Assoziationen sind folglich unangebracht. Dass die Evaluation sich als Prozess gestaltet, liegt in der Natur der Sache. GPT-4 ist angeblich auch bereits in der Mache. -- Barnos (Post) 09:39, 28. Dez. 2022 (CET)
- Im täglichen Durchschnitt fast 6.000 Abrufe. Da scheint mir der Kritikabschnitt eher noch weiter ausbaubedürftig als „irrelevant“. --Andrea (Diskussion) 07:09, 29. Dez. 2022 (CET)
- Na, dann hätte ich mal eine kritische These, nachdem ich ein bisschen mit dem Tool gespielt habe: Der Artikel liest sich in weiten Teilen, als wäre er selbst von ChatGPT geschrieben worden. SCNR. ;) --Viele Grüße, Aschmidt (Diskussion) 15:04, 30. Dez. 2022 (CET)
- Stimmt. Und Formulierungen wie "Um ChatGPT effektiv nutzen zu können, benötigen Benutzer in der Regel spezielle Technologie und Ressourcen wie Hochleistungsrechner und große Datensätze." bestätigen alle gängigen Vorbehalte. --ClaudeWiko (Diskussion) 08:38, 11. Jul. 2023 (CEST)
- Na, dann hätte ich mal eine kritische These, nachdem ich ein bisschen mit dem Tool gespielt habe: Der Artikel liest sich in weiten Teilen, als wäre er selbst von ChatGPT geschrieben worden. SCNR. ;) --Viele Grüße, Aschmidt (Diskussion) 15:04, 30. Dez. 2022 (CET)
Kritik ist immer gut.
Dieser Abschnitt "Kritik" ist meines Erachtens inzwischen allemal belassens-wert.
SCNR: „Sorry, Could Not Resist“ = „Entschuldigung, das konnte ich mir nicht verkneifen“
Ich wüsste gerne, was dabei herauskommt, wenn CGPT über sich selbst einen wp-konformen Artikel schreiben soll.
Ping willkommen, Steue (Diskussion) 14:49, 4. Feb. 2023 (CET)
.... "natürlich klingen"
Als AI-Assistent, GPT-3.5 Turbo, bedeutet "natürlich klingen" in der Regel, dass meine Antworten und Interaktionen so wirken, als kämen sie von einem menschlichen Gesprächspartner. Das beinhaltet eine freundliche und verständliche Ausdrucksweise, die auf die Bedürfnisse und Fragen des Nutzers eingeht. Es bedeutet auch, dass meine Antworten nicht unnatürlich oder roboterhaft klingen, sondern eine gewisse menschliche Nuance und Empathie enthalten. Mein Ziel ist es, eine angenehme und authentische Kommunikation zu ermöglichen.
CennoxX , deine Begründung für das Löschen der Anführungszeichen: die Antworten sollen natürlich klingen, das ist für die knapp zusammengefasste Einleitung der relevante Teil, ob sie das tun, ist eine andere Frage, überzeugt mich nicht, sie widerspricht sich sogar selbst - und das in einer Einleitung!? Ist z.B. menschlich klingen nicht besser?
--Walmei (Diskussion) 07:29, 26. Sep. 2023 (CEST)
"Aufruf zu einer KI-Entwicklungspause"
Der Artikel beschreibt nicht die Erfahrung Einzelpersonen --2A00:6020:B3B7:F700:C6A1:B875:E2FD:12D8 08:05, 27. Sep. 2023 (CEST)
Literatur
Bitte das Buch "Das Geheimnis hinter ChatGPT: Wie die KI arbeitet und warum sie funktioniert" von Stephen Wolfram ergänzen. --2003:E8:F71F:3580:F85C:700F:AA93:1052 22:56, 31. Okt. 2023 (CET)
- Trotz des etwas reißerischen Titels auf alle Fälle ein Buch eines Fachmannes. Habe es ergänzt.--CennoxX 15:58, 1. Nov. 2023 (CET)
Bitte Literatur ergänzen zu KI-Textgeneratoren
Bitte das Buch
"KI:Text. Diskurse über KI-Textgeneratoren" von Gerhard Schreiber und Lukas Ohly (2024) ergänzen, das Beiträge u.a. von Albrecht, Weßels und Oliver Bendel enthält. Das Buch ist kostenlos als Open Access zugänglich und wohl am 1.1.2024 erschienen bei
https://www.degruyter.com/document/doi/10.1515/9783111351490/html#contents
zugänglich, die Daten lauten
KI:Text. Diskurse über KI-Textgeneratoren, hg. von Gerhard Schreiber und Lukas Ohly, Berlin/Boston: De Gruyter 2024 (xi + 581 S.)
Danke! --SchLK16 (Diskussion) 20:29, 5. Jan. 2024 (CET)
Ja, ergänze ich; dann sinnvollerweise auch bei den Autorinnen! --Gecko78 (Diskussion) 20:45, 5. Jan. 2024 (CET)
Sollte die Lautschrift nicht auch das GPT enthalten
Ich sehe aktuell nur die IPA-Schlüsselung für Chat. Der "GPT"-Teil ist nicht mit enthalten. Ich nehme an, die englische Aussprache ist geläufiger als die deutsche, richtig? --TobbiM ✉ Post für mich? 02:16, 6. Feb. 2024 (CET)
- Ja das stimmt ist mir auch aufgefallen. --212.111.240.218 11:16, 25. Apr. 2024 (CEST)
- Archivierung dieses Abschnittes wurde gewünscht von: --Discostu (Disk) 09:02, 14. Aug. 2024 (CEST)