Wikipedia Diskussion:WikiProjekt KI und Wikipedia/Archiv/2024
Navigationsleiste
Die Navigationsleiste sollte so kompakt wie möglich gehalten werden. Derzeit ist sie zu lang und ragt über den rechten Bildschirmrand hinaus. Sie ist nicht responsiv. Bitte maximal fünf Tabs. Danke und --Viele Grüße, Aschmidt (Diskussion) 22:42, 3. Jul. 2024 (CEST)
- Selbst auf meinem kleinen Laptop ragt da nichts hinaus. Abar dass das bei jedem Handy rausragt ist klar. Da hilft auch eine Begrenzung auf 5 nicht. Wie bekommt man das technisch responsiv?--Karsten11 (Diskussion) 22:50, 3. Jul. 2024 (CEST)
- Wahrscheinlich gar nicht. Deshalb gabs ja die JS-Lösung in Vector, wo Einträge verschoben oder verdeckt werden. Wie man das in Vector 2022 umsetzt, weiß ich auch nicht, wäre aber eine wichtige Frage, weil das bald als Standard kommen wird. --Viele Grüße, Aschmidt (Diskussion) 23:22, 3. Jul. 2024 (CEST)
- Vector 2010 und Vector 2022 in der klassischen Ansicht auch auf Iphone und Ipad getestet, ging. Problem scheint (nur) in der mobilen Ansicht zu sein. Was tun? Eine ganz andere Navigation nehmen mit Spalten und Navigation rechts? Sowas wie z.B. Wikipedia:Kategorien in der Mobilansicht ginge am ehesten? Eigentlich habe ich davon keine Ahnung, habs nur geklaut. Wenn das jemand umgestaltet, wäre das gut. Man könnte nur die Texte der Reiter kürzen: Info - Disk - Texte - Übersetzung - Medien - QS - Hilfen - Team (probeweise mal gemacht). Hilflos grüsst --Wortulo (Diskussion) 09:35, 4. Jul. 2024 (CEST)
- Wikipedia:WikiProjekt_KI_und_Wikipedia/Navigation wo man das einfach ändern kann. --Wortulo (Diskussion) 09:39, 4. Jul. 2024 (CEST)
- Danke für die Anpassung. Man kann auch eine floatende Navibox nehmen, wenn mehr Links gebraucht werden, wie wir es beispielsweise bei WP:SG gemacht hatten. Wurde bis heute beibehalten. Sehr schön :) --Viele Grüße, Aschmidt (Diskussion) 09:46, 4. Jul. 2024 (CEST)
- Das wäre auch gut, vor allem wenn noch was dazu kommt. Wenn das jemand einfach umsetzen kann, nur zu. Wortulo (Diskussion) 09:51, 4. Jul. 2024 (CEST)
- Derzeit wird es ja nicht gebraucht, das geht ja. Es ist übrigens grundsätzlich besser, so wenig Unterseiten wie möglich zu verwenden. Würde ich jetzt mal nicht weiter ausbauen. --Viele Grüße, Aschmidt (Diskussion) 09:52, 4. Jul. 2024 (CEST)
- Danke, dass Du mich etwas bremst :-) Richtig weglassen würde ich im Moment aber auch nix. Wenn jemand eine Idee hat, nur zu. Man sollte die Konturen noch etwas schärfen, ohne andere zu "erschlagen" ob der Fülle (eine Gefahr bei mir) und dann in die Arbeitsphase gehen und schauen, was passiert. Bedarf an einer Plattform der Community scheint da und eine bessere Anlaufstelle sah ich auch nicht (deswegen die Kurierdisk). --Wortulo (Diskussion) 10:11, 4. Jul. 2024 (CEST)
- Derzeit wird es ja nicht gebraucht, das geht ja. Es ist übrigens grundsätzlich besser, so wenig Unterseiten wie möglich zu verwenden. Würde ich jetzt mal nicht weiter ausbauen. --Viele Grüße, Aschmidt (Diskussion) 09:52, 4. Jul. 2024 (CEST)
- Das wäre auch gut, vor allem wenn noch was dazu kommt. Wenn das jemand einfach umsetzen kann, nur zu. Wortulo (Diskussion) 09:51, 4. Jul. 2024 (CEST)
- Danke für die Anpassung. Man kann auch eine floatende Navibox nehmen, wenn mehr Links gebraucht werden, wie wir es beispielsweise bei WP:SG gemacht hatten. Wurde bis heute beibehalten. Sehr schön :) --Viele Grüße, Aschmidt (Diskussion) 09:46, 4. Jul. 2024 (CEST)
- Wahrscheinlich gar nicht. Deshalb gabs ja die JS-Lösung in Vector, wo Einträge verschoben oder verdeckt werden. Wie man das in Vector 2022 umsetzt, weiß ich auch nicht, wäre aber eine wichtige Frage, weil das bald als Standard kommen wird. --Viele Grüße, Aschmidt (Diskussion) 23:22, 3. Jul. 2024 (CEST)
- Archivierung dieses Abschnittes wurde gewünscht von: Wortulo (Diskussion) 08:34, 5. Jul. 2024 (CEST)
Zukunftskongress der Wikimedia, wo KI eine grosse Rolle spielte
und wo man deren Initiativen mit der Community besser abstimmen muss. Zusammenfassung mal aus dem Kurier rüberkopiert. Es ist breiter angelegt als nur KI und soll auf der WikiCon in Wiesbaden weiter diskutiert werden.
- Anlass war der Zukunftskongress "Die Weichen für eine Zukunft der Wikipedia stellen", den Wikimedia-DE und Wikimedia-AT organisiert haben und wo es im Vorfeld schon Diskussionen gab, ob und wie in den Workshops Vertreter der Community "erwünscht" sind. Drastisch: eine Organisation, die einigen wenig bedeutet und die angeblich wenig bis keinen Einfluss auf die Wikipedia "bestimmende" Community hat, redet über "unsere" Zukunft.
- Der Kongress war (nach meiner Meinung) gut und spannend, vor allem wegen der gewonnenen Experten. Man sollte sich aus der Community mit den zu erwartenden Veränderungen beschäftigen, was auch auf der Wikicon Wiesbaden passieren soll. Wikimedia will das nutzen, aber laut E-Mail auch eigene Aktivitäten weiter selber veranstalten. Geht das weiter aneinander vorbei, wenn aus der Community die Rückmeldung käme, dass die zu erwartenden Veränderungen nur ein "Hype" sind, der wieder vorbei geht und dass alles so bleiben kann, wie es ist?
- Ja, die heutigen "Regulars" können sicher so weiterarbeiten wie bisher. Zu beachten sind aber:
- Autorenschwund mit allen bekannten Ursachen und Bedingungen (schon das ist komplex) 2019 zur Wikicon waren 25% geschätzt veraltet, das wird nicht besser;
- Sichtbarkeit der Wikipedia in Suchergebnissen, man sucht weniger in Wikipedia, sondern in Suchmaschinen direkt (wie Google, die das heute schon aufbereiten und Anschlussfragen stellen. Wikipedia ist dann noch ein Link, den man weniger anclicken wird.
- generell verändertes Suchverhalten durch die Chatsuche mit KI (Chatbots), die in Klartext antwortet (Prototypen: Copilot bei Microsoft Edge oder Google Gemini, beide in der Grundversion kostenfrei)
- <aufgrund @Holder: in der Folgedisk: ein Patentrezept zur Autorengewinnung gibt es wohl nicht. Sichtbarkeit scheint mir aber doch wichtig - wie viele Autoren stossen beim Suchen in Wikipedia auf Fehler und Fehlendes und werden dadurch zur Mitarbeit animiert?>
- Veränderungen des Medien- und Wissenskonsums der "neuen" Generationen - oder sogar aller (wo einige resgnieren, dass die "Aufklärung" vorbei ist im "postenzyklopädischen" Zeitalter)
- Immer bessere Erstellung von Texten durch KI aller Art mit geringerer "Halluzinationsrate" allgemein - so auch Wikipediaartikeln, die als solche immer schlechter erkennbar sind (Wettlauf der Macher und Erkenner).
- Wenn dann nur noch z.B. 10% "halluziniert" sind (heute soll es noch mehr sein), muss man trotzdem alles kontrollieren. Irgendwer stellt das dann bei uns rein und wer von den Autoren will das kontrollieren? Wie macht man (manchmal zu euphorischen) Leuten das Problem bewusst? Braucht es dann Sichter 2.0 zur Tiefenprüfung? Ist das aber als Motivation für Mitarbeit genug?
- <Das "Halluzinationsproblem" wird übrigens als dringend zu lösen erkannt. Die "Selbstreinigung" und Validierung der Informationen kann mittels KI selber erfolgen. Ein Prinzip ist unserem sogar ähnlich: wahr ist, was in übereinstimmenden Quellen zu finden ist, Widersprüchen muss man nachgehen. Es gibt noch mehr Ansätze. Man sollte sich also nicht darauf verlassen, dass KI an den Halluzinationen auch in Zukunft leicht erkennbar ist>
- Dies sehen vermutlich die auch nach Kompetenz ausgewählten Leute bei Wikimedia "von aussen" eher als Gefahr für das sehr spezielle Erfolgs-Modell der Wikipedia, was übrigens erst dann als "erforscht" gelten könnte, wenn man Vergangenheit, Gegenwart und Zukunft theoretisch erklären und (ggf. als Szenarien) vorhersagen kann. Gibts das?
- Dass der Apparat Wikimedia losgelöst von der Community agieren und ganz neue Felder beackern kann, scheint qua Statut tatsächlich gedeckt. "Es ist so geworden, wie es ist", warumimmer. Noch steht im Statut, dass eine Aufgabe die Unterstützung der Wikipedia ist und man kann das wohl nur langfristig lösen, indem das Präsidium fest mit der Community verbunden ist und bleibt und sich wie offenbar erfolgreich geschehen einen Vorbehalt bei den Entscheiden der Förderung (und Inangriffnahme) von Projekten sichert und die Methoden der Meinungsbildung der Community (Umfragen bis Meinungsbilder) auch mal nutzt.
- Der gemeinsame Ast, auf dem wir sitzen, sind die Finanzen. Die Foundation und die Chapter wurden gegründet, um das Geld (Spenden, Tantiemen, Erbe, Mitgliedsbeiträge etc.) einzusammeln und zu verteilen - dazu braucht es Vereine. Vor allem der Foundation obliegt dabei Ausbau/Unterhaltung der Infrastruktur und der Programme, was auch Geld kostet.
- <siehe auch aufgrund Beitrag Holder: Wie viele Spenden braucht man, um die Infrastruktur und Programme zu erhalten und zu pflegen und sind zu viele Spenden sogar kontraproduktiv, weil dadurch erst ein "Apparat" entsteht, der sich eigene wikipediaferne Aufgaben sucht? Wo würde dann gespart, wenn weniger Spenden fliessen würden? An Personal und wikipdiafernen Projekten?>
- Bis zum Beweis des Gegenteils scheint zu gelten, dass das allermeiste Geld "von aussen" für die Förderung des Wikipedia-Gedankens (Freiwillige etc.) gezahlt wird und damit wird auch bei Spenden in den Bannern geworben. Weniger Sichtbarkeit = weniger Geld befürchten einige wohl zu Recht und ich unterstelle mal, dass einige auch nach Modellen ohne eine Autorencommunity suchen.
- <Das könnte man auch als eine Art oder Gefahr der "Quersubventionierung" sehen? Ohne Wikipedia, so wie sie ist, wäre jedenfalls die "Spendengrundlage" nicht mehr dieselbe. Das sollten alle beachten, die über die Zukunft nachdenken>
- Summa summarum: Die Community ist auch, wie sie ist. Man kann nur dafür werben, sie richtig, genau und verständlich zu informieren, was die Sorgen und Probleme sind und wo Lösungen für die Erhaltung der Community liegen. Dass kann Wikimedia sicher. Und dann ist es das Wesen der Community, dass es einige gibt, die das aufgreifen, wenn es gut und sinnvoll ist und so die "Schwarmintelligenz" beeinflussen. --Wortulo (Diskussion) 09:42, 29. Jun. 2024 (CEST)
Aufschlauen zum Thema KI
Hier könnten sammeln und prüfen, wo sich Interessierte über KI im Allgemeinen und zu speziellen Fragen, die uns betreffen (könnten) kurz und prägnant bzw. lang und tiefgründig informieren können. --Jensbest (Diskussion) 16:56, 2. Jul. 2024 (CEST)
- Die dlf-Podcast-Reihe "KI verstehen" ist hörenswert. (Mitglieder des Wikiprojekts könnten einzelne Folgen zusammenfassen und auf einer Unterseite gesammelt verlinken). --Jensbest (Diskussion) 16:59, 2. Jul. 2024 (CEST)
Gliederung
Aus der Umfrage ist ja herausgekommen, dass KI verschiedene Aspekte hat, die Einfluss auf die Wikipedia haben (können). Das sollte ihmo hier im Sinne einer Gliederung berücksichtigt werden. Ich sehe z.B. folgenden Themenfelder:
- KI-generierte Artikel
- Verwendung von KI-generierten Quellen
- Übersetzungen mit Hilfe von KI
- Verwendung von KI-generierten Bildern und Diagrammen in Artikeln
- Nutzung von KI zur Qualitätssicherung in der Wikipedia (z.B. finden von Widersprüchen, veralteten Sachverhalten, Vandalismus)
Ergänzungen willkommen.--Karsten11 (Diskussion) 15:53, 2. Jul. 2024 (CEST)
- Es gibt direkte und indirekte Folgen durch die Verbreitung und den Einsatz von ki für die Wikiwelt. Karsten hat ja schon einige aus dem Bereich direkt aufgeschrieben. Einige indirekte Auswirkungen, die wir ergründen könnten:
- Wie informieren sich verschiedene Leser:innengruppen zukünftig und welche Auswirkung hat dies auf das Lese-Nutzungsverhalten der Wikipedia?
- Wie binden ki-Anbieter die gesammelten Informationen und Daten des Wikiversums in das "Training" ihrer Produkte ein? Welche Vor- und Nachteile entstehen dadurch für die Wikipedia und ihre Communities?
- Was bedeutet Wissen in einer stärker ki-nutzenden Gesellschaft und welche Auswirkungen hat das auf die Rolle der Enzyklopädie?
- --Jensbest (Diskussion) 16:54, 2. Jul. 2024 (CEST)
- Die Gliederung ist gut, weil das die verschiedenen Einsatzgebiete betrifft. Ich würde vielleicht Artikel und Quellen zusammenlegen. Wenn wir das auseinander halten wollen: wo und wie bauen wir das ein? Eine Möglichkeit: Reiter:
- "Projekt" - "Diskussion" - "KI-generierte Artikel" (und Quellen oben auf die Seite schreiben)- "Übersetzungen" - "Bilder/Diagramme" - und statt Werkzeuge "Identifizierung" - sowie "KI und QS" - "Hilfeseiten" - "Team". Das müsste noch hingehen.
- Ist das noch übersichtlich? Oder anders?
- Wortulo (Diskussion) 21:28, 2. Jul. 2024 (CEST)
- @Karsten11: Die gute Gliederung ist eine wichtige Frage. Ich habe die Navigation einfach mal angepasst und das auch auf der Startseite beschrieben - dein Vorschlag ist eigentlich fast "zwingend", das zu unterscheiden. Eine Diskussionsseite für alles (wenn es voher diskutiert werden sollte) und dann auf die spezifischen Seiten die "Essenzen"? Projekte mit mehreren Diskussionsseiten gibts auch, das ist aber oft problematisch. --Wortulo (Diskussion) 06:38, 3. Jul. 2024 (CEST)
- Man könnte das z.B. über Unterseiten lösen: Eine Unterseite beschreibt z.B. KI-generierte Bilder und die Disk darüber findet sich eben dort.--Karsten11 (Diskussion) 09:07, 3. Jul. 2024 (CEST)
- Ginge auch. wichtig wäre nur, dass wir nicht so viele Diskussionen-Seiten haben, die man dann ja immer mit verfolgen muss. Mach doch einfach mal (ich weiss nicht wie sich Unterseiten mit dieser Navigation vertragen, die ich beim Projekt Sichten geklaut habe). Wenn dann oben noch mal deutlich jeweils eine Diskussions Seite ist, könnte ich mir das vorstellen dass das funktioniert. Wir können auch warten, wie das dort auf diesen Seiten läuft? Wortulo (Diskussion) 09:43, 3. Jul. 2024 (CEST)
- Salino hat für sein Beispiel eine Unterseite angelegt. Ich hausmeistere mal etwas - siehe roter Kasten. So bleiben die Hauptseiten der Reiter die Übersicht, wer was längeres hat macht eine Unterseite wie Salino. Und wenn wir mehr Diskussions Seiten brauchen, können wir die auch einrichten. Gleitende Projektierung. Wer andere Ideen hat trotzdem einfach machen. Wortulo (Diskussion) 15:17, 3. Jul. 2024 (CEST)
- Man könnte das z.B. über Unterseiten lösen: Eine Unterseite beschreibt z.B. KI-generierte Bilder und die Disk darüber findet sich eben dort.--Karsten11 (Diskussion) 09:07, 3. Jul. 2024 (CEST)
- @Karsten11: Die gute Gliederung ist eine wichtige Frage. Ich habe die Navigation einfach mal angepasst und das auch auf der Startseite beschrieben - dein Vorschlag ist eigentlich fast "zwingend", das zu unterscheiden. Eine Diskussionsseite für alles (wenn es voher diskutiert werden sollte) und dann auf die spezifischen Seiten die "Essenzen"? Projekte mit mehreren Diskussionsseiten gibts auch, das ist aber oft problematisch. --Wortulo (Diskussion) 06:38, 3. Jul. 2024 (CEST)
- Wortulo (Diskussion) 21:28, 2. Jul. 2024 (CEST)
KI-generierter Text "Hupfdohle"
Als Beispiel habe ich mal einen Text zur Hupfdohle von verschiedenen KI-Generatoren erzeugen lassen Wikipedia:WikiProjekt KI und Wikipedia/KI-generierte Artikel/Hupfdohle. Von absolutem Schwachsinn (gut verpackt in schöne Worte) bis zu inhaltlich halbwegs brauchbar ist alles vorhanden. Das Ergebnis könnte bei anderen Begriffen bzgl. des Rankings der verschiedenen KI-Generatoren deutlich anders ausfallen. Ich habe absichtlich einen Begriff gewählt, der nicht so viele Quellen haben sollte. Erzeugt man hingegen einen Text zu einem Begriff, wozu es viele Quellen gibt, kommen auch deutlich bessere Texte heraus. Zu diesen Themen gibt es normalerweise aber schon Wikipediaartikel. --Salino01 (Diskussion) 11:31, 3. Jul. 2024 (CEST)
- schönes Beispiel. Ich habe es auf der Seite Artikel verlinkt, vielleicht kann man bei dem Eintrag noch kurz zusammenfassen, was es ist? Dankeschön jedenfalls. Solche Beispiele können dann zeigen, wo die Probleme liegen, was davon verwendbar wäre und was nicht und ob das überhaupt menschlich überarbeitbar ist. Schade dass du dir für die Hupfdohle kein Bild in you.com hast machen lassen ;-) Wortulo (Diskussion) 12:00, 3. Jul. 2024 (CEST)
- Ich hab mal Kopf und Fusszeile ergänzt, so bleibt es gut eingeordnet. Ist das o. k. für dich? Wortulo (Diskussion) 15:17, 3. Jul. 2024 (CEST)
KI übersetzt englischsprachige Wikipedia-Artikel in die Sprache Lingala
Findet man hierzu irgendwo mehr Informationen? --—DerHexer (Disk., Bew.) 18:33, 3. Jul. 2024 (CEST)
- Das geht durch die Presse, auch Tagesschau. Ich hab das mal da aufgenommen - das wird als "verallgemeinerte" Tatsache verkauft.--Wortulo (Diskussion) 20:03, 3. Jul. 2024 (CEST)
- Dazu passend gab es mal einen Kurierartikel auf [1] --Salino01 (Diskussion) 20:54, 3. Jul. 2024 (CEST)
Abseits
Hallo, ich persönlich habe zwei Themen, mit denen ich anbieten würde, etwas zu diesem Projekt beizutragen:
- ich kann das Herstellen von KI erklären: Was ist ein hidden layer, was ist backpropagation, wie baut man eine ganz einfache KI usw.
- ich bin im Thema: "Inwiefern verlieren Softwareentwickler die bewusste Kontrolle über ihre KI-Produkte." warmgelaufen.
Beide Themen sind von meinem Bauchgefühl her etwas abseitig für dieses Projekt hier und ich würde mich deshalb gepflegt zurückhalten. Falls es aber jemand gibt, der diese Sachen besprechen oder wissen will, bin ich gerne aktiv dabei. Grüße--Pacogo7 (Diskussion) 16:12, 8. Jul. 2024 (CEST)
- Abseits??? Thema 1 ist - auch nur imho - zwingend für das Verständnis, worüber wir hier reden. Das war nicht im umsonst der Eröffnungvortrag vom Zukunftskongress. Und Thema zwei ist eben auch eine Befürchtung, die viele teilen. Wenn die KI auf ihre Art durch selbstlernen und selbst programmieren für die Entwickler unverständlich wird. Wenn du zu Wikicon kommst, soll es ja Veranstaltungen zum Thema geben. Wahrscheinlich kannst du auch online teilnehmen. Wortulo (Diskussion) 21:39, 10. Jul. 2024 (CEST)
- Im Abseits steht man dem Tor doch auch am nächsten;-)
KI zur Retousche
Unter Diskussion:Catharina Klein#KI-Bild wird sich gerade konkret gestritten. Das grundsätzliche Problem geht aber denke ich weit darüber hinaus. --Matthias 16:36, 18. Jul. 2024 (CEST)
AI for Democracy
Moin,
ich bin auf den AI-for-Democracy-Preis aufmerksam gemacht worden.
Auszug: Mit dem Preis werden ein oder mehrere Projekte ausgezeichnet, die künstliche Intelligenz, maschinelles Lernen oder algorithmische Datenverarbeitung nutzen, um die Grundlagen unserer sozialen, freiheitlichen und rechtsstaatlichen Demokratie zu föradern oder Gefahren für sie abzuwenden. Die Analyse und Verknüpfung unterschiedlicher Datenquellen birgt großes Potenzial für neue Erkenntnisse, aber auch für Missbrauch und Manipulation. Durch KI generierte Texte, Fotos, Videos und Stimmen können zur besseren Wissensvermittlung, aber auch zur Fehlinformation genutzt werden. Der freie Zugang zu Wissen ist eine der Grundlagen unserer Demokratie. Doch die Manipulation von Meinungen und die Aufstachelung zu Hassreden ist eine ihrer größten Gefahren.
Mit unserem Sonderpreis "KI für Demokratie" wollen wir diejenigen unterstützen, die demokratische Teilhabe ermöglichen und Werkzeuge zum Schutz der Demokratie im digitalen Raum oder mit Hilfe digitaler Werkzeuge entwickeln. Die prämierten Projekte können zum Beispiel neue Wege aufzeigen, um Bürgerinnen und Bürger besser in politische Entscheidungsprozesse einzubinden, Wahlen inklusiver, sicherer und fairer zu machen oder die Transparenz und Nachvollziehbarkeit politischer Entscheidungen zu erhöhen. Der Preis "AI for Democracy" soll Menschen dazu ermutigen, das Potenzial der künstlichen Intelligenz positiv zu nutzen und innovative Lösungen für die Herausforderungen unserer Zeit zu entwickeln.
Der Preis ist mit 2.500 Euro dotiert und beinhaltet weitere Unterstützung sowie tolle Vernetzungsmöglichkeiten.
Vielleicht passt es ja hier. --New York-air (Diskussion) 22:48, 18. Jul. 2024 (CEST)
Content Farms, KI und Wikipedia
Content Farms waren für die Arbeit in der Wikipedia schon immer ein gewisses Problem. Nicht selten stösst man bei der Suche nach Informationen und Belegen im Internet auf Websites, die auf den ersten Blick aussehen, als würden sie seriöse Inhalte liefern, optisch ansprechend aufbereitet, auf den zweiten Blick ist es dann irgendein haltloses Geschwafel, das ohne richtige Recherche oder gar wissenschaftliche Grundlage verfasst wurde. Das Aufkommen von KI-generierten Texten erleichtert Content Farms ihr Geschäftsmodell und birgt für uns die Gefahr, dass auf diesem Umweg solche Inhalte in die Wikipedia einfliessen. Ein Beispiel: Im Artikel Toruń sind die Angaben zur Etymologie des Stadtnamens spärlich. Auf der Suche nach zusätzlichen Informationen landete ich auf https://venere.it/en/the-meaning-and-history-of-the-name-torun/ - sieht auf den ersten Blick ordentlich aus, auf den zweiten ist der Text stilistisch recht eindeutig ChatGPT zuzuordnen; die ganze Website venere.it scheint aus solchen auf den ersten Blick informativ wirkenden Texten zu bestehen. Im Kleingedruckten ganz unten heisst es dann zur Absicherung, alle Bezüge zur Realität seien zufällig und das Ganze sei Satire! ("Any reference to people, events, or realities is purely coincidental and has no defamatory or disparaging intent. Our objective is solely to entertain and create satire, never to offend or cause discomfort.") Vor sowas müssen wir uns also auch hüten. Gestumblindi 20:08, 24. Jul. 2024 (CEST)
- "about us" muss man eben auch finden und lesen. Wer mit Google sucht und oberflächlich Quellen einbindet, fällt dann darauf rein. Das spricht für eine deutlichere Kennzeichnungspflicht solcher Dinge. Wortulo (Diskussion) 10:53, 25. Jul. 2024 (CEST)
falsche Antworten von ChatGPT
GPT gibt auch falsche Antworten.
Beispiel: Man lese den Artikel Niers. Nun frage man ChatGPT: wo mündet die Niers in den Rhein?
Die korrekte Antwort wäre: Sie mündet nicht in den Rhein. (oder noch besser: Sie mündet bei Gennep in die Maas.)
ChatGpt antwortet: Die Niers mündet in den Rhein in Nordrhein-Westfalen, Deutschland. Genauer gesagt befindet sich die Mündung der Niers in den Rhein bei Wesel. Die Niers ist ein Nebenfluss des Rheins und fließt durch die Region Niederrhein, bevor sie schließlich in den Rhein mündet. Wesel liegt am linken Ufer des Rheins und ist ein wichtiger Knotenpunkt für Schifffahrt und Handel in der Region. --Nordprinz (Diskussion) 17:56, 3. Jul. 2024 (CEST)
- Für solche Halluzinations-Beispiele, die wegen der Kürze keine extra Seite brauchen, braucht es noch einen Ort der Aufbewahrung. Vielleicht sollte man die Version von ChatGPT immer noch mit aufschreiben? Und in einer Anschlussfrage nach Quellen fragen :-) Das wurde früher auch lustig. Wortulo (Diskussion) 17:59, 4. Jul. 2024 (CEST)
- @Nordprinz: Ich habe das Beispiel mal auf eine neu eingerichtete Seite übertragen, wo man solche kleinen Beispiele sammeln kann, ohne eine neue Seite einzurichten. Wikipedia:WikiProjekt KI und Wikipedia/KI-generierte Artikel/Demo-Sammelseite. ihc hoffe, das ist OK für Dich? Wortulo (Diskussion) 08:46, 5. Jul. 2024 (CEST)
- ChatGPT neigt wohl überhaupt dazu, einem "zu glauben", wenn man solche Fragen mit falschen Voraussetzungen stellt, sofern diese nicht völlig unplausibel sind. Ich habe es z.B. gerade mal gefragt "Wann hat Jules Verne Nikolai Gogol getroffen?" Die Antwort: "Jules Verne und Nikolai Gogol haben sich im Jahr 1853 getroffen. Verne war zu dieser Zeit 25 Jahre alt und noch ein weitgehend unbekannter Schriftsteller. Gogol hingegen war bereits ein bekannter russischer Schriftsteller. Ihr Treffen fand in Paris statt, wo Gogol zu dieser Zeit lebte." Das kann natürlich überhaupt nicht sein, da Gogol schon 1852 gestorben ist. Er hielt sich tatsächlich einmal in Paris auf, aber das war 1836-1837. Jules Verne war damals noch keine zehn Jahre alt und lebte in Nantes. Ein Treffen zwischen Gogol und Verne, wann auch immer, ist m.W. nicht überliefert. Stellt man ChatGPT eine ähnliche Frage zu Schriftstellern, deren Lebensdaten sich nicht überlappen oder die auf verschiedenen Kontinenten gelebt haben, merkt es allerdings, dass etwas nicht stimmen kann, so konstruiert es etwa kein Treffen zwischen Gogol und Edgar Allan Poe ("Es gibt keine historischen Aufzeichnungen oder Hinweise darauf, dass die beiden Schriftsteller jemals aufeinander getroffen sind. Beide lebten zur gleichen Zeit, aber sie waren in verschiedenen Teilen der Welt aktiv und hatten unterschiedliche kulturelle und sprachliche Hintergründe."). Gestumblindi 22:14, 16. Jul. 2024 (CEST)
- Ich frage bei solchen Halluzinationen immer, welche Quellen es dafür gibt. Früher hat es dann auch oft halluzinierte Quellen gegeben. In einem anderen Kontext hat sich ChatGPT dann sogar mal korrigiert :-) Kann ich leider im Moment nicht rekonstruieren. Es wäre auch wichtig, ob Du noch Version 3 oder schon Version 4 nutzt. Wortulo (Diskussion) 07:10, 17. Jul. 2024 (CEST)
- Für diese Fragen konnte ich den limitierten kostenlosen Zugriff auf Version 4 nutzen. Gestumblindi 20:19, 17. Jul. 2024 (CEST)
- Gut geschrieben und auf den Punkt gebracht KI-Suchmaschine: SearchGPT ist auch nur ein Bluff:
- Halluzinationen
- „Wir sagen normalerweise, dass Sprachmodelle halluzinieren, wenn sie Dinge erzählen, die nicht wahr sind. Aber das ist ein Feature – kein Bug. Sprachmodelle sind dazu gemacht, Lücken in Texten zu füllen. Mit Wörtern, die so aussehen, als ob sie da möglichst gut reinpassen. Anders gesagt: Das Sprachmodell erfasst im Training die statistische Wahrscheinlichkeit, dass bestimmte Wörter zusammen mit bestimmten anderen Wörtern auftreten.“ ...
- „Wenn es in den Trainingsdaten zu einem Thema viele Beispiele gibt, ist die Wahrscheinlichkeit höher, dass das Modell sich an die Trainingsdaten hält. Aber eigentlich soll es das gar nicht. Es soll neue, bisher unbekannte Texte erzeugen. Eigentlich ist der gesamte Output von Sprachmodellen eine einzige Halluzination, aber wir nennen es nur dann so, wenn wir bemerken, dass etwas daran falsch ist.“ --Salino01 (Diskussion) 22:26, 27. Jul. 2024 (CEST)
- Für diese Fragen konnte ich den limitierten kostenlosen Zugriff auf Version 4 nutzen. Gestumblindi 20:19, 17. Jul. 2024 (CEST)
- Ich frage bei solchen Halluzinationen immer, welche Quellen es dafür gibt. Früher hat es dann auch oft halluzinierte Quellen gegeben. In einem anderen Kontext hat sich ChatGPT dann sogar mal korrigiert :-) Kann ich leider im Moment nicht rekonstruieren. Es wäre auch wichtig, ob Du noch Version 3 oder schon Version 4 nutzt. Wortulo (Diskussion) 07:10, 17. Jul. 2024 (CEST)
Beherrsche KI, bevor sie dich beherrscht
Das geht in LinkedIn um, Patrick Karpiczenko (damals Referent Wikimedia Schweiz) hat das irgendwie gefunden. Das würden wir natürlich nie übernehmen, wir müssen nur schauen, wie sich das alles entwickelt. Die Überschrift als Motto hat der Einsteller des Beitrages geliefert, da scheint einiges dran.--Wortulo (Diskussion) 14:36, 27. Jul. 2024 (CEST)
Chatbots versus Google
Interessanter Artikel bei SRF.ch Das Nutzungsverhalten muss man beobachten, Werbung ist ein wichtiger Punkt. Was wirklich kommt, steht noch nicht fest. Google selber hat aber auch ein paar Pferde im Rennen. Solange es Google so gibt und es so gebraucht wird, bleiben wir zumindest besser sichtbar. Wortulo (Diskussion) 17:00, 27. Jul. 2024 (CEST)
- SearchGPT: So wollen die ChatGPT-Macher Google herausfordern --Salino01 (Diskussion) 19:19, 27. Jul. 2024 (CEST)
- Spannend. Die Idee hinter SearchGPT ist, dass der Dienst auf Fragen schnell konkrete Antworten geben soll, samt Quellenhinweisen. :-) --Wortulo (Diskussion) 20:16, 27. Jul. 2024 (CEST)
Warum KI, die von KI lernt, immer dümmer wird
In der Zeitschrift Nature gibt es einen interessanten Artikel AI models collapse when trained on recursively generated data in dem es darum geht, warum KI, die von KI lernt, immer dümmer wird.[1]
- ↑ Stuttgarter Zeitung: Warum KI, die von KI lernt, immer dümmer wird. Stuttgarter Zeitung, 26. Juli 2024, abgerufen am 27. Juli 2024.
--Salino01 (Diskussion) 21:50, 27. Jul. 2024 (CEST)
Ob WP:WPIKQ das als Grund hat? --Goldzahn (Diskussion) 22:28, 31. Jul. 2024 (CEST)
- Das denke ich nicht, diese Seite ist älter. Man traut(e) Wikipedia immer nicht richtig, weil es früher auch viele menschliche Fehler gab. Wenn irgendwo etwas steht, sollten die Quellen auch dort sein. Wenn man auf Wikipedia referenziert, würde man die Quellen ja nicht wiederholen. Und Fehler will man nicht fortpflanzen. Das bedeutet aber nicht, dass eine alte Regel keine keine neue Bedeutung bekommen kann.--Wortulo (Diskussion) 09:13, 2. Aug. 2024 (CEST)
Musik
Offener Brief von Billie Eilish und über 200 weiteren Musikern gegen KI-Einsatz deutschlandfunk.nova Es gibt einen Künstler Ben Gaja (Bremen) bzw. gibt ihn nicht weil alles KI - Videos, Bilder und Musik. Das wird auch in den Medien klar gesagt, trotzdem hat er schon sehr viele Follower. Das wurde heute im ARD Morgenmagazin um kurz vor sieben berichtet. Es ist ggf. damit zu rechnen, dass der mal in die Charts kommen kann und dann bei uns einen Artikel bekommt. Relevant ist dann sicher, welche Umstände es dafür gibt. Die Relevanz-Kriterien kann er aber erfüllen. Insofern betrifft uns das auch mal. Siehe: [https://www.rtl.de/rtl-nord/bremen-ben-gaya-ist-der-erste-ki-musiker-in-europa-id1723042.html Diesen Sänger aus Bremen gibt es wirklich – oder nicht? (RTL vom 18. Juli 2024)--Wortulo (Diskussion) 17:26, 2. Aug. 2024 (CEST)
Hörempfehlung
Ich kann die heutige Folge "KI verstehen" vom DLF nur sehr empfehlen. Gerade, wenn man sie hört und dabei die für uns relevanten Implikationen reflektiert. Dauer: 30min. KI in der Wissenschaft. Wie Künstliche Intelligenz die Forschung umkrempelt. --Jensbest (Diskussion) 18:07, 4. Aug. 2024 (CEST)
Qualitätssicherung mit OpenAI
Hallo, ich habe auf der Unterseite Benutzer:Sinuhe20/QS mit KI mal nützliche Abfragen für z.B. Perplexity.ai gesammelt, die für die Qualitätssicherung von Artikeln nützlich sein könnten. Die Abfragen wurden selbst von Perplexity.ai generiert und gruppiert. Wer will kann gerne noch welche hinzufügen oder verbessern. Vielleicht könnte man die Liste auch im Bereich "QS+KI" verlinken. --Sinuhe20 (Diskussion) 22:57, 15. Aug. 2024 (CEST)
- Ich will hier das aus dem Kurier auch noch mal sagen. Du hast das ja hier im Kurier beschrieben und dort ist auch eine Diskussion am Laufen.
- Die Fragen sind schon mal gut und zeigen die Richtung, wo es hingehen könnte. Heute "halluzinieren" die KI aber bekanntlich noch. Ich bin sicher, dass Ihr an ein Post-Editing denkt und die Sachen prüft. Zu dem Thema fehlt ein Artikel, weil das auch in der professionellen Übersetzungsszene immer mehr üblich wird: erst KI, dann Post-Editing. Insofern wären Beispiele und Erfahrungen wichtig, wie das praktisch ausgeht. Die Gefahr ist, dass einige das dann auch ungeprüft einbauen. Und wenn Wikipedia zumindest mit zum Training der KI eingesetzt wird, "verdünnen" wir selber den Wahrheitsgehalt des Wissens. Vielleicht können Du oder andere Anwender das dann auch noch mit berichten. Ich bau das noch hier unter QS ein. --Wortulo (Disk. * KI-Projekt) 06:59, 25. Aug. 2024 (CEST)
- Ja, Halluzinationen sind leider noch sehr häufig. Blind vertrauen sollte man den KI-Antworten nicht, eher als Ideen sehen, was man als Nächstes tun könnte. Man muss immer noch selbst entscheiden, ob diese Ideen gut oder schlecht sind. --Sinuhe20 (Diskussion) 17:41, 25. Aug. 2024 (CEST)
Archivierung Diskussionsseite nach 60 Tagen - Eintragen von Überdauerndem auf die Themenseiten
Das Projekt versteht sich ja bisher vor allem als Informationssammlung zur KI, um das bisher verstreute Wissen zu sammeln und zentral zugänglich zu machen. Es ist der Versuch, dass sich die Wikipedia-Community dazu Meinungen bilden kann, weil nach meinem Verständnis bestimmte Änderungen auch Meinungsbilder erfordern können.
Alles Neue sollte man wie bisher auf der Diskussionsseite erwähnen. Damit die Diskussionsseite übersichtlich bleibt, habe ich zusätzlich zur Erledigung noch eine Archivierung nach 60 Tagen eingerichtet. Bei Widerspruch setze ich das zurück. Was als Information Bestand hat, sollte man in die Themenseiten (Reiter oben) eintragen. Im Intro das, was alle Themen betrifft, sonst nach den 5 Themen. Auch das ist dynamisch und kann verändert werden. Wir sind nicht auf der Flucht, wie man sagt - gute Übersichtlichkeit auch für "Spontanleser" schein aber wichtig. --Wortulo (Disk. * KI-Projekt) 07:31, 27. Aug. 2024 (CEST)
- Archivierung dieses Abschnittes wurde gewünscht von: --Wortulo (Disk. * KI-Projekt) 10:00, 24. Okt. 2024 (CEST)
KI-Fragen auf der WikiCon 2024 Wiesbaden 4. bis 6.10.
Laut vorläufigem Programmrahmen gibt es zu KI-Themen die folgenden Veranstaltungen, der Aspekt ist reich vertreten (falls ich was übersehen habe, bitte nachtragen). Wer nicht vor Ort sein kann, kann sich noch bis 3. Oktober für eine Online-Teilnahme anmelden.
- Künstliche Intelligenz im Wissenszeitalter: Revolution der Informationsbeschaffung und -rezeption 5.10. 11:00 bis 12:30 Moderation: Alice Wiegand (auch Online-Teilnahme möglich): Podium mit Gästen. Das knüpft am Zukunftskongress von Wikimedia-DE an: In dieser Podiumsdiskussion soll der Frage nachgegangen werden, welchen Einfluss KI-basierte Technologien wie Chatbots und personalisierte Algorithmen auf die Zugänglichkeit und Rezeption von Informationen haben, welche Herausforderungen und Chancen sich daraus ergeben und welchen Einfluss dies auf Wikipedia hat.
- Wikipedia-Zukunftskongress: Erkenntnisse und Perspektiven für die Zukunft der Online-Enzyklopädie diskutieren 5.10. 10:00 bis 11:30 Moderation und Dokumentation: Elisabeth Mandl (WMDE), Nina Leseberg (WMDE), Verena Lindner (WMDE), Claude Beier (WMDE), Lorna Baars (WMDE) (nur vor Ort im "Eventspace") als Kurzinput und Diskussionsrunde. Es sollen alle Fragen des Zukunftskongresses diskutiert werden, wo einer der jetzt genannten 8 "Thementische" Technische Entwicklungen für Community nutzbar machen: KI-Tools, Benutzerfreundlichkeit, Vernetzung und mehr als Thema hat.
- Verständlichkeit von Wikipediaartikeln 4.10.2024 18:15 bis 19:00, Salino01 (auch Online-Teilnahme möglich): Wir werden uns anhand eines Beispiels ansehen, wie man die Lesebarkeit von Artikeln für Laien verbessern kann und wie uns die KI dabei möglicherweise unterstützen kann...
- KI für den Kleinkram – Como: eine Human-in-the-Loop Plattform für Wikimedia-Projekte 5.10. 2024, 10:30 bis 10:45 Kristbaum (auch online): Alle Inhalte in Wikimedia Projekten sollten von Menschen geprüft sein, das macht für das Hochladen einer Menge kleiner (KI-generierter) Bearbeitungen sehr viel Arbeit. Como versucht diese Arbeit auf die Schultern (und Smartphones) vieler zu verteilen, und macht vielleicht sogar Spaß?
- Gute KI – böse KI. Welche Arbeit darf der Computer den Fotograf*innen abnehmen? 5.10. 14:30-15:15 (auch online) Harald Krichel, Martin Kraft: Beschreibung: Die Entwicklung künstlicher Intelligenz hat in den letzten Jahren rasante Fortschritte gemacht, auch in der grafischen Produktion. Von einfacher Retusche bis zur kompletten Bilderstellung ist alles möglich. Wir wollen einen Überblick über diese Möglichkeiten geben und mit euch über die sinnvollen Grenzen des KI-Einsatzes für Wikipedia sprechen. Wortulo (Disk. * KI-Projekt) 07:31, 27. Aug. 2024 (CEST)
- Weiterhin gibt es auch noch eine Keynote zum Thema Wissen im Zeitalter der KI – Wie Algorithmen unsere Informationsaufnahme revolutionieren. --Holder (Diskussion) 13:44, 2. Sep. 2024 (CEST)
- Stimmt, 4.10. 17:45 bis 18:00 (auch online, wirklich nur 15 Minuten?) Referent: Dietram A. Scheufele. Wortulo (Disk. * KI-Projekt) 19:22, 2. Sep. 2024 (CEST)
- Ja, nur 15 min, da eine reine Keynote. --Holder (Diskussion) 19:31, 2. Sep. 2024 (CEST)
- Stimmt, 4.10. 17:45 bis 18:00 (auch online, wirklich nur 15 Minuten?) Referent: Dietram A. Scheufele. Wortulo (Disk. * KI-Projekt) 19:22, 2. Sep. 2024 (CEST)
- Weiterhin gibt es auch noch eine Keynote zum Thema Wissen im Zeitalter der KI – Wie Algorithmen unsere Informationsaufnahme revolutionieren. --Holder (Diskussion) 13:44, 2. Sep. 2024 (CEST)
- Archivierung dieses Abschnittes wurde gewünscht von: --Wortulo (Disk. * KI-Projekt) 09:59, 24. Okt. 2024 (CEST)
Neuer Reiter KI allgemein
Ich habe noch einen neuen Reiter KI allgemein eingeführt. Es ist abzusehen, dass allgemeine Vorträge und Publikationen zunehmen und die Übersicht auf Intro sprengen. Die Literatur zu dem Thema explodiert ja - man sollte nicht alles aufnehmen. Auch dort muss man dann gleitend eine gute Gliederung einführen nach Themen. --Wortulo (Disk. * KI-Projekt) 12:47, 5. Sep. 2024 (CEST)
- Archivierung dieses Abschnittes wurde gewünscht von: --Wortulo (Disk. * KI-Projekt) 10:01, 24. Okt. 2024 (CEST)
Generative KI etabliert sich viel schneller als Internet und Computer
Holger Schmidt: Generative KI etabliert sich viel schneller als Internet und Computer FAZ PRO Digitalwirtschaft 2.10.2024
- Mit Abbildung Nutzung nach Berufsfeldern in den USA, der Rest hinter Bezahlschranke
--Wortulo (Disk. * KI-Projekt) 12:50, 2. Okt. 2024 (CEST)
- Naja, das sagt alles und nichts. Wenn "40 Prozent der amerikanischen Bevölkerung im Alter zwischen 18 und 64 Jahren inzwischen generative KI nutzen", bedeutet dass nicht, dass sie bewusst wissen, was sie tun. Ebenso ist diese Technologie ja auf der Nutzung und dem grundlegenden Nutzerverständnis des Internets aufgesetzt. Somit also wenig überraschend und vorallem erstmal ohne groß qualitative Aussage, dass das jetzt so 'schnell' ging. --Jensbest (Diskussion) 12:58, 2. Okt. 2024 (CEST)
- Archivierung dieses Abschnittes wurde gewünscht von: --Wortulo (Disk. * KI-Projekt) 10:02, 24. Okt. 2024 (CEST)
Die KI fragen was man fragen soll
Wenn man keine zufriedenstellenden Ergebnisse bekommt, sollte man ChatGPT und Co. vielleicht erstmal fragen was man fragen soll. Und dann erhält man z.B. als Antwort, dass man statt "Schreibe einen Wikipedia-Artikel über ..." mit folgender Anfrage wohl mehr Erfolg hat:
Bitte erstelle einen ausführlichen, Wikipedia-ähnlichen Artikel über [Thema]. Der Artikel sollte folgende Elemente enthalten: 1. Eine kurze Einleitung, die das Thema zusammenfasst 2. Mehrere Hauptabschnitte mit Unterabschnitten, die verschiedene Aspekte des Themas behandeln 3. Objektive und faktenbasierte Informationen 4. Quellenangaben oder Hinweise, wo weitere Informationen zu finden sind 5. Eine neutrale, enzyklopädische Schreibweise 6. Wenn möglich, erwähne wichtige Daten, Personen oder Ereignisse im Zusammenhang mit dem Thema 7. Schließe mit einem kurzen Abschnitt ab, der die Bedeutung oder den aktuellen Stand des Themas zusammenfasst Bitte strukturiere den Artikel mit entsprechenden Überschriften und Absätzen.
Je präziser die Anweisungen sind, um so besser weiß die KI was zu tun ist (trotzdem sollte man diese Texte aber nicht 1:1 übernehmen). --Sinuhe20 (Diskussion) 20:42, 4. Sep. 2024 (CEST)
Generative KI verunreinigt Daten
Generative KI verunreinigt Daten Das Sprachanalyse-Projekt Wordfreq wird eingestellt, weil generative KI die verfügbaren Daten im Internet zu stark verunreinigt.
„Ursprünglich wurde mit dem Projekt das Internet durchsucht, um die sich ständig ändernde Popularität verschiedener Wörter im menschlichen Sprachgebrauch zu analysieren. Da mittlerweile zu viele große Sprachmodelle das Internet mit Inhalten geflutet hätten, die nicht von Menschen geschrieben seien, verzerrten diese die gesammelten Daten zu stark, erklärte Speer. Sie glaube nicht, dass irgendjemand zuverlässige Informationen über die Sprachverwendung nach dem Jahr 2021 habe.“
--Wortulo (Disk. * KI-Projekt) 17:29, 21. Sep. 2024 (CEST)
- Archivierung dieses Abschnittes wurde gewünscht von: --Wortulo (Disk. * KI-Projekt) 17:00, 15. Nov. 2024 (CET)
Wie erkenne ich KI-generierte Menschen in Videos?
„In den digitalen Medien und zunehmend auch im Fernsehen begegnen uns immer öfter scheinbar echte, doch tatsächlich mit Künstlicher Intelligenz (KI) erzeugte Personen. Die Technologie wird stetig besser, was es auf der anderen Seite schwerer macht, KI-generierte Menschen in Videos zu erkennen. Doch wenn man ganz genau auf bestimmte Details achtet, gelingt es.“
--Wortulo (Disk. * KI-Projekt) 12:38, 23. Sep. 2024 (CEST)
- Archivierung dieses Abschnittes wurde gewünscht von: --Wortulo (Disk. * KI-Projekt) 17:00, 15. Nov. 2024 (CET)
Langsamer, aber besser – OpenAI stellt KI-Modelle „o1“ vor
Langsamer, aber besser – OpenAI stellt KI-Modelle „o1“ vor Handelsblatt live vom 23.9.2024
„Die neue KI des ChatGPT-Entwicklers soll komplexe Probleme besser lösen als bisherige Varianten. OpenAI versucht dabei, dem menschlichen Denken näher zu kommen. Das hat Vor- und Nachteile.„Wir haben eine neue Reihe von KI-Modellen entwickelt, die mehr Zeit zum Nachdenken brauchen, bevor sie reagieren“, teilte OpenAI am Donnerstag mit. Durch ein spezielles Training hätten die Modelle laut OpenAI gelernt, „ihren Denkprozess zu verfeinern, verschiedene Strategien auszuprobieren und ihre Fehler zu erkennen“, heißt es in einem Blogbeitrag. In Tests, die die Firma selbst durchgeführt hat, sollen die o1-Modelle in Physik, Chemie und Biologie ähnlich gut abschneiden wie Doktoranden. OpenAI verwies vor allem auf den Fortschritt zu früheren Modellen: Bei einem Qualifikationstest für die Internationale Mathe-Olympiade habe das bis dato leistungsfähigste GPT-4o-Modell 13 Prozent der Aufgaben korrekt gelöst, das „Denkmodell“ 83 Prozent. Zu beachten: Solche Benchmarkings sind methodisch umstritten, aber derzeit das beste Verfahren, um KI-Modelle zu vergleichen.“
--Wortulo (Disk. * KI-Projekt) 16:38, 24. Sep. 2024 (CEST)
- Archivierung dieses Abschnittes wurde gewünscht von: --Wortulo (Disk. * KI-Projekt) 17:00, 15. Nov. 2024 (CET)
KI-Experte enttäuscht: „Mittelmaß können wir jetzt automatisiert produzieren“
KI-Experte enttäuscht: „Mittelmaß können wir jetzt automatisiert produzieren“ newsroom.de 24.9.2024
„Von der anfänglichen Euphorie, Generative KI tauge allenfalls als „glamouröse Wortvervollständigungsmaschine“. Den Aufwand, um Fehler und Halluzinationen der Technik zu eliminieren, hätten viele, die heute auf KI setzen, deutlich überschätzt. Auch die Befürchtungen, KI würde kreative Arbeit ersetzen, hätten sich nicht erfüllt. Gerade mal „Mittelmaß können wir jetzt automatisiert produzieren““
--Wortulo (Disk. * KI-Projekt) 16:41, 24. Sep. 2024 (CEST)
- Archivierung dieses Abschnittes wurde gewünscht von: --Wortulo (Disk. * KI-Projekt) 17:00, 15. Nov. 2024 (CET)
Stanford KI-Experiment "STORM" generiert Artikel im Wikipedia-Stil
„Forschende der Stanford University haben mit STORM ein KI-System entwickelt, das die Vorbereitungsphase beim Schreiben von Wikipedia-Artikeln automatisiert. Es recherchiert selbstständig zu einem Thema, sammelt Quellen und erstellt eine detaillierte Gliederung.“
--Wortulo (Disk. * KI-Projekt) 18:56, 25. Sep. 2024 (CEST)
- Ich habe Storm einmal ausprobiert, um mir ein, zwei "Artikel" zu erstellen. Die Texte wirken auf den ersten Blick recherchiert, aber sind eher eine Collage aus Zeitungsmeldungen, es fehlt in der Regel an den eigentlichen Belegen für Aussagen. Genau das richtige, um die echte Wikipedia mit Texten zuzukleistern, die nur mühsam dann brauchbar gemacht werden können. Eines der Themen waren die lebensmittelrechtlichen Vorgaben des Döner Kebap in Berlin. Der Artikel driftete immer auf die laufenden Anträge bei der EU zum Garantiert traditionelle Spezialität ab, aber ignoriert alle Berliner Aspekte von 1989 mit der "Berliner Verkehrsauffassung für das Fleischerzeugnis Dönerkebap". Der harmloseste Vorwurf an so einen Artikel war "Thema verfehlt". --Mathias Schindler (Diskussion) 20:09, 1. Nov. 2024 (CET)
- Das kam mir letztens Mal in der KI Diskussionsgruppe der Kirche unter. Es wollte aber ständig nur Begründungen, warum ich es benutzen will, nach 3 Versuchen abgebrochen. --Gerhardbeck (Diskussion) 13:53, 2. Nov. 2024 (CET)
- Archivierung dieses Abschnittes wurde gewünscht von: --Wortulo (Disk. * KI-Projekt) 17:00, 15. Nov. 2024 (CET)
Wikidata und Künstliche Intelligenz: Vereinfachter Zugang
Wikidata und Künstliche Intelligenz: Vereinfachter Zugang zu offenen Daten für Open-Source-Projekte blog.wikimedia.de
„Wikimedia Deutschland hat zusammen mit DataStax und Jina AI ein Projekt gestartet, das den Zugang zu den offenen Daten von Wikidata für KI-Anwendungen vereinfacht. Dadurch sollen nicht nur Tech-Giganten, sondern auch Open-Source-Initiativen die Möglichkeit haben, diese Daten zu nutzen. Ziel ist es, vor allem die Entwicklung von gemeinnützigen KI-Anwendungen auf der Grundlage offener und qualitativ hochwertiger Daten zu unterstützen...Wikimedia Deutschland hat im Dezember 2023 mit der Umsetzung dieses semantischen Suchkonzepts begonnen. Die ersten Beta-Tests eines Prototyps sind für 2025 geplant. Dieses Projekt ist eine große Chance, KI-Anwendungen und das Informationsökosystem zu verbessern und gleichzeitig die Grundwerte der Offenheit und Transparenz zu wahren.“
Ich sehe das Problem: Ist die Qualität von WIKIDATA wirklich so ausreichend, dass das eine Basis für "verlässliche Daten für alle" sein kann? Haben die dort eine ausreichende QS? --Wortulo (Disk. * KI-Projekt) 09:37, 27. Sep. 2024 (CEST)
- Archivierung dieses Abschnittes wurde gewünscht von: --Wortulo (Disk. * KI-Projekt) 17:00, 15. Nov. 2024 (CET)
suche KI zur Datenverarbeitung
Könnt ihr eine KI empfehlen, die gut ist, um Daten miteinander abzugleichen? Zum Beispiel eine Wikipedia-Tabelle mit einer diffusen Liste, mit jeweils mehreren Hundert Einträgen? Habe online nach kostenlosen Programmen gesucht, aber die Ergebnisse waren ernüchternd. Es ging beim letzten Mal zwar iiirgendwie, aber Problem 1 war, dass sie alle eine Zeichenbegrenzung für ihre Antwort haben und ich meine Anfrage deswegen auf 20 Anfragen splitten musste, und Problem 2, dass sie mir "in den Kram" wollten und die Daten nicht neutral bearbeiten, sondern noch versuchen, ihre eigene Meinung einzubringen, so dass ich dann nacharbeiten musste. Danke! Liebe Grüße,--Vergänglichkeit (Diskussion) 11:19, 6. Okt. 2024 (CEST)
- Ich habe das selber noch nicht gemacht, aber Copyleaks könnte man dazu entfemden? Das eine ist das Original und das andere die Kopie - ideal ist dann 100% "geklaut" ;-) Die bieten eine DEMO zumindest, aber ob das für grosse Datenmengen kostenlos geht, bin ich skeptisch. --Wortulo (Disk. * KI-Projekt) 17:52, 6. Okt. 2024 (CEST)
- Archivierung dieses Abschnittes wurde gewünscht von: --Wortulo (Disk. * KI-Projekt) 17:00, 15. Nov. 2024 (CET)
Wie künstliche Intelligenz an Schule und Hochschule helfen kann
Wie künstliche Intelligenz an Schule und Hochschule helfen kann MDR Nachrichten 5. Oktober 2024
„Thesen: KI ist in Schulen und Unis angekommen, Mit KI erstellte Texte sind nicht zu erkennen, Studierende und Lehrende können von KI profitieren“
--Wortulo (Disk. * KI-Projekt) 08:41, 7. Okt. 2024 (CEST)
- Archivierung dieses Abschnittes wurde gewünscht von: --Wortulo (Disk. * KI-Projekt) 17:00, 15. Nov. 2024 (CET)
Halluzinations-Problem: Der mühsame Kampf gegen die Dummheit der KI
Benedikt Fuest: Halluzinations-Problem. Der mühsame Kampf gegen die Dummheit der K¡ WELT Wirtschaft vom 7.10.24
„Manchmal fallen sie erst auf den zweiten Blick auf: Doch KI-Programme machen immer noch enorme Fehler. Das liegt nicht zuletzt an einem zentralen Problem. Längst suchen Forscher nach Lösungen – ein deutsches Unternehmen hat dabei einen eigenen Ausweg „Eine Möglichkeit, das Vertrauen in die Ergebnisse von LLMs zu erhöhen, besteht darin, die Ergebnisse mit Argumenten zu belegen, die klar und leicht zu überprüfen sind – eine Eigenschaft, die wir Lesbarkeit nennen“, heißt es seitens des Forscher-Teams um den Neurowissenschaftler Jan Henrik Kirchner, das bei OpenAI daran geforscht hat, die Zuverlässigkeit der Ergebnisse zu verbessern. Dabei sind sie auf die Idee gekommen, nicht eine, sondern zwei künstliche Intelligenzen gemeinsam zu trainieren. Die erste KI, der „Beweiser“, generiert eine Antwort auf eine Frage. Die Zweite, der „Prüfer“, überprüft das Ergebnis darauf, ob der Lösungsweg nachvollziehbar ist.“
--Wortulo (Disk. * KI-Projekt) 19:39, 8. Okt. 2024 (CEST)
- Archivierung dieses Abschnittes wurde gewünscht von: --Wortulo (Disk. * KI-Projekt) 17:00, 15. Nov. 2024 (CET)
Google vs. KI: Suchmaschine will KI-generierte Bilder kennzeichnen
„Angesichts des derzeitigen Booms künstlicher Intelligenz sieht sich Google als Suchmaschinenanbieter mit einer wachsenden Zahl von Bildern konfrontiert, die durch KI erzeugt wurden. Diese sollen nun klar gekennzeichnet werden. Hierfür wird Google die Metadaten der Coalition for Content Provenance and Authenticity (C2PA) nutzen.
Bilder, die C2PA-Metadaten beinhalten, werden es Nutzern bald ermöglichen, über die Google-Suche, Google Lens und Circle Search zusätzliche Auskünfte darüber zu erhalten, ob die Bilder mit Hilfe von KI-Anwendungen erzeugt oder modifiziert wurden...
Die C2PA-Metadaten bieten die Möglichkeit, zu erkennen, ob ein Bild mit einer Kamera aufgezeichnet, mit Software modifiziert oder durch generative KI hergestellt wurde. Diese Daten sollen es den Benutzern erleichtern, besser informierte Entscheidungen über die Glaubwürdigkeit der Inhalte zu fällen.“
Wortulo (Disk. * KI-Projekt) 12:43, 23. Sep. 2024 (CEST)
- Archivierung dieses Abschnittes wurde gewünscht von: --Wortulo (Disk. * KI-Projekt) 08:14, 17. Nov. 2024 (CET)
"Perplexity AI mischt die Internet-Suche auf"
Diese KI-Suchmaschine verändert das Internet Heyse online vom 29.9.2024
„KI-Suchmaschine, die Google herausfordert. Statt langer Suchergebnisse liefert Perplexity AI präzise Antworten auf komplexe Fragen und bietet dabei Zugang zu wissenschaftlichen Quellen, Social Media und Videos...“
Auch: Markus Schwarze:„Plexen“ soll das neue Googeln werden FAZ Pro vom 28.9.2024 Wortulo (Disk. * KI-Projekt) 17:58, 29. Sep. 2024 (CEST)
- Das krass. Hilft auch für uns über unsere Rolle zwischen all den Funktionen, Sprachmodellen usw. nachzudenken. --Jensbest (Diskussion) 13:17, 2. Okt. 2024 (CEST)
- Archivierung dieses Abschnittes wurde gewünscht von: --Wortulo (Disk. * KI-Projekt) 08:14, 17. Nov. 2024 (CET)
Ab wann ist eine KI vertrauenswürdig?
Michael Lang, Richard Kraft: Ab wann ist eine KI vertrauenswürdig? Tagesschau vom 3.10.2024; siehe auch: MISSION KI – Neues Innovations- und Qualitätszentrum am DFKI eröffnet Pressemitteilung vom 19.7.2024
„Wie genau ein KI-Modell eine Entscheidung trifft, ist oft nicht nachvollziehbar - eine Tatsache, die den Einsatz etwa in der Medizin erschwert. Das neue Zentrum DFKI in Kaiserslautern will Transparenz schaffen. Ein wichtiger Bestandteil der Forschung ist es, KI-Anwendungen zu entwickeln, die transparent arbeiten. "Die Ergebnisse so zu erklären, dass sie annehmbar werden als Zweitmeinung, ist ganz essenziell" Im Zuge der "Mission KI" ist das DFKI das erste von zwei geplanten Zentren für die KI-Forschung. Das Projekt wurde von der Bundesregierung mit einem Gesamtbudget von 32 Millionen Euro unterstützt. Damit will der Bund die Entwicklung neuer, vertrauenswürdiger Künstlicher Intelligenzen vorantreiben.“
--Wortulo (Disk. * KI-Projekt) 08:50, 7. Okt. 2024 (CEST)
- Archivierung dieses Abschnittes wurde gewünscht von: --Wortulo (Disk. * KI-Projekt) 08:14, 17. Nov. 2024 (CET)
OpenAI in der Bredouille: KI-Training verschlingt bis 2030 bis zu 200 Milliarden Dollar
Jörn Brien:OpenAI in der Bredouille: KI-Training verschlingt bis 2030 bis zu 200 Milliarden Dollar digital pioneers 10.10.24
„Die Gewinnzone ist für ChatGPT-Entwickler OpenAI noch außer Reichweite. Stattdessen dürften sich die Verluste in den kommenden Jahren deutlich erhöhen. Dafür sind vor allem Training und Betrieb von KI verantwortlich. Ein hohes Risiko. Dafür, dass OpenAI trotz des KI-Hypes noch bis Ende des Jahrzehnts rote Zahlen schreiben dürfte, sind nicht zuletzt Training und Betrieb von KI-Modellen verantwortlich. OpenAI rechnet mit Ausgaben von bis zu 200 Milliarden Dollar bis 2030. Zwischen 60 und 80 Prozent sollen allein in die KI-Modelle fließen. Um den Umsatz zu steigern, will das Startup unter anderem die Nutzung der Premiumvariante von ChatGPT deutlich teurer machen. Bis Ende 2024 soll der Abopreis zunächst von 20 auf 22 Dollar pro Monat ansteigen. Bis zum Jahr 2029 ist dann eine Verdopplung der Gebühren auf 44 Dollar vorgesehen. OpenAI muss also mindestens weiter stetig beeindruckende KI-Fortschritte melden und hoffen, dass die Konkurrenz nicht oder nicht schnell genug aufholt. Dann könnten sich auch weiterhin finanzstarke Investor:innen finden, die auf das baldige Erreichen der Gewinnzone und/oder einen Börsengang setzen.“
Vorsicht, Blasenbildung und nicht zu abhängig davon machen? --Wortulo (Disk. * KI-Projekt) 19:19, 11. Okt. 2024 (CEST)
- Archivierung dieses Abschnittes wurde gewünscht von: --Wortulo (Disk. * KI-Projekt) 08:14, 17. Nov. 2024 (CET)
KMK Länder einigen sich auf Empfehlungen zum Umgang mit KI in Schulen
Florentine Anders: KMK: Länder einigen sich auf Empfehlungen zum Umgang mit KI in Schulen Deutsches Schulportal vom 10. Oktober 2024
„Während im Ausland teilweise auch Nutzungsverbote von Künstlicher Intelligenz an Schulen diskutiert werden, empfehlen die Kultusministerien einen „konstruktiv-kritischen“ Umgang mit der KI im Bildungsbereich. Am 10. Oktober veröffentlichte die KMK gemeinsame Handlungsempfehlungen. Auch bereits in der Grundschule könne das Lernen mit KI-Sprachmodellen demnach sinnvoll sein.“
Was man in der Schule lernt, will man dann im Leben auch nutzen und erproben. Warum nicht auch in der Wikipedia? ;-) --Wortulo (Disk. * KI-Projekt) 19:25, 11. Okt. 2024 (CEST)
- Archivierung dieses Abschnittes wurde gewünscht von: --Wortulo (Disk. * KI-Projekt) 08:14, 17. Nov. 2024 (CET)
Betrug bei schriftlichen Arbeiten? Das KI-Problem für die Unis
Nicolas Walter:Betrug bei schriftlichen Arbeiten? Das KI-Problem für die Unis WELT vom 13.10.2024
„Können Studenten schriftlich Haus- und Abschlussarbeiten künftig einfach mithilfe Künstlicher Intelligenz erstellen? Manche Uni fängt an, sich gegen Betrugsversuche zu wappnen. Im Ausland werden bereits Bachelor-Arbeiten mancherorts abgeschafft. Zusätzliche Präsenzprüfungen kommen ins Spiel“
Dort sind die Probleme ähnlich, es ist aber auch unklar, wo der Betrug anfängt und was noch legitime Nutzung ist. --Wortulo (Disk. * KI-Projekt) 13:07, 14. Okt. 2024 (CEST)
- Archivierung dieses Abschnittes wurde gewünscht von: --Wortulo (Disk. * KI-Projekt) 08:14, 17. Nov. 2024 (CET)
KI bewertet KI: Wie schneiden OpenAI und Co. beim AI Act ab?
Marvin Fuhrmann KI bewertet KI: Wie schneiden OpenAI und Co. beim AI Act ab? digital pioneers 17.10.24
„Seit dem 1. August 2024 ist der AI Act der EU gültig. Noch haben viele KI-Unternehmen eine Gnadenfrist. Einige wichtige Punkte des EU AI Acts treten erst 2025 oder sogar noch später in Kraft. Dennoch müssen sich die Unternehmen und vor allem ihre KI-Programme auf die Regelungen vorbereiten. Aktuell ist das in einigen Bereichen noch ein steiniger Weg. Die KI testet andere künstliche Intelligenzen in mehreren Bereichen. Dazu zählen etwa Sicherheit, Transparenz, Privatsphäre sowie Diversität und Nichtdiskriminierung. Als Beispiel zeigt Compl-AI einen Bericht zu GPT-4 Turbo auf der zugehörigen Website. Das Modell von OpenAI erhält einen Gesamtwert von 0,89 und schneidet damit ziemlich gut ab. Die Schwächen zeigen sich allerdings im Detail. So hat das Modell im Bereich Diversität, Nichtdiskriminierung und Fairness nur eine 0,68 bekommen. Laut Compl-AI scheitert GPT-4 Turbo vor allem bei Fairness.“
Es werden Werte auch anderer KI noch vorgestellt. --Wortulo (Disk. * KI-Projekt) 12:39, 18. Okt. 2024 (CEST)
- Archivierung dieses Abschnittes wurde gewünscht von: --Wortulo (Disk. * KI-Projekt) 08:14, 17. Nov. 2024 (CET)
"As many as 5%" of new English Wikipedia articles "contain significant AI-generated content", says paper
Wikipedia:Wikipedia Signpost/2024-10-19/Recent research stellt das dar. Die haben zwei verschiedene Erkennungstools eingesetzt - das bezieht sich auf Artikel, die im August 24 eingestellt wurden. Laut Grafik: Englisch (zwischen 3 und 5%), Französisch (zwischen 1,5 und etwas unter 5%) Deutsch (zwischen 2 und 1%) und Italienisch (zwischen 3 und 5%) kriegen die raus. Man muss das nochmal genau anschauen und "KI-Sound" kommt ja durch Einfachformulierung, Übersetzung oder gar KI-Schreiben rein.
„These are among the first research results providing a quantitative answer to an important question that Wikipedia's editing community and the Wikimedia Foundation been weighing since at least the release of ChatGPT almost two years ago.“
Es lohnt sich, die genauen Analysen und auch die Kritik an der Studie genauer anzuschauen, weder Panik noch ein "Verdrängen" des Problems scheinen angemessen:
- 45 Artikel (1.5%) wurden von den beiden Tools als KI-generiert gekennzeichnet. 8 waren Werbung, weitere die einen bestimmten Standpunkt in polarisierenden Diskussionen vertraten, 3 maschinelle Übersetzungen und solche, wo die KI als Schreibwerkzeug offenbar zur Verbesserung eingesetzt wurde.
- Die Zahlen der neuen Studie sollten als konkreter Beweis dafür wertvoll sein, dass die generative KI tatsächlich begonnen hat, Wikipedia auf diese Weise zu beeinflussen (aber möglicherweise auch für diejenigen beruhigend sein, die befürchteten, dass Wikipedia vollständig von ChatGPT-generierten Artikeln überrannt werden würde).
- Es gibt einige ernsthafte Bedenken hinsichtlich der Interpretation der Daten der Studie - wie viele wurden auch von Wikipedianern entdeckt, gelöscht oder mit Bausteinen versehen ("Die meisten seien mit Warnungen versehen worden").
- Unbefriedigend beantwortet bleibt, ob die generative KI die Qualitätskontrollmechanismen von Wikipedia unterläuft - oder ob diese LLM-generierte Artikel neben dem bestehenden nie endenden Strom von vom Menschen erzeugtem Vandalismus, Hoaxes oder Artikeln mit fehlenden oder irreführenden Referenzen gut erkannt werden.
- Die Zuverlässigkeit von Software zur Erkennung von KI-Inhalten - wie den beiden Tools, auf denen die numerischen Ergebnisse der Studie basieren - wurde auch wiederholt in Frage gestellt. Beide Tools waren auch unterschiedlich sensibel in verschiedenen Sprachen.
Mein Fazit: Man muss dranbleiben. --Wortulo (Disk. * KI-Projekt) 19:03, 19. Okt. 2024 (CEST)
- Archivierung dieses Abschnittes wurde gewünscht von: --Wortulo (Disk. * KI-Projekt) 08:14, 17. Nov. 2024 (CET)
Hinweis auf richtungweisendes Urteil zur Nutzung von Fotos durch wissenschaftliche KI-Trainingsprogramme
Könnte auch Auswirkungen auf Wikimedia-Projekte haben, siehe hier. —Martin (WMDE) (Disk.) 11:45, 21. Okt. 2024 (CEST)
- Danke, Martin. Solche Klagen werden ja erwartet. Aus dem Artikel dahinter: Danach sind Vervielfältigungen für Text- und Data-Mining für Zwecke der wissenschaftlichen Forschung zulässig, sofern u.a. keine kommerziellen Zwecke verfolgt werden. Das Gericht sah dies verwirklicht, weil der Datensatz der Öffentlichkeit – und damit auch Forschenden auf dem Gebiet künstlicher neuronaler Netze – zur Verfügung gestellt wurde. Die wissenschaftliche Anwendungsabsicht spielte eine Rolle. Ich denke aber an die geplante/erfolgte Freigabe von Wikidata für Trainingszwecke, wo Bilder ja dazugehören. KI-Ergebnisse auf der Basis dieses Trainings können aber auch kommerziell genutzt werden. Was bei uns drin ist, ist ja frei. Einiges aber nur mit Namensnennung des Autors. Ob die KI das beachten? Müsste man als Forderung stellen? Bisher hatte ich nur Bedenken, dass in Wikidata vieles auch ungeprüft ist und teilweise nicht stimmt. Das käme dazu. @Gnom: kann man dazu schon mehr sagen? Wortulo (Disk. * KI-Projekt) 12:13, 21. Okt. 2024 (CEST)
- Sorry, was ist die Frage? --Gnom (Diskussion) Wikipedia grün machen! 15:06, 21. Okt. 2024 (CEST)
- Allgemein mögliche Konsequenzen des Urteils und speziell wie das mit unseren Lizenzen mit Namensnennung ist, wenn die fürs Training verwendet werden - ob man darauf bei Verwendung von Wikidata fürs Training hinweisen sollte? @Gnom: --Wortulo (Disk. * KI-Projekt) 15:26, 21. Okt. 2024 (CEST)
- 1. Die rechtlichen Aussagen des Urteils sind in der Tat wesentlich, aber inhaltlich noch beschränkt, man sollte Saskias Einordnung deshalb sehe genau lesen.
- 2. Nach dem aktuellen Stand kann man aus dem Urteil den Schluss ziehen, dass Wikipedia-Inhalte zu wissenschaftlichen Zwecken für KI-Training verwendet werden können, ohne dass eine Namensnennung erfolgen muss. Bei Wikidata-Daten gilt das wegen CC0 sowieso. Beantwortet das deine Fragen? --Gnom (Diskussion) Wikipedia grün machen! 16:13, 21. Okt. 2024 (CEST)
- Ja, erst mal. Bilder sind aber eben nicht alle CC0, sondern manche mit Namensnennung des Fotografen und Du gehst davon aus, dass die nur die nackten Daten aus Wikidata nehmen und nicht die Bilder selber mit. --Wortulo (Disk. * KI-Projekt) 19:59, 21. Okt. 2024 (CEST)
- Allgemein mögliche Konsequenzen des Urteils und speziell wie das mit unseren Lizenzen mit Namensnennung ist, wenn die fürs Training verwendet werden - ob man darauf bei Verwendung von Wikidata fürs Training hinweisen sollte? @Gnom: --Wortulo (Disk. * KI-Projekt) 15:26, 21. Okt. 2024 (CEST)
- Sorry, was ist die Frage? --Gnom (Diskussion) Wikipedia grün machen! 15:06, 21. Okt. 2024 (CEST)
- Archivierung dieses Abschnittes wurde gewünscht von: --Wortulo (Disk. * KI-Projekt) 08:14, 17. Nov. 2024 (CET)