Wikipedia:WikiProjekt KI und Wikipedia/Artikel allgemein
Intro |
Diskussion |
KI allgemein |
KI+Texte |
KI+Übersetzung |
KI+Medien |
KI+QS |
KI+Hilfen |
Team |
Allgemeine Weblinks, Literatur, Vorträge etc., wenn sie nicht nur ein Thema betreffen, welches extra aufgeführt ist. |
Einführungen
[Quelltext bearbeiten]- BLOG GPT5 mit diversen Infos und Tools
- Podcast KI verstehen Deutschlandfunk
zu Halluzinationen
[Quelltext bearbeiten]- Wie man KI das Halluzinieren abgewöhnen kann zdf.de vom 20. März 2024
- Pauline Schinkels: Wer fabuliert hier so herum? Zeit Online vom 23. Juni 2024
- Halluziniert die KI? Neues Tool ermöglicht genaue Überprüfung SymGen vom MIT
- Making it easier to verify an AI model’s responses MIT News 21.10.24
- Marvin Fuhrmann: Bevor Halluzinationen entstehen: So könnten KI-Modelle künftig ihre Fehler frühzeitig einsehen digital pioneers 30.10.24
„Ihr Lösungsansatz sind sogenannte „Probing Classifiers“, also KI-Modelle, die den Token-Output von LLMs analysieren können. Diese KI-Modelle können anhand der korrekten Token trainiert werden und erkennen anschließend, anhand welcher Faktoren ein großes Sprachmodell die Token intern auswählt und ausgibt. Anhand dieser Daten kann der Classifier schon vorab einschätzen, ob die Antwort korrekt ausfällt oder ob die KI einen falschen Weg zur Antwort genommen hat.“
- Bias bei künstlicher Intelligenz: Risiken und Lösungsansätze auf activemind.legal
„Bias in KI ist ein Phänomen, das auftritt, wenn KI-Systeme systematisch verzerrte Ergebnisse liefern, die bestimmte Gruppen oder Individuen ungerecht bevorzugen oder benachteiligen. Diese Verzerrungen können sich auf vielfältige Weise manifestieren, von der Benachteiligung bestimmter Bevölkerungsgruppen bei der Jobsuche bis hin zur ungerechten Behandlung in rechtlichen oder medizinischen Anwendungen.“
- ... und wenn KI doch bessere Artikel schreiben kann?
- "Wikicrow" AI less "prone to reasoning errors (or hallucinations)" than human Wikipedia editors when writing gene articles
„Obwohl Sprachmodelle eindeutig anfällig für Argumentationsfehler (oder Halluzinationen) sind, scheinen sie in unserer Aufgabe zumindest weniger anfällig für solche Fehler zu sein als Wikipedia-Autoren oder Redakteure. Diese Aussage ist spezifisch für die hier vorgestellte agentische RAG-Einstellung: Sprachmodelle wie GPT-4 allein, wenn sie aufgefordert werden, Wikipedia-Artikel zu generieren, würden immer noch erwartet, dass sie mit hohen Raten halluzinieren (Übersetzung in Safari)“
zu Erkennen KI Texte
[Quelltext bearbeiten]- Nadine Emmerich: Wie können Lehrkräfte KI-Texte erkennen? gew.de 15.6. 2023
- KI generierte Texte erkennen: Anleitung für Einsteiger auf ki-im-alltag.de
- Leonard Maleika: ChatGPT & Co.: So erkennen Sie KI-Texte in wenigen Minuten praxistipps.chip.de vom 17.5.2023
- Michael Rupp: So können Sie KI-Texte erkennen auf heise-regioconcept.de vom 26. März 2024
- Vanessa Arnold: Praktische Tipps zur Umgehung von KI Texterkennung auf neuroflash.com vom 7. Juni 2024
zur Akzeptanz
[Quelltext bearbeiten]- Huschens, Martin; Briesch, Martin; Sobania, Dominik; Rothlauf, Franz (2023-09-05), Vertraust du ChatGPT? -- Wahrgenommene Glaubwürdigkeit von menschlichen und KI-generierten Inhalten, arXiv, doi:10.48550/arXiv.2309.02524 Wikimedia Research Newsletter Band 13 Ausgabe 09 2023
„Im Blindtest bevorzugen die Leser die ChatGPT-Ausgabe gegenüber Wikipedia-Artikeln in Bezug auf die Klarheit und sehen beide als gleichermaßen glaubwürdig an
Das Summary übersetzt:
Dieses Paper untersucht, wie Einzelpersonen die Glaubwürdigkeit von Inhalten wahrnehmen, die von menschlichen Autoren stammen, im Vergleich zu Inhalten, die von großen Sprachmodellen wie der GPT-Sprachmodellfamilie, die ChatGPT antreibt, in verschiedenen Versionen der Benutzeroberfläche generiert werden. Überraschenderweise zeigen unsere Ergebnisse, dass die Teilnehmer unabhängig von der Präsentation der Benutzeroberfläche dazu neigen, ein ähnliches Maß an Glaubwürdigkeit zuzuschreiben. Während die Teilnehmer auch keine unterschiedlichen Wahrnehmungen von Kompetenz und Vertrauenswürdigkeit zwischen menschlichen und KI-generierten Inhalten berichten, bewerten sie KI-generierte Inhalte als klarer und ansprechender. Die Ergebnisse dieser Studie dienen als Aufruf zu einem anspruchsvolleren Ansatz bei der Bewertung von Informationsquellen und ermutigen die Benutzer, beim Umgang mit von KI-Systemen generierten Inhalten Vorsicht und kritisches Denken zu walten zu üben.“
- "As many as 5%" of new English Wikipedia articles "contain significant AI-generated content", says paper. Es wurden zwei verschiedene Erkennungstools eingesetzt für Artikel, die im August 24 eingestellt wurden. Laut Grafik: Englisch (zwischen 3 und 5%), Französisch (zwischen 1,5 und etwas unter 5%) Deutsch (zwischen 2 und 1%) und Italienisch (zwischen 3 und 5%) ween als mittels KI erstelt erkannt.
„These are among the first research results providing a quantitative answer to an important question that Wikipedia's editing community and the Wikimedia Foundation been weighing since at least the release of ChatGPT almost two years ago.“
- 45 Artikel (1.5%) wurden von den beiden Tools als KI-generiert gekennzeichnet. 8 waren Werbung, weitere die einen bestimmten Standpunkt in polarisierenden Diskussionen vertraten, 3 maschinelle Übersetzungen und solche, wo die KI als Schreibwerkzeug offenbar zur Verbesserung eingesetzt wurde.
- Die Zahlen der neuen Studie sollten als konkreter Beweis dafür wertvoll sein, dass die generative KI tatsächlich begonnen hat, Wikipedia auf diese Weise zu beeinflussen (aber möglicherweise auch für diejenigen beruhigend sein, die befürchteten, dass Wikipedia vollständig von ChatGPT-generierten Artikeln überrannt werden würde).
- Es gibt einige ernsthafte Bedenken hinsichtlich der Interpretation der Daten der Studie - wie viele wurden auch von Wikipedianern entdeckt, gelöscht oder mit Bausteinen versehen ("Die meisten seien mit Warnungen versehen worden").
- Unbefriedigend beantwortet bleibt, ob die generative KI die Qualitätskontrollmechanismen von Wikipedia unterläuft - oder ob diese LLM-generierte Artikel neben dem bestehenden nie endenden Strom von vom Menschen erzeugtem Vandalismus, Hoaxes oder Artikeln mit fehlenden oder irreführenden Referenzen gut erkannt werden.
- Die Zuverlässigkeit von Software zur Erkennung von KI-Inhalten - wie den beiden Tools, auf denen die numerischen Ergebnisse der Studie basieren - wurde auch wiederholt in Frage gestellt. Beide Tools waren auch unterschiedlich sensibel in verschiedenen Sprachen.--Wortulo (Disk. * KI-Projekt) 09:10, 24. Okt. 2024 (CEST)
Wikipedia/Wikimedia intern
[Quelltext bearbeiten]- Project Future Audiences auf wikimedia.org
„Sein Zweck ist es, Strategien zu erforschen, um über unser bestehendes Publikum von Lesern/Nutzern und Mitwirkenden hinaus zu expandieren, um wirklich jeden auf der Welt als „wesentliche Infrastruktur des Ökosystems des freien Wissens“ zu erreichen“
- Kim Rixecker:: Gerät Wikipedia durch KI in Probleme? Warum ein Verantwortlicher jetzt Alarm schlägt Digital Pioneers vom 27.8. 2024
„Das über mehrere Jahre geplante Projekt Future Audiences hat dazu beispielsweise eine Wikipedia-Erweiterung für ChatGPT getestet. Das Fazit nach einem halben Jahr: Generative KI könnte in Zukunft durchaus dabei helfen, die Wikipedia effizienter zu machen – Chatbots seien dafür aber nicht notwendigerweise der beste Weg.“
- Impact of Generative AI on the Value of Peer Produced Content - Evidence from Wikipedia Association for Information Systems AIS Electronic Library (AISeL) 16. August 2024; Siehe dazu auch: Diskussion im WikiProjekt Schweiz
„We collect monthly Wikipedia page views and content (text) data for six months before and after the release date as the treatment group. We then collect data for same months a year before as the control group. The difference-in-difference (DID) analyses demonstrate significant decrease in Wikipedia page views (market value) after the release of ChatGPT. However, we found an increase in the quality of Wikipedia articles as evidenced by a significant increase in verbosity and readability of the articles after ChatGPT release."
Übersetzung (via deepl.com):"Wir sammeln monatliche Wikipedia-Seitenaufrufe und Inhaltsdaten (Text) für sechs Monate vor und nach dem Veröffentlichungsdatum als Behandlungsgruppe. Anschließend erheben wir Daten für die gleichen Monate ein Jahr zuvor als Kontrollgruppe. Die Differenzanalyse (DID) zeigt einen signifikanten Rückgang der Wikipedia-Seitenaufrufe (Marktwert) nach der Veröffentlichung von ChatGPT. Die Qualität der Wikipedia-Artikel hat jedoch zugenommen, was sich in einem signifikanten Anstieg der Ausführlichkeit und Lesbarkeit der Artikel nach der Veröffentlichung von ChatGPT zeigt. "“
Presse zu Wikipedia und KI
[Quelltext bearbeiten]- Ben Bergleiter: Die freie und KI-generierte Enzyklopädie? Netzpolitik.org vom 5.11.24
Trainingsdaten
[Quelltext bearbeiten]„Wikimedia Deutschland hat zusammen mit DataStax und Jina AI ein Projekt gestartet, das den Zugang zu den offenen Daten von Wikidata für KI-Anwendungen vereinfacht. Dadurch sollen nicht nur Tech-Giganten, sondern auch Open-Source-Initiativen die Möglichkeit haben, diese Daten zu nutzen. Ziel ist es, vor allem die Entwicklung von gemeinnützigen KI-Anwendungen auf der Grundlage offener und qualitativ hochwertiger Daten zu unterstützen“
„A new project is underway to allow Large Language Models (LLMs) to read Wikidata. The data is currently structured in a way that’s machine readable, but LLMs read data more like humans than machines, meaning this vast amount of human curated, high quality data isn’t accessible to this type of AI. By allowing access to Wikidata, LLMs could become more reliable. Ania spoke to Lydia Pintscher, the Portfolio Lead Product Manager at Wikidata Deutschland, to learn more about these developments.“
Rechtsfragen und Rechtsstreit
[Quelltext bearbeiten]„Ein Foto war bei einer Bildagentur als Stockfotografie hochgeladen worden, deren Nutzungsbedingungen „automated programms“ jedoch eigentlich ausschließt. Das Gericht hat nun geurteilt, dass die Schrankenregelung des § 60d UrhG für wissenschaftliches Text- und Datamining gilt und das Bild für wissenschaftliche Zwecke auch ohne Freigabe für solch einen KI-Datensatz durch den Verein genutzt werden durfte. Es äußerte sich nicht zu nicht-wissenschaftlicher Nutzung wie bspw. bei ChatGPT, hält es aber grundsätzlich für hinreichend, wenn eine Able. hnung der Nutzung in natürlicher Sprache und nicht nur maschinenlesbar vorliegt, da moderne KIs auch natürlich Sprache verstehen sollte.“
- Frauke Krüger: Darf ich KI-generierte Bilder und Texte auf meiner Webseite nutzen? e-recht24.de Stand 25. April 2024
- Erster Rechtsstreit zu Datennutzung in KI-Training – Das sind die ersten Ergebnisse auf blog.wikimedia.de
„Aktuell hat ein Fotograf den gemeinnützigen Softwareentwickler LAION e. V. verklagt. Er wirft dem Verein die unrechtmäßige Nutzung eines seiner Bilder für KI-Training vor. Der verklagte Verein LAION ist eine gemeinnützige Organisation, die Datensätze, Werkzeuge und Modelle zur Verfügung stellt, um die Forschung im Bereich des maschinellen Lernens zu fördern. Was hier am Ende des Rechtsstreits entschieden wird, wird auch Auswirkungen auf die Arbeit von Wikimedia haben, gerade was unsere Arbeit in der Softwareabteilung mit Open-Source-Communitys betrifft.“
- KI: noyb geht gegen OpenAI, Meta und X vor Haufe online 5. September 2019
„Die Datenschutzorganisation noyb hat Beschwerden gegen OpenAI, Meta und X (ehemals Twitter) eingereicht. Im Fokus steht die datenschutzkonforme Nutzung und das Training von KI-Systemen. Kritisiert wird, dass ChatGPT falsche Informationen generiert und Meta und X persönliche Daten ohne Nutzerzustimmung für KI-Zwecke verwenden.“
Vorträge und Veranstaltungen
[Quelltext bearbeiten]Wikipedia/Wikimedia
[Quelltext bearbeiten]- Wikipedia Day von Wikimedia CH, 27. April 2024 in Bern: Wikipedia & KI: Wettlauf um freies Wissen.
- Vorträge von Benutzer:Wikiolo (Input zum Nachlesen; siehe auch Vortrag WikiCon 2023) und Patrick Karpiczenko und weiteren, leider keine Aufzeichnungen.
- Zukunftskongress von Wikimedia Deutschland und Wikimedia Österreich, 7. bis 9. Juni 2024 in Nürnberg.
- Keynote von Richard Socher, ab Minute 27; Richard Socher hat you.com entwickelt; stellt einige Grundlagen und Vorzüge vor.
- Theresa Züger: Wandel durch KI?, ab Minute 6; sie kann vieles gut erklären.
- Daniel Sigge: Die nächste Community: Wie verändern wir digitale Teilhabe; ab Minute 5:30.
- Chris Tedjasukmana: Unordentliche Wissenspraktiken – Wie verändert sich der Umgang mit Wissen?, ab Minute 10.
- 71. DTS, 6. April 2023: „Kann künstliche Intelligenz Wikipedia-Artikel schreiben?“
- 73. DTS, 2. Mai 2023: „Wer hat's geschrieben? Mensch oder Maschine?“ – interaktiver Vortrag mit Doris Weßels
- 79. DTS, 21. September 2023: „Literaturrecherche in Zeiten künstlicher Intelligenz“
- Veranstaltung zur WikiCon 2023 Wie Wikipedia in Zeiten von KI überleben kann
- Wikiworkshop 20. Juni 2024, Keynote Brent Hecht (Microsoft)
KI und Politik
[Quelltext bearbeiten]- Nicolas Killian: KI und Demokratie: Vielleicht nicht wahr ist auch schon schlimm ZEIT Online vom 5. September 2024 Noch ist nicht klar, ob KI die Demokratie und Wahlen gefährden wird. Doch allein die Existenz der Technologie hat einen unguten Effekt.
- KI-Summit Hamburg 2024: Vertrauen in künstliche Intelligenz lohnt sich Hamburg News vom 5. September 2024. 3 Thesen: (1) Industrietauglichkeit is errecht; (2) Responsible AI wird bleiben (3) Spezislisierung und Dezentralisierung.
- 40 Prozent der Schweizer Bevölkerung nutzen KI-Tools SRF com 5.9. 2012: Bei den Jugendlichen ist diese Nutzung schon fast selbstverständlich, während ältere Personen KI-Tools vergleichsweise selten anwenden. TV und Audio boomen hingegen über alle Generationen hinweg, wie die Studie «Digimonitor» der Interessengemeinschaft elektronische Medien (Igem) und der Werbemedienforschung zeigt.
- Kollege KI - Wie verändert Künstliche Intelligenz die Arbeitswelt?. SWR Kultur (Audio) vom 5.9.2024:Bald wird es keinen Job mehr geben, der nichts mit Künstlicher Intelligenz zu tun hat. Aber statt das Entlastungspotenzial für Arbeitnehmer zu sehen, wächst vielerorts die Angst, dass KI uns die Jobs klauen wird. Wie also sieht die schöne, neue Arbeitswelt mit KI aus?
- Schweiz: Appell an den Bundesrat: Künstliche Intelligenz: Mit Verantwortung, ohne Diskriminierung!
Politischer Missbrauch
[Quelltext bearbeiten]- Donald Trump streichelt Kamala Harris’ schwangeren Bauch – wie Elon Musks KI-Chatbot das Netz mit manipulierten Bildern flutet NZZ vom 6. September 2024
„Der Unternehmer <Musk> sah in seinem KI-Chatbot Grok ursprünglich ein antiwokes Konkurrenzprodukt zu Chat-GPT. Nun richtet dieser sich mit Deepfakes gegen ihn selbst und die Leute, die er unterstützt.“