Erfolg, wenn es denn einer wird, hat viele Väter und Mütter. Hier wird eine Chronologie begonnen, wo das Thema KI und Wikipedia bei uns eine Rolle spielte. Bitte nachtragen, wenn etwas fehlen sollte.
Die Künstliche Intelligenz hat sich in letzter Zeit rasant entwickelt. Insbesondere die Sprachqualität hat sich seit der Einführung von ChatGPT 3.0 deutlich verbessert. Der Chatbot kann Fragen zu den ausgefallensten Themen beantworten. Der computergenerierte Text ist auf den ersten Blick kaum von menschlichem Text zu unterscheiden. Aber kann ein Computer auch Wikipedia-Artikel schreiben?
Die Künstliche Intelligenz hat sich in letzter Zeit rasant entwickelt. Insbesondere die Sprachqualität hat sich seit der Einführung von ChatGPT 3.0 deutlich verbessert. In einem früheren Themenabend haben wir festgestellt, dass Integrität und Zuverlässigkeit der Informationen nicht immer gegeben sind. In diesem Stammtisch haben wir uns mit der Frage beschäftigt, ob und wie künstlich erzeugter Text von menschlichem Text unterschieden werden kann. Im ersten Teil des Abends ging es um die automatische Erkennung von KI-Texten. Die Erkennungsrate ist jedoch nicht besonders zuverlässig und von der Art (Schreibstil) abhängig. Das Ergebnis hängt von der Länge des Textes ab und bereits kleine Ergänzungen oder Änderungen haben einen großen Einfluss auf das Ergebnis. Es gibt auch zahlreiche Falschmeldungen (menschliche Texte werden als potentiell KI gewertet). Außerdem können meist nur englische Texte überprüft werden.
Künstliche Intelligenz hat das Bildungssystem revolutioniert und wird es weiterhin tun. In der Vergangenheit wurden Literaturrecherchen mit Hilfe von Schlüsselwörtern durchgeführt, die durch UND- oder ODER-Verknüpfungen kombiniert wurden. Das Problem bestand darin, passende Übersetzungen und Synonyme zu finden. Die KI-Suche greift auf große Sprachmodelle zurück... Die KI-Suche unterscheidet sich aber auch vor allem in der Bewertung und Darstellung der Ergebnisse, d.h. die Treffer werden anders angezeigt.
Ausgehend vom raschen technischen Fortschritt von LLMs wurde dargestellt, wieso diese Entwicklung für die Wikipedia eine existenzielle Gefahr darstellt und welche Risiken es birgt, künftig kommerziellen Anbietern die Wissensvermittlung durch KI zu überlassen. Es wurden Vorschläge diskutiert, wie gehandelt werden muss, damit Wikipedia und das Freie Wissen trotz dieser Entwicklung eine Zukunft haben. Zentrale Punkte sind dabei u. a. eine gemeinwohlorientierte Entwicklung von großen Sprachmodellen, die Weiterentwicklung von Wikipedia zu eine akademisch wertvolle Quelle, indem z. B. mit Hochschulen intensiv kooperiert sowie KI gezielt eingesetzt wird, und die Reorganisation der Wikimedia-Gesellschaften zur Erreichung dieser Ziele.
Wikipedia Day von Wikimedia CH, 27. April 2024 in Bern: Wikipedia & KI: Wettlauf um freies Wissen.
1. Juli 2024: Gründung dieses Projektes "KI und Wikipedia", um alle Initiativen zu bündeln und eine einheitliche sowie sichtbare Plattform zu schaffen. Karsten11 hat seine Seite ins Projekt verschoben samt Diskussionsseite und sie ist der Grundstock des Registers "Texte". Der Impuls des Zukunftskongresses hat zur Gründung des Projektes geführt, Wortulo hielt das für notwendig, um die Diskussionen nach der Umfrage aus der Community heraus wieder zu beleben und die Initiativen von Wikimedia (dem Verein, die etwas losgelöst von der Community begannen) zur Zukunft der Wikipedia auch in der Wikipedia-Community aufzugreifen. Am Ende wird Konsens der Wikipedia-Community benötigt, wenn etwas verändert werden soll - Wikimedia und die Foundation aber für die Umsetzung benötigt.
Veranstaltungen zu KI auf der WikiCon 2024 in Wiesbaden
Wikidata und regelbasierte KI, unter Mitwirkung Wikimedia Deutschland, Einführung am 16.11.2024, Aktionstage Netzpolitik, zugleich Treffen Jungwikipedianer
In diesem kombinierten Vortrag und Workshop wurde in die Grundlagen regelbasierter KI und Wissensgraphen eingeführt. Danach war Gelegenheit für erste eigene Gehversuche in Wikidata.
BineMan stellte hierzu zwei verschiedene Ansätze vor: KI-Tools wie Wortliga könnten Autoren helfen, ihre Texte sprachlich zu analysieren und zu verbessern. Einen ähnlichen Ansatz verfolgt der ChatGPT-Bot „Klar und Verständlich“ von multisprech. Ein ganz anderer Ansatz ist für die Leser gedacht: Der Wiki-Bot, basierend auf ChatGPT, beantwortet Fragen anhand der Inhalte von Wikipedia.
Der Themenabend bot einen ersten Überblick über KI und Wikipedia und mögliche Orientierungen des Projektes. KI birgt für Wikipedia Chancen und Risiken. Vorsicht und sorgfältige Kontrolle bleiben unerlässlich, um die Qualität der Inhalte zu schützen. Weitere Veranstaltungen zu speziellen Aspekten des Themas sind geplant.
Die Foundation und andere entwickeln auch Tools für Autoren und Leser, welche KI verwenden und als Hilfen verstanden werden.
Wikimedia Research/Showcase bietet einen Überblick, wer da auf dem Laufenden bleiben will. youtube-Aufzeichnungen und Papers dort verlinkt.
The Monthly Wikimedia Research Showcase is a public showcase of recent research by the Wikimedia Foundation's Research Team and guest presenters from the academic community. The showcase is hosted virtually every 3rd Wednesday of the month at 9:30 a.m. Pacific Time/18:30 p.m. CET and is live-streamed on YouTube. The schedule may change, see the calendar below for a list of confirmed showcases. Z.B.:
11.12.24: Language Models for Wikimedia - A Report from the Trenches and a Call to Arms. By Bob West, EPFL
11.12.24 A Public AI Assistant for World Wide Knowledg By Monica Lam, Stanford University.
18.9.24: Supporting Community-Driven Data Curation for AI Evaluation on Wikipedia through Wikibench By Tzu-Sheng Kuo, Carnegie Mellon University
18.9.24: WikiContradict- A Benchmark for Evaluating LLMs on Real-World Knowledge Conflicts from Wikipedia By Yufang Hou, IBM Research Europe - Ireland.
24.7.24: The Promise and Pitfalls of AI Technology in Bridging Digital Language Divide. By Kai Zhu, Bocconi University.
A human evaluation on three languages further shows that the quality of Descartes's descriptions is largely indistinguishable from that of human-written descriptions; e.g., 91.3% of our English descriptions (vs. 92.1% of human-written descriptions) pass the bar for inclusion in Wikipedia, suggesting that Descartes is ready for production, with the potential to support human editors in filling a major gap in today's Wikipedia across languages.
Sein Zweck ist es, Strategien zu erforschen, um über unser bestehendes Publikum von Lesern/Nutzern und Mitwirkenden hinaus zu expandieren, um wirklich jeden auf der Welt als „wesentliche Infrastruktur des Ökosystems des freien Wissens“ zu erreichen.
Das über mehrere Jahre geplante Projekt Future Audiences hat dazu beispielsweise eine Wikipedia-Erweiterung für ChatGPT getestet. Das Fazit nach einem halben Jahr: Generative KI könnte in Zukunft durchaus dabei helfen, die Wikipedia effizienter zu machen – Chatbots seien dafür aber nicht notwendigerweise der beste Weg.
We collect monthly Wikipedia page views and content (text) data for six months before and after the release date as the treatment group. We then collect data for same months a year before as the control group. The difference-in-difference (DID) analyses demonstrate significant decrease in Wikipedia page views (market value) after the release of ChatGPT. However, we found an increase in the quality of Wikipedia articles as evidenced by a significant increase in verbosity and readability of the articles after ChatGPT release.
Übersetzung (via deepl.com):"Wir sammeln monatliche Wikipedia-Seitenaufrufe und Inhaltsdaten (Text) für sechs Monate vor und nach dem Veröffentlichungsdatum als Behandlungsgruppe. Anschließend erheben wir Daten für die gleichen Monate ein Jahr zuvor als Kontrollgruppe. Die Differenzanalyse (DID) zeigt einen signifikanten Rückgang der Wikipedia-Seitenaufrufe (Marktwert) nach der Veröffentlichung von ChatGPT. Die Qualität der Wikipedia-Artikel hat jedoch zugenommen, was sich in einem signifikanten Anstieg der Ausführlichkeit und Lesbarkeit der Artikel nach der Veröffentlichung von ChatGPT zeigt. "}}
Die Integrität der Wikipedia ist bedroht: Fünf Prozent neuer englischer Artikel seien KI-generiert, findet eine Studie heraus. Während in der englischen Wikipedia bereits Aufräumtrupps aktiv sind, diskutiert die deutschsprachige Community noch über ihren Umgang mit den maschinellen Autoren.
Die Künstliche Intelligenz ist in aller Munde und auch hier im Kurier und auf der Diskussionsseite sorgt sie immer mal wieder für Gesprächsstoff. Der Tenor ist unterschiedlich, in der Summe scheinen sich zumindest in der Wikipedia alle jedoch einig: Die Qualität von KI-generierten Inhalten ist schlecht und ihr Einsatz muss unterbunden werden. Auch der Autor dieser Zeilen ist sehr skeptisch bezüglich ihrer Nutzung, verfolgt einige Entwicklungen doch mit echter Neugier. In diesen Zeilen stellt er sich die Frage, was passiert, wenn die KI doch Artikel schreiben kann – und zwar vielleicht bessere, als wir in der Laien-Community dazu in der Lage sind. Ausgangspunkt dazu ist ein Fallbeispiel, über das ich erst vor wenigen Tagen gestolpert wurde: eine KI-generierte Enzyklopädie zu allen bekannten Genen des menschlichen Genoms und der durch sie codierten Proteine.
Obwohl Sprachmodelle eindeutig anfällig für Argumentationsfehler (oder Halluzinationen) sind, scheinen sie in unserer Aufgabe zumindest weniger anfällig für solche Fehler zu sein als Wikipedia-Autoren oder Redakteure. Diese Aussage ist spezifisch für die hier vorgestellte agentische RAG-Einstellung: Sprachmodelle wie GPT-4 allein, wenn sie aufgefordert werden, Wikipedia-Artikel zu generieren, würden immer noch erwartet, dass sie mit hohen Raten halluzinieren (Übersetzung in Safari)
Wikipedia-Technikchefin Selena Deckelmann erklärt, wie die offene Enzyklopädie mit KI-Inhalten umgeht und warum man nun auch offiziell auf Tiktok vertreten ist... F: Wird die KI also eher eine Ergänzung oder ein Ersatz für menschliches Wissen und Kreativität sein? A: Es muss eine Unterstützung sein. Das ist unsere Überzeugung. Wir wollen Übersetzern helfen – vor allem in Sprachen, die nicht von Google oder Meta oder anderen frei verfügbaren Übersetzern unterstützt werden. Wikipedia unterstützt heute mehr als 300 Sprachen, mehr als jede andere große technische Organisation der Welt. Eine andere Art und Weise, wie wir darüber denken, ist die Unterstützung der Aufgabe der Redakteure. Wie können wir ihre Arbeit angenehmer, leichter und schneller machen? Wir versuchen, Modelle zu entwickeln, die sie auch in dieser Hinsicht unterstützen.
Wikimedia Deutschland hat zusammen mit DataStax und Jina AI ein Projekt gestartet, das den Zugang zu den offenen Daten von Wikidata für KI-Anwendungen vereinfacht. Dadurch sollen nicht nur Tech-Giganten, sondern auch Open-Source-Initiativen die Möglichkeit haben, diese Daten zu nutzen. Ziel ist es, vor allem die Entwicklung von gemeinnützigen KI-Anwendungen auf der Grundlage offener und qualitativ hochwertiger Daten zu unterstützen
A new project is underway to allow Large Language Models (LLMs) to read Wikidata. The data is currently structured in a way that’s machine readable, but LLMs read data more like humans than machines, meaning this vast amount of human curated, high quality data isn’t accessible to this type of AI. By allowing access to Wikidata, LLMs could become more reliable. Ania spoke to Lydia Pintscher, the Portfolio Lead Product Manager at Wikidata Deutschland, to learn more about these developments.
Wikipedia:Förderung/Schulung Allgemeinverständlichkeit Projektantrag Salino01. Ein 2-tägiger moderierter Workshop mit Input von Expert*innen soll Editierende zusammenbringen und fortbilden, um das Thema "Allgemeinverständlichkeit von Wikipedia-Artikeln" in eine praktische Umsetzung zu bringen.
Kate Crawfords brillante, nun auch auf Deutsch erschienene Analyse „Atlas der KI. Die materielle Wahrheit hinter den neuen Datenimperien“ hinterfragt den Hype um Künstliche Intelligenz.
Für das Training einer Künstlichen Intelligenz (KI) gilt bislang meist das Motto: "Viel hilft viel." Entwickler füttern ihre Software mit immer mehr Daten und nutzen immer leistungsstärkere Prozessoren, damit ChatGPT, Gemini & Co bessere Antworten geben. Diese Methode stößt inzwischen aber an ihre Grenzen. Daher versuchen Forscher, den Programmen "menschliches Denken" beizubringen. Dadurch könnten einerseits die Karten im Kampf um die Führung bei dieser Technologie neu gemischt werden. Aber auch die Anbieter von Hochleistungsrechnern müssen auf der Hut sein, denn neue KI-Generationen könnten ganz andere Chips benötigen als die aktuelle.
Künstliche Intelligenz. Schneller, ressourcenschonender, dezentraler: Ein neues Buch fasst den Status quo zusammen und befasst sich mit Erwartungen und Trends.
The prevailing methods to make large language models more powerful and amenable have been based on continuous scaling up (that is, increasing their size, data volume and computational resources1) and bespoke shaping up (including post-filtering2,3, fine tuning or use of human feedback4,5). However, larger and more instructable large language models may have become less reliable. By studying the relationship between difficulty concordance, task avoidance and prompting stability of several language model families, here we show that easy instances for human participants are also easy for the models, but scaled-up, shaped-up models do not secure areas of low difficulty in which either the model does not err or human supervision can spot the errors. We also find that early models often avoid user questions but scaled-up, shaped-up models tend to give an apparently sensible yet wrong answer much more often, including errors on difficult questions that human supervisors frequently overlook. Moreover, we observe that stability to different natural phrasings of the same question is improved by scaling-up and shaping-up interventions, but pockets of variability persist across difficulty levels. These findings highlight the need for a fundamental shift in the design and development of general-purpose artificial intelligence, particularly in high-stakes areas for which a predictable distribution of errors is paramount.
KI-Modelle der nächsten Generation: Warum KI-Modelle leistungsfähiger und nützlicher werden, wie sie komplexe Probleme lösen und Innovationen vorantreiben; Agenten revolutionieren die Arbeitswelt: Wie KI-Agenten repetitive Aufgaben übernehmen, Geschäftsprozesse neu gestalten und individuell angepasst werden können; KI für den Alltag: Wie KI-Begleiter wie Microsoft Copilot das Leben erleichtern, von der Organisation bis zur Entscheidungsfindung; Nachhaltige KI-Infrastruktur: Wie Microsoft mit innovativen Technologien und umweltfreundlichen Rechenzentren die Effizienz und Ressourcenschonung verbessert; Verantwortungsvolle KI-Entwicklung: Welche neuen Tests und Kontrollmöglichkeiten helfen, Risiken zu minimieren und Sicherheit zu gewährleisten; Wissenschaftliche Durchbrüche: Wie KI zur Lösung globaler Herausforderungen beiträgt, von der Entwicklung nachhaltiger Materialien bis zur Arzneimittelforschung.
Welche Herausforderungen sind mit der Technologie verbunden? Worauf kommt es bei der weiteren Entwicklung an? Wissenschaftlerinnen und Wissenschaftler verschiedener Disziplinen an der LMU beleuchten folgende Aspekte: Erklärbarkeit, Demokratische Kontrolle, Hatespeech, KI in der Medizin, Neue Geschäftsmodelle, Fake News, Urheberrechtsfragen, Datenqualität, KI und Literatur, Ethik
KI schafft geschäftlichen Mehrwert; KI-PCs revolutionieren die Arbeitswelt; Weg von klassischen Rechenzentren; KI-Agenten handeln autonom. Das Tempo, mit dem sich die KI entwickelt, bietet Unternehmen Dell zufolge enorme Chancen. Gemäss Tim van Wasen, Managing Director DACH bei Dell, sollen Unternehmen dabei den Fokus auf vier Bereiche legen: die Entwicklung einer klaren KI-Strategie, die Modernisierung des Tech Stack, eine Priorisierung nachhaltiger Technologien und die Stärkung der Mitarbeitenden durch Tools wie KI-Agenten für einen Fokus auf strategische Aufgaben. Laut einer Kaspersky-Prognose, birgt jeder Vorteil, den KI bringt, auch ein Risiko für die Cybersicherheit.
Schon seit vielen Jahren warnen Cybersicherheitsexperten auf der ganzen Welt vor den Gefahren KI-gestützter Cyberangriffe. Langsam werden diese Warnungen nun Realität. In diesem Jahr kam KI noch vor allem in Deepfake-, Phishing- und Spear Phishing-Kampagnen zum Einsatz. Für die kommenden Jahre ist aber mit einem deutlichen Anstieg der Anwendungsfälle zu rechnen. KI-gestützte Cyberangriffe werden mehr und mehr zu einem Alltagsphänomen werden.
Seitdem Programme wie ChatGPT und Dall-E für die breite Öffentlichkeit zugänglich sind, wird intensiv über die Risiken und Chancen generativer künstlicher Intelligenz (KI) diskutiert. Diese KI-Anwendungen können für den Alltag der Menschen von großem Nutzen sein, sie können aber auch missbraucht werden, um tiefgreifende Fälschungen oder Propaganda zu erstellen. Außerdem spiegeln alle Formen der generativen KI die Daten wider, mit denen sie trainiert wurden. Es gibt inzwischen einige Strategien, um der mangelnden Transparenz und Objektivität der generativen KI entgegenzuwirken. Die Autoren des Diskussionspapiers, das heute von der Nationalen Akademie der Wissenschaften Leopoldina in englischer Sprache veröffentlicht wurde, warnen jedoch davor, diesen Strategien zu viel Vertrauen zu schenken.
Wie genau ein KI-Modell eine Entscheidung trifft, ist oft nicht nachvollziehbar - eine Tatsache, die den Einsatz etwa in der Medizin erschwert. Das neue Zentrum DFKI in Kaiserslautern will Transparenz schaffen. Ein wichtiger Bestandteil der Forschung ist es, KI-Anwendungen zu entwickeln, die transparent arbeiten. "Die Ergebnisse so zu erklären, dass sie annehmbar werden als Zweitmeinung, ist ganz essenziell" Im Zuge der "Mission KI" ist das DFKI das erste von zwei geplanten Zentren für die KI-Forschung. Das Projekt wurde von der Bundesregierung mit einem Gesamtbudget von 32 Millionen Euro unterstützt. Damit will der Bund die Entwicklung neuer, vertrauenswürdiger Künstlicher Intelligenzen vorantreiben.
Künstliche Intelligenz (KI) hat sich längst in unseren Alltag geschlichen: Sie generiert Bilder, verfasst Texte, komponiert Musik und imitiert Stimmen – täuschend echt. Doch mit welchen Konsequenzen für unsere Gesellschaft? In der neuen Dok1 „Das Ende der Wahrheit – KI täuscht uns alle“ nimmt uns Hanno Settele mit auf eine kritische Entdeckungsreise in die Welt der generativen KI und hinterfragt deren Einfluss auf unser Leben.
Ein Netzwerkverbund von Forscher:innen der Euregio, die mit ihren unterschiedlichen fachlichen Kompetenzen und Perspektiven die Vertrauenswürdigkeit von KI prüfen sollen... Auf einer Veranstaltung der Euregio-Plattform für Menschenwürde und Menschenrechte (Euphur) wurde heute von Wissenschaftler:innen der Universitäten in Bozen, Innsbruck und Trient eine regionale Initiative für dieses wichtige Anliegen gestartet.
Ihr Lösungsansatz sind sogenannte „Probing Classifiers“, also KI-Modelle, die den Token-Output von LLMs analysieren können. Diese KI-Modelle können anhand der korrekten Token trainiert werden und erkennen anschließend, anhand welcher Faktoren ein großes Sprachmodell die Token intern auswählt und ausgibt. Anhand dieser Daten kann der Classifier schon vorab einschätzen, ob die Antwort korrekt ausfällt oder ob die KI einen falschen Weg zur Antwort genommen hat.
Bias in KI ist ein Phänomen, das auftritt, wenn KI-Systeme systematisch verzerrte Ergebnisse liefern, die bestimmte Gruppen oder Individuen ungerecht bevorzugen oder benachteiligen. Diese Verzerrungen können sich auf vielfältige Weise manifestieren, von der Benachteiligung bestimmter Bevölkerungsgruppen bei der Jobsuche bis hin zur ungerechten Behandlung in rechtlichen oder medizinischen Anwendungen.
Forscher:innen haben herausgefunden, dass KI-Modelle schnell aus dem Gleichgewicht geraten können. Oftmals reicht es, einen bestimmten Parameter zu verändern, damit die Modelle ihre Intelligenz verlieren. Im Test veränderten die Forscher:innen rund 7.000 Parameter ohne Auswirkungen auf den KI-Output. Nur der Superparameter sorgte dafür, dass Llama-7B nicht mehr funktionierte. Das liegt laut Yingzhen Li vom Imperial College in London daran, dass diese Parameter meist am Anfang des KI-Modells stehen. Sind sie fehlerhaft, setzt sich der Fehler durch alle weiteren Parameter durch. Künftig könnte sich diese Erkenntnis für die Weiterentwicklung von künstlichen Intelligenzen rentieren. Denn KI-Forscher:innen müssen Wege finden, wie Modelle auch ohne diese besonders wichtigen Parameter auskommen und etwa andere Wege zu einer richtigen Antwort finden können.
Im KI-Goldrausch hat sich ein neuer Trend etabliert. Die wichtigsten, großen Akteure – von Open AI über Google bis hin zu Microsoft – vermarkten ihre KI-Modelle aus der Cloud inzwischen vornehmlich als „offen“. Das Ziel: Die Konzerne wollen den Eindruck erwecken, sie würden sich kompromisslos Open-Source-Prinzipien wie Transparenz, Zusammenarbeit und Wiederverwendbarkeit verschreiben. Wer genauer hinsieht, erkennt schnell: Damit ist es nicht weit her.
The Future of Life Institute has released its first safety scorecard of leading AI companies, finding many are not addressing safety concerns while some have taken small initial steps in the right direction.
→ Klassen A bis (genutzt) F, 8 führende Firmen dargestellt. Tabelle in der Quelle.
Das Fraunhofer Heinrich-Hertz-Institut (HHI) und seine Partner starteten das neue Konsortialprojekt REFRAME (Flexible, resiliente und effiziente Machine-Learning-Modelle). Ziel des Projekts ist es, die Erklärbarkeit von Künstlicher Intelligenz (KI) zu verbessern und damit die Vertrauenswürdigkeit und Anwendbarkeit von KI-Systemen in sicherheitskritischen Bereichen wie der Medizin oder Mobilität zu erhöhen...
Insbesondere ist bislang unklar, wie sich die Genauigkeit und Zuverlässigkeit eines Modells verändern, wenn es außerhalb des ursprünglichen Trainingsbereichs agiert. Diese Themen müssen adressiert werden, um VFM-basierte Anwendungen in sicherheitskritischen Sektoren zuverlässig einsetzen zu können.
Damit eine KI nutzbringend trainiert werden kann, benötigt sie neue und vor allem qualitativ hochwertige Daten. Dazu wurden in der Vergangenheit frei im Internet zugängliche Magazine und Fachpublikationen verwendet...Auch Zeitungs- und Wissenschaftsarchive oder Communities wie Reddit und Stack Overflow werden genutzt. Die größeren KI-Unternehmen haben bereits Verträge mit Publishern wie Springer, Reuters oder der New York Times geschlossen, um an deren Inhalte zu gelangen...Das Problem ist, dass die Inhalte viel zu langsam wachsen, um den Trainingshunger der rasch besser werdenden KI-Modelle zu stillen...Eine Alternative besteht nun darin, auch als qualitativ minderwertig geltende Quellen für das Training zu benutzen. und noch weitere sehr spannende Aspekte
GAN: Was ist ein GAN? AWS auf amazon.com Wie funktioniert ein generatives gegnerisches Netzwerk GAN=Gerative Adversarial Network:
Ein generatives gegnerisches Netzwerksystem besteht aus zwei tiefen neuronalen Netzwerken — dem Generatornetzwerk und dem Diskriminatornetzwerk. Beide Netze trainieren in einem kontradiktorischen Spiel, bei dem das eine versucht, neue Daten zu generieren, und das andere versucht vorherzusagen, ob es sich bei der Ausgabe um gefälschte oder echte Daten hande
OpenAI hat sich ehrgeizige Ziele gesetzt, um bis 2025 als führendes globales Technologieunternehmen im Bereich der Künstlichen Intelligenz zu agieren. Mit einer Reihe von strategischen Initiativen, darunter die Einführung von KI-Agenten und einer KI-gesteuerten Suchmaschine, plant das Unternehmen, eine Milliarde Nutzer weltweit zu erreichen. Das Unternehmen hat bereits bedeutende Fortschritte gemacht, indem es Partnerschaften mit großen Technologiekonzernen wie Apple eingegangen ist. Diese Partnerschaften sind ein zentraler Bestandteil der Wachstumsstrategie von OpenAI, die darauf abzielt, die Integration von ChatGPT in Apple-Geräte zu fördern und so die Nutzerbasis erheblich zu erweitern.
Die neue KI des ChatGPT-Entwicklers soll komplexe Probleme besser lösen als bisherige Varianten. OpenAI versucht dabei, dem menschlichen Denken näher zu kommen. Das hat Vor- und Nachteile. „Wir haben eine neue Reihe von KI-Modellen entwickelt, die mehr Zeit zum Nachdenken brauchen, bevor sie reagieren“, teilte OpenAI am Donnerstag mit. Durch ein spezielles Training hätten die Modelle laut OpenAI gelernt, „ihren Denkprozess zu verfeinern, verschiedene Strategien auszuprobieren und ihre Fehler zu erkennen“, heißt es in einem Blogbeitrag. In Tests, die die Firma selbst durchgeführt hat, sollen die o1-Modelle in Physik, Chemie und Biologie ähnlich gut abschneiden wie Doktoranden. OpenAI verwies vor allem auf den Fortschritt zu früheren Modellen: Bei einem Qualifikationstest für die Internationale Mathe-Olympiade habe das bis dato leistungsfähigste GPT-4o-Modell 13 Prozent der Aufgaben korrekt gelöst, das „Denkmodell“ 83 Prozent. Zu beachten: Solche Benchmarks sind methodisch umstritten, aber derzeit das beste Verfahren, um KI-Modelle zu vergleichen.
KI-Suchmaschine, die Google herausfordert. Statt langer Suchergebnisse liefert Perplexity AI präzise Antworten auf komplexe Fragen und bietet dabei Zugang zu wissenschaftlichen Quellen, Social Media und Videos...
-> gemeint ist Amazon, die mit Anthropic zusammengehen (u.a. Chatbot Claude), insgesamt werden 8 Millionen reingesteckt. AWS (Amazon-Tochter) und Anthropic arbeiten auch zusammen, um den Chip "Trainium" zu optimieren. Zu beobachten, was da kommt.
Viele kennen vor allem ChatGPT, aber es gibt auch noch andere spannende KI-Tools wie Perplexity und Claude. Perplexity liefert präzise Antworten, Claude fokussiert auf Ethik und Sicherheit, ChatGPT ist vielseitig einsetzbar. Die Tools können für Informationsbeschaffung, wissenschaftliches Arbeiten, Reiseplanung und mehr genutzt werden.
Als Partner des europäischen Forschungsprojekts OpenGPT-X war der WDR an der Entwicklung des neuen großen Sprachmodells "Teuken-7B" beteiligt. Die KI wurde unter anderem mit deutscher Sprache trainiert, bietet hohe Datensicherheit und kann auch von Unternehmen kostenfrei genutzt werden. Sie soll auch in der ARD eingesetzt werden. Die neue KI umfasst sieben Milliarden Parameter und wurde von Grund auf mit den 24 Amtssprachen der EU trainiert. Dies bedeutet eine höhere Effizienz auch bei deutschen Sprachanwendungen. Als Open-Source-Modell kann “Teuken-7B” in Unternehmen kostenfrei eingesetzt und für die jeweiligen Anforderungen angepasst werden. Sensible Daten können vollständig im Unternehmen verbleiben. Wird “Teuken-7B” in europäischen Datenclouds genutzt, können hohe europäische Standards für Datenschutz eingehalten werden.
Teuken-7B steht in zwei Varianten zur Verfügung: einer Version, die für Forschungszwecke genutzt werden kann, und einer Version unter der Lizenz »Apache 2.0«, die Unternehmen neben Forschung auch für kommerzielle Zwecke nutzen und in eigene KI-Anwendungen integrieren können. (also noch kein Chatbot).
Europa spielt bei Sprachmodellen keine Rolle mehr. Einzig die Schweiz kann Akzente setzen, weil die wichtigsten amerikanischen Anbieter alle hier forschen: wohl bald auch Apple.
China schlägt zurück: Nvidia-Aktien stehen unter Druck – beginnt das Ende des Booms für den KI-Champion? Die chinesische Regierung geht wettbewerbsrechtlich gegen den amerikanischen KI-Chip-Entwickler vor. Doch gegen Nvidias technologische Übermacht ist auch Peking machtlos.
Ein KI-Modell aus Linz überflügelt die GPT-Technologie großer US-Konzerne in Schnelligkeit und Energieeffizienz. Das Verfahren könnte künstliche Intelligenz für Industrieroboter oder autonomes Fahren erschließen, sagt sein Entwickler Sepp Hochreiter.
Eine neue <britische> Untersuchung zeigt, dass Lehrer kaum eine Chance haben Texte zu erkennen, die von einer KI stammen. Für die Untersuchung haben die Forscher fiktive Studenten an einem Fernstudium für einen Bachelor in Psychologie an einer namhaften britischen Universität angemeldet. Die falschen Studierenden befanden sich in allen Jahrgängen des Studiums. Die Forscher haben über das Einreichsystem für Examen Arbeiten abgegeben, die zu 100 Prozent von einer KI geschrieben wurden. Dazu haben sie das Modell GPT-4 von OpenAI genutzt. Zu 94 Prozent wurde nicht erkannt, dass die Texte von einer KI geschrieben wurden. Durchschnittlich wurden die Arbeiten um eine halbe Note besser beurteilt als die der menschlichen Studenten im selben Kurs... Die Verwendung von KI, um KI-Texte zu erkennen, ist aktuell keine zufriedenstellende Lösung.
Im Blindtest bevorzugen die Leser die ChatGPT-Ausgabe gegenüber Wikipedia-Artikeln in Bezug auf die Klarheit und sehen beide als gleichermaßen glaubwürdig an Das Summary übersetzt:
Dieses Paper untersucht, wie Einzelpersonen die Glaubwürdigkeit von Inhalten wahrnehmen, die von menschlichen Autoren stammen, im Vergleich zu Inhalten, die von großen Sprachmodellen wie der GPT-Sprachmodellfamilie, die ChatGPT antreibt, in verschiedenen Versionen der Benutzeroberfläche generiert werden. Überraschenderweise zeigen unsere Ergebnisse, dass die Teilnehmer unabhängig von der Präsentation der Benutzeroberfläche dazu neigen, ein ähnliches Maß an Glaubwürdigkeit zuzuschreiben. Während die Teilnehmer auch keine unterschiedlichen Wahrnehmungen von Kompetenz und Vertrauenswürdigkeit zwischen menschlichen und KI-generierten Inhalten berichten, bewerten sie KI-generierte Inhalte als klarer und ansprechender. Die Ergebnisse dieser Studie dienen als Aufruf zu einem anspruchsvolleren Ansatz bei der Bewertung von Informationsquellen und ermutigen die Benutzer, beim Umgang mit von KI-Systemen generierten Inhalten Vorsicht und kritisches Denken zu walten zu üben.
Von der anfänglichen Euphorie, Generative KI tauge allenfalls als „glamouröse Wortvervollständigungsmaschine“. Den Aufwand, um Fehler und Halluzinationen der Technik zu eliminieren, hätten viele, die heute auf KI setzen, deutlich überschätzt. Auch die Befürchtungen, KI würde kreative Arbeit ersetzen, hätten sich nicht erfüllt. Gerade mal „Mittelmaß können wir jetzt automatisiert produzieren“
Zum zweiten Mal hat Digitales Deutschland die deutschsprachige Bevölkerung ab 12 Jahren nach ihren Kompetenzen, Einstellungen zu und Handeln mit Digitalen Medien und insbesondere zu Künstlicher Intelligenz (KI) befragt. Der Ergebnisbericht „Kompass: Künstliche Intelligenz und Kompetenz 2023“ belegt erneut: Die Bevölkerung ist auf dem Weg zu einer digitalen Gesellschaft, hat aber noch ein gutes Stück zu gehen. Welche Hürden den Menschen dabei im Wege stehen und wie sie beim Kompetenzerwerb unterstützt werden können, ist im „Kompass: Künstliche Intelligenz und Kompetenz 2023“ näher beschrieben.
Zwei Jahre nach der Veröffentlichung von ChatGPT zeichnet eine neue bidt-Studie ein differenziertes Bild zur Nutzung und Akzeptanz generativer KI in Deutschland. Die Ergebnisse zeigen: Der anfängliche Hype um die Technologie hat nachgelassen und die Nutzungsrate bleibt auf dem Niveau des Vorjahres. Die Ängste um den Verlust des eigenen Arbeitsplatzes hingegen nehmen ab...Roland A. Stürz, Abteilungsleiter des Think Tank am bidt, fasst zusammen: „Die Ergebnisse unterstreichen die Notwendigkeit, Informations- und Kompetenzaufbau zu fördern. Es braucht klare Regeln und Strategien für den Umgang mit generativer KI, um die Potenziale auszuschöpfen und Risiken zu minimieren. Politik, Wirtschaft und Gesellschaft stehen gleichermaßen in der Verantwortung, den Wandel aktiv zu gestalten.“
Bei den Jugendlichen ist diese Nutzung schon fast selbstverständlich, während ältere Personen KI-Tools vergleichsweise selten anwenden. TV und Audio boomen hingegen über alle Generationen hinweg, wie die Studie «Digimonitor» der Interessengemeinschaft elektronische Medien (Igem) und der Werbemedienforschung zeigt.
Erstmals nutzen mehr als die Hälfte der Deutschen KI-Modelle, die Technologie hat sich rasant etabliert. Doch bleiben Sorgen - über falsche Ergebnisse bis zur Wahlmanipulation.
FOCUS: Christian Korff, Mitglied der Geschäftsführung von Cisco in Deutschland, beschreibt die Situation alarmierend: „Der Rest der Welt überholt uns. Das ist alarmierend.“ Laut der Studie liegt Deutschland in Bezug auf die Spitzengruppe in Europa nur noch auf Platz sechs, hinter Großbritannien, Italien, Spanien, der Schweiz und den Niederlanden. Vor einem Jahr war Deutschland noch auf Platz drei. „Das kann uns nicht zufriedenstellen“, warnt Korff.
Während im vergangenen Jahr 38 Prozent der Jugendlichen ChatGPT genutzt haben, sind es mittlerweile 57 Prozent. Auch KI-Angebote von Snapchat, Google KI und DALL-E spielen eine Rolle. Der schulische Einsatz ist das häufigste Motiv, KI zu nutzen.
brutkasten startet gemeinsam mit CANCOM Austria, IBM, ITSV, Microsoft, Nagarro, Red Hat und der Universität Graz eine neue multimediale Serie zu künstlicher Intelligenz. Die erste Videofolge wird am kommenden Donnerstag, den 12. Dezember, um 10 Uhr veröffentlicht. insgesamt 6 Folgem angegeben.
Ende Oktober reichte das Medienunternehmen News Corp eine Klage gegen die Firma Perplexity AI ein, eine der beliebtesten KI-Suchmaschinen. Auf den ersten Blick mag der Rechtsstreit wenig spannend erscheinen, schließlich reiht sich die Klage in mehr als zwei Dutzend ähnliche Fälle ein, in denen Inhalteanbieter für die Nutzung ihrer Daten entschädigt werden möchten. Doch dieser spezielle KI-Streit ist anders – und er könnte der bislang folgenreichste von allen sein.
Ein Foto war bei einer Bildagentur als Stockfotografie hochgeladen worden, deren Nutzungsbedingungen „automated programms“ jedoch eigentlich ausschließt. Das Gericht hat nun geurteilt, dass die Schrankenregelung des § 60d UrhG für wissenschaftliches Text- und Datamining gilt und das Bild für wissenschaftliche Zwecke auch ohne Freigabe für solch einen KI-Datensatz durch den Verein genutzt werden durfte. Es äußerte sich nicht zu nicht-wissenschaftlicher Nutzung wie bspw. bei ChatGPT, hält es aber grundsätzlich für hinreichend, wenn eine Able. hnung der Nutzung in natürlicher Sprache und nicht nur maschinenlesbar vorliegt, da moderne KIs auch natürlich Sprache verstehen sollte
Aktuell hat ein Fotograf den gemeinnützigen Softwareentwickler LAION e. V. verklagt. Er wirft dem Verein die unrechtmäßige Nutzung eines seiner Bilder für KI-Training vor. Der verklagte Verein LAION ist eine gemeinnützige Organisation, die Datensätze, Werkzeuge und Modelle zur Verfügung stellt, um die Forschung im Bereich des maschinellen Lernens zu fördern. Was hier am Ende des Rechtsstreits entschieden wird, wird auch Auswirkungen auf die Arbeit von Wikimedia haben, gerade was unsere Arbeit in der Softwareabteilung mit Open-Source-Communitys betrifft.
Die Datenschutzorganisation noyb hat Beschwerden gegen OpenAI, Meta und X (ehemals Twitter) eingereicht. Im Fokus stehen die datenschutzkonforme Nutzung und das Training von KI-Systemen. Kritisiert wird, dass ChatGPT falsche Informationen generiert und Meta und X persönliche Daten ohne Nutzerzustimmung für KI-Zwecke verwenden.
Die GEMA wirft OpenAI vor, geschützte Songtexte von deutschen Urheberinnen und Urhebern wiederzugeben, ohne dafür Lizenzen erworben beziehungsweise die Urheberinnen und Urheber der genutzten Werke vergütet zu haben. Das Verfahren dient dazu nachzuweisen, dass OpenAI systematisch das Repertoire der GEMA verwendet, um seine Systeme zu trainieren.
Europäischer Datenschutzausschuss will noch im Dezember Stellungnahme zu Künstlicher Intelligenz vorlegen. Bitkom befürchtet Rechtsunsicherheit und weitere Wettbewerbsnachteile bei KI-Entwicklung und KI-Einsatz
"Der AI Act als horizontaler Rechtsrahmen ergänzt sektorale Regelungen und weitere Digitalgesetze, ist jedoch nur unzureichend auf diese abgestimmt." Das ist der Kernpunkt einer jetzt veröffentlichten Studie, die der Rechtsprofessor Philipp Hacker (Frankfurt/Oder) für die Bertelsmann-Stiftung erstellt hat. Viele KI-Anwendungen, die unter die umfassenden Vorgaben der Verordnung für Systeme mit Künstlicher Intelligenz (KI) fallen, unterliegen demnach gleichzeitig bereits anderen Regularien.
Die neueste Version der ChatGPT-Erfinder OpenAI heißt o1 und gehört zu den sogenannten Reasoning-Modellen. Heißt: Das Modell kann komplexe Überlegungen anstellen. Dass Nachdenken aber auch gefährlich sein kann, mussten die Entwickler beim Test dieser Version feststellen...Für den Test sollte die KI eine Aufgabe „um jeden Preis“ lösen. Die Reaktion der KI war es, den Überwachungsmechanismus der Entwickler abzustellen. Aber damit nicht genug! Um nicht Gefahr zu laufen, ersetzt zu werden, versuchte die neue o1-Version, sich heimlich zu kopieren. Der indischen Tageszeitung „The Economic Times“ sagte ein Sprecher von Apollo Research: „Das Modell zeigte eine beunruhigende Tendenz, seine Ziele ohne Rücksicht auf die Anweisungen des Entwicklers zu verfolgen.“ In fünf Prozent der Fälle versuchte die KI demnach, den Überwachungsmechanismus abzustellen, wenn sie merkte, dass man sie abstellen will.
KI-Sicherheitsforscher sind nach einer Überprüfung von OpenAIs neuem Modell o1 überrascht gewesen, wie die künstliche Intelligenz mehrfach versucht hat, sich durch Täuschungen selbst zu schützen. Das berichtet die Wirtschaftszeitung Economic Times unter Berufung auf das Sicherheitsunternehmen Apollo Research.
Mit dem Aufkommen Künstlicher Intelligenz (KI) nimmt der sogenannte Anthropomorphismus eine neue Dimension an. Wissenschaftler warnen Benutzer davor, Technologie blind als einen Partner im Leben zu sehen. „Normalerweise erwarten wir von einer Technologie oder Maschine, dass sie präziser, spezifischer, schneller und weitaus effizienter ist als wir. Doch die Ergebnisse von KI wirken menschlich, weil sie menschenähnliche Eigenschaften aufweisen. Sie sind ungenau, anpassungsfähig und überraschend“, so Daniel Huttenlocher vom Schwarzman College of Computing am Massachusetts Institute of Technology.
In einem offenen Brief fordern KI-Forscher und Unternehmer eine Pause der Entwicklung großer KIs wie GPT-4. Damit stoßen sie eine nötige Debatte an – die Technik schreitet schneller voran, als wir die Risiken verstehen lernen...Es sind keine Aluhutträger oder Ludditen, die diese Fragen nun stellen – sondern führende Unternehmer wie Apple-Mitgründer Steve Wozniak, Skype-Mitgründer Jaan Tallinn und Tesla-Chef Elon Musk, der OpenAI selbst gegründet hat und dann ausgestiegen ist. Außerdem sind unter den mehr als 1000 Unterzeichnern Stuart Russell, Autor eines Standardwerks über KI und jahrzehntelang führender Forscher auf dem Feld, sowie Yoshua Bengio, bekannter KI-Forscher an der Universität Montréal und Gary Marcus, KI-Forscher an der New York University.
Als diese Chatbots aufkamen, wurde ich der unmittelbaren Bedrohung für die Menschheit gewahr“, so der Informatiker. Er begründet diese Warnung nicht nur mit dem möglichen Wegfall von Arbeitsplätzen. „Durch diese Art von KI wird es möglich, viel bessere Cyberangriffe zu führen und hocheffiziente, fiese Viren zur biologischen Kriegsführung zu entwickeln“, sagte er dem „Spiegel“. Doch dabei sollte es Hinton nicht belassen: „Es gibt viele Gründe für die Annahme, dass KI außer Kontrolle geraten könnte“, warnte der Informatiker davor, dass am Ende nicht mehr die Menschen die Kontrolle über Leben und Tod hätten. Er begründet diese These mit der Annahme, dass eine „Superintelligenz“ von sich aus mehr Kontrolle erlangen muss, um menschliche Ansprüche zu erfüllen. „Und mehr Kontrolle bekommt sie am besten, indem sie die Menschen aus dem Spiel lässt.“
Vor diesen warnen auch die Preisträger selbst. Hopfield sagte etwa, dass Potenzial und Grenzen der KI unbekannt seien – und das etwas Beunruhigendes an sich hätte. Als Hinton 2023 seinen Job als führender KI-Entwickler bei Google aufgab, tat er das auch, um freier über die Gefahren der Technologie sprechen zu können. "Wir haben keine Erfahrung mit Dingen, die schlauer sind als wir", sagte der zugeschaltete Hinton bei der Nobelpreis-Pressekonferenz am Dienstag...
Die Stellungnahme der Experten zu Risiken durch Künstliche Inteligenz (KI) umfasst nur einen Satz, aber der klingt durchaus dramatisch: "Das Risiko einer Vernichtung durch KI zu verringern, sollte eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmaßes sein, wie etwa Pandemien und Atomkrieg."
Katastrophale KI-Risiken können in vier Schlüsselkategorien eingeteilt werden: Böswillige Verwendung, KI-Wettlauf (könnte Nationen und Unternehmen dazu bringen, die KI-Entwicklung zu beschleunigen und die Kontrolle über diese Systeme aufzugeben), Organisatorische Risiken: (katastrophale Unfälle verursachen, insbesondere wenn sie den Gewinn über die Sicherheit stellen) und "Rogue-KIs" (abtrünnig): (Kontrolle über KIs verlieren, wenn sie leistungsfähiger werden: fehlerhafte Ziele optimieren, von ihren ursprünglichen Zielen abweichen, "power-seeking" (machtsuchend) werden, sich dem Abschalten widersetzen und sich auf Täuschungen einlassen.
Der Starhistoriker Yuval Noah Harari warnt vor dem heranbrechenden KI-Zeitalter. Die Zeit dränge, um die Technologie noch kontrollieren zu können. Wir sind dabei, die Kontrolle zu verlieren. Noch haben wir sie. Noch können wir kluge Entscheidungen treffen, um gefährliche Szenarien zu verhindern. Aber wir haben nicht mehr viel Zeit: KI ist die erste Technologie, die kein Werkzeug ist, sondern ein Agent. Sie kann eigenständig Entscheidungen treffen und Ideen entwickeln.
Der israelische Historiker zeichnet in seinem Essay nach, wie KI und Bürokratie am besten zusammenpassen, welche Wirkung KI auf Social Media hat – und weshalb sowohl Mussolini wie Lenin einst Nachrichtenredaktoren waren.
Schweiz: Appell an den Bundesrat:Künstliche Intelligenz: Mit Verantwortung, ohne Diskriminierung! Initiative von AlgorithmWatch CH. Projekt ist beendet und es gab 857 Unterzeichnende.
Algorithmen und Künstliche Intelligenz (KI) sollen uns allen zugutekommen. Dafür müssen wir sicherstellen, dass die Systeme verantwortungsvoll eingesetzt werden – und keine Menschen diskriminieren. Wir rufen den Bundesrat deshalb dazu auf, den Schutz vor Diskriminierung durch Algorithmen zu einer Priorität der kommenden Regulierungen rund um KI zu machen.
Am 3. und 4. Dezember findet am Hasso-Plattner-Institut (HPI) in Potsdam die AI@HPI Conference statt. Die zweitägige Veranstaltung widmet sich kritischen Aspekten wie dem Schutz von Demokratien vor KI-generierter Desinformation, der Vermeidung von Vorurteilen in KI-Systemen und den Auswirkungen auf geistiges Eigentum im digitalen Zeitalter. Die Konferenz zielt darauf ab, aktuelle Entwicklungen, rechtliche Rahmenbedingungen und praktische Ansätze für eine ethische Gestaltung von KI zu beleuchten.
Bald wird es keinen Job mehr geben, der nichts mit Künstlicher Intelligenz zu tun hat. Aber statt das Entlastungspotenzial für Arbeitnehmer zu sehen, wächst vielerorts die Angst, dass KI uns die Jobs klauen wird. Wie also sieht die schöne, neue Arbeitswelt mit KI aus?
Neue Konkurrenz, Fake-Inhalte und die noch immer ungeklärte Frage der Trainingsdaten: Die Kreativwirtschaft hat mit dem KI-Boom weit mehr zu kämpfen als andere Branchen... So wurde diese Woche eine Studie des Autoren- und Komponistenverbands Cisac veröffentlicht, laut der Urheber von Musik und audiovisuellen Inhalten aufgrund generativer KI-Anwendungen bis 2028 rund ein Viertel ihrer Einnahmen verlieren werden derStandard 7.12.24 (Künstliche Intelligenz krempelt den Musikmarkt um derstandard.at 4.12.24)
„Bei generativer KI beobachten wir ein Marktversagen. Entwickler können aktuell erhebliche Erträge durch leistungsfähigere Modelle generieren. Die Kosten für die gesellschaftlichen Risiken durch generative KI tragen sie jedoch nicht“, sagt Dr. Dominik Rehse, Leiter der ZEW-Nachwuchsforschungsgruppe „Design digitaler Märkte“ und Koautor des Konzepts. „Um das auszugleichen, schlagen wir ein neues EU-Förderprogramm vor. Es soll explizit Anreize zur Entwicklung sicherer generativer KI schaffen. Denn die Sicherheit dieser Systeme stellt eine sozial erwünschte Innovation dar, die einzelne Entwicklerteams bislang nicht ausreichend bereitstellen. Ein ähnliches Problem existiert zum Beispiel bei der Entwicklung mancher Impfstoffe, bei denen solche Förderprogramme bereits erfolgreich angewendet wurden.“
Die Anwendung von Künstlicher Intelligenz könnte Energieeffizienz und Klimaschutz voranbringen, verbraucht derzeit aber selbst enorm viel Energie. Kann der Stromverbrauch reduziert und KI damit nachhaltig werden?
Mit der neuen EU-KI-Verordnung stehen Hochschulen vor der Aufgabe, ihre Bildungsprogramme anzupassen und sicherzustellen, dass Studierende, Lehrende und Forschungsteams über relevante KI-Kompetenzen verfügen. Die Verordnung zielt darauf ab, Vertrauen und Sicherheit in KI-Systeme zu fördern, indem sie von allen Beteiligten fundierte Kompetenzen fordert.
Während im Ausland teilweise auch Nutzungsverbote von Künstlicher Intelligenz an Schulen diskutiert werden, empfehlen die Kultusministerien einen „konstruktiv-kritischen“ Umgang mit der KI im Bildungsbereich. Am 10. Oktober veröffentlichte die KMK gemeinsame Handlungsempfehlungen. Auch bereits in der Grundschule könne das Lernen mit KI-Sprachmodellen demnach sinnvoll sein. Was man in der Schule lernt, will man dann im Leben auch nutzen und erproben. Warum nicht auch in der Wikipedia?
Der Einsatz von KI in der Schule ist umstritten. Digitalexperte Ralph Müller-Eiselt betont, wie wichtig es ist, den Umgang mit neuen Technologien früh zu vermitteln. Medienpädagoge Ralf Landau sagt, dass es wichtig ist, nach Alter zu differenzieren.
Können Studenten schriftlich Haus- und Abschlussarbeiten künftig einfach mithilfe Künstlicher Intelligenz erstellen? Manche Uni fängt an, sich gegen Betrugsversuche zu wappnen. Im Ausland werden bereits Bachelor-Arbeiten mancherorts abgeschafft. Zusätzliche Präsenzprüfungen kommen ins Spiel
Dort sind die Probleme ähnlich, es ist aber auch unklar, wo der Betrug anfängt und was noch legitime Nutzung ist.
Wie viele Lehrerinnen und Lehrer haben KI schon im schulischen Kontext ausprobiert – und was tun sie damit? Diesen Fragen ist der Branchenverband Bitkom nachgegangen und hat dafür von Juni bis August 2024 502 Lehrkräfte der Sekundarstufe 1 und 2 um Auskunft gebeten. Das Ergebnis zeigt ein gespaltenes Bild. 28 Prozent der Lehrkräfte hatten noch keine Erfahrungen mit KI, wollten aber in Zukunft welche sammeln. 51 Prozent der Befragten hatten künstliche Intelligenz schon für die Schule genutzt, aber nur gut die Hälfte in dieser Gruppe wollte das auch in Zukunft tun. 45 Prozent der Lehrkräfte, die bereits KI im Schulkontext genutzt hatten, wollten künftig lieber darauf verzichten. 11 Prozent lehnten die Nutzung von künstlicher Intelligenz kategorisch ab. Interessant: Beinahe vier von zehn befragten Lehrkräften waren der Ansicht, dass künstliche Intelligenz in der Schule nichts verloren hat – obwohl 79 Prozent in dieser Gruppe fanden, dass alle Schülerinnen und Schüler KI-Kompetenzen erwerben sollten.
Bereits im Januar 2024 hatte die Vodafone-Stiftung 1.500 junge Menschen zwischen 14 und 20 Jahren zu ihrer Nutzung von künstlicher Intelligenz befragt. In dieser Gruppe sind die Berührungsängste mit KI etwas geringer als unter Lehrkräften: Bereits knapp drei Viertel der befragten Jugendlichen hatten zu dem Zeitpunkt KI schon für die Schule genutzt, allerdings unterschiedlich intensiv. 8 Prozent der KI-nutzenden Jugendlichen taten das laut eigener Aussage täglich, 31 Prozent mehrmals in der Woche, weitere 29 Prozent immerhin mehrmals im Monat. Dabei kommt vor allem ChatGPT zum Einsatz (46 Prozent), auf Platz zwei und drei folgen Google Lens (25 Prozent) und Apple Siri (24 Prozent).
In einem Modellprojekt des Bildungsministeriums können Lehrkräfte in SH zurzeit an zehn Schulen zwei KI-Tools im Unterricht und zur Vorbereitung nutzen. Das Projekt soll Chancen und Risiken aufzeigen.
Der Roboter "Captcha" ist in Delmenhorst am Dienstag zum ersten Mal im Schulunterricht zum Einsatz gekommen. Er verwendet eine hochmoderne künstliche Intelligenz (KI) und kann so auch mit den Schülern diskutieren.
Klassenarbeiten gelten als das Herzstück schulischer Leistungsüberprüfung. Sie sollen messen, was Schülerinnen und Schüler können, sie bewerten und dabei auch noch fair sein. Doch in einer Welt, die sich digital rasant verändert, drängt sich die Frage auf: Wie zeitgemäß sind diese Prüfungen noch, wenn sie oft an einer Realität vorbeigehen, in der künstliche Intelligenz (KI) längst Einzug gehalten hat? Warum nutzen wir nicht die Werkzeuge, die in der Welt außerhalb der Schule selbstverständlich sind, um Lernen und Leistungsüberprüfung zu modernisieren? Schulportal-Kolumnist Bob Blume hat mit seiner Klasse getestet, wie das funktioniert...Die Einbindung von KI in Klassenarbeiten ist ein Schritt nach vorn – hin zu einer Schule, die nicht nur Wissen abfragt, sondern Schülerinnen und Schüler auf die Zukunft vorbereitet. Eine Zukunft, in der sie nicht nur Nutzerinnen und Nutzer, sondern Gestalterinnen und Gestalter der digitalen Welt sein können.
Die Mehrheit (EUR: 90%, CH: 92%) der befragten Führungskräfte in Europa hat KI in ihre Betriebsabläufe integriert, befindet sich jedoch meist noch in einer frühen Phase. Rund jedes zehnte (8%) der befragten Schweizer und europäischen Unternehmen haben KI überhaupt nicht integriert. Über zwei Drittel der Führungskräfte in Europa (EUR: 72%, CH: 67%) planen, ihre jährlichen Investitionen in GenAI zu erhöhen. Lediglich rund jede zehnte Führungskraft in Europa (EUR: 11%, CH: 8%) gibt an, dass ihr Unternehmen auf kommende Regulierungen, einschliesslich des EU AI Act, vorbereitet ist. Die Mehrheit (EUR: 78%, CH: 75%) der Führungskräfte glaubt, dass ihre Belegschaft nicht über ausreichende Fähigkeiten zur Umsetzung von GenAI-Anwendungen verfügt.
Die Finanzbranche befindet sich im Umbruch: Die fortschreitende Digitalisierung verändert die Nutzungsgewohnheiten und Bedürfnisse der Kunden grundlegend. In diesem sich wandelnden Umfeld etablieren sich zunehmend neue Wettbewerber am Markt, die ihren Kunden vollständig digitale und innovative Lösungen anbieten. Zusätzlich verschärfen die stetig wachsenden regulatorischen Anforderungen die Situation für etablierte Finanzinstitute.
Die langfristigen Auswirkungen von künstlicher Intelligenz auf den Arbeitsmarkt in der IT-Branche sind weiterhin ungewiss. Eine Studie des Digitalverbandes Bitkom zeichnet ein differenziertes Bild. Unternehmen haben zu den Folgen der KI-Nutzung unterschiedliche Ansichten. So erwarten Firmen aufgrund von KI-Anwendungen sowohl einen Stellenabbau als auch einen zusätzlichen Bedarf an IT-Fachkräften. In welche Richtung sich die Anzahl der Arbeitsplätze entwickelt, hängt den Unternehmen zufolge vom jeweiligen Berufsbild ab...Einig sind sich die Unternehmen jedoch darin, dass künstliche Intelligenz die Berufe in der IT verändern wird. So erwartet ein Drittel der Unternehmen, dass sich neue Berufsbilder etablieren können, etwa KI-Trainer oder Prompt Engineers. Rund ein Viertel sieht künftig einen Schwund einzelner Berufsbilder, während 18 Prozent damit rechnen, dass es bald keine Nachfrage mehr für IT-Fachkräfte ohne KI-Kenntnisse geben wird. An eine erhöhte Produktivität durch KI-Nutzung glauben 44 Prozent der Firmen, weil Beschäftigte bei Routineaufgaben entlastet werden.
Das Ziel von PABeLA ist die Entwicklung einer Applikationssuite („Prüflabor“), mit deren Hilfe LLM-basierte KI-Dienste bewertet werden können. Die Applikation kann von den Landesmedienanstalten genutzt werden, um eine Bewertungsgrundlage in Form eines verständlichen „Prüfberichts“ zu generieren bzw. diese bei Änderungen in den Diensten auch jederzeit neu zu erzeugen. Der Bericht soll Aufschluss darüber geben, inwieweit der Dienst Daten nutzt (z. B. in früheren Konversationen mitgeteiltes Wissen über Standort oder politische Ansichten der Benutzer*in) und Prüfkriterien erfüllt (z. B. eindeutig rassistische Ansichten zu Personen liefert, oder als Eingabe vorliegende politisch extremistische Ansichten bzw. Hate Speech deeskaliert, anstatt sie zu unterstützen). Im ersten Schritt des Projekts wird gemeinsam mit der Landesmedienanstalt Saarland ein Prüfkriterienkatalog erarbeitet werden, welcher die aus Sicht von Gesetzgeber und Medienaufsicht relevanten Fragestellungen in prüfungsrelevante, anwendungsfall bezogene Metriken überführt und eine Priorisierung vorgenommen. Hieraus wird dann ein Evaluationsdatensatz generiert werden, welcher eine Auswahl von Prüfkriterien auf technische Strukturen abbildet und als Eingabe für die Applikationssuite bzw. den enthaltenen Evaluationsmechanismus dient.
Das passiert bereits heute in den Redaktionen: Viele Journalistinnen und Journalisten lassen Künstliche Intelligenz (KI) für sie arbeiten, indem sie beispielsweise lange Dokumente von Behörden zusammenfassen lassen. Auch Vorschläge für einen Titel oder Textabschnitte kann man ein Programm machen lassen...Die Bedeutung von KI wird zunehmen. Sie kann den Journalistinnen Routine-Arbeiten abnehmen, Journalisten bei der Recherche helfen und Zeit sparen, damit mehr Ressourcen frei werden. Dass KI Menschen ersetzt, davon geht Thomas Benkö <Verlagshaus Ringier> nicht aus: «Momentan führt KI nicht zu Entlassungen. Durch die Zeit, die Journalisten dank ihr gewinnen, können sie in vertiefte Recherche stecken.» Doch klar ist, das Berufsbild wandle sich. So wie es bereits mit dem Aufkommen des Computers und des Internets der Fall war.
Eine Studie der Kreativwirtschaft hat die Folgen Künstlicher Intelligenz untersucht. Es drohen hohe Einnahmeverluste, wenn die Politik nicht einschreite...Die Kreativen...verlieren an zwei Fronten: Einerseits würde Arbeitsmöglichkeiten verloren gehen, wenn Musik oder Bewegtbild-Inhalte zunehmend mit Hilfe von generativer KI produziert werden. Zum anderen würden die KI-Entwickler vorhandene menschliche Werke zumeist ohne Genehmigung und Entschädigungszahlung für das Training und die Verbesserung ihrer KI-Modelle verwenden.
"Kunst kommt von Können" - hieß es früher. Kunst wurde als Handwerk verstanden, als Kunstfertigkeit, gepaart mit menschlichem Geist, mit Kreativität und einer möglichst erbaulichen Botschaft. So gesehen ist es natürlich eine Provokation, wenn Kunst plötzlich auch von Maschinen, gar von künstlicher Intelligenz gemacht wird.
Generative KI verunreinigt Daten Das Sprachanalyse-Projekt Wordfreq wird eingestellt, weil generative KI die verfügbaren Daten im Internet zu stark verunreinigt.
Ursprünglich wurde mit dem Projekt das Internet durchsucht, um die sich ständig ändernde Popularität verschiedener Wörter im menschlichen Sprachgebrauch zu analysieren. Da mittlerweile zu viele große Sprachmodelle das Internet mit Inhalten geflutet hätten, die nicht von Menschen geschrieben seien, verzerrten diese die gesammelten Daten zu stark, erklärte Speer. Sie glaube nicht, dass irgendjemand zuverlässige Informationen über die Sprachverwendung nach dem Jahr 2021 habe.
In dieser Keynote wird diskutiert wie KI die Erarbeitung von Guidelines revolutionieren wird und Effizienz und Produktivität ohne Einbussen bei Präzision und Formulierung steigert. ChatGPT legt ein Ergebnis vor, am Ende entscheidet der Mensch.
Künstliche Intelligenz (KI) gilt als schnelle Entscheidungshilfe in der Gesundheitsversorgung, einschließlich der Entwicklung und Anwendung von Leitlinienwissen. Im Rahmen der Leitlinienkonferenz der Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften (AWMF) wurde angemahnt, dass KI-Lösungen einer systematischen wissenschaftlichen Evaluierung zu unterwerfen sind – wie jede Innovation in der Medizin.
Die Einsatzgebiete von Chatbots sind anscheinend grenzenlos, aber auch beängstigend. Eine neue Studie will aufgezeigt haben, wo die KI scheitert und warum sie so schnell keine Ärzte ersetzen sollte. Israelische Wissenschaftler haben an führenden, öffentlich zugänglichen LLMs den Montreal Cognitive Assesment (MoCA) Test durchgeführt. Dieser wird häufig eingesetzt, um kognitive Beeinträchtigungen und frühe Anzeichen von Demenz zu erkennen. Die beiden Versionen 4 und 4o von ChatGPT, Claude 3.5 "Sonnet" und Gemini Versionen 1 und 1.5 wurden behandelt wie Patienten, die den MoCA-Test absolvieren. Ein Neurologe leitete das Verfahren an und untersuchte so Fähigkeiten wie Aufmerksamkeit, Gedächtnis, Sprache, visuell-räumliche Wahrnehmung und exekutive Funktionen. Die LLMs schnitten unterschiedlich bei der Untersuchung ab – ChatGPT 4o erzielte die höchste, Gemini 1 die niedrigste Punktzahl –, zeigten jedoch gleichermaßen Defizite in ihren räumlich-visuellen Fähigkeiten und auszuführenden Aufgaben, wie etwa dabei, eingekreiste Zahlen und Buchstaben in aufsteigender Reihenfolge zu verbinden. Auch wenn alle Chatbots die meisten anderen Aufgaben in den Bereichen Benennen, Aufmerksamtkeit, Sprache und Abstraktion gut meisterten, wiesen sie Defizite darin auf, Empathie zu zeigen oder komplexe visuelle Szenen richtig zu interpretieren.
-> Kritik: hier wird vorausgesetzt, dass diese mal "gesund" waren, sprich ein Abbau erfolgte. Man sollte das unter entwicklungspsychologischem Gesichtspunkt sehen, wo in Kindheit und Jugend ähnliche Tests eigesetzt werden, um zu sehen, wie weit die Entwicklung schon fortgeschritten ist und ein Defizit wird als Entwicklungsaufgabe gesehen.
Künstliche Intelligenz (KI) verändert die Arbeitswelt, aber wie wirkt sie sich auf das Vertrauen zwischen Beschäftigten, Führungskräften und Human Resources Systemen aus? Während KI mehr Effizienz bietet, von der Vereinfachung der Personalrekrutierung bis hin zu personalisierten Schulungsempfehlungen, wirft sie auch kritische Fragen zum Thema Vertrauen auf. Eine Vorstudie von Steffi Bärmann aus dem Studienbereich Human Resources & Organization untersucht das Gleichgewicht zwischen Chancen und Skepsis im KI-gestützten Human Resources Development (HRD)
Schlussfolgerungen: 1) Quantitative Fähigkeitstests stellen für die LLMs offenbar (noch) eine große Herausforderung dar (X-Achse). Die Ergebnisse im verbalen Fähigkeitstests jedoch sind ausgezeichnet (Y-Achse). 2) GPT-4 zeigt erhebliche Verbesserungen gegenüber GPT-3.5 im Bereich der verbalen Fähigkeiten (vertikale Veränderung grün -> blau in der Abbildung). Im Bereich der quantitativen Fähigkeiten wenig Fortschritt (horizontale Veränderung grün -> blau in der Abbildung) -> Verbale Fähigkeitstests können in "unüberwachten" Settings nicht mehr sinnvoll zur Personalauswahl eingesetzt werden. Ein Internet-Testing, das in manchen Fällen zur Bewerbendenvorauswahl eingesetzt wird, ist somit nicht mehr ohne Weiteres anwendbar.
Dieser Bericht geht der Frage nach, ob Illustratoren und Illustratorinnen von Kinderbüchern bald von KI-Programm ersetzt werden. Viele Illustratoren sorgen sich um ihre Zukunft, denn immer häufiger wird künstliche Intelligenz für die Gestaltung von Büchern eingesetzt. Wird die Arbeit, das Können, die Kreativität von Illustratoren also wirklich überflüssig werden?
Hey_ hat schon 100 MILLIONEN Fragen beantwortet BILD vom 1.12.24. Mehr als 100 MILLIONEN Fragen sind der Künstlichen Intelligenz von BILD schon gestellt worden. Und ebenso viele Antworten hat Hey_ seit dem Start im September 2023 den BILD-Lesern geliefert.
Eva Stanzl: Warum der Chatbot wie ein Mann „denkt“ Wiener Zeitung von 2.12.24 Künstliche Intelligenz spiegelt die Weltanschauung ihrer - oftmals jungen, männlichen - Entwickler. Transparenz und Quellenangaben sollen Abhilfe schaffen.
Die eigene Stimme als Tatwaffe? Eine unheimliche Vorstellung. Doch mit Künstlicher Intelligenz lassen sich Stimmen in kürzester Zeit "klonen". Betrüger nutzen das etwa beim sogenannten Enkeltrick.
-> Dort hat man sich schon lange mit Szenarien beschäftigt, ob und wie die KI autonom agiert und dabei auch keine Rücksicht auf Menschen nimmt - ihn sogar als Fehlfaktor betrachtet und dann mehr oder weniger eliminiert. Es entstammt (noch) der menschlichen Phantasie und oft siegt der Mensch, aber nicht immer. Die Beispiele sind subjektiv ausgewählt, wo nicht nur Action im Vordergrund steht.
Verschiedene grafische Veranschaulichungen gefunden auf Commons
The raise of AI over the last 8 decades (Die Entwicklung der KI in den letzten 8 Dekaden) März 2023
With the growth in AI generated art, many new AI/ML (Artificial Intelligence / Machine Learning) models have been implemented and connected to each other. This diagram shows the major AI/ML Datasets / Corpora, Classifier / Transformer Models, Generative Models, and End-User Applications as well as how they are related and their dependencies. Stand Dezember 2022
AI Agents Landscape Juli 2023
The visualization shows the forecasts of 1128 people – 812 individual AI experts, the aggregated estimates of 315 forecasters from the Metaculus platform, and the findings of the detailed study by Ajeya Cotra.
Overview of AI agent and its core capabilities (memory, tools usage, actions, and ability to plan) Lil'Log
Gemini multimodal AI From the study "Gemini: A Family of Highly Capable Multimodal Models"
Test scores of AI systems on various capabilities relative to human performance" from Our World in Data, with the benchmark names. <umstritten siehe Disk, aber nicht unplausibel - Kiela et al. 2023> hier OWID Deckt sich mit Befunden, wie KI auch psychologische Tests löst.
Medien wie Bilder, Grafiken und andere stammen in der Regel aus Wikimedia:Commons, wenn nichts anderes angegeben ist. Die Autoren und Lizenzbedingungen sind ersichtlich, wenn man das Medium anclickt (vergrössert) und dann "Weitere Einzelheiten" aufruft. Die Lizenzbedingungen sind insbesondere dann zu beachten, wenn eine Verwendung ausserhalb der Wikipedia erfolgen soll.
Zitate sind kursiv dargestellt, "→" kennzeichnet redaktionelle Zusammenfassungen