Claude (Sprachmodell)
Claude ist ein von Anthropic entwickeltes Sprachmodell.[1] Die Entwicklung von Claude zielt auf die Vereinigung der Sprachverarbeitung (mittels maschinellem Lernen und großer Sprachmodelle) mit ethischen Standards und Sicherheit in der künstlichen Intelligenz (kurz KI) ab.[2]
Überblick
[Bearbeiten | Quelltext bearbeiten]Die Claude-Modellreihe, insbesondere die dritte Generation, bekannt als Claude 3, besteht aus drei Versionen: Haiku, Sonnet und Opus. Jedes dieser Modelle bietet unterschiedliche Leistungsniveaus und ist für spezifische Anwendungen optimiert.[3]
Geschichte
[Bearbeiten | Quelltext bearbeiten]Anthropic wurde von ehemaligen Forschern von OpenAI mit dem Ziel gegründet, Claude als Antwort auf bestehende Sprachmodelle auf den Markt zu bringen. Die neueste Version, Claude 3, wurde im Jahr 2024 eingeführt und bietet im Vergleich zu seinen Vorgängern sowie den Modellen anderer führender Technologieunternehmen verbesserte Fähigkeiten.[3]
Technische Spezifikationen
[Bearbeiten | Quelltext bearbeiten]Claude 3 ist in drei Hauptvarianten verfügbar:
- Haiku: Das schnellste und kostengünstigste Modell, geeignet für Echtzeitinteraktionen.[4]
- Sonnet: Bietet eine Balance zwischen Geschwindigkeit und Intelligenz, geeignet für Geschäftsanwendungen.[4]
- Opus: Das leistungsfähigste Modell, konzipiert für Aufgaben, die hohe Genauigkeit und fortgeschrittene Sprachverständnisfähigkeiten erfordern.[4]
Diese Modelle können Kontextfenster von bis zu 200.000 Token verarbeiten, was erheblich mehr ist als die vergleichbarer Modelle anderer Anbieter.[4]
Anthropic plant kontinuierliche Aktualisierungen und Verbesserungen für die Claude-Modellreihe. Diese Entwicklungen zielen darauf ab, die Modelle sowohl leistungsfähiger als auch effizienter zu machen und gleichzeitig die Kosten für kleinere Modelle zu senken.[3]
Training
[Bearbeiten | Quelltext bearbeiten]Claude-Modelle sind generative, vortrainierte Transformatoren. Sie wurden darauf trainiert, das nächste Wort in großen Textmengen vorherzusagen. Anschließend wurden die Claude-Modelle mit Constitutional AI feinabgestimmt, um sie hilfsbereit, ehrlich und harmlos zu machen.[5][6]
Constitutional AI
[Bearbeiten | Quelltext bearbeiten]Constitutional AI ist ein Ansatz, der von Anthropic entwickelt wurde, um KI-Systeme, insbesondere Sprachmodelle wie Claude, so zu trainieren, dass sie harmlos und hilfreich sind, ohne auf umfangreiches menschliches Feedback angewiesen zu sein. Die Methode, die im Artikel Claude’s Constitution[6] beschrieben wird, umfasst zwei Phasen: überwachtes Lernen und Verstärkungslernen.
In der Phase des überwachten Lernens generiert das Modell Antworten auf Eingabeaufforderungen, selbstkritisiert diese Antworten anhand einer Reihe von Leitprinzipien (einer "constitution") und überarbeitet die Antworten. Anschließend wird das Modell auf diesen überarbeiteten Antworten feinabgestimmt.
In der Phase des Verstärkungslernens aus KI-Feedback werden Antworten generiert, und eine KI vergleicht deren Übereinstimmung mit der Konstitution. Dieses Datenset aus KI-Feedback wird verwendet, um ein Präferenzmodell zu trainieren, das Antworten danach bewertet, wie sehr sie der Konstitution entsprechen. Claude wird dann so feinabgestimmt, dass es mit diesem Präferenzmodell übereinstimmt. Diese Technik ähnelt dem Verstärkungslernen aus menschlichem Feedback (RLHF), mit dem Unterschied, dass die Vergleiche zur Erstellung des Präferenzmodells von der KI generiert werden und auf der Konstitution basieren.[7][6]
Dieser Ansatz ermöglicht das Training von KI-Assistenten, die sowohl hilfreich als auch harmlos sind und die ihre Einwände gegen schädliche Anfragen erklären können, wodurch die Transparenz erhöht und die Abhängigkeit von menschlicher Überwachung verringert wird.[8]
Die "Konstitution" für Claude umfasste 75 Punkte, darunter Abschnitte aus der Allgemeinen Erklärung der Menschenrechte der Vereinten Nationen.[9][10]
Leistungsvergleiche
[Bearbeiten | Quelltext bearbeiten]In mehreren Benchmarks übertraf Claude 3 Opus beispielsweise sowohl Googles Sprachmodell Gemini als auch OpenAIs GPT-4, insbesondere in Bereichen wie Allgemeinwissen und Mathematik. Die Tests zeigen, dass Claude 3 im Vergleich zu früheren Modellen und Konkurrenzprodukten weniger voreingenommen und präziser in seinen Antworten ist.[4]
Trotz seiner fortgeschrittenen Fähigkeiten und der verbesserten Sicherheitsmerkmale bleibt Claude in der breiten Anwendung hinter einigen seiner Konkurrenten zurück. Dies liegt teilweise an der stärkeren Fokussierung auf Geschäftskunden und den hohen Kosten für die leistungsfähigsten Modelle.[3]
Anwendungen
[Bearbeiten | Quelltext bearbeiten]Claude wird hauptsächlich von Geschäftskunden genutzt, die komplexe Datenanalysen und andere anspruchsvolle Aufgaben durchführen müssen. Mit seiner Fähigkeit, große Textmengen zu verarbeiten, eignet sich Claude auch für die Analyse und Zusammenfassung umfangreicher Dokumente.[3] Durch die Einführung von Apps für iOS im Mai 2024[11] und Android im Juli 2024[12] wurde Claude auch für private User zugänglicher.
Sicherheits- und Ethikstandards
[Bearbeiten | Quelltext bearbeiten]Anthropic legt großen Wert auf die Sicherheit und ethische Aspekte der KI-Entwicklung. Claude ist mit verschiedenen Mechanismen ausgestattet, die sicherstellen sollen, dass das Modell innerhalb ethischer Grenzen operiert und keine schädlichen oder voreingenommenen Outputs produziert.[2]
Weblinks
[Bearbeiten | Quelltext bearbeiten]- Claude ab sofort auch in Europa erhältlich – Heise, am 14. Mai 2024
- Introducing the next generation of Claude (amerikanisches Englisch) – Anthropic, am 4. Mai 2024
- Chatbot-Arena: Claude 3 stößt GPT-4 vom Sockel – Golem, am 1. Mai 2024
Einzelnachweise
[Bearbeiten | Quelltext bearbeiten]- ↑ Katrin Girgensohn, Margret Mundorf, Sassan Gholiagha, Julius Voigt, Bernd Fröhlich, Dora Kiesel, Jürgen Neyer, Irene López García, Patrick Riehmann, Mitja Sienknecht, Benno Stein, Matti Wiegmann, Magdalena Anna Wolska: Forschendes Lernen mit KI im Sozialwissenschaftlichen KI-Labor für Forschendes Lernen (SKILL). Frankfurt (Oder) / Słubice / Weimar November 2023, S. 7 (58 S., kobv.de [PDF]).
- ↑ a b Claude vs. ChatGPT: Which is Better in 2024? (amerikanisches Englisch) – Techopedia, am 9. Mai 2024
- ↑ a b c d e Forbes US Redaktion: Anthropic: Claude 3 Modellreihe - Forbes. In: forbes.at. 5. März 2024, abgerufen am 12. Mai 2024.
- ↑ a b c d e Eva-Maria Weiß: Anthropic: Claude 3 schneidet in Tests besser ab als GPT-4. In: heise.de. 5. März 2024, abgerufen am 12. Mai 2024.
- ↑ Will Henshall: What to Know About Claude 2, Anthropic's Rival to ChatGPT. 18. Juli 2023, abgerufen am 26. Juni 2024 (englisch).
- ↑ a b c Claude’s Constitution. Abgerufen am 26. Juni 2024 (englisch).
- ↑ Lance Eliot: Latest Generative AI Boldly Labeled As Constitutional AI Such As Claude By Anthropic Has Heart In The Right Place, Says AI Ethics And AI Law. Abgerufen am 26. Juni 2024 (englisch).
- ↑ Aaron Mok: A ChatGPT rival just published a new constitution to level up its AI guardrails, and prevent toxic and racist responses. Abgerufen am 26. Juni 2024 (amerikanisches Englisch).
- ↑ Bai, Yuntao; Kadavath, Saurav; Kundu, Sandipan; Askell, Amanda; Kernion, Jackson; Jones, Andy; Chen, Anna; Goldie, Anna; Mirhoseini, Azalia (2022-12-15), Constitutional AI: Harmlessness from AI Feedback arXiv
- ↑ Will Henshall: What to Know About Claude 2, Anthropic's Rival to ChatGPT. 18. Juli 2023, abgerufen am 26. Juni 2024 (englisch).
- ↑ Introducing the Claude Team plan and iOS app. Abgerufen am 21. Juli 2024 (englisch).
- ↑ ChatGPT-Alternative bekommt Android-App: Das kann Claude. 21. Juli 2024, abgerufen am 21. Juli 2024.