Safe and Secure Innovation for Frontier Artificial Intelligence Models Act
Basisdaten | |
---|---|
Titel: | Safe and Secure Innovation for Frontier Artificial Intelligence Models Act |
Art: | |
Geltungsbereich: | Kalifornien |
Rechtsmaterie: | |
Erlassen am: | |
Inkrafttreten am: | |
Weblink: | Gesetzestext |
Bitte den Hinweis zur geltenden Gesetzesfassung beachten. |
Der Safe and Secure Innovation for Frontier Artificial Intelligence Models Act (deutsch Gesetz zur sicheren und geschützten Innovation für fortschrittliche Modelle künstlicher Intelligenz, Kürzel SB 1047) ist ein kalifornisches Gesetz aus dem Jahr 2024, das darauf abzielt, „das Risiko katastrophaler Schäden durch KI-Modelle zu mindern, die so fortgeschritten sind, dass sie noch nicht bekannt sind“.[1] Konkret würde das Gesetz auf Modelle angewendet werden, deren Trainingskosten über 100 Millionen US-Dollar liegen und die mit einer Rechenleistung von mehr als 1026 Ganzzahl- oder Fließkommaoperationen trainiert wurden.[2] SB 1047 würde für alle KI-Unternehmen gelten, die in Kalifornien Geschäfte tätigen – der Standort des Unternehmens spielt keine Rolle.[3] Das Gesetz schafft Schutzmaßnahmen für Whistleblower[4] und verpflichtet Entwickler, Risikobewertungen ihrer Modelle vor der Veröffentlichung durchzuführen, unter der Aufsicht der Government Operations Agency. Zudem würde CalCompute eingerichtet, ein öffentliches Cloud-Computing-Cluster der University of California für Startups, Forscher und Gemeinschaftsgruppen.
Hintergrund
[Bearbeiten | Quelltext bearbeiten]Der rasante Anstieg der Fähigkeiten von KI-Systemen in den 2020er Jahren, einschließlich der Veröffentlichung von ChatGPT im November 2022, veranlasste einige Forscher und Mitglieder der Öffentlichkeit, Bedenken hinsichtlich existentieller Risiken im Zusammenhang mit immer mächtigeren KI-Systemen zu äußern.[5][6] Die Plausibilität dieser Bedrohung wird weithin diskutiert.[7] Eine Regulierung von KI wird auch manchmal befürwortet, um Vorurteile und Datenschutzverletzungen zu verhindern.[6] Allerdings wird sie kritisiert, da sie möglicherweise zu einer Regulatory capture durch große KI-Unternehmen wie OpenAI führen könnte, bei der die Regulierung die Interessen größerer Unternehmen auf Kosten kleinerer Wettbewerber und der Öffentlichkeit fördert.[6]
Im Mai 2023 unterzeichneten Hunderte von Technologievorständen und KI-Forschern[8] eine Stellungnahme zu existenziellem Risiko durch KI zu, die lautete: „Die Minderung des Risikos des Aussterbens durch KI sollte eine globale Priorität neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg sein.“ Sie erhielt Unterschriften von den beiden meistzitierten KI-Forschern,[9][10][11] Geoffrey Hinton und Yoshua Bengio, zusammen mit Branchenfiguren wie Sam Altman, CEO von OpenAI, Demis Hassabis, CEO von Google DeepMind, und Dario Amodei, CEO von Anthropic.[12][13] Viele andere Experten hielten existenzielle Bedenken für übertrieben und unrealistisch sowie für eine Ablenkung von den unmittelbaren Schäden der KI, wie zum Beispiel diskriminierendes automatisiertes Entscheidungsfindung.[14] Berühmt verlangte Sam Altman in derselben Monat stark eine KI-Regulierung vom Kongress bei einer Anhörung.[6][15] Mehrere Technologieunternehmen haben freiwillige Zusagen gemacht, Sicherheitsprüfungen durchzuführen, zum Beispiel beim AI Safety Summit und AI Seoul Summit.[16][17]
Gouverneur Newsom von Kalifornien und Präsident Biden gaben 2023 Exekutivbefehle zur künstlichen Intelligenz heraus.[18][19][20] Staats-Senator Wiener sagte, SB 1047 stütze sich stark auf den Biden Exekutivbefehl und sei motiviert durch das Fehlen einer einheitlichen bundesweiten Gesetzgebung zur KI-Sicherheit.[21] Kalifornien hat zuvor bereits zu Technologiefragen legisliert, einschließlich Verbraucherdatenschutz und Netzneutralität, in Ermangelung von Maßnahmen durch den Kongress.[22][23]
Geschichte
[Bearbeiten | Quelltext bearbeiten]Das Gesetz wurde ursprünglich von Dan Hendrycks, Mitbegründer des Center for AI Safety, entworfen, der zuvor argumentiert hatte, dass evolutionäre Drücke auf KI zu „einem Weg führen könnten, auf dem sie als dominante Spezies der Erde verdrängt werden“.[24][25] Das Zentrum gab im Mai 2023 eine Erklärung heraus, die von Elon Musk und Hunderten anderer Geschäftsleiter unterzeichnet wurde, in der stand: „Die Minderung des Risikos des Aussterbens durch KI sollte eine globale Priorität neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg sein.“[26]
Staats-Senator Wiener schlug erstmals KI-Gesetzgebung für Kalifornien durch ein Absichtsgesetz namens SB 294, das Sicherheitsgesetz in künstlicher Intelligenz, im September 2023 vor.[27][28][29] SB 1047 wurde von Wiener am 7. Februar 2024 eingebracht.[30][31]
Am 21. Mai bestand SB 1047 den Senat mit 32-1.[32][33] Das Gesetz wurde am 15. August 2024 von Wiener erheblich geändert, als Reaktion auf Branchenratschläge.[34] Änderungen umfassten Klarstellungen und den Wegfall der Einrichtung einer „Frontier Model Division“ sowie der Strafe der Eidbruch.[35][36]
Am 28. August bestand das Gesetz den Abgeordnetenhaus mit 48-16. Aufgrund der Änderungen wurde das Gesetz anschließend erneut vom Senat abgestimmt, der es mit 30-9 verabschiedete.[37][38]
Am 29. September legte Gouverneur Gavin Newsom ein Veto gegen das Gesetz ein. Es wird als unwahrscheinlich angesehen, dass die Legislative das Veto des Gouverneurs mit einer Zweidrittelmehrheit in beiden Kammern überstimmen wird.[39]
Bestimmungen
[Bearbeiten | Quelltext bearbeiten]Vor dem Training von Modellen sind Entwickler von abgedeckten Modellen und deren Ableitungen verpflichtet, eine Zertifizierung zur Minderung des „angemessenen“ Risikos von „kritischen Schäden“ des abgedeckten Modells und seiner Ableitungen, einschließlich nachträglicher Modifikationen, vorzulegen, die überprüft werden kann.[35] Schutzmaßnahmen zur Risikominderung umfassen die Fähigkeit, das Modell abzuschalten,[4] das unterschiedlich als ein „Kill Switch“ beschrieben wurde,[40] und „Circuit Breaker“.[41] Whistleblowing-Bestimmungen schützen Mitarbeiter, die Sicherheitsprobleme und Vorfälle melden.[4]
SB 1047 würde zudem ein öffentliches Cloud-Computing-Cluster namens CalCompute einrichten, das mit der University of California verbunden ist, um Startups, Forschern und Gemeinschaftsgruppen zu unterstützen, die über keine großen Rechenressourcen verfügen.[35]
Abgedeckte Modelle
[Bearbeiten | Quelltext bearbeiten]SB 1047 deckt KI-Modelle ab, die über 1026 Ganzzahl- oder Fließkommaoperationen im Training und Kosten von über 100 Millionen US-Dollar verfügen.[2][42] Wenn ein abgedecktes Modell mit mehr als 10 Millionen US-Dollar feinabgestimmt wird, ist das resultierende Modell ebenfalls abgedeckt.[36]
Kritische Schäden
[Bearbeiten | Quelltext bearbeiten]Kritische Schäden sind in Bezug auf vier Kategorien definiert:[1][43]
- Erstellung oder Einsatz von chemischen, biologischen, radiologischen oder nuklearen Waffen
- Cyberangriffe auf kritische Infrastrukturen, die zu Massenopfern oder mindestens 500 Millionen US-Dollar Schaden führen
- Autonome Verbrechen, die zu Massenopfern oder mindestens 500 Millionen US-Dollar Schaden führen
- Andere Schäden vergleichbarer Schwere
Compliance und Aufsicht
[Bearbeiten | Quelltext bearbeiten]SB 1047 würde Entwickler ab dem 1. Januar 2026 verpflichten, jährlich einen unabhängigen Drittprüfer zu beauftragen, der eine unabhängige Prüfung der Einhaltung der Anforderungen des Gesetzes durchführt.[35] Die Government Operations Agency würde die Ergebnisse der Sicherheitsprüfungen und Vorfälle überprüfen und Leitlinien, Standards und bewährte Verfahren herausgeben.[35] Das Gesetz schafft einen Vorstand für Frontier Models, der die Anwendung des Gesetzes durch die Government Operations Agency überwacht. Er besteht aus 9 Mitgliedern.[42]
Rezeption
[Bearbeiten | Quelltext bearbeiten]Debatte
[Bearbeiten | Quelltext bearbeiten]Befürworter des Gesetzes beschreiben seine Bestimmungen als einfach und eng fokussiert, wobei Sen. Scott Weiner es als „leichtes, grundlegendes Sicherheitsgesetz“ bezeichnete.[44] Dies wurde von Kritikern des Gesetzes bestritten, die die Sprache des Gesetzes als vage beschreiben und es kritisieren, dass es die Macht der größten KI-Unternehmen auf Kosten kleinerer konsolidiert.[44] Befürworter antworteten, dass das Gesetz nur für Modelle gilt, die mit mehr als 1026 FLOPS und über 100 Millionen US-Dollar trainiert wurden oder mit mehr als 10 Millionen US-Dollar feinabgestimmt wurden, und dass der Schwellenwert bei Bedarf erhöht werden könnte.[45]
Die Strafe des Eidbruchs war Gegenstand von Debatten und wurde schließlich durch eine Änderung entfernt. Der Umfang der Anforderung eines „Kill Switch“ wurde ebenfalls reduziert, nachdem Bedenken von Open-Source-Entwicklern geäußert wurden. Es gab auch Streit über die Verwendung des Begriffs „angemessene Gewissheit“, der nach der Änderung durch „angemessene Sorgfalt“ ersetzt wurde. Kritiker argumentierten, dass der Standard der „angemessenen Sorgfalt“ eine übermäßige Belastung darstellt, indem er erfordert, dass Entwickler sicherstellen, dass Modelle nicht zur Verursachung katastrophaler Schäden verwendet werden können, während Befürworter argumentierten, dass der Standard der „angemessenen Sorgfalt“ keine Sicherheit impliziert und ein gut etablierter rechtlicher Standard ist, der bereits unter geltendem Recht für KI-Entwickler gilt.[45]
Unterstützung und Opposition
[Bearbeiten | Quelltext bearbeiten]Unterstützer des Gesetzes sind Turing-Award-Empfänger Yoshua Bengio[46] und Geoffrey Hinton,[47] Elon Musk,[48] Bill de Blasio,[49] Kevin Esvelt,[50] Dan Hendrycks,[51] Vitalik Buterin,[52] OpenAI-Whistleblower Daniel Kokotajlo[53] und William Saunders,[54] Lawrence Lessig,[55] Sneha Revanur,[56] Stuart Russell,[55] Jan Leike,[57] Schauspieler Mark Ruffalo, Sean Astin, und Rosie Perez,[58] Scott Aaronson,[59] und Max Tegmark.[60] Center for AI Safety, Economic Security California[61] und Encode Justice[62] sind Sponsoren. Yoshua Bengio schreibt, dass das Gesetz ein wichtiger Schritt zu Test- und Sicherheitsmaßnahmen für „KI-Systeme über einem bestimmten Fähigkeitsniveau [die] bedeutende Risiken für Demokratien und die öffentliche Sicherheit darstellen können.“ Max Tegmark verglich den Fokus des Gesetzes darauf, Unternehmen für die von ihren Modellen verursachten Schäden verantwortlich zu machen, mit der FDA, die klinische Studien vorschreibt, bevor ein Unternehmen ein Medikament auf den Markt bringen kann. Er argumentierte auch, dass der Widerstand gegen das Gesetz von einigen Unternehmen „direkt aus dem Big Tech-Werkzeugkasten kommt.“[60] Das Redaktionsteam der Los Angeles Times hat ebenfalls für das Gesetz plädiert.[63] Die Gewerkschaft SAG-AFTRA und zwei Frauenorganisationen, die National Organization for Women und Fund Her, haben Unterstützungsschreiben an Gouverneur Newsom geschickt.[64] Über 120 Hollywood-Prominente, darunter Mark Hamill, Jane Fonda und J. J. Abrams, unterzeichneten eine Erklärung zur Unterstützung des Gesetzes.[65]
Andrew Ng, Fei-Fei Li,[66] Ion Stoica, Jeremy Howard, Turing-Award-Empfänger Yann LeCun, zusammen mit US-Kongressmitgliedern Nancy Pelosi, Zoe Lofgren, Anna Eshoo, Ro Khanna, Scott Peters, Tony Cárdenas, Ami Bera, Nanette Barragán und Lou Correa haben sich gegen die Gesetzgebung ausgesprochen.[6][67][68] Andrew Ng argumentiert speziell, dass es bessere, gezieltere Regulierungsansätze gebe, wie das Anvisieren von Deepfake-Pornografie, Wasserzeichen für generierte Materialien und Investitionen in Red Teaming und andere Sicherheitsmaßnahmen.[69] University-of-California- und Caltech-Forscher haben ebenfalls offene Briefe gegen das Gesetz geschrieben.[67]
Industrie
[Bearbeiten | Quelltext bearbeiten]Das Gesetz wird von Branchen-Handelsverbänden wie der Kalifornischen Handelskammer, der Chamber of Progress,[a 1] der Computer & Communications Industry Association[a 2] und TechNet.[a 3][2] Unternehmen wie Meta[70] und OpenAI[54] lehnten das Gesetz ab oder äußerten Bedenken, während Google,[70] Microsoft und Anthropic[60] substanzielle Änderungen vorgeschlagen haben.[3] Mehrere Gründer von Startups und Venture-Capital-Organisationen lehnen das Gesetz ab, zum Beispiel Y Combinator,[71][72] Andreessen Horowitz,[73][74][75] Context Fund[76][77] und Alliance for the Future.[78]
Nach den Änderungen schrieb Anthropic-CEO Dario Amodei, dass „das neue SB 1047 erheblich verbessert ist, bis zu dem Punkt, an dem wir glauben, dass seine Vorteile wahrscheinlich seine Kosten überwiegen. Allerdings sind wir uns dessen nicht sicher, und es gibt noch einige Aspekte des Gesetzes, die uns Sorgen machen oder mehrdeutig erscheinen.“.[79] Amodei kommentierte auch: „Einige Unternehmen haben darüber gesprochen, ihre Aktivitäten aus Kalifornien zu verlagern. Tatsächlich gilt das Gesetz für Geschäfte in Kalifornien oder das Bereitstellen von Modellen in Kalifornien … Alles, was über 'Oh, wir verlagern unseren Hauptsitz nach Kalifornien …' gesagt wird, ist nur Theater. Das ist nur Verhandlungsspielraum. Es steht in keinem Verhältnis zum tatsächlichen Inhalt des Gesetzes.“[80] xAI-CEO Elon Musk schrieb: „Ich denke, Kalifornien sollte wahrscheinlich das SB 1047 KI-Sicherheitsgesetz verabschieden. Seit über 20 Jahren setze ich mich für KI-Regulierung ein, genau wie wir jedes Produkt/ jede Technologie regulieren, die ein potenzielles Risiko für die Öffentlichkeit darstellt.“[48]
Am 9. September 2024 unterzeichneten mindestens 113 aktuelle und ehemalige Mitarbeiter von KI-Unternehmen wie OpenAI, Google DeepMind, Anthropic, Meta und xAI einen Brief an Gouverneur Newsom zur Unterstützung von SB 1047.[57][81]
Open-Source-Entwickler
[Bearbeiten | Quelltext bearbeiten]Kritiker äußerten Bedenken hinsichtlich der Haftung für Open-Source-Software, die durch das Gesetz auferlegt würde, wenn sie vorhandene frei verfügbare Modelle verwenden oder verbessern. Yann LeCun, der Chief AI Officer von Meta, hat vorgeschlagen, dass das Gesetz Open-Source-KI-Modelle töten würde.[69] Derzeit (Stand Juli 2024) gibt es in der Open-Source-Community Bedenken, dass Unternehmen wie Meta aufgrund der Drohung rechtlicher Haftung sich entscheiden könnten, Modelle (zum Beispiel Llama) nicht mehr frei verfügbar zu machen.[82][83] Die AI Alliance hat sich zusammen mit anderen Open-Source-Organisationen gegen das Gesetz ausgesprochen.[67] Im Gegensatz dazu hat Lawrence Lessig, Mitbegründer von Creative Commons, geschrieben, dass SB 1047 Open-Source-KI-Modelle sicherer und bei Entwicklern beliebter machen würde, da sowohl Schaden als auch Haftung für diesen Schaden weniger wahrscheinlich sind.[41]
Öffentliche Meinungsumfragen
[Bearbeiten | Quelltext bearbeiten]Das Artificial Intelligence Policy Institute, eine pro-regulierende KI-Denkfabrik,[84] führte in Kalifornien drei Umfragen durch, ob die Befragten SB 1047 unterstützen oder ablehnen.
Unterstützung | Ablehnung | Unsicher | Fehlermarge | |
---|---|---|---|---|
9. Juli 2024[85][86] | 59 % | 20 % | 22 % | ±5,2 % |
4.–5. August 2024[87][88] | 65 % | 25 % | 10 % | ±4,9 % |
25.–26. August 2024[89][90] | 70 % | 13 % | 17 % | ±4,2 % |
Eine YouGov-Umfrage, die von der Economic Security Project in Auftrag gegeben wurde, ergab, dass 78 % der registrierten Wähler in den Vereinigten Staaten SB 1047 unterstützten und 80 % der Meinung waren, dass Gouverneur Newsom das Gesetz unterzeichnen sollte.[91]
Eine Umfrage von David Binder Research, in Auftrag gegeben vom Center for AI Safety, einer Gruppe, die sich auf die Minderung gesellschaftlicher Risiken konzentriert und ein Förderer des Gesetzes ist, ergab, dass 77 % der Kalifornier eine Vorschrift unterstützen, die Unternehmen verpflichtet, KI-Modelle auf Sicherheitsrisiken zu testen, und 86 % es als eine wichtige Priorität für Kalifornien ansehen, KI-Sicherheitsvorschriften zu entwickeln.[92][93][94][95]
SB 1047 Gouverneur-Veto
[Bearbeiten | Quelltext bearbeiten]Gouverneur Gavin Newsom vetosierte SB 1047 am 29. September 2024 und nannte Bedenken hinsichtlich des regulatorischen Rahmens des Gesetzes, der nur große KI-Modelle basierend auf ihrer Rechenleistung anvisiert, während er nicht berücksichtigt, ob die Modelle in risikoreichen Umgebungen eingesetzt werden.[96][97] Newsom betonte, dass dieser Ansatz ein falsches Sicherheitsgefühl erzeugen könnte, da kleinere Modelle, die ebenso bedeutende Risiken darstellen könnten, übersehen würden.[96][98] Er erkannte die Notwendigkeit von KI-Sicherheitsprotokollen an[96][99] betonte jedoch die Bedeutung der Anpassungsfähigkeit in der Regulierung, da sich die KI-Technologie weiterhin schnell entwickelt.[96][97]
Gouverneur Newsom verpflichtete sich außerdem, mit Technologieexperten, föderalen Partnern und akademischen Institutionen, einschließlich Stanford University’s Human-Centered AI (HAI) Institute, geleitet von Dr. Fei-Fei Li, zusammenzuarbeiten. Er kündigte Pläne an, mit diesen Einrichtungen zusammenzuarbeiten, um verantwortungsvolle KI-Entwicklung voranzutreiben, mit dem Ziel, die Öffentlichkeit zu schützen und gleichzeitig Innovation zu fördern.[96][100]
Siehe auch
[Bearbeiten | Quelltext bearbeiten]Weblinks
[Bearbeiten | Quelltext bearbeiten]- Gesetzesverfolgung CalMatters
- Unterstützende Webseite Economic Security California Action, Center for AI Safety Action Fund und Encode Justice
- Ablehnende Webseite Andreessen Horowitz
Anmerkungen
[Bearbeiten | Quelltext bearbeiten]- ↑ deren Unternehmenspartner Amazon, Apple, Google und Meta umfassen, siehe Partners – Chamber of Progress. In: Chamber of Progress. (englisch).
- ↑ deren Mitglieder Amazon, Apple, Google und Meta umfassen, siehe Members – CCIA. In: Computer & Communications Industry Association. (englisch).
- ↑ deren Mitglieder Amazon, Anthropic, Apple, Google, Meta und OpenAI umfassen, siehe Members – TechNet. In: TechNet. (englisch).
Einzelnachweise
[Bearbeiten | Quelltext bearbeiten]- ↑ a b Rebecca Bauer-Kahan: ASSEMBLY COMMITTEE ON PRIVACY AND CONSUMER PROTECTION. In: Kalifornische Versammlung. Staat Kalifornien, abgerufen am 1. August 2024 (englisch).
- ↑ a b c Owen J. Daniels: Kalifornisches KI-Gesetz wird zum Blitzableiter – für Sicherheitsbefürworter und Entwickler gleichermaßen. In: Bulletin of the Atomic Scientists. 17. Juni 2024 .
- ↑ a b Preetika Rana: KI-Unternehmen kämpfen gegen kalifornische Sicherheitsvorschriften In: The Wall Street Journal, 7. August 2024. Abgerufen am 8. August 2024
- ↑ a b c Patrick Thibodeau: Katastrophale KI-Risiken heben die Notwendigkeit von Whistleblower-Gesetzen hervor In: TechTarget, 6. Juni 2024. Abgerufen am 6. August 2024
- ↑ Will Henshall: Yoshua Bengio. In: TIME. 7. September 2023 (englisch, time.com).
- ↑ a b c d e Sharon Goldman: Es ist KIs „Sharks vs. Jets“ – willkommen im Kampf um Kaliforniens KI-Sicherheitsgesetz. In: Fortune. Abgerufen am 29. Juli 2024 (englisch).
- ↑ Gerrit De Vynck: Die Debatte darüber, ob KI uns zerstören wird, spaltet das Silicon Valley In: The Washington Post, 20. Mai 2023
- ↑ Aaron Gregg, Cristiano Lima-Strong, Gerrit De Vynck: KI birgt 'Auslöschungsrisiko' auf Augenhöhe mit Atomwaffen, sagen Technologieführer In: Washington Post, 31. Mai 2023. Abgerufen am 3. Juli 2024 (amerikanisches Englisch).
- ↑ Geoffrey Hinton: Yoshua Bengio. In: TIME. 17. April 2024 (englisch, time.com [abgerufen am 3. September 2024]).
- ↑ Weltweite Wissenschaftler-Zitationsrankings 2024. In: AD Scientific Index. Abgerufen am 3. September 2024 (englisch).
- ↑ Profile. In: Google Scholar. Abgerufen am 2. September 2024 (englisch).
- ↑ Geneva Abdul: Risiko des Aussterbens durch KI sollte globale Priorität sein, sagen Experten In: The Guardian, 30. Mai 2023. Abgerufen am 30. August 2024 (britisches Englisch).
- ↑ Erklärung zu KI-Risiken. In: www.safe.ai. Abgerufen am 30. August 2024 (englisch).
- ↑ Künstliche Intelligenz könnte zum Aussterben führen, warnen Experten In: BBC News, 30. Mai 2023. Abgerufen am 30. August 2024 (britisches Englisch).
- ↑ Julia Zorthian: OpenAI CEO Sam Altman stimmt zu, dass KI reguliert werden muss. In: TIME. 16. Mai 2023 (englisch, time.com [abgerufen am 30. August 2024]).
- ↑ Dan Milmo: Technologiefirmen erlauben Überprüfung von KI-Tools, während Musk vor bedrohten Jobs warnt In: The Guardian, 3. November 2023. Abgerufen am 12. August 2024
- ↑ Ryan Browne: Technologiegiganten verpflichten sich zu KI-Sicherheitszusagen – einschließlich eines 'Kill Switch', wenn Risiken nicht gemindert werden können In: CNBC, 21. Mai 2024. Abgerufen am 12. August 2024
- ↑ Gouverneur Newsom unterzeichnet Exekutivbefehl zur Vorbereitung Kaliforniens auf den Fortschritt der künstlichen Intelligenz. In: Gouverneur Gavin Newsom. 6. September 2023 .
- ↑ Präsident Biden gibt Exekutivbefehl zu sicherer, geschützter und vertrauenswürdiger künstlicher Intelligenz heraus. In: Weißes Haus. 30. Oktober 2023 .
- ↑ Alan Riquelmy: Kalifornischer Gesetzgeber will Leitplanken für die KI-Entwicklung setzen In: Courthouse News Service, 8. Februar 2024. Abgerufen am 4. August 2024
- ↑ Rachael Myrow: Kalifornische Gesetzgeber übernehmen die Regulierung von KI mit einer Reihe von Gesetzen In: KQED, 16. Februar 2024
- ↑ Kelsey Piper: Wir sprachen mit dem Architekten hinter dem berüchtigten KI-Sicherheitsgesetz In: Vox, 29. August 2024. Abgerufen am 4. September 2024
- ↑ Garrison Lovely: Kaliforniens KI-Sicherheitsgesetz ist ein Moment der Enthüllung für die Industrie In: The Nation, 15. August 2024. Abgerufen am 4. September 2024
- ↑ Benj Edwards: Von Science-Fiction zu Staatsgesetz: Kaliforniens Plan zur Verhinderung einer KI-Katastrophe. In: Ars Technica. 29. Juli 2024, abgerufen am 30. August 2024.
- ↑ Dan Hendrycks: Das Darwinistische Argument für die Sorge um KI. In: Time. 31. Mai 2023 (englisch, time.com [abgerufen am 1. Oktober 2024]).
- ↑ Prominente KI-Führer warnen vor 'Auslöschungsrisiko' durch neue Technologie. In: Los Angeles Times. 31. Mai 2023, abgerufen am 30. August 2024 (amerikanisches Englisch).
- ↑ Billy Perrigo: Kalifornisches Gesetz schlägt Regulierung von KI auf staatlicher Ebene vor. In: Time. 13. September 2023 (englisch, time.com [abgerufen am 12. August 2024]).
- ↑ Emilia David: Kalifornischer Gesetzgeber schlägt Regulierung von KI-Modellen vor In: The Verge, 14. September 2023. Abgerufen am 12. August 2024
- ↑ Senator Wiener führt Sicherheitsrahmen in der Gesetzgebung für künstliche Intelligenz ein. In: Senator Scott Wiener. 13. September 2023, abgerufen am 12. August 2024.
- ↑ Kaliforniens SB-1047: Verständnis des Gesetzes zur sicheren und geschützten Innovation für fortschrittliche künstliche Intelligenzmodelle. In: DLA Piper. Abgerufen am 30. August 2024 (englisch).
- ↑ Benj Edwards: Von Science-Fiction zu Staatsgesetz: Kaliforniens Plan zur Verhinderung einer KI-Katastrophe. In: Ars Technica. 29. Juli 2024, abgerufen am 30. August 2024.
- ↑ Dan Hendrycks: Kaliforniens Entwurf eines KI-Gesetzes würde mehr als nur Menschen schützen. In: Time. 27. August 2024 (englisch, time.com [abgerufen am 30. August 2024]).
- ↑ Kalifornien SB1047 | 2023–2024 | Reguläre Sitzung. In: LegiScan. Abgerufen am 30. August 2024 (englisch).
- ↑ Maxwell Zeff: Kalifornien schwächt Gesetz zur Verhinderung von KI-Katastrophen vor der endgültigen Abstimmung ab, nimmt Ratschläge von Anthropic an In: TechCrunch, 15. August 2024. Abgerufen am 23. August 2024
- ↑ a b c d e Nathan Calvin: SB 1047 Überblick über die Autorenänderungen vom 15. August. In: safesecureai.org. 15. August 2024, abgerufen am 16. August 2024 (amerikanisches Englisch).
- ↑ a b Staats-Senator Wieners bahnbrechendes Gesetz zur künstlichen Intelligenz gelangt mit Änderungen, die auf Branchenengagement reagieren, zur Versammlungsebene. In: Senator Scott Wiener. 16. August 2024, abgerufen am 17. August 2024 (englisch).
- ↑ Troy Wolverton: Legislatur verabschiedet das umstrittene KI-Sicherheitsgesetz von Wiener. In: San Francisco Examiner. 29. August 2024, abgerufen am 30. August 2024 (englisch).
- ↑ Gesetzesabstimmungen – SB-1047 Gesetz zur sicheren und geschützten Innovation für fortschrittliche Modelle künstlicher Intelligenz. In: leginfo.legislature.ca.gov. Abgerufen am 4. September 2024.
- ↑ Wendy Lee: Gov. Gavin Newsom vetos KI-Sicherheitsgesetz, das vom Silicon Valley abgelehnt wird In: Los Angeles Times, 29. September 2024
- ↑ Financial Times: Empörung großer KI-Firmen über kalifornisches KI-„Kill Switch“-Gesetz. In: Ars Technica. 7. Juni 2024, abgerufen am 30. August 2024 (amerikanisches Englisch).
- ↑ a b Lawrence Lessig: Big Tech hat große Angst vor einem sehr bescheidenen KI-Sicherheitsgesetz In: The Nation, 30. August 2024. Abgerufen am 3. September 2024
- ↑ a b 07/01/24 – Analyse des Justizkomitees der Versammlung. In: Kalifornische Gesetzgebungsinformationen.
- ↑ Analyse der 7/3-Revision von SB1047. In: Context Fund.
- ↑ a b Sharon Goldman: Es ist KIs „Sharks vs. Jets“ – willkommen im Kampf um Kaliforniens KI-Sicherheitsgesetz. In: Fortune. Abgerufen am 29. Juli 2024 (englisch).
- ↑ a b Fehldarstellungen des kalifornischen KI-Sicherheitsgesetzes. In: Brookings. Abgerufen am 2. Oktober 2024 (amerikanisches Englisch).
- ↑ Yoshua Bengio: Yoshua Bengio: Kaliforniens KI-Sicherheitsgesetz wird Verbraucher und Innovation schützen. In: Fortune. Abgerufen am 17. August 2024 (englisch).
- ↑ Kia Kokalitcheva: Kaliforniens KI-Sicherheitsdruck In: Axios, 26. Juni 2024 (englisch).
- ↑ a b Devin Coldewey: Elon Musk unexpectedly offers support for California's AI bill In: TechCrunch, 26. August 2024. Abgerufen am 27. August 2024 (englisch).
- ↑ Bill de Blasio: X post, 24. August 2024 (englisch).
- ↑ Alan Riquelmy: Kalifornische KI-Regulierungsgesetz kommt zu einer unvermeidlichen Anhörung In: Courthouse News Service, 14. August 2024. Abgerufen am 15. August 2024 (englisch).
- ↑ Cade Metz: Kaliforniens KI-Gesetz verursacht Alarm im Silicon Valley In: New York Times, 14. August 2024. Abgerufen am 22. August 2024 (englisch).
- ↑ Nynu V. Jamal: Kalifornisches mutiges KI-Sicherheitsgesetz: Buterin, Musk unterstützen, OpenAI vorsichtig. In: Coin Edition. 27. August 2024, abgerufen am 27. August 2024 (amerikanisches Englisch).
- ↑ Khari Johnson: Why Silicon Valley is trying so hard to kill this AI bill in California. In: CalMatters. 12. August 2024, abgerufen am 12. August 2024 (englisch).
- ↑ a b Maxwell Zeff: OpenAI's opposition to California's AI bill 'makes no sense,' says state senator In: TechCrunch, 21. August 2024. Abgerufen am 23. August 2024 (englisch).
- ↑ a b Tharin Pillay: Renommierte Experten unterstützen Kaliforniens wegweisendes KI-Sicherheitsgesetz. In: Time. 7. August 2024 (englisch, time.com [abgerufen am 8. August 2024]).
- ↑ Versammlungs-Ständekomitee für Datenschutz und Verbraucherschutz. In: CalMatters. Abgerufen am 8. August 2024.
- ↑ a b AI workers sign letter in support of Scott Wiener AI safety bill SB 1047. In: The San Francisco Standard. 9. September 2024, abgerufen am 10. September 2024 (englisch).
- ↑ Lara Korte, Dustin Gardiner: Act natural In: Politico, 17. September 2024 (englisch).
- ↑ Call to Lead. In: Call to Lead. Abgerufen am 10. September 2024 (amerikanisches Englisch).
- ↑ a b c Sigal Samuel: Es ist praktisch unmöglich, ein großes KI-Unternehmen ethisch zu führen In: Vox, 5. August 2024. Abgerufen am 6. August 2024
- ↑ Chase DiFeliciantonio: KI-Unternehmen baten um Regulierung. Jetzt, da sie kommt, sind einige empört In: San Francisco Chronicle, 28. Juni 2024
- ↑ Lara Korte: Ein aufkommender Kampf um KI In: Politico, 12. Februar 2024 (englisch).
- ↑ The Times Editorial Board: Editorial: Warum Kalifornien bei der KI-Regulierung führen sollte In: Los Angeles Times, 22. August 2024. Abgerufen am 23. August 2024 (englisch).
- ↑ Garrison Lovely: Schauspielergewerkschaft und Frauenorganisationen drängen Gavin Newsom, das KI-Sicherheitsgesetz zu unterzeichnen In: The Verge, 12. September 2024 (englisch).
- ↑ Wendy Lee: Mark Hamill, Jane Fonda, J.J. Abrams fordern Gouverneur Newsom auf, KI-Sicherheitsgesetz zu unterzeichnen In: LA Times, 24. September 2024 (englisch).
- ↑ Fei-Fei Li: 'Die Godmother der KI' sagt, dass Kaliforniens gut gemeintes KI-Gesetz das US-Ökosystem schädigen wird. In: Fortune. Abgerufen am 8. August 2024 (englisch).
- ↑ a b c SB 1047 Auswirkungen Analyse. In: Context Fund. (englisch).
- ↑ Versammlungsjustizkomitee 2024-07-02. In: Kalifornische Staatsversammlung. (englisch).
- ↑ a b Benj Edwards: Von Science-Fiction zu Staatsgesetz: Kaliforniens Plan zur Verhinderung einer KI-Katastrophe. In: Ars Technica. 29. Juli 2024, abgerufen am 30. Juli 2024.
- ↑ a b Lara Korte: Big Tech and the little guy – POLITICO In: Politico, 26. Juni 2024 (englisch).
- ↑ ‘Little Tech’ brings a big flex to Sacramento – POLITICO. In: Politico. (englisch).
- ↑ Proposed California law seeks to protect public from AI catastrophes. In: The Mercury News. 25. Juli 2024 (englisch).
- ↑ California's Senate Bill 1047: What You Need to Know. In: Andreessen Horowitz. (englisch).
- ↑ California’s anti-AI bill undermines the sector’s achievements. In: Financial Times. (englisch).
- ↑ Senate Bill 1047 will crush AI innovation in California – Orange County Register. In: Orange County Register. 10. Juli 2024 (englisch).
- ↑ AI Startups Push to Limit or Kill California Public Safety Bill. In: Bloomberg Law. (englisch).
- ↑ The Batch | Weekly Issues | issue 257. In: Deeplearning.ai. 10. Juli 2024 (englisch).
- ↑ The AI safety fog of war – POLITICO. In: Politico. 2. Mai 2024 (englisch).
- ↑ Anthropic says California AI bill's benefits likely outweigh costs In: Reuters, 23. August 2024 (englisch).
- ↑ Econ 102 with Noah Smith: Anthropic CEO Dario Amodei on AI's Moat, Risk, and SB 1047 (ab 0:55:13) auf YouTube, 29. August 2024, abgerufen am 3. September 2024 (englisch).
- ↑ Call to Lead. In: Call to Lead. Abgerufen am 10. September 2024 (amerikanisches Englisch).
- ↑ Kelsey Piper: Inside the fight over California's new AI bill. In: Vox. 19. Juli 2024, abgerufen am 29. Juli 2024 (amerikanisches Englisch).
- ↑ Kelsey Piper: Das KI-Gesetz, das Big Tech in Panik versetzt. In: Vox. 14. Juni 2024, abgerufen am 29. Juli 2024 (amerikanisches Englisch).
- ↑ Derek Robertson: Exklusive Umfrage: Amerikaner befürworten KI-Datenregulierung In: Politico, 6. Mai 2024. Abgerufen am 18. August 2024
- ↑ Brendan Bordelon: Was Kamala Harris für Technik bedeutet. In: POLITICO Pro. (Abonnement erforderlich).
- ↑ Neue Umfrage: Kalifornische Wähler, einschließlich Tech-Arbeiter, unterstützen stark das KI-Regulierungsgesetz SB1047. In: Artificial Intelligence Policy Institute. 22. Juli 2024 .
- ↑ Mark Sullivan: Elon Musks Grok-Chatbot verbreitete Wahl-Desinformationen In: Fast Company, 8. August 2024. Abgerufen am 13. August 2024 (englisch).
- ↑ Umfrage: Kalifornier unterstützen starke Version von SB1047, stimmen mit den vorgeschlagenen Änderungen von Anthropic nicht überein. In: Artificial Intelligence Policy Institute. 7. August 2024, abgerufen am 13. August 2024.
- ↑ Dustin Gardiner: Newsoms abgeskalierte Stellvertretungsrolle In: Politico, 28. August 2024 (englisch).
- ↑ Umfrage: 7 von 10 Kaliforniern unterstützen SB1047, werden Gouverneur Newsom für KI-bedingte Katastrophen verantwortlich machen, wenn er vetos. In: Artificial Intelligence Policy Institute. 16. August 2024, abgerufen am 28. August 2024.
- ↑ Neue YouGov-Nationalumfrage zeigt 80 % Unterstützung für SB 1047 und KI-Sicherheit. In: Economic Security Project Action. Abgerufen am 19. September 2024 (amerikanisches Englisch).
- ↑ Kalifornische Wahlerichtlinien-Umfrage: Zusammenfassung der öffentlichen Meinungsforschung. David Binder Research
- ↑ Wendy Lee: Kalifornische Gesetzgeber versuchen, KI zu regulieren, bevor es zu spät ist. So funktioniert das In: Los Angeles Times, 19. Juni 2024
- ↑ Kelsey Piper: Inside the fight over California's new AI bill. In: Vox. 19. Juli 2024, abgerufen am 22. Juli 2024 (amerikanisches Englisch).
- ↑ Staats-Senator Wieners bahnbrechendes KI-Gesetz besteht die Versammlung. Office of Senator Wiener, 29. August 2024 (englisch).
- ↑ a b c d e Gavin Newsome SB 1047 Veto Brief. Office of The Governor (englisch).
- ↑ a b „Anpassungsfähigkeit ist entscheidend, während wir versuchen, eine Technologie zu regulieren, die sich noch in der Anfangsphase befindet. Dies erfordert ein sensibles Gleichgewicht. Obwohl gut gemeint, berücksichtigt SB 1047 nicht, ob ein KI-System in risikoreichen Umgebungen eingesetzt wird, kritische Entscheidungen trifft oder mit sensiblen Daten arbeitet. Stattdessen wendet das Gesetz strenge Standards auf selbst die grundlegendsten Funktionen an – solange ein großes System sie einsetzt. Ich glaube nicht, dass dies der beste Ansatz ist, um die Öffentlichkeit vor den tatsächlichen Bedrohungen durch die Technologie zu schützen“
- ↑ „Indem nur die teuersten und großskaligen Modelle fokussiert werden, etabliert SB 1047 einen regulatorischen Rahmen, der der Öffentlichkeit ein falsches Sicherheitsgefühl in Bezug auf die Kontrolle dieser schnelllebigen Technologie vermitteln könnte. Kleinere, spezialisierte Modelle könnten ebenso gefährlich oder sogar gefährlicher werden als die von SB 1047 angestrebten Modelle – möglicherweise auf Kosten der Innovation, die den Fortschritt antreibt, zugunsten des öffentlichen Wohls.“
- ↑ „Lassen Sie mich klarstellen – ich stimme dem Autor zu – wir können es uns nicht leisten, zu warten, bis eine große Katastrophe eintritt, bevor wir Maßnahmen zum Schutz der Öffentlichkeit ergreifen. Kalifornien wird seine Verantwortung nicht aufgeben. Sicherheitsprotokolle müssen übernommen werden. Proaktive Leitplanken sollten implementiert und schwere Konsequenzen für böswillige Akteure müssen klar und durchsetzbar sein.“
- ↑ Gavin Newsom: Gouverneur Newsom kündigt neue Initiativen zur Förderung sicherer und verantwortungsvoller KI an, um Kalifornier zu schützen. In: Gouverneur Gavin Newsom. 29. September 2024, abgerufen am 29. September 2024 (amerikanisches Englisch).