Wie die Politik auf KI reagiert: Zwischen Regulierung und Wettlauf

Im Februar 2025 versammelten sich Vertreter aus über hundert Ländern in Paris zum AI Action Summit, um über die Zukunft künstlicher Intelligenz zu beraten. Das Ergebnis war eine Erklärung, die für »inklusive und nachhaltige« KI-Entwicklung warb. Über sechzig Nationen unterzeichneten sie, darunter Frankreich, China und Indien. Zwei Namen fehlten auf der Liste: die Vereinigten Staaten und Großbritannien. Es war das erste Mal seit Beginn dieser globalen KI-Gipfel im Jahr 2023, dass beide Länder sich weigerten, ein gemeinsames Statement zu unterschreiben.
Die Weigerung war kein Versehen. US-Vizepräsident J.D. Vance hatte in Paris deutlich gemacht, dass Amerika die Diskussion weg von Sicherheitsbedenken und hin zu wirtschaftlichen Chancen lenken wolle. »Übermäßige Regulierung« riskiere, die enormen Möglichkeiten der Technologie zu verspielen. Ein Sprecher des britischen Premierministers Keir Starmer erklärte, die Erklärung biete nicht genug »praktische Klarheit« und adressiere Fragen der nationalen Sicherheit unzureichend. Wenige Wochen später würde Starmer bei einem gemeinsamen Auftritt mit Donald Trump verkünden: »Anstatt diese neuen Technologien überzuregulieren, ergreifen wir die Chancen, die sie bieten.«
Was in Paris sichtbar wurde, ist ein fundamentaler Bruch in der Art, wie die großen Mächte auf künstliche Intelligenz reagieren. Die Europäische Union hat das weltweit erste umfassende KI-Gesetz verabschiedet. Die USA unter Trump versuchen, selbst einzelstaatliche Regulierung zu verhindern. China baut ein System staatlicher Kontrolle auf, das KI an »sozialistische Kernwerte« bindet. Und Großbritannien, das noch 2023 mit dem Bletchley-Park-Gipfel globale Führung bei KI-Sicherheit beanspruchte, hat eine Kehrtwende vollzogen. Die Frage, wie Gesellschaften mit dieser Technologie umgehen sollen, wird nicht einheitlich beantwortet werden.
Europa: Der Pionier der Regulierung
Am 13. März 2024 verabschiedete das Europäische Parlament mit einer Mehrheit von 523 zu 46 Stimmen den AI Act, das erste umfassende KI-Gesetz der Welt. Am 1. August 2024 trat es in Kraft. EU-Kommissar Thierry Breton kommentierte auf X: »Europa ist JETZT ein globaler Standardsetzer für KI.«
Das Gesetz folgt einem risikobasierten Ansatz. KI-Anwendungen werden in vier Kategorien eingeteilt: inakzeptables Risiko, hohes Risiko, begrenztes Risiko und minimales Risiko. Systeme der ersten Kategorie, etwa Social-Scoring-Systeme nach chinesischem Vorbild oder biometrische Echtzeit-Überwachung in öffentlichen Räumen, sind verboten. Hochrisiko-Anwendungen, beispielsweise in der Strafverfolgung oder im Gesundheitswesen, unterliegen strengen Anforderungen. Generative KI wie ChatGPT muss Transparenzpflichten erfüllen und ihre Inhalte als KI-generiert kennzeichnen.
Die Reaktionen auf den AI Act sind gespalten. Befürworter sehen Europa als Vorreiter, ähnlich wie bei der Datenschutz-Grundverordnung, die zum globalen Standard wurde. Kritiker warnen vor Wettbewerbsnachteilen. Deutschland und Frankreich, Heimat einiger der vielversprechendsten europäischen KI-Startups, hatten während der Verhandlungen für Selbstregulierung statt staatlicher Vorgaben plädiert. Der Draghi-Bericht zur europäischen Wettbewerbsfähigkeit vom Herbst 2024 unterstrich das Problem: Keines der zehn größten KI-Unternehmen der Welt hat seinen Sitz in der EU.
In Deutschland zeigt sich die Spaltung entlang der Parteilinien. SPD und Grüne unterstützen den AI Act als »wichtigen Eckpfeiler digitaler Bürgerrechte«. CDU/CSU und FDP fordern, ihn »innovationsfreundlicher« zu gestalten und nicht »überzuerfüllen«. Die AfD lehnt das Gesetz ab, weil es die Meinungsfreiheit einschränke. Die neue Bundesregierung hat sich verpflichtet, KI als »Schlüsselinfrastruktur« zu stärken und gleichzeitig den AI Act umzusetzen, ein Balanceakt, dessen Gelingen ungewiss ist.
Amerika: Der Kampf um die Deutungshoheit
Wenige Tage nach seinem Amtsantritt im Januar 2025 widerrief Donald Trump die KI-Durchführungsverordnung seines Vorgängers Joe Biden. Die Begründung: Sie habe die Industrie »paralysiert«. Die neue Richtlinie sollte »Barrieren für amerikanische KI-Führerschaft beseitigen«. Damit endete ein Transparenzregime, das Entwickler der leistungsfähigsten KI-Modelle zur Berichterstattung verpflichtet hatte.
Im Juli folgte die nächste Eskalation. Trump unterzeichnete eine Anordnung mit dem Titel »Preventing Woke AI in the Federal Government«, die politische Voreingenommenheit in KI-Systemen der Bundesbehörden eliminieren sollte. Die praktische Wirkung war die Behauptung bundesstaatlicher Autorität über Kernfragen der KI-Governance.
Der vorläufige Höhepunkt kam im Dezember 2025. Eine neue Durchführungsverordnung mit dem Titel »Ensuring a National Policy Framework for Artificial Intelligence« richtete eine »AI Litigation Task Force« beim Justizministerium ein, deren Aufgabe es ist, Bundesstaaten wegen ihrer KI-Gesetze zu verklagen. Die Federal Trade Commission und die Federal Communications Commission wurden angewiesen, dem KI-Aktionsplan des Weißen Hauses zu folgen. Handelsminister Howard Lutnick erhielt den Auftrag zu prüfen, ob Bundesfördermittel für ländlichen Breitbandausbau Staaten mit »ungünstigen« KI-Gesetzen vorenthalten werden können.
Die Reaktionen waren scharf. Floridas Gouverneur Ron DeSantis, selbst Republikaner, schrieb auf X: »Eine Durchführungsverordnung kann staatliche Gesetzgebung nicht außer Kraft setzen. Das könnte theoretisch nur der Kongress.« Juristen weisen darauf hin, dass Unternehmen weiterhin die Gesetze der Einzelstaaten befolgen sollten, da die Verordnung diese nicht aufhebt, sondern nur gerichtlich anfechten lässt.
Während die Bundesebene auf Deregulierung setzt, haben die Einzelstaaten nicht stillgestanden. Über vierzig Staaten brachten 2024 Gesetzesentwürfe zu Deepfakes ein. Colorado verabschiedete das erste umfassende KI-Rahmenwerk der Nation. Kalifornien, Texas und andere folgten mit eigenen Regelungen. Die Spannung zwischen Bundes- und Staatsebene wird sich vor Gericht entladen müssen.
China: Kontrolle als System
Chinas Ansatz zur KI-Regulierung unterscheidet sich fundamental von dem westlicher Demokratien. Seit 2017 hat das Land ein dichtes Netz von Vorschriften implementiert, darunter das Datensicherheitsgesetz, das Cybersicherheitsgesetz und das Gesetz zum Schutz persönlicher Informationen. Diese Regelungen priorisieren Sicherheit, ethische Prüfungen und die Übereinstimmung mit »sozialistischen Kernwerten«.
Im September 2025 traten neue Kennzeichnungsvorschriften in Kraft, die eine verpflichtende Markierung KI-generierter Inhalte vorschreiben. Explizite Kennzeichnungen müssen für Text, Audio, Bilder und Videos angebracht werden; implizite Kennzeichnungen werden in die Metadaten eingebettet. Über 1.400 KI-Algorithmen von mehr als 450 Unternehmen wurden bis Mitte 2024 bei den Behörden registriert.
Die Politik gegenüber KI hat Zyklen durchlaufen. Von 2017 bis Anfang 2020 herrschte eine ambitionierte Phase mit minimaler Regulierung. Von 2020 bis Ende 2022 folgte eine restriktive Phase mit Durchgreifen gegen Tech-Konzerne. Seit 2022 hat China die Zügel wieder gelockert, um im KI-Wettbewerb mit den USA nicht zurückzufallen. Der Durchbruch von DeepSeek Anfang 2025 hat das Selbstvertrauen der Parteiführung in das chinesische KI-Ökosystem erneuert.
Im Juli 2025 präsentierte China einen Aktionsplan für globale KI-Governance und erneuerte den Vorschlag zur Gründung einer »World Artificial Intelligence Cooperation Organization«. Präsident Xi Jinping wirbt für ein internationales Gremium unter chinesischer Mitgestaltung. Die westlichen Demokratien betrachten solche Initiativen mit Skepsis.
Großbritannien: Die Kehrtwende
Im November 2023 hatte Großbritannien unter Premierminister Rishi Sunak den historischen AI Safety Summit in Bletchley Park ausgerichtet. Vertreter von 28 Nationen und führenden KI-Unternehmen diskutierten gemeinsame Ansätze zur Identifizierung von KI-Risiken. Es war ein Moment, in dem Großbritannien sich als globaler Anführer bei KI-Sicherheit positionierte.
Weniger als ein Jahr später, unter der neuen Labour-Regierung von Keir Starmer, hat sich die Prioritätensetzung verschoben. Der im Januar 2025 vorgestellte »AI Opportunities Action Plan« konzentriert sich darauf, KI in jeden Winkel des öffentlichen Sektors zu bringen, um Effizienz zu steigern und Personalkosten zu senken. Von den fünfzig Empfehlungen des Plans befassen sich nur zwei mit KI-Sicherheit. Starmer hat angekündigt, bis 2030 mindestens ein staatlich betriebenes Rechenzentrum mit 100.000 Hochleistungs-GPUs zu bauen.
Die Verschiebung spiegelt ein breiteres Muster wider. Während die vorherige konservative Regierung auf Sicherheit und internationale Zusammenarbeit setzte, betont Labour wirtschaftliche Chancen und nationale Wettbewerbsfähigkeit. Ein im März 2025 erneut eingebrachter Gesetzesentwurf zur KI-Regulierung hat bislang keine Regierungsunterstützung gefunden. Die Spannung zwischen dem Erbe von Bletchley Park und der neuen Ausrichtung bleibt ungelöst.
Deepfakes und die Bedrohung der Demokratie
Abseits der großen ordnungspolitischen Fragen gibt es konkrete Probleme, die sofortiges Handeln erfordern. Im Januar 2024 erhielten demokratische Wähler in New Hampshire einen Robocall mit einer Stimme, die Präsident Joe Biden imitierte und sie aufforderte, nicht an der Vorwahl teilzunehmen. Es war ein Deepfake. Im selben Jahr verbreitete Elon Musk ein manipuliertes Video von Kamala Harris, das ursprünglich als Parodie gekennzeichnet war, ohne jeden Hinweis auf die Manipulation. Es erreichte 129 Millionen Aufrufe.
Die Reaktion der Einzelstaaten war schneller als die des Kongresses. Bis Ende 2024 hatten zwanzig US-Bundesstaaten Gesetze zu Deepfakes in Wahlen verabschiedet. Florida, Hawaii, New York und andere verlangen Kennzeichnungen in politischen Anzeigen mit manipuliertem Inhalt. In Minnesota muss ein Kandidat sein Amt oder seine Nominierung aufgeben, wenn er gegen Deepfake-Gesetze verstößt. Die Strafen reichen von 1.000 Dollar in Utah bis zu fünf Jahren Gefängnis in Mississippi für Deepfakes, die jemanden vom Wählen abhalten oder zu Gewalt anstiften sollen.
Kaliforniens Gouverneur Gavin Newsom unterzeichnete den »Defending Democracy from Deepfake Deception Act«, der soziale Medien verpflichtet, wahlbezogene Deepfakes innerhalb von 120 Tagen vor einer Wahl zu blockieren oder zumindest zu kennzeichnen. Elon Musks Plattform X hat gegen das Gesetz geklagt.
Auf Bundesebene bleibt die Lage dünn. Die FCC hat den Einsatz KI-generierter Stimmen in Robocalls verboten. Mehrere Gesetzesentwürfe, darunter der »Protect Elections from Deceptive AI Act« von Senatorin Amy Klobuchar, stecken in Ausschüssen fest. Der einzige verabschiedete Bundesgesetzentwurf zu KI im Jahr 2025 ist der TAKE IT DOWN Act, der nicht-einvernehmliche Deepfakes kriminalisiert. Die Lücke zwischen der Geschwindigkeit der Technologie und der Geschwindigkeit der Gesetzgebung bleibt beträchtlich.
Die Frage nach dem existenziellen Risiko
Im März 2023 veröffentlichte das Future of Life Institute einen offenen Brief, der eine sechsmonatige Pause bei der Entwicklung von KI-Systemen forderte, die leistungsfähiger als GPT-4 sind. Tausende unterschrieben, darunter Elon Musk und zahlreiche KI-Forscher. Eliezer Yudkowsky, ein Pionier der KI-Sicherheitsforschung, weigerte sich zu unterschreiben, nicht weil er die Bedenken nicht teilte, sondern weil er die Forderung für unzureichend hielt. Sechs Monate, argumentierte er, würden nichts lösen. Seine Einschätzung: »Alle werden sterben, einschließlich der Kinder, die das nicht gewählt haben und nichts falsch gemacht haben.«
Die Warnungen kamen nicht nur von Außenseitern. Sam Altman, CEO von OpenAI, hat die Entwicklung superintelligenter KI als »wahrscheinlich die größte Bedrohung für die fortgesetzte Existenz der Menschheit« bezeichnet. Eine Umfrage unter KI-Forschern von 2022 ergab, dass die Mehrheit eine Wahrscheinlichkeit von mindestens zehn Prozent für eine existenzielle Katastrophe durch unkontrollierte KI sieht. 2023 unterzeichneten Hunderte Experten eine Erklärung, die das Risiko der Auslöschung durch KI als globale Priorität neben Pandemien und Atomkrieg einstufte.
Die politische Resonanz auf diese Warnungen ist begrenzt. Politiker sprechen häufiger über Deepfakes, Desinformation, Polarisierung und Arbeitsplatzverluste als über existenzielle Risiken. Die Trump-Administration hat eine gegenteilige Position eingenommen. David Sacks, Trumps KI-Beauftragter, erklärte: »Die Doomer-Narrative waren falsch.« Im Weißen Haus dominiert die Ansicht, dass die Angst vor unmittelbarer AGI eine »Ablenkung« war und sich als »nachweislich falsch« erwiesen habe.
Wer recht hat, wird sich zeigen. Was sich sagen lässt: Die politische Debatte über KI hat sich von Sicherheitsbedenken hin zu Wettbewerbsfragen verschoben, zumindest in Washington und London. Ob das eine angemessene Reaktion auf die tatsächlichen Risiken ist oder eine, die wir bereuen werden, ist eine offene Frage.
Die Arbeit und ihre Zukunft
Eine Sorge, die alle politischen Lager verbindet, ist der Einfluss von KI auf Arbeitsplätze. Dario Amodei, CEO von Anthropic, warnte im Mai 2025, KI könne die Hälfte aller Einstiegspositionen in kaufmännischen Berufen eliminieren und die Arbeitslosenquote auf zwanzig Prozent treiben. Der Beige Book-Bericht der Federal Reserve vom November vermerkte, dass »einige Unternehmen anmerkten, künstliche Intelligenz habe Einstiegspositionen ersetzt oder bestehende Mitarbeiter produktiv genug gemacht, um Neueinstellungen zu reduzieren«.
Die empirische Lage ist gemischter, als die Warnungen suggerieren. Eine Studie der Economic Innovation Group von 2025 fand keine signifikante landesweite Erhöhung der Arbeitslosigkeit durch KI. Laut Vanguard wachsen Berufe mit hoher KI-Exposition tatsächlich schneller als vor der Pandemie. Aber es gibt Risse im Bild: Die Arbeitslosigkeit unter 20- bis 30-Jährigen in technologieexponierten Berufen ist seit Anfang 2025 um fast drei Prozentpunkte gestiegen.
China steht vor ähnlichen Herausforderungen mit erschwerenden Faktoren. Die offizielle Jugendarbeitslosigkeit unter 16- bis 24-Jährigen erreichte im August 18,9 Prozent. Es gibt Anzeichen, dass Peking Maßnahmen ergreifen wird, um KI-bedingte Arbeitslosigkeit abzufedern, selbst wenn das bedeutet, die KI-Adoption zu bremsen.
Die politischen Antworten bleiben fragmentiert. Bidens »Blueprint for an AI Bill of Rights« forderte »Training, Bewertung und Aufsicht zur Bekämpfung von Automatisierungsbias«. Die aktuelle Administration hat solche Initiativen beendet. In Europa sehen die Gewerkschaften den AI Act als Schutzschild; in den USA fehlt ein vergleichbarer Rahmen. Die Frage, wer die Kosten der Transformation trägt, ist politisch ungelöst.
Wohin führt das?
Die globale Reaktion auf künstliche Intelligenz folgt keinem einheitlichen Muster. Europa reguliert umfassend und riskiert, im Wettbewerb zurückzufallen. Die USA deregulieren auf Bundesebene und kämpfen mit ihren eigenen Einzelstaaten. China baut staatliche Kontrolle aus und positioniert sich gleichzeitig als Alternative zum westlichen Modell. Großbritannien schwankt zwischen der Rolle des Sicherheitspioniers und dem Drang nach wirtschaftlicher Nutzung.
Der nächste KI-Gipfel wird in Indien stattfinden. Die EU wird ihren AI Act implementieren, mit ungewissen Auswirkungen auf Innovation und Grundrechte. Die Gerichte in den USA werden entscheiden müssen, ob ein Präsident per Dekret staatliche Gesetze aushebeln kann. China wird seine eigene Balance zwischen Förderung und Kontrolle finden müssen.
Was mich an der Debatte am meisten beschäftigt, ist nicht die Frage, welcher Ansatz richtig ist. Es ist die Geschwindigkeit, mit der sich die Technologie entwickelt, verglichen mit der Geschwindigkeit, mit der politische Systeme reagieren können. Als der AI Act nach Jahren der Verhandlung endlich in Kraft trat, waren die Modelle, die er regulieren sollte, bereits mehrere Generationen weiter. Als die USA ihre erste bedeutende Bundesgesetzgebung zu Deepfakes verabschiedeten, hatten manipulierte Videos längst Wahlen beeinflusst.
Die Politik reagiert auf KI. Aber ob sie schnell genug reagiert, ob sie die richtigen Fragen stellt, ob sie die Interessen derer vertritt, die von den Veränderungen am stärksten betroffen sein werden: Das sind Fragen, auf die wir noch keine Antworten haben. Was wir haben, sind divergierende Experimente in Echtzeit. Welches funktioniert, werden wir erst wissen, wenn es zu spät ist, den Kurs zu ändern.
Suno KI-Musik stürmt die Charts: Was bedeutet das für die Zukunft?
KI-generierte Songs erreichen die Billboard-Charts. Suno generiert 7 Millionen Songs täglich, 97% de
KI-Trading und Krypto-Betrug: Anatomie einer Milliarden-Industrie
Deepfakes, Pig Butchering, falsche Trading-Bots: Wie Betrüger KI nutzen, um 12 Milliarden Dollar zu