Sie sind ein ausländisches Unternehmen, das in Deutschland investieren möchte?

Ausländisches Wirtschaftsrecht | Künstliche Intelligenz

Rechtsatlas KI

Ein weltweiter Überblick über die Entwicklung der Gesetzeslage zum Thema künstliche Intelligenz - KI (Artificial intelligence - AI).

Mit dem rasanten Fortschritt der Technologien im Bereich der künstlichen Intelligenz (KI) auf der ganzen Welt hat das Thema an rechtlicher Relevanz gewonnen. Derzeit haben einige Länder spezifische Gesetze zu KI mit unterschiedlichen Schwerpunkten verabschiedet. Gleichzeitig arbeiten Parlamente weltweit eilig an Gesetzesentwürfen. Andere Länder haben bereits bestehende allgemeine Gesetze angepasst, um auch das Thema KI abzudecken. Die derzeitige Umgestaltung der diversen Rechtssysteme ist eine Folge der gegenwärtigen und künftigen Auswirkungen der KI auf Fragen, die vom Datenschutz über die Menschenrechte bis hin zur Rechtsstaatlichkeit reichen. Zweck dieses Rechtsatlas ist es, einen Überblick über die KI-Gesetze in aller Welt zu geben.

  • Die Entwicklung der KI-Gesetzgebung weltweit

    Verfolgen Sie die Chronologie der bereits in Kraft getretenen KI-Gesetze in aller Welt. (Stand: 22.10.2024)

    Künstliche Intelligenz (KI) entwickelt sich von Tag zu Tag exponentiell und wird im Alltag immer präsenter. Gleichzeitig wächst weltweit die Besorgnis über die möglichen wirtschaftlichen, sozialen und ethischen Auswirkungen der KI. Dies veranlasst immer mehr Länder, sich mit der Frage der Regulierung zu befassen, um die sichere Nutzung dieser Art von Technologie in ihren Staatsgebieten zu gewährleisten. Mehrere Länder haben bereits Gesetzgebungsverfahren eingeleitet, und seit 2023 sind einige spezifische Gesetze in Kraft getreten. Die Tendenz geht dahin, dass in den nächsten Jahren auf allen fünf Kontinenten eine Reihe von KI-Gesetzen erlassen werden.

    Um die Entwicklung der Gesetzgebung auf einen Blick verfolgen zu können, zeigt die vorliegende Zeitleiste das Inkrafttreten der wichtigsten KI-Gesetze auf der ganzen Welt.

    Von Dr. Julio Pereira | Berlin

  • Regulierung von KI in den USA

    Derzeit existiert in den USA kein umfassendes Bundesgesetz, das die Entwicklung von KI reguliert oder deren Einsatz konkret verbietet oder einschränkt. (Stand: 04.11.2024)

    Kein umfassendes Bundesgesetz 

    In den Vereinigten Staaten von Amerika existiert aktuell kein umfassendes Gesetz auf Bundesebene, das den Umgang mit und den Einsatz von künstlicher Intelligenz (KI) regelt. Allerdings greifen einige Bundesgesetze den Themenkomplex in vereinzelten Vorschriften im beschränkten Umfang auf. 

    Ein Beispiel hierfür ist der National Defense Authorization Act for Fiscal Year 2019, der das US-Verteidigungsministerium (U.S. Department of Defense) anweist, einen Koordinator zur Überwachung von KI-bezogenen Aktivitäten zu etablieren. Ein weiteres Bundesgesetz ist der National AI Initiative Act of 2020. Dieser konzentriert sich auf den Ausbau der KI-Forschung und -Entwicklung und sieht vor, dass das National Artificial Intelligence Initiative Office für die Überwachung und Umsetzung der nationalen KI-Strategie der USA verantwortlich ist.

    Leitlinien zur Regulierung von KI

    In den USA sind in den letzten Jahren und Monaten eine Vielzahl von frameworks und guidelines zur KI-Forschung und-Entwicklung verabschiedet worden. US-Präsident Biden hat unter anderem am 30. Oktober 2023 die Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence erlassen, die auf der Annahme beruht, dass die Entwicklung und Verbesserung von KI auf einer sicheren Grundlage beruhen sollte. Die Executive Order richtet sich vor allen Dingen an die Bundesbehörden und fordert sie auf, Bundesstandards für die Entwicklung von KI-Systemen zu schaffen und verlangt von Entwicklern der leistungsstärksten KI-Systeme, Ergebnisse von Sicherheitstests und andere wichtige Informationen mit der US-Regierung zu teilen.

    In Anlehnung an die von US-Präsident Biden erlassene Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence hat unter anderem das US-Patent- und Markenamt (Patent and Trademark Office) eine Richtlinie für Erfindungen veröffentlicht, bei denen ein menschlicher Erfinder von künstlicher Intelligenz (Artificial Intelligence) unterstützt worden ist (Inventorship Guidance for AI-assisted Inventions). Die Richtlinie ist am 13. Februar 2024 im Federal Register veröffentlicht worden.

    Die Richtlinie legt fest, dass KI-gestützte Erfindungen nicht kategorisch nicht patentierbar sind, aber im Rahmen der Erfindung ein signifikanter Beitrag des menschlichen Erfinders erkennbar sein muss. Denn Patente dienten dazu, den menschlichen Einfallsreichtum zu belohnen.

    Gesetze auf Ebene der US-Bundesstaaten

    Trotz der Nichtexistenz eines einheitlichen Gesetzes auf US-Bundesebene zur Regulierung von KI hat eine Vielzahl von US-Bundesstaaten in den letzten Jahren über umfassende Gesetze zur Regulierung künstlicher Intelligenz diskutiert und diese in einigen Fällen sogar erlassen.

    Am 17. Mai 2024 hat zum Beispiel der US-Bundesstaat Colorado das erste umfassende KI-Gesetz in den USA erlassen, den Colorado AI Act. In Kraft treten wird das Gesetz am 1. Februar 2026. Das Gesetz verlangt unter anderem von Entwicklern und Betreibern von Hochrisiko-KI-Systemen (high-risk AI systems), dass sie algorithmische Diskriminierung (algorithmic discrimination) vermeiden und schreibt die Meldung aller Fälle von Diskriminierung an die Generalstaatsanwaltschaft von Colorado vor. Im Rahmen des Gesetzes wird jedes KI-System, das ein wesentlicher Faktor für Folgeentscheidungen ist, als "hochriskant“ angesehen. Ferner sieht das Gesetz vor, dass die Betreiber von Hochrisiko-KI-Systemen die Verbraucher:innen darüber informieren, dass sie einem Hochrisiko-KI-System unterliegen.

    In einer Vielzahl von US-Bundesstaaten finden sich Regelungen zur Entwicklung und Verwendung von KI-Systemen in dem jeweiligen Datenschutzgesetz. Der California Consumer Privacy Act (CCPA) enthält zum Beispiel Bestimmungen über die Verwendung automatisierter Entscheidungsfindungssysteme. Der CCPA räumt Verbrauchern unter anderem ein Widerspruchsrecht in Bezug auf die Verwendung von Technologien zur automatisierten Entscheidungsfindung durch Unternehmen ein. Hierzu gehört unter anderem das Profiling von Verbrauchern auf der Grundlage ihrer Arbeitsleistung, wirtschaftlichen Situation, Gesundheit, persönlichen Vorlieben, Interessen, Zuverlässigkeit, ihres Verhaltens oder ihres Standorts.

    Gesetze zur Regulierung von KI findet man außerdem in den US-Bundesstaaten Connecticut, Delaware, District of Columbia, Florida, Georgia, Illinois, Indiana, Maine, Maryland, Montana, New Hampshire, New Jersey, New York, Oregon, Texas, Tennessee und Virginia.

    Zum Thema:

    Von Jan Sebisch | Bonn

  • Gesetz über künstliche Intelligenz in Peru

    Als erstes Land der Welt, das ein spezifisches Gesetz über künstliche Intelligenz (KI) verabschiedet hat, geht Peru nun mit der Regulierung voran. (Stand: 21.10.2024)

    Peru war das erste Land der Welt, das ein spezifisches nationales Gesetz über künstliche Intelligenz verabschiedet hat (Gesetz Nr. 31814 vom 5. Juli 2023). Mit dem Schwerpunkt auf nachhaltiger Entwicklung legt das Gesetz die Förderung neu entstehender Technologien fest. Es enthält zudem wesentliche Definitionen und bestimmt die für die KI zuständige Behörde. Die volle Wirksamkeit des Gesetzes hängt noch von der Regulierung ab, deren Überarbeitung unter breiter Beteiligung des Privatsektors in der Endphase ist.

    Ziele, Grundsätze und nationales Interesse

    Das Hauptziel des peruanischen Gesetzes besteht darin, die Entwicklung und Nutzung künstlicher Intelligenz im Rahmen des digitalen Transformationsprozesses des Landes zu regeln. Das Gesetz legt ausdrücklich fest, dass diese Nutzung „ethisch“ und „nachhaltig“ sein muss, um der wirtschaftlichen und sozialen Entwicklung des Landes auf der Grundlage einer sicheren Cyberumgebung Vorrang zu geben. Darüber hinaus legt das Gesetz einige wesentliche Grundsätze fest, die die Entwicklung der künstlichen Intelligenz in Peru leiten. Zu den wichtigsten für Unternehmen gehören:

    1. Risikobasierte Sicherheitsstandards
    2. Beteiligung des Privatsektors und anderer Akteure an der konkreten Regulierung des Einsatzes von künstlicher Intelligenz im Lande
    3. Förderung der digitalen Wirtschaft, der Konnektivität und der Innovation im Hinblick auf das soziale und wirtschaftliche Wohlergehen
    4. Schutz der Privatsphäre der Menschen.

    Das KI-Gesetz stellt außerdem ausdrücklich fest, dass es im nationalen Interesse liegt, „aufkommende Technologien“ (tecnologías emergentes) zu fördern, um unter anderem öffentliche Dienstleistungen wie Bildung, Gesundheit, Justiz, Sicherheit und Landesverteidigung sowie wirtschaftliche Aktivitäten im gesamten peruanischen Staatsgebiet zu optimieren.

    Begriffsbestimmungen

    Aus der Sicht der Rechtsanwendung liegt die Bedeutung des peruanischen Gesetzes vor allem in den enthaltenen Begriffsbestimmungen. Drei Begriffe sind sowohl für zusätzliche Regelungen als auch für künftige Rechtsprechung besonders relevant:

    • Aufkommende Technologie: Darunter versteht das Gesetz „digitale Technologien“, mit denen innovative Lösungen für die Industrie 4.0 geschaffen werden können, unter anderem künstliche Intelligenz, Robotik und Nanotechnologie.
    • Künstliche Intelligenz: Aufkommende Technologie, die das Potenzial hat, „Innovation und Produktivität zu steigern“, das menschliche Wohlbefinden zu erhöhen und zu einer nachhaltigen globalen Wirtschaftstätigkeit beizutragen.
    • Auf künstlicher Intelligenz basierendes System: Ein elektronisch-mechanisches System, das nach menschlichen Zielvorgaben entwickelt wurde, um mit verschiedenen Autonomiestufen zu funktionieren, welches Vorhersagen, Empfehlungen oder Entscheidungen treffen kann und „reale oder virtuelle Umwelten“ beeinflusst.

    Zuständige Behörde

    Zusätzlich zu den Definitionen legt das Gesetz auch den Vorsitz des Ministerrats (Presidencia del Consejo de Ministros - PCM) als zuständige Behörde fest, und zwar über das Sekretariat für digitale Transformation (Secretaría de Gobierno y Transformación Digital - SGTD). Neben anderen Aufgaben ist der PCM befugt, die Ausbildung von Fachleuten, die Verabschiedung von ethischen Richtlinien, die Stärkung der digitalen Infrastruktur und die Entwicklung einer Dateninfrastruktur für öffentliche Informationen zu fördern.

    Neben seiner Regulierungsfunktion überwacht der PCM auch den Einsatz von künstlicher Intelligenz in Peru. Er informiert den Kongress der Republik (Congreso de la República) durch jährliche Berichte über die Fortschritte bei der digitalen Transformation. Und im Falle von ernsthaften Bedrohungen oder Verletzungen der nationalen Cybersicherheit ist der PCM verpflichtet, das Parlament unverzüglich zu benachrichtigen.

    Regulierungsprozess

    Obwohl die Regulierung innerhalb von 90 Tagen nach Inkrafttreten des Gesetzes hätte verabschiedet werden müssen, wurde diese Frist nicht eingehalten. Die Ausarbeitung der Regulierung erwies sich als aufwändig, da sie die Beteiligung zahlreicher sozialer Akteure erfordert. Daher wird der Regulierungsprozess fortgesetzt, laut einer am 6. September 2024 veröffentlichten Mitteilung des Sekretariats für digitale Transformation (SGTD). Der Regulierungsentwurf wird unter anderem von Vertretern der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) geprüft. Nach Abschluss der Prüfung wird sie per Dekret des PCM verkündet.

    Zum Thema:

    Von Dr. Julio Pereira | Berlin

  • Künstliche Intelligenz: EU-Regulierung tritt stufenweise in Kraft

    Am 12. Juli wurde die Verordnung (EU) 2024/1689, besser bekannt als AI Act, im Amtsblatt veröffentlicht. Sie schafft neue Pflichten – nicht nur für die Hersteller von KI-Systemen. (Stand: 15.07.2024)

    Nicht jede KI wird reguliert

    Der AI Act verfolgt einen risikobasierten Ansatz. Er teilt KI-Systeme in Risiko-Kategorien ein:

    Inakzeptables Risiko 

    Diese Kategorie bezeichnet der AI Act als „verbotene Praktiken“ (Artikel 5). Hier liegt der Fokus auf dem Einsatz der KI, aber auch das Inverkehrbringen und die Inbetriebnahme solcher Systeme sind in der EU verboten. Dies betrifft zum Beispiel sogenannte Social Scoring Systeme, die das Verhalten von Bürgerinnen und Bürgern aufzeichnen, bewerten und klassifizieren. Auch andere Arten der Beeinflussung und Manipulation des Verhaltens einer Person oder Personengruppe sind verboten, wenn sie geeignet sind, diesen Personen oder Gruppen Schaden zuzufügen.

    Hochrisiko KI-Systeme (Artikel 6 ff.) 

    Diese Systeme sind in Anhang III der Verordnung aufgezählt. Sie fallen allerdings nur dann in diese Kategorie, wenn sie ein erhebliches Risiko der Beeinträchtigung in Bezug auf die Gesundheit, Sicherheit oder Grundrechte natürlicher Personen bergen. Hochrisiko KI wird sehr streng reguliert. So muss ein Risikomanagementsystem eingerichtet, angewandt, dokumentiert und aufrechterhalten werden. Das System muss registriert werden, es muss eine technische Dokumentation erstellt werden, seine Aktionen müssen aufgezeichnet werden und es muss einer menschlichen Steuerung zugänglich sein. Hochrisiko KI-Systeme müssen zudem eine Konformitätsbewertung durchlaufen und mit einer CE-Kennzeichnung versehen werden. 

    Begrenztes Risiko (Artikel 50 ff.) 

    Hier stehen die Transparenzpflichten im Vordergrund (siehe insbesondere Artikel 50). So müssen Chatbots als solche erkennbar sein, entsprechendes gilt für KI-generierte Audio-, Bild-, Video- oder Textinhalte. Weitere Pflichten betreffen insbesondere die Anbieter von KI (Artikel 53 ff.): technische Dokumentation, eine Strategie zur Einhaltung von Urheberrechten und eine Dokumentation der für das Training der KI-Modelle verwandten Daten sind obligatorisch.

    Alle anderen KI-Systeme sind – abgesehen von den Transparenzpflichten (siehe oben) – nicht spezifisch reguliert. 

    Neue Pflichten – nicht nur für OpenAI & Co

    Hochrisiko-KI-Systeme schaffen nicht nur Pflichten für Anbieter, sondern auch für Bevollmächtigte der Anbieter (Artikel 22), Einführer (Artikel 23), Händler (Artikel 24) und Betreiber (Artikel 26). Bei Einfuhr und Inverkehrbringen muss insbesondere darauf geachtet werden, dass für die Systeme CE-Kennzeichnung und Konformitätsbewertung vorliegen; Betreiber müssen geeignete technische und organisatorische Maßnahmen treffen, um sicherzustellen, dass sie solche Systeme entsprechend der den Systemen beigefügten Betriebsanleitungen verwenden. Außerdem übertragen sie die Aufsicht über die Systeme ausschließlich natürlichen Personen, die über die erforderliche Kompetenz, Ausbildung und Befugnis verfügen. Gemäß Artikel 25 treffen Händler, Einführer, Betreiber oder sonstige Dritte als Anbieter eines Hochrisiko-KI-Systems sogar die kompletten Anbieterpflichten aus Artikel 16 der Verordnung, nämlich dann, wenn sie ein System mit ihrem Namen oder ihrer Handelsmarke versehen oder eine wesentliche Veränderung vornehmen, insbesondere, wenn diese Veränderung dazu führt, dass das System als Hochrisiko-System einzustufen ist.

    Innovationen sollen gefördert werden

    Künstliche Intelligenz soll nicht nur reguliert, sondern auch gefördert werden. Dazu werden die Mitgliedstaaten verpflichtet, Reallabore einzurichten, die spätestens bis 2. August 2026 betriebsbereit sein müssen (Artikel 57). So können in einer kontrollierten Umgebung Tests und Entwicklungen unter Realbedingungen durchgeführt werden. Die zuständigen Behörden unterstützen die Nutzenden umfassend, insbesondere im Hinblick auf Grundrechte, Gesundheit und Sicherheit, Tests und Risikominderungsmaßnahmen sowie deren Wirksamkeit. Die Mitgliedstaaten gewähren KMU und Start-ups, die ihren Sitz oder eine Zweigniederlassung in der EU haben, vorrangigen Zugang zu den Reallaboren. Unterstützt werden die Mitgliedstaaten hierbei – wie auch bei anderen Aufgaben – durch das ebenfalls durch den AI Act eingeführte Büro für Künstliche Intelligenz der EU (Artikel 64).    

    Zeitlich abgestuftes Inkrafttreten

    Der AI Act tritt 20 Tage nach seiner Veröffentlichung im Amtsblatt der EU in Kraft, also am 2. August 2024. Die vollständige Anwendbarkeit der Verordnung erfolgt jedoch gestaffelt (Artikel 113):

    • 2. Februar 2025: Verbot von KI-Systemen mit inakzeptablem Risiko (Artikel 1 bis 5);
    • 2. August 2025: insbesondere Sanktionen (Artikel 99 ff.) und Verhaltenskodizes und Regeln für KI mit allgemeinem Verwendungszweck (Artikel 51 ff); 
    • 2. August 2026: Allgemeine Anwendbarkeit der meisten Vorschriften bis auf Artikel 6 Abs. 1 und die entsprechenden Pflichten;
    • 2. August 2027: Verpflichtungen für Hochrisiko-KI-Systeme (Artikel 6 Abs. 1).

    Sanktionen bei Nichteinhaltung

    Unternehmen, die gegen die Vorschriften des AI Act verstoßen, müssen mit erheblichen Sanktionen rechnen. Auch hier gibt es Abstufungen: Geldbußen von bis zu 35 Millionen Euro oder 7 Prozent des gesamten weltweiten Jahresumsatzes, je nachdem, welcher Betrag höher ist, werden fällig, wenn verbotene KI (Artikel 5) eingesetzt wird. Verstöße gegen die meisten anderen Vorschriften werden mit bis zu 15 Millionen Euro oder von bis zu 3 Prozent des gesamten weltweiten Jahresumsatzes, je nachdem, welcher Betrag höher ist, geahndet. Achtung: hierunter fallen nicht nur die Pflichten der Anbieter, sondern auch diejenigen der Bevollmächtigten, Händler, Einführer und Betreiber. Verstöße gegen Transparenzanforderungen können immer noch mit Geldstrafen von bis zu 7,5 Millionen Euro oder 1,5 Prozent des Jahresumsatzes geahndet werden.

    Zum Thema: 

    Von Karl Martin Fischer | Bonn

  • Gemeinsamer Leitfaden für den Einsatz von KI-Systemen

    Die Cybersicherheitsbehörden der USA, Kanadas, Australiens, Neuseelands und Großbritanniens haben einen gemeinsamen Leitfaden für den Einsatz von KI-Systemen veröffentlicht. (Stand: 10.06.2024)

    Das US-National Security Agency’s Artificial Intelligence Security Center (NSA AISC) hat in Zusammenarbeit mit dem Federal Bureau of Investigation (FBI), dem Australian Signals Directorate’s Australian Cyber Security Centre (ASD ACSC), dem Canadian Centre for Cyber Security (CCCS) und dem New Zealand National Cyber Security Centre (NCSC-NZ) sowie dem United Kingdom’s National Cyber Security Centre (NCSC-UK) am 16. April 2024 einen Leitfaden für den sicheren Einsatz von KI-Systemen veröffentlicht. 

    Im Rahmen des Leitfadens werden Methoden zum Schutz von Daten und Systemen, die Künstliche Intelligenz (KI) nutzen, sowie zur Reaktion auf bösartige Aktivitäten beschrieben. Zudem soll der Leitfaden die Integrität von KI-Systemen verbessern. Die Cybersicherheitsbehörden empfehlen Unternehmen, die extern entwickelte KI-Systeme einsetzen, Sicherheitsmaßnahmen zu implementieren, die den Diebstahl sensibler Daten und den Missbrauch von KI-Systemen verhindern.

    Zum Thema: 

    Von Jan Sebisch | Bonn

  • Wie reguliert das Vereinigte Königreich künstliche Intelligenz?

    Die Konsultation zum White Paper über KI-Regulierung ist abgeschlossen. Die britische Regierung wählt eine andere Herangehensweise als die EU - zumindest bis auf weiteres. (Stand: 31.05.2024)

    Wie wird Künstliche Intelligenz definiert?

    Das Weißbuch beschreibt Künstliche Intelligenz (KI), KI-Systeme und/oder KI-Technologien als "Produkte und Dienstleistungen, die 'anpassungsfähig' und 'autonom' sind". Eine erschöpfende Definition gibt es nicht, aber zumindest konkrete Beispiele für die oben genannten Begriffe: In Bezug auf die Anpassungsfähigkeit betont das White Paper, dass KI-Systeme oft die Fähigkeit entwickeln, aus vorhandenen Informationen Schlüsse zu ziehen, die ihre menschlichen Programmierer nicht vorausgesehen hatten. In Bezug auf die Autonomie der KI sagt das Weißbuch, dass KI-Systeme unter Umständen schon Entscheidungen treffen können, ohne dass es eine ausdrückliche Absicht oder laufende Kontrolle eines Menschen gegeben hat.

    Welche KI-spezifischen Risiken werden identifiziert?

    Im Weißbuch werden spezifische Risiken genannt, die durch die Nutzung von KI entstehen können. 

    • Risiken für die Menschenrechte (Beispiel: generative KI wird genutzt, um Deepfake-Videoinhalte zu erstellen, die den Ruf einer Person schädigen)
    • Sicherheitsrisiken (Beispiel: ein auf LLM-Technologie basierendes KI-System empfiehlt eine gefährliche Aktivität, die es im Internet gefunden hat, ohne den Kontext in der ursprünglichen Quelle zu verstehen oder zu kommunizieren)
    • Risiken für die Fairness (Beispiel: ein KI-Tool bewertet mit falschen oder veralteten Daten die Kreditwürdigkeit, so dass Kredite gar nicht oder zu unangemessenen Bedingungen angeboten werden)
    • Risiken für die Privatsphäre und die Handlungsfähigkeit (Beispiel: vernetzte Geräte sammeln in einem Haushalt kontinuierlich Daten – einschließlich Gesprächen – und erstellen ein möglicherweise nahezu vollständiges Porträt des Privatlebens einer Person)
    • Risiken für Demokratie und Gesellschaft (Beispiel: von KI erzeugte und verbreitete Desinformationen über politische oder gesellschaftliche Fakten können das Vertrauen in demokratische Institutionen und Prozesse untergraben)
    • Risiken für die Sicherheit (Beispiel: KI-Tools werden verwendet, um die Auswirkungen gezielter Cyberangriffe zu automatisieren, zu beschleunigen und zu verstärken).

    Diese Risiken sollen durch einen auf Prinzipien basierenden Regulierungsansatz ausgeschaltet oder doch zumindest gemindert werden. Dabei soll immer ein verhältnismäßiger Ansatz gewählt werden. Das bedeutet, dass die Intensität der Regulierung von der Wichtigkeit des bedrohten Rechts und der Schwere der Beeinträchtigung abhängen muss.

    Welcher Regulierungsansatz wird gewählt?

    In ihrer Antwort auf die Konsultation zum Weißbuch erläutert die Regierung ihre künftige Herangehensweise an die KI-Regulierung. Es wird aktuell kein formelles Gesetz mit Ge- und Verboten geben. Der britische Ansatz unterscheidet sich also fundamental von demjenigen der EU. 

    Die britische Regierung hat etliche Regulierungsbehörden dazu aufgefordert, ihre strategische Herangehensweise an das Thema KI zu veröffentlichen. Einige Beispiele gibt es insofern bereits, so etwa vom Information Commissioner oder der Medicines and Healthcare products Regulatory Agency. Weitere, so zum Beispiel Ofgem oder die Civil Aviation Authority, haben entsprechende Veröffentlichungen für später im Jahr 2024 angekündigt.

    Die Behörden sollen auch weiterhin selbst regulieren, auch sofern künstliche Intelligenz betroffen ist. Allerdings sollen sie dabei an fünf Prinzipien gebunden sein, die die Regierung vorgibt und die sektorübergreifend die Regulierung der künstlichen Intelligenz prägen sollen:

    1. KI muss sicher und robust sein, also verlässlich. Dies dürfte ganz besonders bei technischen Anwendungen relevant sein, etwa bei selbstfahrenden Autos. Diese Anforderung resultiert in einer umfassenden Pflicht, die Risiken der jeweiligen KI regelmäßig einzuschätzen und zu kontrollieren.
    2. KI muss transparent und erklärbar sein, insbesondere in Bezug auf die Natur und den Zweck des jeweiligen KI-Systems, die benutzten Daten und auch die Verantwortlichkeit für das System und seine Ergebnisse. 
    3. KI muss fair sein, zum Beispiel wenn sie zur Beurteilung der Kreditwürdigkeit einer Person oder eines Unternehmens eingesetzt wird.
    4. Rechenschaftspflicht und Governance: Die Regulierungsbehörden bestimmen, wer für die KI und ihre Ergebnisse verantwortlich ist. Sie unterstützen beispielsweise in puncto Risikomanagement und Berichtspflichten. 
    5. Anfechtbarkeit und Wiedergutmachung: Entscheidungen, die KI getroffen hat, dürfen nie das letzte Wort sein. Sollte ein Schaden eingetreten sein, muss angemessene Entschädigung gewährleistet sein. 

    Die britische Regierung hält diesen Regulierungsansatz, der auf Gesetze verzichtet, für besonders agil. Damit sei er besonders geeignet, den aktuellen Veränderungen einer sich sehr schnell entwickelnden Technologie gerecht zu werden. Ausdrücklich bleibt eine gesetzliche Regelung aber für einen späteren Zeitpunkt vorbehalten.

    Zum Thema: 

    Von Karl Martin Fischer | Bonn

  • Regelungen zu generativer KI in China

    Seit 15. August 2023 sind in China die "Interim Measures for the Management of Generative Artificial Intelligence Services" bezüglich des Angebots generativer KI-Dienste in Kraft. (Stand: 25.08.2023)

    Mit der Technologie der generativen künstlichen Intelligenz (KI) können etwa Texte, Videos oder Bilder geschaffen werden. Anbieter generativer KI-Dienste sind nach den neuen Regeln solche Organisationen und Einzelpersonen, die mittels dieser Technologie entsprechende KI-Dienste bereitstellen (Begriffsbestimmungen in Art. 22 der Measures).

    Die 24 Artikel umfassenden Übergangsbestimmungen (chinesische Fassung) gehören zu den ersten derartigen KI-Regeln der Welt überhaupt. Sie enthalten Vorgaben für Anbieter generativer KI-Dienste und basieren insbesondere auf dem chinesischen Cybersicherheitsgesetz, dem Datensicherheitsgesetz sowie dem Gesetz zum Schutz persönlicher Daten.

    Wer generative KI-Dienste anbietet, hat nach den Maßnahmen bestimmte Verpflichtungen, vor allem in Bezug auf den Datenschutz und Schutz geistigen Eigentums (dazu Art. 7 ff.). Bei Verstößen greifen insbesondere die Sanktionsmöglichkeiten der genannten Gesetze, Art. 21.

    Die Bestimmungen gelten innerhalb Chinas (Art. 2). Werden entsprechende KI-Dienste außerhalb Chinas der Öffentlichkeit in China bereitgestellt, kann Chinas nationale Cyberspace-Behörde Verstöße gegen chinesisches Recht den zuständigen Institutionen zur Maßnahmenergreifung melden, Art. 20. Unter anderem ist zu beachten, ob es in der jeweiligen Branche Beschränkungen für ausländische Investitionen gibt (vgl. Art. 23 Abs. 2).

    In China soll in naher Zukunft ein eigenes KI-Gesetz entstehen.

    Zum Thema:

    Von Julia Merle | Bonn

nach oben
Feedback
Anmeldung

Bitte melden Sie sich auf dieser Seite mit Ihren Zugangsdaten an. Sollten Sie noch kein Benutzerkonto haben, so gelangen Sie über den Button "Neuen Account erstellen" zur kostenlosen Registrierung.