Artificial Intelligence Act (AI Act) – Das aktuelle EU-Gesetz über die Nutzung und Entwicklung von Künstlicher Intelligenz – Der Artificial Intelligence Act (AI Act) ist ein Gesetz der Europäischen Union, der darauf abzielt, die Nutzung und Entwicklung von Künstlicher Intelligenz (KI) innerhalb der EU zu regulieren.

Artificial Intelligence Act – Das Wichtigste in Kürze:

  • AI Act kategorisiert KI-Systeme in vier Risikostufen
  • Vorgaben für Hochrisiko-KI-Systeme
  • Transparenzanforderungen für bestimmte KI-Systeme
  • inrichtung von „regulatorischen Sandkästen“
  • Verstöße gegen die Vorschriften des AI Acts sind hohe Geldstrafen vorgesehen

Artificial Intelligence Act (AI Act) - EU-Gesetz über die Nutzung und Entwicklung von Künstlicher Intelligenz

Artificial Intelligence Act (AI Act)

Die Europäische Union hat einheitliche Regeln für den Einsatz von Künstlicher Intelligenz (KI) – Artificial Intelligence Act (AI Act) – beschlossen und hofft, damit weltweit einen Standard zu setzen.  Die EU-Staaten stimmten für schärfere Regeln der KI, die die Nutzung der Technologien in Bereichen wie Videoüberwachung, Spracherkennung und der Auswertung von Finanzdaten regeln. Das Gesetz, das erst ab Frühjahr 2026 in Kraft tritt, ist nach Angaben der EU-Länder das weltweit erste seiner Art und könnte einen globalen Standard für die Regulierung von KI setzen. Das Gesetz gilt für alle, die KI-Systeme innerhalb der EU entwickeln, anbieten oder nutzen, und betrifft sowohl öffentliche als auch private Akteure innerhalb und außerhalb der EU. Der AI Act ist Teil der umfassenderen Digitalstrategie der EU, die darauf abzielt, Europa im Bereich der digitalen Technologien wettbewerbsfähig zu machen und gleichzeitig hohe ethische Standards und Schutzmaßnahmen zu gewährleisten.

Was ist das EU-Gesetz zur künstlichen Intelligenz?

Das Gesetz regelt den Zugang zum EU-Binnenmarkt anhand des Neuen Rechtsrahmens. Es enthält grundlegende Anforderungen, die alle KI-Systeme erfüllen müssen, um Zugang zum EU-Markt zu erhalten.

EU Artificial Intelligence Act (AI Act)

Die wichtigsten Aspekte des AI Acts:

Risikobasierter Ansatz: Der AI Act kategorisiert KI-Systeme in vier Risikostufen: unannehmbares Risiko, hohes Risiko, begrenztes Risiko und minimales Risiko. KI-Systeme mit unannehmbarem Risiko (z.B. Social Scoring durch Regierungen) werden verboten, während Systeme mit hohem Risiko (z.B. in den Bereichen Gesundheit, Bildung, Strafverfolgung) strengen Vorschriften unterliegen.

Vorgaben für Hochrisiko-KI-Systeme: Diese müssen strengen Anforderungen entsprechen, einschließlich transparenter Dokumentation, Risikobewertung, Datenqualität und menschlicher Aufsicht. Anbieter müssen sicherstellen, dass ihre Systeme sicher und zuverlässig sind, bevor sie auf den Markt gebracht werden.

Transparenzanforderungen: Für bestimmte KI-Systeme mit begrenztem Risiko, wie z.B. Chatbots, müssen die Nutzer darüber informiert werden, dass sie mit einer KI interagieren.

Governance und Durchsetzung: Es wird ein Europäischer Ausschuss für Künstliche Intelligenz eingerichtet, der die Umsetzung des Gesetzes überwacht und Leitlinien bereitstellt. Nationale Behörden werden für die Durchsetzung und Einhaltung der Vorschriften verantwortlich sein.

Innovation und Sandboxes: Der AI Act fördert Innovation durch die Einrichtung von „regulatorischen Sandkästen“, in denen Unternehmen in einem kontrollierten Umfeld neue Technologien testen können.

Strafen: Für Verstöße gegen die Vorschriften des AI Acts sind hohe Geldstrafen vorgesehen, die bis zu 6 % des weltweiten Jahresumsatzes eines Unternehmens betragen können.

Was bewirkt das KI-Gesetz?

Das KI-Gesetz soll sicherstellen, dass KI-Systeme in der EU sicher sind und Grundrechte und Werte respektiert werden. Die Ziele sind, Investitionen und Innovationen im Bereich KI zu fördern, die Governance und Durchsetzung zu verbessern und einen EU-Binnenmarkt für KI zu fördern.

Artificial Intelligence Act Europe

Die Regelung zielt darauf ab, die Nutzung von KI in der EU sicherer zu machen. Sie soll sicherstellen, dass KI-Systeme möglichst transparent, nachvollziehbar, nicht diskriminierend und umweltfreundlich sind. Ein wichtiger Aspekt ist, dass die KI-Systeme von Menschen überwacht werden und nicht nur von anderen Technologien. Ein zentraler Punkt der Regelung ist die Kennzeichnungspflicht. Entwickler müssen KI-erzeugte Texte, Töne und Bilder kennzeichnen, um Missverständnisse zu vermeiden. Fachleute halten dies jedoch wegen der Fülle des Materials für schwer kontrollierbar.

Bestimmte KI-Anwendungen, die gegen EU-Werte verstoßen, sollen ganz verboten werden. Dazu gehört die Massenüberwachung mit biometrischen Daten oder die Bewertung von sozialem Verhalten („Social Scoring“), wie es in China praktiziert wird.

Ella Media AG - Squarevest Profil

KI Chatbot ChatGPT eine Hochrisiko-Anwendung?

Die Bundesregierung hatte sich auf EU-Ebene dafür eingesetzt, sogenannte Allzweck-KI wie den Chatbot ChatGPT nicht als Hochrisiko-Anwendung einzustufen. Bundesdigitalminister Volker Wissing: „Wir können nicht erwarten, dass wir mit einer Regulierung die Zukunftsfragen abschließend klären. Deswegen war ich immer dafür, dass wir schnell uns auf den Weg der Regulierung machen, aber auch den Mut haben, kontinuierlich nachzusteuern. Wichtig sei, dass die Innovationsfreundlichkeit der Regulierung immer im Blick behalten werde.

Trotz der Tatsache, dass Unternehmen die Vorschriften des AI Acts erst in zwei Jahren umsetzen müssen, rät eine Sprecherin des Bundeswirtschaftsministeriums dazu, bereits jetzt eine Bestandsaufnahme ihrer KI-Systeme zu machen und hochriskante Systeme gemäß den Anforderungen zu überprüfen.

Der AI Act der Europäischen Union soll die Menschen vor Desinformation und schwerwiegenden Gefahren schützen, die durch Künstliche Intelligenz (KI) entstehen können. Ein zentraler Punkt dabei: Unternehmen, die KI nutzen, müssen umfangreiche Prüfverfahren durchlaufen.

 

Michael Keusgen – CEO der ELLA AG: Wir erwarten, dass KI maßgeblich unser Leben bestimmen, einfacher und bequemer machen wird. Wir sollten uns daher Gedanken machen, wie wir das regulieren bzw. kennzeichnen. Der Mensch kann durch KI effektiver Arbeiten und hat eine geringere Fehlerquote. Für die Erstellung von Texten bedeutet das, dass sich Redakteure, Content-Manager etc. lästige Arbeiten vom Hals halten und auf das Wesentliche konzentrieren können.

Artificial Intelligence Act – Konformitätserklärung

Um sicherzustellen, dass diese KIs keine Grundrechte verletzen oder Schaden anrichten, verlangt der AI Act von Unternehmen, ihre KI-Systeme gründlich zu testen. Zudem müssen sie eine Konformitätserklärung abgeben, die bestätigt, dass alle Vorschriften eingehalten werden.

Eine Konformitätserklärung ist ein Dokument, in dem der Hersteller oder Anbieter eines Produkts bestätigt, dass dieses Produkt alle relevanten gesetzlichen Anforderungen und Normen erfüllt. Im Kontext des Artificial Intelligence Act (AI Act) der EU bedeutet dies, dass der Anbieter eines KI-Systems nachweisen muss, dass das System den Vorgaben des AI Act entspricht. Mehr zur Konformitätserklärung (Hinweise) am Ende des Beitrages.

Artificial Intelligence Act – Herausforderungen für Start-ups

In Deutschland fehlen bisher die vom AI Act vorgesehenen Testlabore für kleine und mittlere Unternehmen. Robert Richter, Leiter des Gründerzentrums „Werk 1“ in München, befürchtet, dass dies zur Abwanderung junger Talente führen könnte. Erste Umfragen zeigen, dass 30 bis 50 Prozent der Start-ups in die Risikoklasse 3 fallen. Diese Unternehmen müssten nun deutlich mehr Dokumentations- und Transparenzpflichten erfüllen. Richter warnt vor den Folgen: „Es ist nicht nur Kapital, das mittlerweile über Landesgrenzen hinweg fließt. Heutzutage brauche ich keine großen Produktionskapazitäten mehr. Mit einem Laptop und Mobile-Office kann ein Start-up den Unternehmenssitz innerhalb von 15 Minuten in ein Land verlegen, in dem die Regularien weniger streng sind.“

Der AI Act stellt somit einen bedeutenden Schritt zum Schutz vor den Risiken der KI dar, birgt jedoch auch Herausforderungen für die Innovationskraft und Wettbewerbsfähigkeit europäischer Unternehmen.

Definition eines KI-Systems

Ein KI-System besteht aus vier Hauptkomponenten:

  • Es ist ein maschinengestütztes System.
  • Es ist für einen mehr oder weniger autonomen Betrieb ausgelegt.
  • Es kann nach der Einführung anpassungsfähig sein.
  • Es leitet aus erhaltenen Eingaben explizite oder implizite Ziele ab, um Ergebnisse zu erzeugen, die die physische oder virtuelle Umgebung beeinflussen.

KI-VO kategorisiert KI-Systeme in drei Risikostufen

Unannehmbares Risiko: Verbotene Systeme, die inakzeptable Beeinflussungen verursachen können.

Hohes Risiko: Streng regulierte Systeme, insbesondere im HR-Bereich für Einstellung, Bewertung und Überwachung von Mitarbeitern.

Geringes oder minimales Risiko: Weniger strenge Anforderungen, z.B. Chatbots, die eine offensichtliche Interaktion ermöglichen müssen.

Transparenzpflichten über die Interaktion mit dem KI-System

Pflichten für Betreiber:

  • Verwendung der KI-Systeme gemäß den Gebrauchsanweisungen.
  • Bestimmung einer natürlichen Person zur Überwachung der KI-Systeme.
  • Information von Arbeitnehmervertretern und betroffenen Arbeitnehmern über den Einsatz von Hochrisiko-KI-Systemen.

Die KI-VO stellt Unternehmen vor neue Herausforderungen, bietet aber auch Chancen für technologischen Fortschritt und Vertrauen. Eine enge Zusammenarbeit zwischen HR-, Rechts- und Datenschutzabteilungen wird notwendig sein. Zudem bleibt abzuwarten, ob die Bundesregierung für Arbeitnehmer günstigere Vorschriften erlässt.

Artificial Intelligence Act EU: Was bedeutet er für Unternehmen?

Mit dem Artificial Intelligence Act (AIA) hat die EU-Kommission im Rahmen der EU-Digitalstrategie ein Gesetz beschlossen, das den Umgang mit Künstlicher Intelligenz (KI) in Forschung und Wirtschaft regelt. Das Gesetz enthält konkrete Vorschläge zur Regulierung von KI-Systemen, um eine sichere und vertrauenswürdige Nutzung zu gewährleisten.

Wer ist vom AI Act betroffen?

  • Alle juristischen Personen, Behörden, Einrichtungen oder sonstige Stellen, die KI-Systeme in der EU in Verkehr bringen oder in Betrieb nehmen.
  • Personen oder Organisationen, die KI-Systeme in der EU verwenden. Dies umfasst auch Privatpersonen.
  • Die Regelungen gelten auch für Akteure aus Drittstaaten, sobald die KI in der EU eingesetzt wird, basierend auf dem Marktortprinzip, das aus der DSGVO bekannt ist.

Hinweis: Finden Sie in 10 Minuten heraus, wie sich das KI-Gesetz auf Sie auswirken wird, indem Sie eine Reihe einfacher Fragen beantworten. Nutzen Sie das interaktive Tool, um festzustellen, ob Ihr KI-System davon betroffen ist oder nicht.

Artikel 5 Nr. 1 des AIA – KI-Anwendungen mit unannehmbarem Risiko sind untersagt

Dazu gehören Anwendungen, die – nach Artikel 5 – Nr. 1:

  • Menschliches Verhalten manipulieren und Schaden verursachen könnten.
  • Eine nachteilige Bewertung aufgrund von sozialem Verhalten oder persönlichen Charakteristika ermöglichen.
  • Echtzeit-Biometrie zur Identifizierung in der Öffentlichkeit verwenden, außer zur Terrorabwehr oder zur Aufklärung schwerer Straftaten.

Kritik am Gesetz

Kritik am Artificial Intelligence Act (AI Act)

Kritiker befürchten jedoch, dass die Regelungen des Artificial Intelligence Act (AI Act) schnell überholt sein könnten. Der Artificial Intelligence Act (AI Act) der EU wird zwar als wichtiger Schritt zur Regulierung von Künstlicher Intelligenz (KI) und zum Schutz der Bürgerrechte angesehen, jedoch gibt es auch Kritikpunkte, die von verschiedenen Interessengruppen und Experten geäußert wurden.

Der Digitalverband Bitkom kritisierte, dass das KI-Gesetz wesentliche Fragen offen lasse. In Deutschland und anderen EU-Ländern beginne die Regulierungsarbeit jetzt erst, sagte Verbandspräsident Ralf Wintergerst. Ob KI in Deutschland und Europa einen Schub erhalte oder vor allem vor neue Hindernisse gestellt werde, hänge entscheidend davon ab, wie dieser Rahmen ausgestaltet werde und die Regelungen in Deutschland umgesetzt würden. Weitere kritische Stimmen befürchten, dass die EU-Vorgaben in zwei Jahren bereits veraltet sein könnten.

Kritiker befürchten, dass die strengen Vorschriften und umfangreichen Prüfverfahren insbesondere kleine Unternehmen und Start-ups benachteiligen könnten. Die Kosten und der zeitliche Aufwand für die Einhaltung der Regularien könnten Innovationen behindern und Unternehmen dazu veranlassen, ihre Aktivitäten außerhalb der EU zu verlagern.

Die zahlreichen Anforderungen und die Notwendigkeit umfassender Dokumentation und Prüfverfahren könnten eine erhebliche bürokratische Belastung darstellen. Dies könnte dazu führen, dass Unternehmen mehr Ressourcen für Compliance als für die eigentliche Entwicklung von KI-Technologien aufwenden müssen.

Es besteht die Sorge, dass die EU durch ihre strengen Regularien im globalen Wettbewerb benachteiligt wird. Während andere Regionen möglicherweise weniger strenge Vorschriften haben, könnten Unternehmen in der EU durch den AI Act in ihrer Wettbewerbsfähigkeit eingeschränkt werden. Unternehmen könnten sich entscheiden, ihre Aktivitäten in Länder mit weniger strengen Vorschriften zu verlagern, was zu einem Verlust an Talenten und Investitionen in der EU führen könnte.

Während der AI Act darauf abzielt, den Missbrauch von KI zu verhindern, gibt es Bedenken, dass die umfangreichen Überwachungs- und Dokumentationspflichten selbst zu Datenschutzproblemen führen könnten. Unternehmen müssen umfangreiche Daten über ihre KI-Systeme sammeln und speichern, was zusätzliche Risiken bergen könnte. Einige Kritiker befürchten, dass die Regelungen zur Überwachung und Kontrolle von KI-Systemen selbst missbraucht werden könnten, um umfassendere Überwachungsmaßnahmen zu rechtfertigen.

Es gibt Bedenken hinsichtlich der praktischen Umsetzung und Durchsetzung der Regelungen. Die genaue Auslegung der Vorschriften und die Art und Weise, wie sie in verschiedenen Mitgliedsstaaten durchgesetzt werden sollen, könnten zu Unsicherheiten führen.

Die Schaffung der notwendigen Infrastruktur für die Überwachung und Prüfung von KI-Systemen, wie z.B. Testlabore für kleine und mittlere Unternehmen, ist eine weitere Herausforderung. Bisher gibt es in vielen Ländern der EU nicht genügend Einrichtungen, um die Anforderungen des AI Act zu erfüllen.

Der AI Act stellt hohe Anforderungen an die ethische Nutzung von KI. Kritiker befürchten jedoch, dass die praktische Umsetzung dieser ethischen Prinzipien schwierig sein könnte und dass die Regelungen möglicherweise nicht ausreichen, um alle ethischen Bedenken auszuräumen.

Insgesamt zeigt die Kritik am AI Act, dass es wichtig ist, ein Gleichgewicht zwischen Regulierung und Innovation zu finden. Während die Notwendigkeit eines Rahmens zur Sicherstellung der sicheren und ethischen Nutzung von KI anerkannt wird, müssen die Regelungen flexibel genug sein, um technologische Fortschritte zu ermöglichen und die Wettbewerbsfähigkeit der EU auf dem globalen Markt zu erhalten.

Ella Media AG - Scoredex Bewertung - Seriositätscheck

Zweck und Inhalt einer Konformitätserklärung

Die Konformitätserklärung dient dazu, die Einhaltung von Vorschriften zu belegen und die Sicherheit sowie die Vertrauenswürdigkeit eines Produkts zu gewährleisten. Sie enthält in der Regel folgende Informationen:

  • Identifikation des Produkts: Detaillierte Beschreibung des KI-Systems, einschließlich Modell, Version und Seriennummer.
  • Herstellerinformationen: Name und Adresse des Herstellers oder Anbieters, der die Erklärung abgibt.
  • Rechtsvorschriften und Normen: Auflistung der relevanten EU-Richtlinien, Verordnungen und Normen, die das Produkt erfüllt.
  • Erfüllte Anforderungen: Spezifische Anforderungen und Standards, die das KI-System einhält, einschließlich technischer Spezifikationen und Sicherheitsmerkmale.
  • Bewertung und Tests: Angaben zu durchgeführten Bewertungen, Tests und Prüfverfahren, die zur Bestätigung der Konformität durchgeführt wurden.
  • Verantwortliche Person: Name und Unterschrift der Person, die für die Richtigkeit der Erklärung verantwortlich ist, sowie deren Position im Unternehmen.
  • Datum der Erklärung: Datum, an dem die Konformitätserklärung erstellt und unterzeichnet wurde.

Bedeutung der Konformitätserklärung im AI Act

Im Rahmen des AI Act hat die Konformitätserklärung besondere Bedeutung, da sie sicherstellt, dass KI-Systeme die strengen Anforderungen der Verordnung erfüllen, bevor sie auf den Markt gebracht oder in Betrieb genommen werden dürfen. Diese Anforderungen umfassen unter anderem:

  • Transparenz: Das KI-System muss nachvollziehbar und verständlich sein.
  • Sicherheit: Es müssen Maßnahmen getroffen werden, um Risiken zu minimieren.
  • Nicht-Diskriminierung: Das System darf keine diskriminierenden Praktiken fördern.
  • Umweltfreundlichkeit: Es müssen umweltfreundliche Praktiken angewendet werden.

Die Konformitätserklärung muss auf Anfrage den zuständigen Behörden vorgelegt werden können und wird häufig im Rahmen von Audits und Inspektionen überprüft.

Prozess zur Erstellung einer Konformitätserklärung

  • Bewertung des KI-Systems: Das Unternehmen führt eine umfassende Bewertung des KI-Systems durch, um sicherzustellen, dass alle Anforderungen des AI Act erfüllt sind.
  • Dokumentation der Ergebnisse: Die Ergebnisse der Bewertung und der durchgeführten Tests werden dokumentiert.
  • Erstellung der Konformitätserklärung: Basierend auf der Bewertung und Dokumentation wird die Konformitätserklärung erstellt.
  • Unterschrift und Datum: Eine verantwortliche Person im Unternehmen unterschreibt die Erklärung und fügt das Datum hinzu.
  • Bereithaltung zur Vorlage: Die Konformitätserklärung wird archiviert und kann bei Bedarf den Aufsichtsbehörden vorgelegt werden.

Durch die Konformitätserklärung wird sichergestellt, dass KI-Systeme den hohen Standards der EU entsprechen, was zur Sicherheit und zum Vertrauen der Nutzer beiträgt.