Der ratifizierte AI Act: Zwischen Sicherheit und Innovation
TLDR: Der EU AI Act (Verordnung über künstliche Intelligenz) wurde am 12. Juli 2024 im Amtsblatt der Europäischen Union veröffentlicht und tritt am 1. August 2024 in Kraft. Er ist das weltweit erste umfassende Gesetz zur Regulierung von künstlicher Intelligenz (KI). Kernpunkte des AI Act sind zB Strenge Auflagen für Hochrisiko-KI-Systeme in den Bereichen Beschäftigung, Kreditvergabe, Gesundheit sowie spezielle Regeln für KI-Modelle für allgemeine Zwecke ("general purpose AI") und Transparenzpflichten für KI-Systeme mit begrenztem Risiko. Die Bestimmungen werden schrittweise angewendet:
Bei Verstössen drohen Bussgelder bis zu 30 Mio. € oder 6% des weltweiten Jahresumsatzes. Für die Durchsetzung sind nationale Aufsichtsbehörden und auf EU-Ebene das neu geschaffene KI-Büro zuständig.
Der AI Act als Grundpfeiler
Den Grundstein legt der sogenannte AI Act, der ab Sommer 2024 umfassende Regeln für Entwicklung und Einsatz von KI in der EU festlegen soll. Ein risikobasierter Ansatz soll Sicherheit und ethische Standards gewährleisten, ohne Innovation zu bremsen. Je nach Gefährdungspotenzial werden KI-Systeme in vier Kategorien eingeteilt - von minimales bis inakzeptables Risiko - mit abgestuften Auflagen.
Der AI Act hat extraterritoriale Wirkung und betrifft auch Unternehmen ausserhalb der EU, die KI-Systeme in der EU anbieten oder einsetzen. Unternehmen sollten jetzt mit der Vorbereitung beginnen, um die Einhaltung der neuen Regeln sicherzustellen.
Stellen wir uns vor, unser autonom fahrendes Auto verursacht einen Unfall. Oder ein KI-gesteuerter Roboter in der Fabrik verletzt einen Mitarbeiter. Wer haftet für den Schaden? Solche Fragen treiben die EU-Gesetzgeber um, die mit einem Paket von Verordnungen und Richtlinien den rechtlichen Rahmen für Künstliche Intelligenz (KI) in Europa neu gestalten wollen.
Mit dem AI Act wollen die EU-Institutionen das weltweit erste Regelwerk für Vertrauen in Künstliche Intelligenz schaffen. Ziel ist eine menschenzentrierte und ethische KI "made in Europe".
Für Hochrisiko-Anwendungen wie selbstfahrende Autos oder medizinische Diagnose-KI gelten strenge Anforderungen: Von Risikomanagement über Datenqualität bis zu menschlicher Aufsicht und Cybersicherheit.
Bevor solche Systeme in Verkehr gebracht werden, müssen sie ein Konformitätsbewertungsverfahren durchlaufen. Bestimmte Praktiken werden sogar ganz verboten, etwa Social Scoring durch Staaten oder die Manipulation von Kindern.
Neue Haftungsregeln in der Diskussion
Doch wer kommt für Schäden auf, wenn trotz aller Vorkehrungen etwas schiefgeht? Hier kommt die geplante KI-Haftungsrichtlinie (AI Liability Directive, AILD) ins Spiel, die faire Entschädigung für Opfer sicherstellen soll. Sie erleichtert Geschädigten die Beweisführung durch eine widerlegbare Vermutung der Kausalität. Gerichte könnten auch die Offenlegung von Beweisen zu Hochrisiko-KI anordnen.
Daneben wurde die Produkthaftungsrichtlinie überarbeitet, die verschuldensunabhängige Haftung für fehlerhafte Produkte regelt. Neu einbezogen sind nun explizit Software und Schäden durch Datenzerstörung.
Haftungsfragen bei KI sind in der Tat ein komplexes Puzzle. Die EU-Institutionen müssen aufpassen, dass sich die Teile der verschiedenen Rechtsakte nahtlos zusammenfügen und keine Lücken bleiben.
Doch die Zukunft der AILD ist ungewiss. EU-Parlament und Rat bezweifeln den Mehrwert angesichts der Weiterentwicklung von AI Act und Produkthaftung. Sie befürchten Überschneidungen und fordern eine Folgenabschätzung. Fällt diese ungünstig aus, könnte das Parlament den Rückzug des Vorschlags empfehlen.
Innovationsfreundliche Regulierung als Ziel
Auch die Wirtschaft verfolgt die Entwicklung mit gemischten Gefühlen. Branchenverbände betonen, dass Europa einen klaren, verhältnismässigen und zukunftsfesten Rechtsrahmen für KI braucht. Dieser soll Rechtssicherheit schaffen, ohne Innovationen abzuwürgen.
Immerhin sieht der AI Act Sandboxes für das Experimentieren mit KI-Innovationen vor. Und die Definition von Hochrisiko-KI wurde im Lauf des Gesetzgebungsprozesses deutlich eingeengt . Die Industrie hofft zudem auf praktikable Konformitätsnachweise wie eine freiwillige Selbstzertifizierung oder Verhaltenskodizes für Standardanwendungen.
Vertrauen ist der Schlüssel für den Erfolg von KI "made in Europe", da sind sich Experten einig. Aber Vertrauen entsteht ihrer Meinung nach nicht durch Überregulierung, sondern durch Transparenz, Verantwortung und gesellschaftlichen Dialog.
Empfohlen von LinkedIn
Globale Vorreiterrolle für Europa
So oder so, die Augen der Welt richten sich auf Europa als Vorreiter einer wertebasierten KI-Regulierung. Länder von den USA bis China diskutieren ähnliche Gesetze. Und Überlegungen für globale KI-Regeln etwa bei der OECD oder G7 nehmen Fahrt auf.
Dabei könnte der europäische Weg Modell stehen, wenn er den heiklen Balanceakt schafft: Eine "vertrauenswürdige KI" als Gütesiegel zu etablieren und zugleich mit Innovationen Standards zu setzen auf dem Zukunftsmarkt schlechthin.
Die Weichen in Brüssel sind gestellt. Nun kommt es auf die Umsetzung in der Praxis an. Es sind spannende Zeiten für Unternehmen, Behörden - und nicht zuletzt für uns als Verbraucher und Bürger, die wir mit KI leben und von ihr profitieren wollen, ohne Schaden zu nehmen. Die Zukunft der KI "made in Europe" hat gerade erst begonnen.
Mehr dazu übrigens hier:
Fragen zu KI und Digitalen Geschäftsmodellen? #fragRoger
Willst du mehr wissen? Sehr gerne komme ich auch bei Dir, bei deiner Firma, deiner ERFA Gruppe oder deinem Verband vorbei und helfe mit einem Workshop oder Input Referat.
Lass uns gerne mal unverbindlich sprechen. Also wenn ich helfen kann, wende dich gerne an mich #fragRoger und abonnier meinen offiziellen Newsletter.
Disclaimer: dieser Artikel wurde nach meiner Recherchen mit KI (Perplexity und Gemini) selbst geschrieben, mit Deepl Write verbessert und Mistral zusammen gefasst und vereinfacht. Das Bild stammt von Ideogram und ist selbst erstellt. Dieser Artikel ist rein edukativ und erhebt keinen Anspruch auf Vollständigkeit. Bitte melde dich, wenn Du Ungenauigkeiten feststellst, danke.
Quellen:
Swiss AI Platform, Cloud & DC Solutions by Swisscom B2B | ex-Co-Founder, Startup Mentor & Angel Investor | Gen. AI & CV | Fueled by curiosity & the love of learning
5 MonateThanks Roger! This was an easy to comprehend, insightful and most importantly enjoyable to read, although it is on a topic (i.e. regulation) which tends to 'turn off' people, especially the enthusiastic & "half-full" minded ones 😊
I believe in teamwork and I believe in trust. Let's make things better - together!
5 MonateGanz herzlichen Dank Roger Basler de Roca für die immer spannenden Updates ! Gerade wenn es um die Verbindung mit Forschung und öffentliche Gelder geht, sind die Weichen und Positionierungen der EU wichtige Richtungsweiser, auch für die nationalen Zukunft. Da helfen Deine Briefings enorm, auf dem Laufenden zu bleiben!
ISO-Zertifizierung & Prozessdigitalisierung: einfach, massgeschneidert und mit echtem Mehrwert
5 MonateDa kommen spannende Zeiten auf uns zu. Interessant für mich als Laien, dass die EU hier die Vorreiterrolle übernimmt.
KI Top Voice | KI Envagelist | Buchautor | KI-Spezialist und KI Entwickler | Strategischer KI Berater für KMU & Enterprise | KI Keynote-Speaker | KI für jedermann greifbar!
5 MonateIch hoffe kommt kein Lobbymist, dass DEKRA oder TÜV Rheinland Group für audits empfohlen werden. Die grobe Kostenkalkulation würde Europa killen in Punkto KI