KI regu­liert: Der EU AI Act ein­fach erklärt

Digitale Transformation

Zusam­men­fas­sung

Die Regu­lie­rung von Künst­li­cher Intel­li­genz (KI) steht in Europa vor einem his­to­ri­schen Umbruch: Mit dem AI Act schafft die Euro­päi­sche Union erst­mals einen ein­heit­li­chen Rechts­rah­men für den Umgang mit KI-Sys­­te­­men. In der Folge zum AI-Act unse­res Pod­casts „Bits und Bytes“ dis­ku­tie­ren Gast­ge­be­rin Alexa und der erfah­rene IT-Rechts­an­­walt Ger­rit Hözl die wich­tigs­ten Aspekte die­ser Ver­ord­nung. In die­sem Blog­post fas­sen wir die zen­tra­len Erkennt­nisse und pra­xis­na­hen Emp­feh­lun­gen aus dem Gespräch zusam­men – und gehen dabei noch tie­fer auf die ein­zel­nen The­men ein.

Lese­zeit: 8–10 Minuten

Was ist der AI Act?

Der AI Act ist eine EU-Ver­­or­d­­nung, die ab August 2024 schritt­weise in Kraft tritt und bis 2027 voll­stän­dig umge­setzt sein soll. Ziel ist es, ein­heit­li­che Regeln für die Ent­wick­lung, den Ein­satz und die Nut­zung von KI-Sys­­te­­men in der gesam­ten EU zu schaf­fen. Die Ver­ord­nung gilt unmit­tel­bar – natio­nale Gesetz­ge­bun­gen sind nicht mehr erforderlich.

Kern­ziele:

  • Schutz der Grund­rechte und Sicher­heit der Nutzer
  • För­de­rung von Inno­va­tion und Ver­trauen in KI
  • Mini­mie­rung von Risi­ken durch klare Vorgaben

Wich­tig: Die Defi­ni­tion von „KI-Sys­­tem“ im AI Act ist weit gefasst und umfasst nicht nur klas­si­sche Machine-Lear­­ning-Modelle, son­dern auch viele auto­ma­ti­sierte Ent­­schei­­dungs- und Analysesysteme.

Wer ist betroffen?

Der AI Act betrifft Her­stel­ler, Betrei­ber und Anwen­der von KI-Sys­­te­­men. Das bedeutet:

  • Her­stel­ler: Unter­neh­men, die KI-Sys­­teme ent­wi­ckeln und auf den Markt bringen.
  • Betrei­ber: Unter­neh­men, die KI-Sys­­teme in ihren Pro­zes­sen oder Pro­duk­ten einsetzen.
  • Anwen­der: Per­so­nen oder Orga­ni­sa­tio­nen, die KI-Sys­­teme nut­zen, z.B. zur Entscheidungsunterstützung.

Pra­xis-Tipp:
Unter­neh­men soll­ten ihre Pro­dukte und Dienst­leis­tun­gen genau prü­fen, um fest­zu­stel­len, ob und wie KI zum Ein­satz kommt. Auch schein­bar „ein­fa­che“ Auto­ma­ti­sie­run­gen kön­nen unter die Ver­ord­nung fallen.

Schu­lungs­pflich­ten für Anwender

Ein zen­tra­les Ele­ment des AI Act sind die Schu­lungs­pflich­ten für alle, die mit KI-Sys­­te­­men arbei­ten. Mit­ar­bei­ter sol­len befä­higt wer­den, die Funk­ti­ons­weise sowie die Ergeb­nisse die­ser Sys­teme zu ver­ste­hen und kri­tisch zu hin­ter­fra­gen. Der Gesetz­ge­ber schreibt keine fes­ten Zeit­rah­men oder Vor­ga­ben zur Schu­lungs­häu­fig­keit vor – ent­schei­dend ist, dass die ent­spre­chen­den Kom­pe­ten­zen nach­weis­bar sind. Dabei kommt der Doku­men­ta­tion eine große Bedeu­tung zu: Unter­neh­men sind ver­pflich­tet, Schu­lun­gen und erwor­bene Kennt­nisse sorg­fäl­tig zu doku­men­tie­ren, um im Scha­dens­fall oder bei Kon­trol­len gewapp­net zu sein.

Emp­feh­lens­wert ist es, ein indi­vi­du­ell zuge­schnit­te­nes Schu­lungs­kon­zept zu ent­wi­ckeln, das regel­mä­ßig aktua­li­siert und an Sys­tem­än­de­run­gen ange­passt wird. Ebenso wich­tig ist die Sen­si­bi­li­sie­rung der Mit­ar­bei­ten­den für ethi­sche und recht­li­che Fra­ge­stel­lun­gen im Zusam­men­hang mit KI. Dabei ist Gelas­sen­heit gefragt: Nicht jede Schu­lung muss teuer extern ein­ge­kauft wer­den. Ziel ist ein grund­le­gen­des Ver­ständ­nis, nicht der Erwerb teu­rer Zer­ti­fi­kate. Unter­neh­men soll­ten sich nicht durch Anbie­ter unter Druck set­zen las­sen, die mit Buß­gel­dern drohen.

Regu­la­to­ri­sche Anfor­de­run­gen und ver­bo­tene Praktiken

Der AI Act unter­schei­det zwi­schen unter­schied­li­chen Anfor­de­run­gen an KI-Sys­­teme, abhän­gig von deren Risiko und Anwen­dungs­be­reich. Einige Prak­ti­ken sind dabei aus­drück­lich ver­bo­ten – hierzu zäh­len unter ande­rem der Ein­satz soge­nann­ter „Dark Pat­terns“, also mani­pu­la­ti­ver Nut­zer­füh­rung, sub­tile Beein­flus­sung, die die Ent­schei­dungs­frei­heit ein­schränkt, sowie der Ein­satz von KI zur sozia­len Bewer­tung oder Diskriminierung.

Unter­neh­men sind ver­pflich­tet, sicher­zu­stel­len, dass sie keine die­ser ver­bo­te­nen Prak­ti­ken anwen­den. Dazu gehört auch die Ein­rich­tung inter­ner Pro­zesse zur Über­prü­fung und Doku­men­ta­tion der ein­ge­setz­ten Sys­teme. Fach­leute emp­feh­len regel­mä­ßige Audits, um mög­li­che Ver­stöße früh­zei­tig zu erken­nen und zu beheben.

Klas­si­fi­zie­rung von KI-Systemen

Der AI Act sieht eine Klas­si­fi­zie­rung von KI-Sys­­te­­men nach Risi­ko­stu­fen vor. Ver­bo­tene Sys­teme dür­fen über­haupt nicht ein­ge­setzt wer­den – dar­un­ter fal­len bei­spiels­weise Anwen­dun­gen zum Social Scoring. Hoch­­ri­­siko-KI-Sys­­teme, etwa in Berei­chen wie Medi­zin, Bil­dung oder kri­ti­sche Infra­struk­tur, unter­lie­gen stren­gen Anfor­de­run­gen. Sys­teme mit gerin­gem Risiko unter­lie­gen weni­ger stren­gen Vor­ga­ben, müs­sen aber bestimmte Tran­s­­pa­­renz- und Infor­ma­ti­ons­pflich­ten erfül­len. KI-Sys­­teme mit mini­ma­lem Risiko wer­den kaum regu­liert, müs­sen aber wei­ter­hin grund­le­gende Stan­dards einhalten.

Für Hoch­­ri­­siko-Sys­­teme gel­ten beson­dere Pflich­ten: Es ist eine tech­ni­sche Doku­men­ta­tion vor­zu­le­gen, ebenso eine Risi­ko­be­wer­tung. Stra­te­gien zur Ver­mei­dung von Urhe­ber­rechts­ver­let­zun­gen müs­sen eben­falls vor­han­den sein, und es besteht eine Mel­de­pflicht bei Zwi­schen­fäl­len. Unter­neh­men soll­ten daher ihre KI-Anwen­­dun­­gen sorg­fäl­tig ana­ly­sie­ren und kor­rekt der ent­spre­chen­den Risi­koklasse zuord­nen. Bei Unsi­cher­hei­ten emp­fiehlt es sich, recht­li­chen Rat einzuholen.

Gene­ral Pur­pose AI: Beson­dere Herausforderungen

Unter dem Begriff Gene­ral Pur­pose AI (GPAI) ver­steht man KI-Sys­­teme, die für eine Viel­zahl unter­schied­li­cher Anwen­dun­gen ein­ge­setzt wer­den kön­nen – ein Bei­spiel dafür sind große Sprach­mo­delle. Diese Sys­teme stel­len eine beson­dere Her­aus­for­de­rung dar, da sie poten­zi­ell weit­rei­chende Aus­wir­kun­gen auf ver­schie­denste Berei­che haben.

Des­halb unter­lie­gen GPAI-Sys­­teme im AI Act zusätz­li­chen Anfor­de­run­gen. Sowohl Her­stel­ler als auch Betrei­ber sol­cher Sys­teme müs­sen sicher­stel­len, dass auch spä­tere Anwen­dun­gen der GPAI im Ein­klang mit den gesetz­li­chen Vor­ga­ben ste­hen. Wer GPAI nutzt oder wei­ter­ent­wi­ckelt, sollte daher die spe­zi­el­len Vor­schrif­ten sorg­fäl­tig beach­ten und deren Ein­satz sowie even­tu­elle Anpas­sun­gen dokumentieren.

Kenn­zeich­nungs­pflich­ten für KI-Inhalte

Ein zen­tra­les Anlie­gen des AI Act ist die Trans­pa­renz gegen­über den Nut­zern. Inhalte, die mit­hilfe von KI erzeugt wur­den, müs­sen für den Nut­zer klar als sol­che erkenn­bar sein. Das betrifft ins­be­son­dere Texte, Bil­der, Videos und Audio­in­halte, die von KI erstellt wur­den. Ziel die­ser Rege­lung ist es, Täu­schung und Mani­pu­la­tion zu verhindern.

Emp­foh­len wird die Imple­men­tie­rung tech­ni­scher Lösun­gen, die eine auto­ma­ti­sche Kenn­zeich­nung von KI-gene­rier­­ten Inhal­ten ermög­li­chen. Dar­über hin­aus soll­ten Mit­ar­bei­tende im Umgang mit den Kenn­zeich­nungs­pflich­ten geschult wer­den. Es ist eben­falls wich­tig, regel­mä­ßig zu über­prü­fen, ob die Kenn­zeich­nun­gen kor­rekt und sicht­bar sind.

Sank­tio­nen und Bußgelder

Ab August 2024 greift ein umfas­sen­des Sank­ti­ons­re­gime im Rah­men des AI Act. Bei schwer­wie­gen­den Ver­stö­ßen kön­nen Buß­gel­der von bis zu 35 Mil­lio­nen Euro oder 7 % des welt­wei­ten Jah­res­um­sat­zes eines Unter­neh­mens ver­hängt wer­den. Die kon­krete Höhe des Buß­gelds hängt dabei von ver­schie­de­nen Fak­to­ren ab – etwa der Unter­neh­mens­größe oder der Schwere des Ver­sto­ßes. Zwar führt nicht jeder Ver­stoß auto­ma­tisch zu einem Maxi­mal­buß­geld, den­noch soll­ten Unter­neh­men die poten­zi­el­len Risi­ken nicht unterschätzen.

Beson­ders her­vor­zu­he­ben ist: Die Schu­lungs­pflich­ten gel­ten zunächst als „wei­che“ Anfor­de­run­gen. Den­noch kann eine feh­lende Doku­men­ta­tion im Ernst­fall erheb­li­che finan­zi­elle und recht­li­che Fol­gen nach sich ziehen.

Emp­foh­lene Schritte für Unternehmen

Um den Anfor­de­run­gen des AI Act gerecht zu wer­den, soll­ten Unter­neh­men fol­gende Maß­nah­men ergrei­fen: Zunächst ist eine Bestands­auf­nahme not­wen­dig – es gilt zu prü­fen, ob und in wel­cher Form KI im Unter­neh­men ein­ge­setzt wird. Anschlie­ßend müs­sen die ein­ge­setz­ten Sys­teme den Risi­koklas­sen des AI Act zuge­ord­net wer­den. Dar­auf auf­bau­end soll­ten Unter­neh­men ein Schu­lungs­kon­zept ent­wi­ckeln und die Teil­nahme sowie die Inhalte dokumentieren.

Für Hoch­­ri­­siko-Sys­­teme sind tech­ni­sche Doku­men­ta­tio­nen und Risi­ko­be­wer­tun­gen zu erstel­len. Außer­dem müs­sen Kenn­zeich­nungs­pflich­ten für KI-gene­rierte Inhalte umge­setzt wer­den. Ein regel­mä­ßi­ger Com­­pli­­ance-Check und interne Audits hel­fen dabei, mög­li­che Ver­stöße früh­zei­tig zu erken­nen. Bei Unsi­cher­hei­ten sollte juris­ti­scher Bei­stand ein­ge­holt werden.

Wich­tig ist auch: Der AI Act ersetzt nicht die Daten­­­schutz-Grun­d­­ver­­or­d­­nung (DSGVO). Unter­neh­men müs­sen wei­ter­hin prü­fen, ob per­so­nen­be­zo­gene Daten ver­ar­bei­tet wer­den, und sicher­stel­len, dass sie auch die daten­schutz­recht­li­chen Anfor­de­run­gen erfüllen.

Fazit: Pro­ak­tiv han­deln, Chan­cen nutzen

Der AI Act bringt grund­le­gende Ver­än­de­run­gen für alle, die KI-Sys­­teme ent­wi­ckeln, betrei­ben oder nut­zen. Dabei stellt er nicht nur eine regu­la­to­ri­sche Her­aus­for­de­rung dar, son­dern bie­tet auch große Chan­cen: Er schafft Ver­trauen in neue Tech­no­lo­gien, för­dert Inno­va­tio­nen und schützt Nut­zer vor Risi­ken. Gleich­zei­tig ver­langt er von Unter­neh­men ein hohes Maß an Ver­ant­wor­tung, Trans­pa­renz und Weit­sicht. Wer früh­zei­tig han­delt und klare Struk­tu­ren schafft, kann nicht nur recht­li­chen Pro­ble­men vor­beu­gen, son­dern auch einen Wett­be­werbs­vor­teil sichern.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Bitte füllen Sie dieses Feld aus.
Bitte füllen Sie dieses Feld aus.
Bitte gib eine gültige E-Mail-Adresse ein.

Sie müssen den Bedingungen zustimmen, um fortzufahren.