KI-Modelle für allgemeine Zwecke im KI-Gesetz – Fragen & Antworten

KI-Modelle für allgemeine Zwecke im KI-Gesetz – Fragen & Antworten

Das EU-Gesetz über Künst­li­che Intel­li­genz (KI-Gesetz) stellt einen bedeu­ten­den Schritt zur Regu­lie­rung von KI-Sys­te­men dar. Eine beson­de­re Her­aus­for­de­rung liegt in der Ein­ord­nung und Regu­lie­rung von KI-Model­len für all­ge­mei­ne Zwe­cke, den soge­nann­ten Gene­ral-Pur­po­se AI Models (GPAI), die viel­fäl­tig ein­setz­bar sind und unvor­her­ge­se­he­ne Risi­ken ber­gen kön­nen. Die­ser Arti­kel beleuch­tet die Kern­fra­gen rund um die Behand­lung von GPAI im KI-Gesetz und gibt Ant­wor­ten auf die wich­tigs­ten Aspek­te ihrer Defi­ni­ti­on, Regu­lie­rung und der damit ver­bun­de­nen Pflich­ten für Anbie­ter. Ziel ist es, Klar­heit in ein kom­ple­xes und sich ent­wi­ckeln­des Rechts­ge­biet zu brin­gen und den Anwen­dungs­be­reich der neu­en Vor­schrif­ten zu erläu­tern.

Was sind KI-Modelle für allgemeine Zwecke im Sinne des KI-Gesetzes?

Das KI-Gesetz defi­niert KI-Model­le für all­ge­mei­ne Zwe­cke (GPAI) als Model­le, die für eine Viel­zahl von Auf­ga­ben ein­ge­setzt wer­den kön­nen und nicht auf einen bestimm­ten Zweck oder eine bestimm­te Domä­ne spe­zia­li­siert sind. Im Gegen­satz zu spe­zi­fi­schen KI-Sys­te­men, die für eng defi­nier­te Anwen­dun­gen ent­wi­ckelt wur­den (z.B. ein KI-Sys­tem zur Bil­der­ken­nung nur für medi­zi­ni­sche Dia­gno­sen), zeich­nen sich GPAI durch ihre brei­te Anwend­bar­keit aus. Sie kön­nen als Grund­la­ge für eine Viel­zahl von nach­ge­la­ger­ten KI-Sys­te­men die­nen, die in unter­schied­li­chen Sek­to­ren und Kon­tex­ten zum Ein­satz kom­men. Die Defi­ni­ti­on im KI-Gesetz hebt her­vor, dass GPAI-Model­le in der Lage sind, eine Rei­he von Auf­ga­ben aus­zu­füh­ren, unab­hän­gig davon, wie oder ob sie spe­zi­ell trai­niert wur­den. Dies umfasst Model­le, die Text, Bil­der, Audio oder ande­re Inhal­te gene­rie­ren kön­nen, aber auch sol­che, die kom­ple­xe Mus­ter­er­ken­nung oder Vor­her­sa­gen über ver­schie­de­ne Daten­ty­pen hin­weg durch­füh­ren. Die Ein­stu­fung als GPAI hängt somit weni­ger vom ursprüng­li­chen Trai­nings­zweck ab als von den poten­zi­el­len Ein­satz­mög­lich­kei­ten.

Warum werden KI-Modelle für allgemeine Zwecke gesondert reguliert?

Die sepa­ra­te Regu­lie­rung von KI-Model­len für all­ge­mei­ne Zwe­cke im KI-Gesetz ist eine direk­te Reak­ti­on auf die poten­zi­el­len Risi­ken, die mit ihrer brei­ten und fle­xi­blen Anwend­bar­keit ver­bun­den sind. Da GPAI-Model­le in einer Viel­zahl von nach­ge­la­ger­ten KI-Sys­te­men und in unter­schied­li­chen Sek­to­ren (von der Gesund­heits­ver­sor­gung bis zur Straf­ver­fol­gung) ein­ge­setzt wer­den kön­nen, kön­nen Schwach­stel­len oder uner­wünsch­te Eigen­schaf­ten im Basis­mo­dell sys­te­mi­sche Risi­ken über vie­le Anwen­dun­gen hin­weg ver­ur­sa­chen. Die­se Risi­ken sind oft schwer vor­her­seh­bar, da das Basis­mo­dell für Zwe­cke ver­wen­det wer­den kann, die vom ursprüng­li­chen Ent­wick­ler nicht vor­ge­se­hen waren. Die rasche Ent­wick­lung und die hohe Leis­tungs­fä­hig­keit von GPAI-Model­len, ins­be­son­de­re sol­chen mit sys­te­mi­schem Risi­ko, erfor­dern spe­zi­fi­sche Vor­schrif­ten, um Sicher­heit, Grund­rech­te und Demo­kra­tie zu schüt­zen. Ziel der GPAI Regu­lie­rung ist es, die Anbie­ter die­ser grund­le­gen­den Model­le in die Pflicht zu neh­men, bereits auf der Ebe­ne des Modells bestimm­te Anfor­de­run­gen an Sicher­heit, Qua­li­tät und Trans­pa­renz zu gewähr­leis­ten, um die Risi­ken in den nach­ge­la­ger­ten Anwen­dun­gen zu mini­mie­ren.

Wei­ter­füh­ren­de Quel­le:

Welche Pflichten haben Anbieter von KI-Modellen für allgemeine Zwecke?

Anbie­ter von KI-Model­len für all­ge­mei­ne Zwe­cke (GPAI) unter­lie­gen gemäß dem EU-KI-Gesetz spe­zi­fi­schen, grund­le­gen­den Pflich­ten, die dar­auf abzie­len, Trans­pa­renz und Rechts­si­cher­heit zu gewähr­leis­ten. Eine zen­tra­le Ver­pflich­tung ist die Trans­pa­renz bezüg­lich des Modells selbst und des Trai­nings­pro­zes­ses. Anbie­ter müs­sen detail­lier­te Infor­ma­tio­nen über die Daten lie­fern, die zum Trai­ning des Modells ver­wen­det wur­den, sowie über des­sen Fähig­kei­ten und Ein­schrän­kun­gen. Dies ermög­licht nach­ge­la­ger­ten Anwen­dern (Deploy­ern) von KI-Sys­te­men, die auf die­sen Model­len basie­ren, eine bes­se­re Risi­ko­be­wer­tung und Com­pli­ance-Anstren­gun­gen. Ein wei­te­rer wich­ti­ger Punkt ist die Ein­hal­tung des Urhe­ber­rechts. Anbie­ter müs­sen sicher­stel­len, dass die für das Trai­ning ver­wen­de­ten Daten kei­ne Urhe­ber­rech­te ver­let­zen und geeig­ne­te Mecha­nis­men imple­men­tie­ren, um dies zu gewähr­leis­ten. Zudem sind Anbie­ter zur Zusam­men­ar­beit mit natio­na­len zustän­di­gen Behör­den ver­pflich­tet, ins­be­son­de­re im Rah­men der Markt­über­wa­chung und der Bereit­stel­lung rele­van­ter Infor­ma­tio­nen auf Anfra­ge. Die­se Pflich­ten bil­den die Basis für eine ver­ant­wor­tungs­vol­le Ent­wick­lung und Nut­zung von GPAI-Model­len und erleich­tern die GPAI Com­pli­ance im kom­ple­xen Anwen­dungs­be­reich des KI-Geset­zes.

Besondere Anforderungen an KI-Modelle mit systemischem Risiko

Über die grund­le­gen­den Pflich­ten hin­aus legt das KI-Gesetz ver­schärf­te Anfor­de­run­gen für Anbie­ter von GPAI-Model­len fest, die als sys­te­misch ris­kant ein­ge­stuft wer­den. Die Ein­stu­fung erfolgt in der Regel auf Basis der Rechen­leis­tung, die für das Trai­ning des Modells erfor­der­lich war (aktu­ell über 10^25 FLOPs), oder durch eine Ent­schei­dung der Euro­päi­schen Kom­mis­si­on, wenn ande­re Indi­ka­to­ren ein gleich­wer­ti­ges Risi­ko anzei­gen. Für die­se Model­le gel­ten zusätz­li­che, stren­ge­re Ver­pflich­tun­gen, die auf die Bewäl­ti­gung der erhöh­ten sys­te­mi­schen Risi­ken KI abzie­len. Dazu gehört die Durch­füh­rung einer Modell­be­wer­tung, um poten­zi­el­le Risi­ken zu iden­ti­fi­zie­ren und zu min­dern, sowie die Ein­hal­tung spe­zi­fi­scher Sicher­heits­an­for­de­run­gen und die Imple­men­tie­rung von Cyber­si­cher­heits­maß­nah­men. Anbie­ter müs­sen zudem sicher­stel­len, dass ihre Model­le mit den Regeln zur KI-Gover­nan­ce kon­form sind und Mecha­nis­men zur Mel­dung schwer­wie­gen­der Vor­fäl­le ein­rich­ten. Die Risi­ko­be­wer­tung KI und das fort­lau­fen­de Risi­ko­ma­nage­ment KI sind für Anbie­ter von GPAI-Model­len mit sys­te­mi­schem Risi­ko von zen­tra­ler Bedeu­tung, um die Ein­hal­tung der KI-Gesetz Hohes Risi­ko Bestim­mun­gen zu gewähr­leis­ten. Die­se stren­ge­ren Regeln sol­len sicher­stel­len, dass die poten­zi­el­len nega­ti­ven Aus­wir­kun­gen die­ser leis­tungs­star­ken Model­le auf Gesell­schaft und Wirt­schaft mini­miert wer­den.

Fazit

Die Regu­lie­rung von KI-Model­len für all­ge­mei­ne Zwe­cke (GPAI) im EU-KI-Gesetz stellt einen ent­schei­den­den Schritt dar, um die Her­aus­for­de­run­gen, die mit der schnel­len Ent­wick­lung und brei­ten Anwend­bar­keit die­ser Model­le ver­bun­den sind, zu adres­sie­ren. Der Gesetz­ge­ber hat mit der Defi­ni­ti­on und der Unter­schei­dung zwi­schen grund­le­gen­den und ver­schärf­ten Pflich­ten für Model­le mit sys­te­mi­schem Risi­ko einen Rah­men geschaf­fen, der sowohl Inno­va­ti­on ermög­li­chen als auch poten­zi­el­le Gefah­ren min­dern soll. Anbie­ter von GPAI-Model­len ste­hen vor der Auf­ga­be, die neu­en Anbie­ter­pflich­ten zu ver­ste­hen und umzu­set­zen, ins­be­son­de­re in Bezug auf Trans­pa­renz, Urhe­ber­recht und das Manage­ment von sys­te­mi­schen Risi­ken KI. Die kom­men­den Jah­re wer­den zei­gen, wie sich die Imple­men­tie­rung die­ser Vor­schrif­ten in der Pra­xis gestal­tet und inwie­weit sie geeig­net sind, ein ver­trau­ens­wür­di­ges Öko­sys­tem für KI-Model­le All­ge­mei­ne Zwe­cke in Euro­pa zu för­dern. Die fort­lau­fen­de Anpas­sung der Regu­lie­rung an den tech­no­lo­gi­schen Fort­schritt wird dabei eine zen­tra­le Rol­le spie­len.

Weiterführende Quellen