EU-udvalg strammer reglerne i ændringsforslag til AI-forordningen
Nyhed

EU-udvalg strammer reglerne i ændringsforslag til AI-forordningen

IT & Teknologi
Den 11. maj 2023 vedtog EU-Parlamentets udvalg for det Indre Marked og Forbrugerbeskyttelse og Borgernes Rettigheder (IMCO) og udvalget for Retlige og Indre Anliggender (LIBE) et udkast til et ændringsforslag til AI-forordningen.

Baggrund:

Udkastet til AI-forordningen (fra april 2021) har til formål at skabe en juridisk ramme for udvikling, markedsføring og brug af kunstig intelligens (AI) i EU.

Forordningsudkastet regulerer AI-systemer efter en risikobaseret tilgang, hvorefter kravene til AI-systemerne følger risikoklassificeringen, dvs. jo højere risiko, jo skrappere krav. Hovedfokus er, at udvikling og anvendelse af AI skal ske under overholdelse af de grundlæggende rettigheder i EU’s charter.   

EU-udvalgene har i det vedtagne ændringsforslag bl.a. væsentligt udvidet anvendelsesområdet for forbudte AI-systemer, højrisiko AI-systemer samt fastsat forpligtelser for udbydere af AI ”foundation models”, herunder ”foundation models” der anvendes i ”general purpose” AI-systemer.

Derudover er definitionen af, hvad der udgør et AI-system, blevet omformuleret igen.

 

Hvad er hovedpointerne?

I) Omformuleret definition af et AI-system i linje med OECD-definitionen

Definitionen af et AI-system er blevet omformuleret til følgende: ”et maskinbaseret system, der er designet til at operere med forskellige grader af autonomi, og som kan generere output som f.eks. forudsigelser, anbefalinger eller beslutninger, der påvirker fysiske eller virtuelle miljøer, til eksplicitte eller implicitte formål.”

II) Listen over forbudte AI-systemer er blevet udvidet  

Listen over AI-systemer, der medfører en uacceptabel risiko for menneskers sikkerhed og dermed er forbudte, er udvidet til også at omfatte AI-systemer til bl.a.  

  1. politiarbejde (baseret på profilering, lokalitet eller tidligere kriminel adfærd),
  2. genkendelse af følelser hos fysiske personer i forbindelse med følgende områder; retshåndhævelse, grænsekontrol, på arbejdspladser og i uddannelsesinstitutioner,
  3. vilkårlig indsamling af biometriske data fra sociale medier eller TV-overvågningsoptagelser med henblik på at oprette ansigtsgenkendelsesdatabaser.

III) Modificering og udvidelse af klassificeringen af højrisikosystemer

Ændringsforslaget tilskriver, at AI-systemer, der falder ind under en af de kritiske områder fastsat i bilag III, skal klassificeres som højrisikosystemer, hvis de er forbundet med betydelig risiko for at skade menneskers sundhed, sikkerhed, grundlæggende rettigheder og miljøet.

Derudover er AI-systemer, der bruges af sociale medieplatforme med mere end 45 millioner brugere i henhold til Digital Service Act blevet tilføjet til højrisikolisten. Dette er AI-systemer, der anvendes i platformenes anbefalingssystemer til at anbefale brugergenereret indhold til brugerne. Hertil er AI-systemer, der anvendes til at påvirke resultatet af et valg/folkeafstemning, også blevet tilføjet til højrisikolisten.

IV) Ny definition og regulering af ”foundation models”

Ændringsforslaget indeholder en ny definition for ”foundation models”, dvs. en AI-model, der er trænet på omfattende data i stor skala, er designet med henblik på alsidighed i output og kan tilpasses til en bred vifte af specifikke opgaver. Foundation models har en stor betydning på mange efterfølgende applikationer og systemer.

Udbyderen af en ”foundation model” underlægges bl.a. krav ift. de datasæt, som behandles og integreres. Disse skal underlægges passende data governance foranstaltninger, der undersøger og evt. afbøder datakildernes egnethed og evt. bias.

Hertil skal udbyderen designe og udvikle ”foundation modellen” med henblik på at opnå et passende niveau af bl.a. ydeevne, forudsigelighed, sikkerhed og cybersikkerhed i hele modellens levetid.  

Derimod er ”general purpose systemer” defineret som AI-systemer, der kan anvendes i og tilpasses til en bred vifte af anvendelsesområder, som det ikke bevidst og specifikt var tiltænkt.

Et ”general purpose system” kan således være en implementering af en ”foundation model”.

Disse ”general purpose” AI-systemer bliver med ændringsforslaget underlagt gennemsigtighedsforanstaltninger, og udbyderen af disse systemer skal træne, designe og udvikle foundation modellen (som ligger til grund for systemet) på en sådan måde, at der sikres tilstrækkelige garantier mod, at der genereres indhold, der er i strid med EU-retten. Endeligt skal disse udbydere dokumentere og offentliggøre et tilstrækkeligt detaljeret resumé af brugen af træningsdata, der er beskyttet i henhold til ophavsretslovgivningen.

V) Klagemulighed

Ændringsforslaget indeholder bl.a. en mulighed for, at en borger kan klage over et AI-system, hvis systemet ikke overholder kravene i forordningen. Borgeren kan ligeledes anmode om at modtage en begrundelse for den beslutning, der er truffet på baggrund af outputtet fra et højrisiko AI-system. Denne begrundelse skal indeholde oplysninger om AI-systemets rolle i beslutningsproceduren, de væsentligste forhold for den trufne beslutning og de tilhørende inputdata.

VI) AI forskningsaktiviteter og AI komponenter, der leveres under gratis open source-licenser, er undtaget anvendelsesområdet

For at sætte skub i AI-udviklingen, har ændringsforslaget tilføjet AI forskningsaktiviteter og AI komponenter, der leveres under gratis open source-licenser, som undtagelser til ændringsforslagets stramninger. Dette gælder dog ikke open-source AI-systemer, som markedsføres eller tages i brug som del af et højrisiko AI-system, ”foundation model” eller af et AI-system, der er forbudt.

 

Den videre proces

Før forhandlingerne med Rådet om forordningens endelige udformning kan begynde, skal udkastet til ændringsforslaget godkendes af hele EU-Parlamentet. Denne afstemning forventes at finde sted omkring den 12 – 15 juni 2023.

Kontakt Lundgrens’ IT Team, hvis du har spørgsmål til forordningsudkastet, herunder hvilken betydning reglerne vil få for din virksomhed, hvis forordningen bliver vedtaget i sin nuværende form.