Formålet med forordningen om kunstig intelligens er at skabe en fælles europæisk juridisk ramme for udvikling, markedsføring og brug af kunstig intelligens.
I forordningen anses kunstig intelligens som en hurtigt udviklende teknologi, der kan skabe en bred vifte af økonomiske og samfundsmæssige fordele på tværs af forskellige brancher og sociale aktiviteter. Anvendelsen af kunstig intelligens anses desuden til at kunne bidrage til vigtige konkurrencemæssige fordele for både virksomheder og den europæiske økonomi. Men som med alt andet teknologi er der samtidig også risici og potentielle negative konsekvenser, som bør imødekommes og håndteres.
Forordningen kategoriserer kunstig intelligens efter fire risikoniveauer, som er retningsgivende for, hvilke forpligtelser for udbydere og brugere af kunstig intelligens. Dvs. jo højere risikoniveau, desto flere krav og forpligtelser er der.
De fire risikoniveauer er:
Den risikobaserede tilgang pålægger strengere krav og tilsyn for højrisiko AI-systemer (fx brugen af kunstig intelligens i sundhedsvæsenet), herunder overensstemmelsesvurderinger og datakvalitet og -styring. Kunstig intelligens med en uacceptabel risiko vil være forbudt, såsom brugen af teknikker til underbevidst at manipulere brugeradfærd og brugen af ansigtsgenkendelse i offentlige rum.
Forordningen gælder for AI-systemudbydere, -importører, -distributører og -brugere samt produktproducenter, der markedsfører AI-systemer eller tager dem i brug sammen med deres produkt og under deres eget navn eller varemærke. Derfor vil forordningen om kunstig intelligens berøre næsten alle, der markedsfører eller tager et AI-system i brug inden for Europa (uanset om de er etableret i EU eller i et tredjeland).
Det er særligt udbydere af AI-systemer, der bliver underlagt lovgivningen. Fabrikanten af produktet har ansvaret for, at AI-systemet er i overensstemmelse med forordningen. Kravene vil variere baseret på risikoniveauet af AI-systemet, hvilket vil sige; jo højere risiko, jo strengere krav.
Virksomheder eller offentlige myndigheder, der udvikler eller bruger kunstig intelligens, som udgør en høj risiko for borgernes sikkerhed eller grundlæggende rettigheder, skal, før de bringer disse systemer i brug,
sikre, at systemet er i overensstemmelse med lovgivningen. Tredjeparter er ligeledes underlagt udbyderens forpligtelser.
Forordningen består af flere dele, såsom krav til sporbarhed, gennemsigtighed, formidling af oplysninger til brugere, menneskeligt tilsyn med systemet, mm. Herunder får borgere bl.a. ret til at vide, om de er i kontakt med en kunstig intelligens eller et menneske.
Derudover vil der blive stillet særlige krav, hvis der er risici ved brugen af kunstig intelligens fx omkring diskrimination, manglende beskyttelse af private data eller overvågning. I forlængelse af dette skal udbydere af højrisiko-AI-systemer bruge et kvalitetsstyringssystem, der sikrer overensstemmelse med forordningen. Derudover er der krav om indberetning af alvorlige hændelser til en relevant myndighed. Forordningen om kunstig intelligens kommer desuden til at anvende et bøderegime, som det kendes fra GDPR.
Forordningen for kunstig intelligens fastslår, at kravene i loven kan dækkes ved at overholde officielt vedtaget harmoniserede standarder. Europa-Kommissionen har allerede bedt de europæiske standardiseringsorganisationer om at påbegynde arbejdet med at udarbejde standarder.
Udviklingen af standarder inden for kunstig intelligens er forankret i en teknisk komité i Europa, CEN/CENELEC JTC 21 Artificial Intelligence og en global komité, ISO/EC JTC 1/SC 42 Artificial Intelligence.
Dansk Standard står i spidsen for den europæiske standardiseringsgruppe, CEN/CENELEC JTC 21, der skal udvikle de harmoniserede standarder, der støtter op om forordningen om kunstig intelligens.
Hvis du ønsker at få indblik i og bidrage til de kommende europæiske og internationale standarder for kunstig intelligens, kan du blive medlem af Dansk Standards udvalg for kunstig intelligens. Læs mere om udvalget her her: https://www.ds.dk/S-855.
Dansk Standard har også udarbejdet tre specifikationer for kunstig intelligens med fokus på henholdsvis bias, gennemsigtighed og beslutningsstøttende ift. offentlig sagsbehandling. Specifikationerne er tænkt som et værktøj til danske virksomheder og organisationer, der har brug for hjælp til deres arbejde med kunstig intelligens.
Filmet af National Standards Authority of Ireland (NSAI).
Kunstig intelligens – Del 2: Beslutningsstøttende anvendelse i offentlig sagsbehandling