20. april 2023
Input påvirker output. Det gælder både, når vi mennesker skal analysere eller træffe beslutninger, men det gælder i særdeleshed også, når kunstig intelligens fx bliver sat til at hjælpe med sagsbehandling i en kommune, hjælpe med at rekruttere en ny medarbejder i en virksomhed eller oversætte en tekst på Google Translate. Det er nemlig på grund af input i form af historiske data, at Google Translate oversætter “min kæreste gør rent” til “my girlfriend cleans”, og “min kæreste er direktør” til “my boyfriend is an executive”. Ligesom det er forældede datasæt i kunstig intelligens, der har gjort, at veluddannede ikke etniske danskere, hvis ekspertise der er mangel på i Danmark, er blevet foreslået job som pizzabud eller taxachauffør på jobcentre.
”Kunstig intelligens hjælper os mennesker på daglig basis med at analysere store mængder data og træffe beslutninger. Derfor er det vigtigt, at it-systemer baseret på kunstig intelligens er fodret med data, der passer til opgaven, og at dataene ikke er forældede. Og ikke mindst at udviklere, indkøbere og brugere af systemerne overvejer, om der er blinde vinkler i de anvendte data. Ellers kan organisationen risikere, at algoritmen medtager uønsket bias, der potentielt kan medføre forskelsbehandling og diskrimination,” siger Malte Højmark-Bertelsen, Head of AI & NLP i KMD.
”Mange datasæt er bygget op på data, som tiden er løbet fra. Problemet er, at det kan medføre bias, som man ikke er opmærksom på, eller som man ikke ved, hvordan er opstået, fordi man reelt ikke aner, hvordan systemet er kommet frem til sine resultater,” siger Anders Kofod-Petersen.
Derfor har Dansk Standard i samarbejde med en række eksperter både inden for AI og diversitet udarbejdet en vejledning, der kan hjælpe med de problemstillinger, der følger med brugen af kunstig intelligens.
Vores samfund har de seneste år fået øget fokus på diversitet og ligestilling, og spørger man Marie Valentin Beck, initiativtager til vejledningen og selvstændig rådgiver inden for diversitet og inklusion, skal samfundets tendenser også reflekteres i digitale løsninger så som kunstig intelligens.
”It-systemer er ikke mere eller mindre biased end de mennesker, der har skabt dem. Hvis vi vil mindske uønsket forskelsbehandling i fremtiden, skal menneskene bag den kunstige intelligens være helt bevidste om, hvilke data deres it-system skal basere sine resultater på,” siger Marie Valentin Beck.
Dansk Standards nye vejledning giver et konkret redskab til at håndtere og skabe gennemsigtighed i forhold til bias i kunstig intelligens.
”Vejledningen giver en fælles metode, som alle typer af organisationer kan anvende, når de skal håndtere bias i deres it-systemer. Desuden er vejledningen bygget op, så den kan anvendes af både udviklere, indkøbere og projektledere – med andre ord alle, der arbejder med kunstig intelligens. Vejledningen fortæller ikke, hvad der er rigtigt eller forkert, men opstiller nogle konkrete redskaber og retningslinjer, som man kan anvende i indsatsen for at kunne håndtere bias,” siger Kim Skov Hilding, seniorkonsulent i Dansk Standard.
Vejledningen, der er støttet af Erhvervsstyrelsen, hænger sammen med det arbejde, der foregår internationalt inden for kunstig intelligens.
Du kan downloade vejledningen her
Vil du vide mere om, hvordan du håndterer bias i kunstig intelligens, kan du deltage i Dansk Standards webinar d. 9. maj.
1. Få input til målgruppesegmentering fra forskellige mennesker i din organisation
2. Opdatere jeres data løbende, så det er repræsentativt til jeres målgruppe, fx ift. køn, indkomst, herkomst og alder
3. Sørg for at jeres systemer overholder relevante love om ligebehandling, menneskerettigheder, demokratiske værdier og diversitet
4. Opbyg et system, der er gennemsigtigt, så I hurtigt kan opdage potentielle bias
5. Hav en plan klar, hvis I pludselig skulle identificere potentielle bias
Kunstig intelligens er det danske ord for artificial intelligence, som i dagligale ofte bliver forkortet AI.
Kunstig intelligens er it-systemer, som er i stand til at udføre opgaver, der normalt kræver menneskelig intelligens. Ud fra algoritmer og store mængder data kan systemet foretage handlinger så som at analysere, lære, forudsige, anbefale eller træffe beslutninger med et bestemt formål. Kunstig intelligens kan med andre ord tænke ligesom os mennesker, hvis systemet bliver kodet til det.
Læs mere om kunstig intelligens her
Bias er bevidste eller ubevidste fordomme, fejl eller forskelle, der kan opstå på grund af menneskelige metodiske fejl eller forkerte data. Menneskelig- og databaseret bias er påvirket af hinanden, da det er mennesker, som udvælger specifikke data.
Bias behøver nødvendigvis ikke være problematiske, da man nogle gange tager et bevidst fravalg.
Fremover kan kunstig intelligens (AI) hjælpe laboratorier med hurtigere og mere præcise analyser og resultater. Et kontinuerligt flow af nye data kan endda forbedre den kunstige intelligens’ ydeevne, især ved metoder hvor man benytter maskinlæring...
Se eller gense dette webinar, hvor du får du en introduktion til en ny guide fra Dansk Standard, der kan hjælpe med at håndtere bias i kunstig intelligens.
Danmark skal lede arbejdet med en ny international standard, der skal gøre det nemmere og hurtigere at installere samme værktøj på forskellige robotter.
Danmark har nogle af de bedste uddannelsesinstitutioner inden for kunstig intelligens (AI) i Europa, vi går forrest i udviklingen af standarder på området, og mange virksomheder eksperimenterer med det. Derfor er Danmark godt rustet til at anvende...