ITWatch

Klumme: Etik skal være integreret i AI-applikationer fra starten

Retningslinjer og lovgivning er nødvendigt for at sikre ansvarlig udvikling og anvendelse af AI. Etik er ikke kun et afkrydsningsfelt, men noget der skal gennemsyre arbejdet gennem hele AI-applikationens livscyklus, skriver Josefin Rosén fra SAS Institute i denne klumme.

Foto: SAS Institute/PR

Det er kun kort tid siden, Europa-Kommissionen fremlagde sit lovforslag om "at gøre Europa til et globalt center for pålidelig kunstig intelligens". Modtagelsen har været blandet, hvor overraskende mange mennesker synes, at det er for strenge regler, der bliver foreslået. Der er frygt for, at for stram regulering vil hæmme innovationen og kvæle udbredelsen af AI.

Europa-Kommissionen understreger, at målet ikke er at bremse eller hindre AI-udbredelsen, og at den kun har til hensigt at regulere, hvor det virkelig er nødvendigt. Det vil sige, når EU-borgernes sikkerhed og grundlæggende rettigheder er truet.

De foreslåede regler og foranstaltninger ønsker at skabe betingelser for brug af AI, der understøtter en positiv og ansvarlig samfundsmæssig udvikling, hvor borgerne føler sig mere sikre med AI, hvilket igen fremmer AI-vækst.

Forslaget opdeler AI i fire forskellige risikokategorier – uacceptabel, høj, begrænset og lav risiko. En udfordring med den foreslåede forordning er at finde en balance, hvor uetisk udvikling, der bringer retsstaten i fare, forhindres uden samtidig at hindre innovation og udvikling.

Ved at kategorisere AI-applikationer baseret på de forskellige risikoniveauer kan det sikres, at de områder med den laveste eller ikke-eksisterende risiko ikke hindres af en skærpende lovgivningsmæssig ramme. En anden udfordring ligger naturligvis i at implementere og sikre overholdelse af lovene i en verden med grænseløs digital trafik.

Arbejdet med visioner og regler skal foregå parallelt med teknologiudviklingen. Der er behov for en klar ramme, der inkluderer etik og gennemsigtighed i både teknologi og applikationer. En ramme, der spænder over mennesker, processer og teknologi.

Funktionalitet, der skal tilsikre en ansvarlig brug af AI, skal være til stede i platformen. Funktionalitet til detektering og styring af bias i data og modeller samt funktionalitet til test af modellerne, inden de tages i brug, og muliggør sporbarhed, håndtering og overvågning af modeller og beslutninger over tid. Det er også vigtigt for AI-revisorer og tilsvarende at kunne vurdere kvaliteten af ​​processen, beslutninger og resultater.

Jeg støtter fuldt ud EU's lovforslag og håber, at det vil blive gennemført hurtigst muligt. Men det er kun begyndelsen. Det er vigtigt, at de sikkerheds- og integritetsforanstaltninger, der følger af lovforslaget, ikke giver flaskehalse, der hæmmer innovation og udvikling, hvor det tager alt for lang tid at sætte AI i produktion.

De underliggende modeller skal trænes i data, der afspejler de betingelser, hvor modellerne skal bruges. Denne virkelighed er ikke statisk, men ændrer sig og udvikler sig over tid og rum. Hvis reglerne bliver en flaskehals, vil vi se modeller, der forårsager forkerte beslutninger, hvor konsekvensen potentielt kan være, at man ikke længere tør stole på resultaterne eller endnu værre - at man stoler på dem, når de ikke er korrekte. Kontrol og ledelse skal inkorporeres i arbejdet på en naturlig måde og gøres mulig i de anvendte teknologiplatforme og værktøjer.

Hvis vi gør dette på en god måde, vil reglerne være centrale ikke kun for etik og ansvar i AI, men også for innovation og vækstdrevet AI for samfundet som helhed. Og så har vi alle forudsætninger for at blive et "globalt center for pålidelig kunstig intelligens ".

Klumme: Sæt strøm til bestyrelsen

Klumme: Nulfejlskulturen er en markant barriere for nytænkning i den offentlige digitalisering 

Mere fra ITWatch

Dansk landechef for Oracle stopper

Det bliver et ryk opad for den danske landechef for Oracle, der fremover skal fokusere på østeuropa. Ingrid Mjøen har været hos Oracle i Danmark i små 17 år.

Læs også

Relaterede

Seneste nyt

Se flere jobs