ITWatch

Klumme: Udbredelsen af kunstig intelligens kræver etisk styring

Der skal mere menneske ind i algoritme arbejde, og det skal ske nu, for AI er allerede en del af vores hverdag, skriver Samay Mir, som er chef for kunstig intelligens og dataanalyse i Capgemini Danmark, i denne klumme.

Foto: Capgemini/PR

Kunstig intelligens eller AI, som de stadig mere intelligente robotter også kaldes, rykker i disse år ind på livet af os danskere. Både i vores job og som private forbrugere møder vi i dag AI overalt. Lige fra indkøb på nettet, onlinebanken eller hos digital borgerservice og i kontakten med sundhedsvæsenet.

Tidligere på året viste en stor undersøgelse, at vi som borgere og forbrugere i dag møder AI dobbelt så tit som for bare to år siden. Så udviklingen går stærkt. Det rejser et oplagt spørgsmål om, hvad AI egentlig er for en størrelse? Men i langt højere grad rejser det et afgørende spørgsmål om, hvordan vi som samfund forholder os til de etiske dilemmaer, der følger med, når AI rykker helt ind i vores dagligdag.

Grundlæggende er AI algoritmer, der er bygget oven på historiske data. Altså rå computerkraft omsat til en bestemt formel, der afdækker mønstre i store mængder data og forudsiger fremtidige mønstre. Typiske handlemønstre hos borgere, patienter og naturligvis kunder hos virksomheder.

Så langt så godt. For med AI’s hastige fremmarch melder en række etiske spørgsmål sig, som vi som samfund skal forholde os til både politisk og teknologisk. Som det er tilfældet med alle innovative teknologier, har AI i den indledende fase været drevet meget af en begejstring for, hvad der var teknologisk muligt. Groft sagt uden at tænke fuldt ud over, hvad der sker, når computere tager over på områder, hvor mennesker typiske har regeret.

Teknologi overfor etik

Et eksempel på AI i praksis er, hvordan algoritmer har hjulpet banker med at sortere og klassificere kunders kreditværdighed med afsæt i historiske data. En umiddelbart oplagt og effektiv måde til at screene kunderne til f.eks. et nyt boliglån på. Problemet er bare, at historiske data langt fra er så neutrale, som man skulle håbe.

Tag nu f.eks. virksomheden, der leder efter en ny adm. direktør og har sat en algoritme til at sortere mulige kandidater baseret på historiske data om den arketypiske direktørprofil. Her vil en algoritme, der modsat de fleste mennesker ikke besidder etisk og emotionel intelligens, automatiske sortere en yngre, mørk kvinde eller mand fra kandidatfeltet. Ikke fordi AI har noget imod kvinder eller er racistisk disponeret. Men alene fordi det historiske billede på en solid topchef ser ud på en bestemt måde.

Kort sagt: Der skal langt mere menneske ind i algoritmearbejde.

Samay Mir, chef for kunstig intelligens og dataanalyse i Capgemini Danmark.

Her åbner der sig et etisk dilemma, der er kommet øget opmærksomhed på hos virksomheder, som vil effektivisere forretningsgange med AI og teknologifirmaer, der udvikler algoritmerne. For når man taler AI, er kunsten at sikre, at de data, man har, meget præcist matcher formålet - ellers kan svaret meget vel blive unuanceret og ligefrem diskriminerende.

Twitter-chatbot blev anti-feminist på 24 timer

Selv om de næste generationer af AI-teknologi i stigende grad er selvlærende - altså bliver "klogere" ud fra de data, de løbende møder og analyserer - så åbner dette blot op for flere etiske problematikker.

Et eksempel er Microsofts Twitter-chatbot, som via chat med brugerne skulle blive stadigt mere kompetent til at håndtere dialog med mennesker. Efter at have været i drift i kun 24 timer, og stik mod hensigten være blevet fodret med kvindehads, racistisk og Donald Trump-agtig retorik, adopterede chatbotten i stedet hadsk sprogbrug, som en del af sit naturlige ordforråd. Robotten vidste selvsagt ikke, at det var upassende, stødende sprogbrug, den havde tillært sig. Men det kuriøse forsøg illustrerer præcis, hvordan AI uden et etisk kompas kan gøre mere skade end gavn.

Enøjet forretningsoptimering

Den altafgørende forskel på et menneske og AI er, at AI i udgangspunktet altid effektiviserer i mødet med kunden, borgeren eller patienten - uden etisk eller følelsesmæssig fornemmelse. AI er altså i udgangspunktet blottet for samvittighed, empati og sympati. Modsat menneskelig kontakt, hvor de etiske antenner for de fleste naturligt er slået ud og vil påvirke den rådgivning, det salg eller anden dialog, der sker.

Heldigvis er den etiske og emotionelle dimension af AI et tema, som får stadig større opmærksomhed. Det er nemlig vigtigt, at både vi som udvikler teknologien, og de virksomheder og offentlige institutioner, der vil benytte AI, erkender teknologiens etiske blinde vinkler.

Fremtiden for AI går mod en mere etisk virkelighed, hvor effektivitet af AI ikke måles på kommerciel effekt alene. Den skal også måles på, hvordan algoritmer bliver sat etisk op og om det datagrundlag, der bliver anvendt, er troværdigt og afspejler den diversitet, der er i befolkningen og blandt kunderne.

Det kræver en klar politisk og samfundsmæssig diskussion og konsensus omkring, hvordan man bringer AI i spil både etisk og effektivt. Kort sagt: Der skal langt mere menneske ind i algoritmearbejde. Og det er nu, det skal ske, fordi AI er allerede godt på vej til at blive dybt forankret i vores dagligdag og arbejdsliv.

Relaterede

ITWatch trial banner 14 dage.jpg

Seneste nyt

Se alle ledige stillinger