Klumme: Pas på! De 3 største risici ved AI-værktøjer

ChatGPT er for tiden det stærkeste AI-værktøj, vi har til rådighed. Men den kan både tage fejl og være påståelig. Derfor er kildekritik vigtigere end nogensinde før, når der bruges AI.
Arkivfoto: Dado Ruvic/Reuters/Ritzau Scanpix
Arkivfoto: Dado Ruvic/Reuters/Ritzau Scanpix
Af Anders Bæk, AI-ekspert, investor og foredragsholder

AI-bølgen er over os, og med AI-værktøjer som eksempelvis ChatGPT kan virksomheder opnå et stort produktivitets-boost ved mange arbejdsopgaver.

I mit forrige indlæg fortalte jeg om, hvordan man kan begynde at implementere AI-værktøjer strategisk i sin virksomhed og organisation. Men at transformere sit selskab til at blive en sværvægter inden for AI-teknologi kræver, at man både kender styrkerne og risiciene ved disse kraftfulde værktøjer. I dette indlæg vil vi kigge på sidstnævnte.

ChatGPT er fortsat det stærkeste AI-værktøj, som vi har til rådighed, og derfor er det også denne AI-assistent, som vi vil fokusere på i dette indlæg.

Jeg plejer at kalde ChatGPT for verdens dygtigste studentermedhjælper. Denne analogi hjælper både med at forstå hvilke arbejdsopgaver, som man kan bruge ChatGPT til, men også hvilke ulemper, som AI-hjælperen kan medføre. 

Man er ofte nødt til at kigge en studentermedhjælper over skulderen for at sikre, at arbejdet er gjort ordentligt, og at der ikke har sneget sig nogle fejl ind. Det samme gør sig gældende for ChatGPT.

Når chatGPT bliver påståelig

ChatGPT kan ofte svare korrekt og præcist på de ”prompts” (de kommandoer/forespørgsler man giver til AI-systemer, red.), men en enkelt gang imellem sniger der sig en fejl med ind i besvarelsen. Ikke nok med det. Samtidig kan AI’en ofte være meget påståelig i sin falske påstand. Når dette sker, siger man, at ChatGPT ”hallucinerer”.

Eksempler på hallucinationer kunne være, at ChatGPT påstår, at Barack Obama stadig er præsident, at vikingerne stammede fra Japan, eller at Napoleon var født på Grønland. Der er allerede nu flere kendte eksempler på, at folk har fået fingrene i klemme ved at stole på ChatGPTs hallucinationer. 

Et af de mest kendte eksempler er fra juni sidste år, hvor en advokat brugte ChatGPT til at udarbejde et forsvar til sin klient. Problemet var dog, at ChatGPT opdigtede to falske sager, som aldrig var hændt!

ChatGPT og konkurrerende sprogmodeller hallucinerer mindre og mindre for hver en ny version, der udgives. Derfor skal man dog stadig være særdeles opmærksom på problematikken, og kildekritik er et nøgleord, når man benytter AI-værktøjer. 

I dag bør man altid være kildekritisk, når man eksempelvis læser ting på Wikipedia, men man bør være dobbelt så kildekritisk, når svaret kommer fra en AI.

Derudover bør man være påpasselig med at give personfølsomme oplysninger til ChatGPT. Alt det data, som ChatGPT ”fodres med”, ryger med i træningsdata-settet i fremtidige versioner. Ligeledes bør man være påpasselig i forhold til indbyggede fordomme.

ChatGPT er trænet på en masse data, og hvis disse datasæt indeholder fordomme og biases, kan det risikere at vise sig i ChatGPTs svar. Eksempelvis kan kønsbias vise sig i et svar som :”Lad os finde en nem opskrift, da mænd ofte ikke er så erfarne i køkkenet”, eller aldersbias i et svar som ”Du er muligvis for ung til at forstå komplekse økonomiske koncepter, så lad mig forenkle det.”

Vigtigt at være opmærksom på børnesygdomme

Man må dog ikke lade ChatGPTs faldgruber bremse sin implementering af AI-værktøjer på sin arbejdsplads. Der vil unægteligt ske fejl i ny og næ, og hvis ikke man fejler, har ens organisation ikke tilegnet sig et innovations-mindset. Det er nye og kraftfulde værktøjer, vi har fået adgang til, og fælles for alle nye teknologier er, at der medfølger en række nye potentielle problemer. 

Da computeren erstattede skrivemaskinen, kunne man lige pludselig risikere, at stikket faldt ud af stikkontakten og alt ens arbejde blev slettet. Da internettet gjorde sit indtog, skulle man pludselig til at tage sig i agt for hackerangreb og computervirus. 

Samtidig bør man også huske på, at mange af AI’s nuværende problemer blot er børnesygdomme. De vil derfor hurtigt blive lappet, og at klandre ChatGPT for eksempelvis at hallucinere ville svare til at kritisere internettet for at være langsomt i 1995.

Man skal være opmærksom på faldgruberne ved moderne AI-værktøjer, men man må ikke bruge dem som en undskyldning for ikke at blive en AI-sværvægter så hurtigt som muligt.

Del artikel

Tilmeld dig vores nyhedsbrev

Vær på forkant med udviklingen. Få den nyeste viden fra branchen med vores nyhedsbrev.

Nyhedsbrevsvilkår

Forsiden lige nu

Læs også