Annoncører og bureauer udvikler fælles standard for skadeligt indhold på sociale medier

Global Alliance for Responsible Media, GARM, har udgivet sin første rapport om brand safety på tværs af syv forskellige sociale medie-platforme.
Foto: Frankhoermann/AP/Ritzau Scanpix
Foto: Frankhoermann/AP/Ritzau Scanpix

Global Alliance for Responsible Media, GARM, er klar med første udgave af en ny halvårlig rapport, der tager temperaturen på og sammenligner brand safety-forholdsregler på tværs af sociale medie-platforme som Facebook og Twitter. 

Det fremgår af en pressemeddelelse fra Danske Annoncører og Markedsførere under Dansk Erhverv.

Rapporten bygger på en splinterny fælles standard for indhold, der kan skade brands og medier, og på en fælles ramme for måling af de digitale platformes arbejde med at fjerne det uønskede indhold.

Oplysningerne i rapporten stammer for en stor del fra techplatformene selv, men rammen er stillet op af GARM, så oplysninger kan sammenlignes på tværs af platformene.

"Samarbejdet mellem annoncører, bureauer og platforme har været meget konstruktivt, og vi har nu en fælles platform, der kan skabe endnu bedre fremskridt til glæde for samfundet, markedsførerne og det digitale økosystems langsigtede sundhed," lyder det fra Stephan Loerke, CEO i World Federation of Advertisers, WFA, der har været primus motor i skabelsen af GARM.

Rapporten er det første bud på en fælles metrik for måling af, hvor effektivt en platform håndhæver sin egen politik, og hvor god den er til at rette sine egne fejl.

5,3 mia. indholdsenheder er luget væk

GARM annoncerede i efteråret sin definition af "skadeligt indhold" på tværs af platforme. De første ni måneders arbejde har blandt andet vist, at mere end 5,3 mia. indholdsenheder er blevet fjernet fra platformene i den periode, hvilket er et lille fald. Og fire ud af fem gange falder det fjernede indhold i en af tre GARM-kategorier for skadeligt indhold: Spam, Stødende indhold (sex) eller Hate speech, vold og trusler.

En særlig pointe i rapporten er, at platformene på grund af corona har fremskyndet brugen af automatisk indholdssortering, som hviler på kunstig intelligens og maskinlæring. Robot-filtrene viser sig at være mest effektive til at opdage og fjerne skadeligt indhold i kategorierne Terrorisme, Eksplicit fremstilling af vold, Kriminalitet samt Våben og Ammunition.

De syv platforme i rapporten er Facebook, Instagram, Pinterest, Snap, TikTok, Twitter og YouTube. Målet er at føje stadig flere til i rapporten, der skal udkomme hvert halve år. Hver af platformene svarer på de samme spørgsmål, men GARM advarer mod at bruge rapporten som rangliste eller beslutningsgrundlag.

En nordisk udgave af den globale alliance for ansvarlige medier, NARM, Nordic Alliance for Responsible Media, er ved at blive oprettet af Danske Annoncører og Markedsførere, Sveriges Annonsörer samt Marketing Finland, og med deltagelse af virksomheder som Telenor, Nordea, Lantmännen, Google og TikTok.

Pinterest straffedes for ventet vækstopbremsning

Tiktok sagssøges for ulovlig indsamling af data om børn i Europa 

Del artikel

Tilmeld dig vores nyhedsbrev

Vær på forkant med udviklingen. Få den nyeste viden fra branchen med vores nyhedsbrev.

Nyhedsbrevsvilkår

Forsiden lige nu

Læs også