Annonce
Samfund
12. november 2025

Techvirksomheder: Det gør vi for at beskytte unge mennesker på sociale medier

Usunde kropsidealer på sociale medier som TikTok, Instagram og YouTube påvirker unges mentale helbred negativt. Her forklarer de store platforme, hvad de gør for at beskytte de unge.
Af: Lou Mikko
STOCKHOLM, SVERIGE 20250207 Anna Wikland (Sverigechef på Google) under Prompt SM som är ett initiativ av Google Sverige i samarbete med Digitalidag - en del av Post- och telestyrelsen (PTS). Foto: Viktoria Bank/TT / TT / Kod 12190

Anna Wikland er nordisk chef for Google, der ejer YouTube. Hun siger, at virksomheden arbejder for unges velbefindende ved at sørge for, at hjælpefora og -organisationer ender højt i Googles søgefelt.

Foto: Viktoria Bank/TT/Ritzau Scanpix

Sociale medier er blevet en naturlig del af vores liv og har på mange måder gjort det bedre: Vi kan lettere holde kontakt med familie og venner, finde fællesskaber og få adgang til nyheder og underholdning.

Men der er også en bagside.

Forskning viser, at unge – især piger – der bruger meget tid på sociale medier, påvirkes negativt af det indhold, de ser.

Skønhedsidealer og kropspres på platformene bidrager til lavt selvværd og angst og kan i værste fald føre til depression og spiseforstyrrelser.

Vi undersøger "smalgoritmen" 

I en række artikler sætter femina fokus på bl.a. algoritmerne, eller "smalgoritmerne", som vi har døbt dem, samt på det pres kvinder føler for, at kroppen skal se ud på en bestemt måde.

Undersøgelsen er et samarbejde mellem Femina.se, femina.dk og KK.no, der alle er en del af Aller Media Nordic.

Den udspringer af undersøgelsen The Nordic Women Report 2025.

For at beskytte unge har man i nogle lande valgt at indføre aldersgrænser for sociale medier. I Australien skal man snart være 16 år for at kunne oprette konti på for eksempel TikTok, Snapchat og Instagram. I Sverige vil regeringen undersøge, om det er muligt at indføre en lignende aldersgrænse, og i Danmark har regeringen netop lavet en aftale om at forbyde sociale medier for børn under 15 år.

Annonce

Samtidig stilles der krav om, at virksomhederne bag de populære medier tager ansvar og beskytter unge mod skadeligt indhold.

Sådan arbejder sociale medieplatforme for at beskytte unge

Videoplatformen YouTube har over to milliarder brugere om måneden globalt og er særligt populær blandt unge mænd.

YouTube har ændret på sin algoritme for at begrænse, hvor ofte børn og teenagere får anbefalet videoer, der bidrager til usunde kropsidealer.

Præcis hvad det betyder i praksis, er uklart, men eksperter påpeger, at begrænsningerne er lette at omgå, og at forældre derfor stadig bærer et stort ansvar.

Annonce

Anna Wikland, nordisk chef for Google, som ejer YouTube, siger, at virksomheden arbejder for unges trivsel ved at sørge for, at hjælpesider og organisationer får en fremtrædende placering i Googles søgeresultater.

– Ser vi mønstre eller adfærd, der viser tegn på skade eller mistrivsel, arbejder vi på at skubbe links til hjælpesider opad, så folk kan blive ledt i den rigtige retning, siger hun.

På Instagram findes der nu særlige teenagekonti, som skal forhindre, at unge ser indhold om for eksempel stoffer eller farlig adfærd.

Annonce

Meta, der ejer appen, har tidligere lovet ikke at vise opslag om selvskade eller spiseforstyrrelser til unge brugere – men der er begrænset information om, hvordan det fungerer i praksis.

TikTok: Så meget indhold bliver fjernet

TikTok hævder også, at indhold, der opmuntrer til usunde kropsidealer, ikke skal være synligt for brugere under 18 år. Hvor effektivt disse “ungdomsfiltre” fungerer, er dog uklart.

Efter kritik fra EU valgte TikTok tidligere i år at blokere hashtagget #skinnytok, som var knyttet til tynde kropsidealer og vægttabstips. Hvis man søger på hashtagget i dag, vises i stedet en boks med et telefonnummer til en hjælpeorganisation.

Annonce

Ifølge Lukasz Lindell, kommunikationsansvarlig for TikTok i Norden, gennemgår virksomheden løbende sine sikkerhedstiltag for at håndtere nye risici.

– Vi fjerner også stavevarianter, der ligner, og fortsætter derudover med at moderere indhold, der overtræder vores regler – uanset hvilke hashtags det er knyttet til, siger Lukasz i en kommentar til Femina Sverige.

Han fortæller, at 85,5 procent af alle videoer, der overtræder reglerne, bliver fjernet proaktivt, altså før nogen har anmeldt dem, og at platformen løbende vurderer sine sikkerhedstiltag for at håndtere nye risici.

Annonce

– Vores moderering bygger på automatiske systemer, moderatorer og brugere, der markerer indhold for os, tilføjer han.

Annonce

Læs mere om:

Annonce

Læs også

Bliv medlem af femina+

Du skal være medlem for at gemme denne artikel. Medlemskabet giver dig ubegrænset adgang til alt indhold.