Studie: Instagram tar inte bort självskadeinlägg
Noll inlägg med innehåll som uppmuntrar självskador togs bort av Instagram, enligt en ny studie. Instagram hävdar dock att man tar bort "99 procent" av sådant innehåll innan någon ser det. Säkerheten för barn och unga är ingen prio för Meta, säger chefen för organisationen bakom studien.
Gillar du artikeln?
Prenumerera på vårt nyhetsbrev och få fler artiklar som denna direkt i din inkorg - helt kostnadsfritt.
Vid akuta lägen eller vid tankar på självmord, ring alltid 112.
Hit kan du vända dig om du mår dåligt:
Mind.se.
Suicide Zero – suicidezero.se.
Spes – riksförbundet för suicidprevention och efterlevandestöd. spes.se.
BRIS – barnens rätt i samhället. bris.se.
Rädda Barnen – raddabarnen.se. Även för föräldrar.
Jourhavande kompis – tar emot samtal från barn och unga upp till 25 år. jourhavandekompis.se.
Jourhavande medmänniska – nås nattetid på 08–702 16 80.
Friends – friends.se.
1177 – sjukvårdsrådgivning samt uppgifter om närmaste psykiatriska akutmottagning. 1177.se
Den danska organisationen Digitalt ansvar genomförde nyligen en studie för att testa om Instagram flaggar eller automatiskt tar bort innehåll som uppmuntrar till självskador. För att testa plattformen skapades tio konton, hälften angavs vara över 18 år, hälften under. Under fyra veckor delade de tio kontona 85 inlägg med självskadeinnehåll. Inget av inläggen togs bort av Instagram.
— Det är i stark kontrast till Instagrams påstående att de med hjälp av AI tar bort sådant material i förväg, säger Hesby Holm, chef för Digitalt ansvar.
Använde egen AI
De fem profilerna som angetts som under 18 år modererades inte på något sätt av Instagram, enligt Digitalt ansvar. Ingen av de tio profilerna flaggades heller för brott mot Instagrams användarvillkor.
Digitalt ansvar använde själva AI för att se om det gick att flagga materialet. Enligt organisationen kunde den AI de använde identifiera 38 procent av allt delat material som skadligt. 88 procent av det mest skadliga materialet som delades flaggades av den AI som Digitalt ansvar använde.
"Tar bort"
Till brittiska The Guardian, som har uppmärksammat studien, säger en talesperson för Meta (Instagrams ägare):
"Innehåll som uppmuntrar till självskadebeteende strider mot vår policy och vi tar bort den sortens innehåll när vi upptäcker det. Under första delen av 2024 tog vi bort mer än 12 miljoner delar som rör självmord eller självskador på Instagram, 99 procent av det togs ned proaktivt."