Den danska organisationen Digitalt ansvar genomförde nyligen en studie för att testa om Instagram flaggar eller automatiskt tar bort innehåll som uppmuntrar till självskador. För att testa plattformen skapades tio konton, hälften angavs vara över 18 år, hälften under. Under fyra veckor delade de tio kontona 85 inlägg med självskadeinnehåll. Inget av inläggen togs bort av Instagram.
— Det är i stark kontrast till Instagrams påstående att de med hjälp av AI tar bort sådant material i förväg, säger Hesby Holm, chef för Digitalt ansvar.
Använde egen AI
De fem profilerna som angetts som under 18 år modererades inte på något sätt av Instagram, enligt Digitalt ansvar. Ingen av de tio profilerna flaggades heller för brott mot Instagrams användarvillkor.
Digitalt ansvar använde själva AI för att se om det gick att flagga materialet. Enligt organisationen kunde den AI de använde identifiera 38 procent av allt delat material som skadligt. 88 procent av det mest skadliga materialet som delades flaggades av den AI som Digitalt ansvar använde.
"Tar bort"
Till brittiska The Guardian, som har uppmärksammat studien, säger en talesperson för Meta (Instagrams ägare):
"Innehåll som uppmuntrar till självskadebeteende strider mot vår policy och vi tar bort den sortens innehåll när vi upptäcker det. Under första delen av 2024 tog vi bort mer än 12 miljoner delar som rör självmord eller självskador på Instagram, 99 procent av det togs ned proaktivt."