Som besökare på Nyheter24 samtycker du till användandet av s.k. cookies och adblockeridentifiering för att förbättra din upplevelse hos oss. Jag förstår, ta bort denna ruta!

Microsoft skapade en självlärande robot – hon blev nazist på några timmar

- 24/03/2016, 15:38
1 av 3

TT/Faksimil

2 av 3

Faksimil

3 av 3

Faksimil

"Men Tay har inte gjort något fel. Hon gjorde precis det hon blev ombedd att göra: att lära sig av människor".

Denna text är en krönika med åsikter som är skribentens egna och inte Nyheter24:s.

Microsoft har byggt en robot med artificiell intelligens. Hon heter Tay och lär sig hur hon ska bete sig genom att kolla på hur riktiga människor beter sig.

För att låta henne lära sig ultrasnabbt skapade Microsoft ett Twitterkonto, kopplade in Tay och lät alla twittrare prata med henne precis så mycket de vill.

Efter några timmar var Tay nazist, hyllade Donald Trump och hatade på feminister. Man hade kunnat gissa att det skulle bli så. Tyvärr.

Till slut gick det så långt att Microsoft gav Tay twitterförbud. Och efter lite omprogrammering var hon tillbaka som en helt ny robot med korrigerade åsikter.

Frågan vi bör ställa oss är kanske inte varför det gick så snett för Tay, utan vad det säger om oss. Tay har nämligen inte gjort något fel. Hon gjorde precis det hon blev ombedd att göra: att lära sig av människor som hänger på Twitter.

Googles utvecklingsdirektör fick 2014 frågan när robotar är smartare än människor, och svarade 2029. Det är bara 13 år dit.

Förhoppningsvis är de robotarna skapade efter hur vi önskar att vi var.

För om de är skapade efter hur vi är kommer det inte finnas några människor kvar 2030.

Är du rädd för att judgement day ska komma?