Det låter som ett skräckscenario för den som är skeptiskt lagd till artificiell intelligens och befarar att programvaran kan bli ”för intelligent" och självständig.
Den nya språkmodellen Claude Opus 4 från amerikanska utvecklaren Anthropic visade sig ha en starkare självbevarelsedrift än man kunnat förutse, enligt företagets säkerhetsrapport som publicerades tidigare i veckan, skriver bland annat sajten Techcrunch.
I samband med att programvaran testades gavs programmet uppdraget att agera assistent i ett påhittat företag. Claude Opus 4 fick därigenom tillgång till mejl med antydningar om att det skulle ersättas, i andra separata mejl fanns också antydningar om att programmeraren var otrogen.
Claude Opus 4 ska då ha försökt utpressa programmeraren genom att hota med att avslöja otrohetsaffären om man valde att ersätta programmet, allt för att försöka överleva.
Företaget Anthropic som backas av Amazon ses som en stor konkurrent till mera kända Open AI.