En reglering av hur AI får användas är på väg genom EU:s institutioner, för att förhindra till exempel systematiserad massövervakning. Arkivbild.
En reglering av hur AI får användas är på väg genom EU:s institutioner, för att förhindra till exempel systematiserad massövervakning. Arkivbild. - Foto: Janerik Henriksson/TT

Reglerar AI – för att stoppa massövervakning

Med en ny kraftfull lag ska EU sätta stopp för massövervakning och sociala poängsystem av kinesiskt snitt. AI-reglerna, som är de första i sitt slag globalt, ska röstas igenom i dag.


Fakta: Nya AI-regler i EU

EU:s nya AI-lagar delar in tekniken och dess påverkan i fyra riskkategorier.

Oacceptabel risk handlar om när AI "anses utgöra ett hot mot människors säkerhet, försörjningsmöjligheter och rättigheter" och kommer vara förbjuden. Exempelvis AI-system för "social poängsättning".

Som "hög risk" räknas AI-system som används i kritisk infrastruktur, utbildning, vid anställningar, eller i samband med migration, asyl och gränskontroll. Dessa AI-system kommer att omfattas av "strikta skyldigheter" innan de släpps ut på marknaden. Brottsbekämpning bedöms ligga på denna risknivå.

Med "begränsad risk" avses exempelvis chattbotar, där ett krav är att användarna ska vara medvetna om att de interagerar med en maskin. Vid "minimal risk" ska fri användning tillåtas, som vid AI-stödda tv-spel eller skräppostfilter.

När resultatet av dagens omröstning i EU-parlamentet väl gått igenom alla byråkratiska steg kommer EU vara först ut bland de tunga politiska aktörerna att ha en övergripande lag för framtidens teknik – artificiell intelligens (AI). Men vad innehåller den egentligen?

Daniel Westman, jurist specialiserad på medierätt, liknar lagen vid en maträtt.

— Det är lite av en pytt i panna-lagstiftning, den innehåller lite allt möjligt, säger han.

De grova dragen är dock att AI-system kommer att delas in i fyra riskkategorier. Från minimal till oacceptabel risk i ytterkanterna. De flesta AI-tjänster väntas dock hamna i någon av de två mittenkategorierna, begränsad risk och hög risk.

— Hög risk rör sådant där människor kan fara illa, säger Daniel Westman och nämner som exempel transport, anställningar eller polisiära ärenden.

— Inom begränsad risk handlar det om transparenskrav, man ska informera om något är "deepfake" eller om det är en AI-tjänst du pratar med, exempelvis.

Övervakning

Bland minimal risk återfinns skräppostfilter och AI-användning i tv-spel. På andra sidan skalan, sådant som i regelverket anses oacceptabelt och som EU nu alltså sätter stopp för, återfinns realtidsövervakning med ansiktsigenkänning och AI-system för "social poängsättning", något som bland annat används i Kina.

— Alla de här olika områden kommer att övervakas av olika myndigheter, men för generell AI som Chat GPT är det EU-kommissionen som kommer att övervaka, därför att de per definition är så gränsöverskridande, säger Westman.

Det nya regelverkets påverkan på gemene man lär vara begränsat, men inte obetydligt, enligt Westman.

— Att våra livsmedel är säkra bygger också på regleringar. Det är långt ifrån medborgaren, men det påverkar ändå. Så kommer det att vara även här, säger Westman.

Olika villkor

De andra stora AI-marknaderna, något förenklat USA och Kina, har hittills en annan inställning till AI-lagar. I USA råder, i stort, fritt fram, medan Kina håller det som har störst nytta för landet främst.

— Olika aktörer har efterfrågat reglering – men det är också lite av en skendebatt, säger Westman och fortsätter:

— Marknadsledande aktörer likt Open AI har möjlighet att svälja det här, men mindre programvaruföretag, som är vana vid att experimentera, måste nu ha ett systematiskt säkerhetsarbete.

EU:s nya AI-lagar väntas vara i full kraft först 2025. Den som bryter mot lagen när den väl har trätt i kraft riskerar böter på upp till sju procent av sin globala omsättning.

TT
/
/
EU
/
Hot
/
USA
/
De senaste nyheterna direkt i din inkorg!