Succélanseringen av Chat GPT i november 2022 gjorde AI till förkortningen på allas läppar. Sedan dess har stora delar av det globala samfundet försökt att hitta ett sätt att förhålla sig till den ”nya” tekniken, samtidigt som AI-bolagen rusat uppåt i värdering.
Den typ av AI som blev populär i och med Chat GPT bygger på principen att mer data är bra data. De senaste versionerna av tjänsten är bättre än de tidiga, till stor del för att de bygger på mer information, alltså mer data.
Men nu är datan slut. I alla fall den historiska mänskliga kunskapen. Chat GPT och dess konkurrenter har redan tränats på ”allt som finns på internet”.
— De här tjänsterna har förbrukat allt ”original”-innehåll på nätet så de kan bara tränas på det nya som genereras, säger Fredrik Lindsten, professor vid Linköpings universitet som forskar om maskininlärningsmodeller.
Omänskligt skräp
Det nya har fram till nyligen varit skapat av människor, oavsett om det varit text, bild eller video. Så är det inte längre. Mycket, exakt hur mycket är omtvistat, av det som nu skapas, skapas av AI. Trenden tycks eskalera i takt med att fler använder olika AI-tjänster.
Det är i det skiftet som den första och kanske tydligaste AI-bubblan riskerar att spricka. För AI skapar en helt ny typ av ”skräp” jämfört med människor.
— Forskning pekar på att när AI tränar på text som skapats av AI så ökar mängden "skräp". Vid en viss tidpunkt går det inte att garantera att det som AI genererar inte är helt galet. Tekniken bakom är inte skapad för att avgöra vad som är sant eller falskt, säger Virginia Dignum, professor i ansvarsfull AI vid Umeå universitet.

En forskningsstudie som publicerades i Nature 2024 visar att språkmodeller, likt Chat GPT, som tränar på material som AI-genererats skapar irreversibla fel och svaren kommer längre och längre ifrån ursprungskällan. Forskarna beskriver det som att svaren som genereras förorenas i varje steg.
Även om språkmodeller riskerar att försämras med en ökad tillströmning av AI-genererat innehåll och träningsmaterial innebär det inte slutet för AI-boomen, enligt Mattias Rost, docent i interaktionsdesign vid Göteborgs universitet.
— För att komma längre behöver man andra sätt att träna på. Och det har man ju nu, man har nya sätt att träna de här modellerna på, säger han.
Är som ett barn
Exakt på vilket sätt de bakomliggande förändringarna görs beror på vilken tjänst eller teknik man pratar om.
— Det är lite som att träna ett barn. Vi ger dem prov. Får de rätt på proven behöver de inte träna mer, får de fel så får de gå om en klass. Det fungerar väldigt bra på just matematik och programmering, säger Mattias Rost.
Det finns studier som visar att vi minskar viss aktivitet i hjärnan när vi använder AI-agenter. Att vi till exempel blir sämre på att hitta när vi hela tiden förlitar oss på mobilens kartfunktion.
Sam Altman, vd på Open AI, sade nyligen i en intervju att han inte riktigt visste hur han skulle kunna ta hand om sitt nyfödda barn utan hjälp av Chat GPT. Måhända sagt med glimten i ögat men antalet individer som rådfrågar en språkmodell växer.

Kognitiv lathet
Olof Sundin professor i biblioteks- och informationsvetenskap vid Lunds universitet pekar på risker när vi vänder oss till generativ AI i stort och smått.
— Om vi utlokaliserar vårt kognitiva tänkande till en chatbott vad händer då på sikt? Risken är att vi utvecklar en kognitiv lathet och blir mer sårbara för påverkan, säger han.
Han pekar på att universitet och högskolor har en viktig roll att spela när det gäller att lära ut ifrågasättande.
–Kunskap är inte en stor faktamaskin som bara kan leverera raka svar. Vi behöver träna på att vända och vrida på olika argument, vara kreativa och se olika perspektiv, säger han och fortsätter:
— Överlag är den här tekniken väldigt oreglerad och den används brett. Jämför med när ett nytt läkemedel ska in på marknaden, då testas det och varenda liten risk anges.
Förändringen inom AI går fort, men inte fort nog för att tillfredsställa hungern hos den globala marknadsekonomin. Och de senaste veckorna har bland andra Internationella valutafonden IMF, bankchefer, Wall Street-höjdare och Googles vd Sundar Pichai varnat för en överinvestering i AI – likt den som ägde rum under dotcom-bubblan vid internets unga år.
— Jag tror att det kommer bli samma sak med AI, sade Pichai nyligen i en intervju med BBC.
Skulle den ekonomiska AI-bubblan spricka spår Pichai massiva konsekvenser.
— Jag tror inte något företag kommer vara immunt (mot effekterna), inklusive oss själva.


.jpg)

