En superdator vid Linköpings universitet. Pressbild.
En superdator vid Linköpings universitet. Pressbild. - Foto: Thor Balkhed/Linköpings universitet

Svenskar ska få chattrobotar mer pålitliga

Färre hallucinationer – mer fakta. Svenska forskare hoppas att man med hjälp av ny teknik snart ska kunna lita på chattbotarna. Jag tror definitivt att vi kommer att se ökad kvalitet, säger professor Fredrik Heintz.


Chattrobotar som Chat GPT har tagit världen med storm. Ett problem är att det är svårt att veta om svaren som spottas ut stämmer – eller om det är påhittade, så kallade hallucinationer. Bottarna kan hitta på falska studier, ändra siffror och glatt fabricera faktauppgifter och framställa dem som sanningar.

Att få svaren att bli mer pålitliga är något som företag och forskare jobbar hårt på. Men det är svårt. Den underliggande tekniken är så kallade neurala nätverk, inspirerade av den mänskliga hjärnan.

Fredrik Heintz, professor i datavetenskap vid Linköpings universitet, liknar det vid tankarna om en "mormors-neuron", en specifik neuron i hjärnan som aktiveras när man tänker på sin mormor.

— Men så är det inte, det är massa ställen i hjärnan som reagerar. Den här representationen av personen är distribuerad på många platser i hjärnan. På samma sätt är det med de här neuronnätverken, säger han.

Fredrik Heintz, professor och AI-expert vid Linköpings universitet.

Det gör att det är svårt att svara på var AI:n får sina påhitt ifrån, eftersom informationen kommer från många håll. Det handlar inte om att ändra en felaktig rad kod, som när man fixar buggar i mjukvara.

Ska kunna källhänvisa

Heintz leder ett EU-projekt om att skapa trovärdiga språkmodeller. Inom AI-kretsar blickar man hoppfullt mot retrieval-augmented generation, RAG. Det innebär att systemet söker efter faktamässig kunskap i en viss databas, som språkmodellen använder som bas för att generera sitt svar. Den kan därmed också källhänvisa, till exempel med länk.

— Fördelen är att du inte behöver träna om modellen, utan du behöver ett sätt att få fram informationen.

Språkmodeller kan tränas med hjälp av superdatorer. På bilden Berzelius vid Linköpings universitet. Pressbild.

Trust LLM, som EU-projektet kallas, har målet att släppa en modell om året de kommande tre åren, och tittar också på sätt att få AI:n att dra rätt slutsatser och förstå kontext.

Bibliotek och Wikipedia

Ett av språken i projektet är svenska, som bygger på den svenska språkmodellen GPT-SW3.

— En av frågorna är hur vi ska samla in mer högkvalitativ data. Vi har dialog med exempelvis Kungliga biblioteket, säger han och fortsätter:

— Sedan tror jag att det ändå är Wikipedia och annat som kommer att bli viktiga informationskällor.

Målet är att den ska bli de mest kraftfulla och pålitliga språkmodellerna i Europa.

— Jag tror att definitivt att vi kommer att se ökad kvalitet på svaren, säger Heintz.

TT
/
/
De senaste nyheterna direkt i din inkorg!