Hur nära är vi egentligen AGI?
Krönika

Hur nära är vi egentligen AGI?

Techbolagen lovar artificiell allmän intelligens inom ett par år. Forskarna är skeptiska. Vi reder ut var vi faktiskt står — och vad det betyder för dig.

Bild: PCMag / Figure AI

Sammanfattning

Vi är längre bort från AGI än techbolagen vill att du ska tro — men närmare än skeptikerna medger. Sanningen ligger i definitionen: dagens AI:n är otroligt kapabel inom specifika områden, men saknar fortfarande grundläggande förståelse för världen.

Varje vecka dyker det upp en ny rubrik: "AGI inom två år", "AI som överträffar Nobelpristagare", "Världen är inte redo." Om man lyssnar på techbolagens VD:ar verkar det som att artificiell allmän intelligens — en maskin som tänker lika bra som en människa i allt — är runt hörnet.

Men stämmer det? Eller är vi mitt i en hype-cykel driven av investerarpengar och ego?

Låt oss ta ett steg tillbaka och reda ut vad vi faktiskt vet.


Vad menar vi ens med AGI?

Det här är det första problemet. Ingen är överens om vad AGI betyder.

I sin enklaste form: en AI som kan utföra alla intellektuella uppgifter som en människa kan, och som kan generalisera mellan helt olika områden utan specifik träning. Den ska kunna lära sig schack, sen lära sig laga mat, sen skriva en roman — ungefär som en människa kan skifta mellan uppgifter.

Men techbolagen har börjat tänja på definitionen. OpenAI definierar AGI som "AI-system som överträffar människor i de flesta ekonomiskt värdefulla uppgifter." Det är en smalare definition — och inte av en slump. Ju smalare definition, desto snabbare kan du hävda att du nått målet.

Google DeepMind försöker vara mer rigorös och har utvecklat ett kognitivt ramverk som bryter ner intelligens i 10 separata förmågor — från resonemang och planering till social kognition och kreativitet. Varje förmåga mäts mot mänsklig nivå.

Det är ett steg i rätt riktning. Men det visar också hur enormt komplicerat problemet är.


Var vi faktiskt står 2026

Låt oss vara ärliga: dagens AI:n är extremt imponerande. ChatGPT, Claude, Gemini — de kan skriva, koda, analysera data, föra resonemang och till och med göra kreativt arbete på en nivå som hade varit otänkbar för fem år sedan.

Men det är inte AGI.

Vad vi har idag kallas ibland "funktionell AGI" — AI-agenter som är otroligt kapabla inom specifika arbetsflöden. OpenAI:s forskningsagenter kan navigera komplexa kodbaser och köra experiment. Anthropics Claude kan agera som autonom forskare. Harvey:s AI fungerar som juristassistent.

Det som saknas:

  • Verklig förståelse. AI:n manipulerar symboler och mönster. Den förstår inte vad den gör — den vet inte att vatten är vått, att tid går framåt, eller att döden är permanent.
  • Generalisering. En människa som lär sig cykla förstår intuitivt något om balans som hjälper hen att lära sig surfa. AI:n måste tränas separat för varje uppgift.
  • Sunt förnuft. Be en AI planera en middag och den kan göra ett strålande menyförslag. Be den förklara varför det är oartigt att servera griskött åt en gäst som är muslim, och svaret blir mekaniskt — inte intuitivt.

Vad säger de som bygger det?

Här blir det intressant, för prognoserna varierar dramatiskt:

Sam Altman (OpenAI): Har pratat om AGI sedan 2023 och flyttat målstolparna flera gånger. Senaste roadmap: AI-"forskningspraktikanter" i september 2026, "fullt automatiserade forskare" i mars 2028. Han har också sagt att AI redan passerat "event horizon" — men att singulariteten blir "mjuk".

Dario Amodei (Anthropic): Förutspår "kraftfulla AI-system" i slutet av 2026 eller tidigt 2027 — system som matchar Nobelpristagare inom de flesta discipliner. Han beskriver det som "ett land av genier i ett datacenter."

Demis Hassabis (Google DeepMind): Mer försiktig. Ger 50% sannolikhet för AGI innan 2030. Shane Legg, medgrundare av DeepMind, säger 50% sannolikhet för "minimal AGI" redan 2028.

Yann LeCun (Meta): Rakt ut skeptisk. Menar att nuvarande transformer-arkitektur fundamentalt inte kan leda till AGI och att vi borde sluta använda begreppet.

Märker du mönstret? De som investerat mest pengar i det ger de kortaste tidlinjerna. Det är inte nödvändigtvis lögn — men det är definitivt inte objektiv vetenskap.


Skalningsproblemet

Under 2023-2025 var mantrat: "Vi behöver bara mer beräkningskraft, mer data, större modeller." Och det stämde — till en punkt.

Men 2026 ser vi tecken på avtagande avkastning. Att fördubbla beräkningskraften ger inte längre en proportionell förbättring i kvalitet. De låga skalningsexponenterna i nuvarande språkmodeller tyder på att vi kan nå ett tak — inte i vad AI:n kan göra, utan i hur snabbt den förbättras genom att bara göra modellerna större.

Det betyder inte att utvecklingen stannar. Men det betyder att nästa stora steg troligen kräver nya arkitekturer och nya idéer — inte bara större datacenter.

Och det är per definition svårt att förutsäga. Genombrott inom forskning följer inte scheman.


Prediction markets vs magkänsla

Om du vill ha ett objektivt mått — kolla prediction markets:

  • AGI 2026: ~10% sannolikhet
  • AGI 2030: ~25-30%
  • AGI 2041: ~50%

Det är en ganska nykter bild. Marknaden tror inte att AGI är omöjligt — men den tror inte heller att det är runt hörnet.

Problemet är att prediction markets också har fel ibland. Och vid transformativa teknologier tenderar de att underskatta hastigheten — precis som folk underskattade internet 1995 och smartphones 2007.


Det svenska perspektivet

Sverige antog i februari 2026 sin första nationella AI-strategi. Målet: att bli ett av världens tio främsta AI-länder och ledande inom AI i offentlig förvaltning.

Det låter ambitiöst. Men budgeten — 479 miljoner kronor för AI och datareformer, plus 570 miljoner via Vinnova — bleknar jämfört med vad USA och Kina investerar. OpenAI ensamt har förbrukat mer pengar under ett enda kvartal.

Sverige har styrkor: hög digitaliseringsgrad, stark akademi, och en pragmatisk inställning till teknik. Men om AGI verkligen ligger 5-10 år bort, så räcker det inte att vara bra på AI. Då handlar det om att vara redo att omvandla hela samhället — från arbetsmarknad till utbildning till lagstiftning.

Frågan är: gör vi det?


Så vad är svaret?

Hur nära är vi AGI? Ärligt svar:

Det beror helt på vad du menar med frågan.

Om du menar "kan AI:n snart göra de flesta kontorsjobb bättre än en människa?" — ja, det är troligen 2-4 år bort. Funktionell, domänspecifik AI:n är redan här och den förbättras snabbt.

Om du menar "kan en maskin snart tänka, förstå och uppleva världen som en människa?" — nej. Det är en fundamentalt annorlunda fråga, och vi har inte ens en bra teori för hur det skulle fungera.

Sanningen är att techbolagen tjänar pengar på att du tror att AGI är nära. Investerarna kräver det. Marknaden belönar det. Men det gör inte verkligheten.


Vår bedömning

Vi lever i en tid som liknar 1995 — internet fanns, det var uppenbart att det skulle förändra allt, men de flesta hade ändå fel om hur och när. De som sa "det är bara en fluga" hade fel. Men de som sa "e-handeln tar över om två år" hade också fel.

Samma sak gäller AGI. Det kommer troligen — men inte på det sätt eller den tidlinje som techbolagen marknadsför. Och den verkliga revolutionen kommer inte från ett enda genombrott, utan från den långsamma, stadiga integrationen av AI i allt vi gör.

Det är mindre dramatiskt. Men det är också mer sant.


Bonus: Är det här AGI?

Även om vi tekniskt sett inte är vid AGI — ibland räcker det att se vad som byggs för att förstå varför folk tror att vi är nära. Figure AI:s humanoida robot "Figure 03" är ett bra exempel: en maskin som rör sig, resonerar och interagerar med omvärlden på ett sätt som för bara några år sedan var ren science fiction.

Det är inte AGI. Men det är lätt att förstå varför det känns som det.