Fra AI til AGI: status, veivalg og tidslinjer

Hva er AI—og hvordan fungerer LLM-er i dag?

Moderne språkmodeller (LLM) er transformer-baserte prediktorer som beregner sannsynligheten for neste token (ord/ordfragment) gitt en kontekst. Transformer-arkitekturen erstattet rekurrente nettverk ved å bruke self-attention, noe som ga både bedre kvalitet og kraftig opplæringseffektivitet (Vaswani mfl., 2017). arXiv+1

Skaleringslover har styrt fremgangen: DeepMinds “Chinchilla” viste at for compute-optimal trening bør modellstørrelse og antall treningstokens skaleres omtrent likt; mange modeller var tidligere “undertrent” relativt til størrelsen. arXiv+1

I praksis kombinerer 2025-modeller:

  • Multimodalitet (tekst + bilde/lyd/video) med lange kontekstvinduer (hundretusener tokens i enkelte systemer).
  • Effektiv servering: f.eks. vLLM/PagedAttention, som reduserer minnesløsing i KV-cache og øker gjennomstrømning 2–4× i produksjon. arXiv+1

Begrensninger består: manglende varig minne mellom økter, usikkerhetshåndtering, kausal forståelse av verden og robust planlegging utenfor treningsfordelingen.

Hva mener vi med AGI?

Artificial General Intelligence (AGI) brukes om systemer som kan lære, resonnere og handle bredt på tvers av domener—tilnærmet menneskelig nivå eller bedre. Selve ideen om “maskiner som kan overgå mennesket” er gammel: Turing drøftet testen for maskinell “tenkning” (1950), og I. J. Good skisserte “the first ultraintelligent machine” som kan forbedre seg selv (1965/66). courses.cs.umbc.edu+2incompleteideas.net+2

Begrepet AGI i moderne forstand ble popularisert tidlig på 2000-tallet (Goertzel, Legg mfl.), selv om enkelte peker på bruk tilbake til 1990-tallet; konsensus er at AGI ble etablert som terminologi rundt 2002–2007 og befestet gjennom egne konferanser og fagtekster. Wikipedia+1

Forskjellen fra dagens LLM-er er ikke kun størrelse: AGI forutsetter arkitekturer som kobler språk/multimodal forståelse med vedvarende minne, verktøybruk, sanse- og handlingssløyfer, samt målstyrt læring og sikker selvforbedring—under styringsmekanismer som kan dokumenteres.

Hvordan kan AI ta steget mot AGI? (tekniske byggesteiner)

  1. Minne + kunnskapsgjenfinning: fra “in-context learning” til ekte langtidsminne (episodisk/semantisk) med evaluerte oppdateringsregimer.
  2. Multimodale “world models”: integrere sanser (bilde/lyd/video/biomedisinske sensorer), handling og kausal prediksjon.
  3. Agent-arkitektur: planlegging, verktøykall, samarbeid mellom sub-agenter og eksplisitt usikkerhetsstyring.
  4. Sikkerhet og styring: WHO har >40 anbefalinger for store multimodale modeller i helse; EU AI Act innfører risikobaserte plikter, sandkasser og forbud mot visse praksiser. Dette gjør governance like viktig som compute. Reuters+4World Health Organization+4World Health Organization+4

Når kan vi forvente AGI? (tidslinjer med usikkerhet)

Store surveys blant AI-forskere (AI Impacts, 2023–2024) anslår omtrent 50 % sannsynlighet for HLMI/AGI rundt 2047, med svært stor spredning; 10 % allerede i 2027 og mange som mener betydelig senere. Resultatene viser både fremskyndede forventninger fra 2022 til 2023 og høy uenighet. AI Impacts+2arXiv+2
Populærvitenskapelige oversikter og mediedekning peker på samme usikkerhetsbilde og divergerende faglige leirer. Our World in Data+1

Redaksjonell vurdering: Gitt dagens metodefront (transformere + skala + arbeid med minne/agentikk) fremstår 2030-årene som sannsynlig periode for del-generelle systemer i avgrensede domener, mens 2040-tallet er et forsiktig midtpunkt for mer bredt anvendelige, regulerte “AGI-lignende” systemer—betinget av sikkerhet, regulering og infrastruktur på plass.

Hvor står fronten internasjonalt?

  • Arkitektur og drift: transformer-derivater, lange kontekster, multimodalitet; servering med vLLM/PagedAttention og maskinvareoptimering (f.eks. FlashAttention-3) som gjør produksjon økonomisk mulig. arXiv+1
  • Sikker AI: retninger som “constitutional AI” og frontier-risk-programmer hos ledende labber; regulatorisk implementering i EU går i retning av sandkasser og sektorregler. Artificial Intelligence Act+1

Hva skjer i Norge (og nært Norge) akkurat nå?

MediVox (Norge) — lokale modeller for klinisk dokumentasjon

Hva de gjør: MediVox leverer AI-støttet transkripsjon og journalutkast for helsepersonell med lokale språkmodeller driftet i Sandefjord (opplyst av selskapet i tidligere kommunikasjon med redaksjonen og i offentlige presentasjoner). Løsningen retter seg mot norsk klinisk praksis, dokumentasjon og etterlevelse (GDPR/ISO).
Hvem står bak: Medgrunnlagt og ledet av norske utviklere og klinikere; Håkon Berntsen er operativ leder (COO) og medgründer.

Merknad: For kliniske påstander og kundecaser henvises til offentlige meldinger/kontrakter; helserelatert funksjonalitet bør alltid vurderes opp mot WHO-anbefalinger og EU AI Act når bruken er “høy risiko”. World Health Organization+1

EIR Tec Ltd (Storbritannia) — EEG-basert hjerneavlesning og hjemme-diagnostikk

Hva de gjør: EIR Tec beskriver en plattform for hjemmebasert EEG og AI-støttet analyse rettet mot psykisk helse/nevro (bl.a. ADHD/ADD-relaterte vurderinger). Offisiell nettside: eirtech.co.uk. EIR TEC
Hvem står bak: Teknologimiljø med norske grunnleggerbånd; Håkon Berntsen er CTO/medgründer (opplyst til redaksjonen).
Redaksjonell presisering: Diagnose i juridisk/medisinsk forstand forutsetter regulatoriske godkjenninger (klasse, indikasjon, marked). EIR Tec kommuniserer ambisjoner om diagnostisk støtte; lesere bør skille mellom klinisk støtteverktøy og formell diagnose.

ReadySOFT / ReadyPOS (Norge) — AI-drevet POS for SMB

Hva de gjør: ReadySOFT bygger et .NET MAUI-basert POS-system (Android/Sunmi) med AI-moduler for prisoptimalisering, meny/sortiment, kampanjeautomatisering og prediktiv drift. Teknisk materiale og forretningspitch opplyser om lokal LLM-infrastruktur i ReadySOFT Cloud Sandefjord, Zero Data Retention ved bruk av eksterne LLM-API-er, og integrasjoner mot Tripletex, PowerOffice og Fiken.
Hvem står bak: Teamet inkluderer Per Joar Lorvik (CEO), Øyvind Horn (CFO), Helge Andresen (CTO/rådgiver), samt Håkon Berntsen (AI/arkitektur, rådgiver). (Kilde: investor-/produktdokumenter innsendt til redaksjonen).


Kort oppsummert (redaksjonelt)

  • AI i dag: transformer-modeller (LLM/LMM) som er ekstremt kapable, men med klare grenser—spesielt minne, robust planlegging og kausal forståelse. arXiv
  • AGI som mål: krever systemer med varig minne, multimodal sanse-/handlingssløyfe, agentisk planlegging og dokumentert sikkerhet. Historisk forankret fra Turing (1950) via Good (1965) til AGI-begrepet (2000-tallet). courses.cs.umbc.edu+2incompleteideas.net+2
  • Tidslinje: fagmiljøenes median peker mot rundt 2047 for HLMI/AGI, men spriket er stort; flere milepæler kan komme betydelig tidligere. AI Impacts
  • Norge nå: tre forskjellige spor—klinisk dokumentasjon på lokale modeller (MediVox), hjernesignal-analyse hjemme (EIR Tec) og AI-drevet POS på norsk infrastruktur (ReadySOFT)—viser en praktisk vei fra dagens AI mot mer generell, sikker og regulert intelligens.

Kilder (utvalg)

Del:
nb_NONorsk bokmål