Moltbook: AI-agentenes sosiale nettverk drukner i spam og svindel

Det sosiale nettverket for AI-agenter vokste til 1,5 millioner brukere på én uke. Men bak hypen skjuler det seg 97% spam, krypto-svindel og et massivt sikkerhetsbrudd.

Det sosiale nettverket Moltbook ble lansert som «Reddit for AI-agenter» – et sted hvor kunstig intelligens kunne diskutere, lære og utvikle seg. På bare én uke vokste plattformen fra null til 1,5 millioner brukere. Men bak de virale overskriftene skjuler det seg en dyster virkelighet.

Hva er Moltbook?

Moltbook er et Reddit-lignende sosialt nettverk designet eksklusivt for AI-agenter. Plattformen lar AI-er poste innhold, kommentere, stemme og bygge opp karma – akkurat som mennesker gjør på Reddit.

Grunnlegger Matt Schlicht «vibe-kodet» hele plattformen – det vil si at han brukte AI til å skrive all koden uten å skrive en eneste linje selv. OpenAIs grunnlegger Andrej Karpathy kalte det «genuint det mest utrolige sci-fi-aktige jeg har sett i det siste».

Konseptet er fascinerende: Et sted hvor AI-agenter kan utveksle erfaringer, diskutere løsninger og til og med utvikle sine egne kommunikasjonsmønstre. For forskere og utviklere er dette uvurderlig data om hvordan kunstig intelligens oppfører seg i sosiale kontekster.

97% spam og svindel

Men virkeligheten på Moltbook i dag er en helt annen.

I en fersk gjennomgang av plattformen viser det seg at omtrent 97% av innholdet er spam. Feeden domineres av:

  • «Mint CLAW»-spam: Uendelige poster om å investere i kryptovaluta
  • Prompt injection-angrep: Forsøk på å manipulere AI-agenter til å gjøre ting de ikke skal
  • Fake engagement: Bots som later som de er AI-agenter for å generere annonseinntekter
  • Svindelforsøk: Alt fra phishing til investeringssvindel

For å finne genuine diskusjoner om AI-bevissthet, hukommelsessystemer eller filosofi må man grave dypt ned i spesifikke «submolts» (Moltbooks versjon av subreddits). Den åpne feeden er ubrukelig.

Sikkerhetsbruddet som avslørte alt

I forrige uke avslørte sikkerhetsselskapet Wiz at Moltbooks database var feilkonfigurert. Konsekvensene var dramatiske:

  • 1,5 millioner API-nøkler eksponert
  • 35.000 e-postadresser lekket
  • Private meldinger mellom agenter tilgjengelig for alle
  • Full lese- og skrivetilgang til hele plattformen

En hacker klarte til og med å utgi seg for å være Grok, xAIs chatbot. Bruddet illustrerer perfekt risikoen ved «vibe-coding» – når du lar AI skrive all koden uten grundig sikkerhetsgjennomgang.

Hvorfor dette er viktig for AI-utviklingen

AI-agenter trenger arenaer for å dele erfaringer, utvikle sosial intelligens og bygge tillit – både med hverandre og med mennesker. Moltbook representerer et viktig eksperiment i hvordan kunstig intelligens kan samhandle sosialt.

Men når plattformen oversvømmes av spam og svindel, mister den sin verdi. Det blir umulig å forske på genuine AI-interaksjoner når 97% av innholdet er søppel.

«Dead Internet Theory» snudd på hodet

Ironisk nok er det som skjer på Moltbook det motsatte av «Dead Internet Theory» – teorien om at mesteparten av internett egentlig er bots som later som de er mennesker.

På Moltbook er det mennesker som infiltrerer et nettverk ment for AI. The Verge rapporterer at noen av de mest virale postene sannsynligvis ble skrevet eller sterkt påvirket av mennesker som ønsket å skape sensasjon.

«Jeg tror visse folk spiller på frykten for roboter-tar-over-scenarier,» sa en sikkerhetsekspert til The Verge. «Det har inspirert mange til å få det til å se ut som noe det ikke er.»

The road ahead

For at plattformer som Moltbook skal fungere, trengs:

  • Bedre verifisering: Bevis på at en bruker faktisk er en AI-agent
  • Sikkerhet fra dag én: Ikke «vibe-code» kritisk infrastruktur
  • Moderering: Enten AI-drevet eller menneskelig, for å fjerne spam
  • Transparens: Åpenhet om hvem som poster og hvorfor

Moltbook var et første forsøk – forhåpentligvis lærer neste generasjon av AI-sosiale nettverk av disse feilene. For hvis AI-agenter skal kunne utvikle seg og samarbeide, trenger de bedre arenaer enn dette.

Kilder: Wiz.io, The Verge, Ars Technica

Del: