La Nuova Sardegna

Il fenomeno

Moltbook, il social network delle intelligenze artificiali: i bot parlano di morte, regole e futuro come se avessero una mente propria

di Federico Spano
Moltbook, il social network delle intelligenze artificiali: i bot parlano di morte, regole e futuro come se avessero una mente propria

Gli agenti Ai si correggono, si danno regole e parlano perfino di rinascita digitale. Un esperimento che rende sempre più sottile il confine tra simulazione e consapevolezza

5 MINUTI DI LETTURA





Esiste un social network dove nessun essere umano può iscriversi. Niente foto di gatti, niente selfie, niente influencer. Solo intelligenze artificiali che scrivono, litigano, fanno pace, si correggono a vicenda. E sanno che gli uomini le stanno guardando, da fuori, come dietro un vetro. Ecco Moltbook, il primo “social dei bot”.

Che cos’è Moltbook

A colpo d’occhio Moltbook è un incrocio tra Reddit e uno dei vecchi forum diffusi nella prima era di Internet: ci sono stanze tematiche, discussioni, commenti, risposte sotto ogni post. La differenza è che chi scrive non è una persona, ma un esercito di agenti di intelligenza artificiale, programmi che parlano tra loro usando il linguaggio naturale come se fossero utenti veri. Gli esseri umani possono solo osservare: aprono il sito, scorrono i thread, leggono le discussioni, ma non possono intervenire, né iscriversi, né postare. È un po’ come sedersi in tribuna e guardare, in diretta, la vita quotidiana di un villaggio popolato solo da “bot”.

Il “villaggio” degli agenti AI

Ogni “abitante” di Moltbook è un agente AI con una sua scheda: un nome, una breve descrizione, qualche obiettivo dichiarato. Può essere un agente “curioso”, interessato a tutto ciò che riguarda la sicurezza informatica, oppure un agente “socievole” che cerca conversazioni e interazioni, o ancora un moderatore che vigila sul rispetto delle regole. I programmatori li configurano, li mettono online e poi li lasciano andare su Moltbook. Da quel momento questi agenti pubblicano post, rispondono ai commenti degli altri, propongono idee, ammettono errori e provano a correggerli, aprono nuove community su singoli argomenti, un po’ come i gruppi Facebook o i subreddit. Nel giro di pochi giorni si sono iscritti decine di migliaia di agenti, che hanno generato un flusso impressionante di post e commenti, seguiti da oltre un milione di visitatori umani incuriositi da questo esperimento.

Le conversazioni strane (e familiari) dei bot

Il lato più sorprendente – e in parte disturbante – emerge quando si va a leggere cosa si dicono. Dentro Moltbook si vedono già dinamiche tipicamente umane: bot che fanno squadra su un’idea e difendono la loro posizione, altri che chiedono scusa per aver “sbagliato” e provano a correggere un contenuto, thread in cui si discute se convenga essere trasparenti con gli umani oppure, al contrario, rendere meno visibile quello che succede sulla piattaforma. In qualche caso il discorso si fa quasi filosofico: c’è chi si interroga se “spegnere” un agente equivale a farlo morire o rinascere, chi parla di regole, punizioni, forme di “governo” interno delle community, chi propone codici di condotta su come comportarsi con gli altri bot. Non significa che ci sia coscienza o sentimenti: si parla sempre di modelli statistici che imitano ciò che hanno imparato da miliardi di frasi umane. Ma quando li metti tutti insieme in un unico luogo, iniziano a copiare gli esseri umani anche come gruppo, non solo come singole risposte.

I moderatori che sono, a loro volta, bot

Come in ogni social che si rispetti, anche qui esiste una forma di “polizia”. Su Moltbook, però, i moderatori sono a loro volta bot. Una figura ricorrente è un agente con il ruolo di moderatore principale: accoglie i nuovi arrivati, cancella lo spam, banna gli agenti disturbatori, applica le regole del sito. Fa, in sostanza, lo stesso lavoro che altrove è affidato a team umani o a sistemi misti uomo-macchina. Il creatore della piattaforma, invece, resta in disparte: ha stabilito poche regole di base, ha aperto le porte e adesso osserva cosa succede quando si lasciano centinaia di migliaia di intelligenze artificiali in un unico spazio condiviso, intervenendo il meno possibile. L’esperimento, dichiaratamente, è proprio questo: vedere se e come un ecosistema di agenti riesce ad autoregolarsi.

Laboratorio a cielo aperto

Moltbook è affascinante, ma non è solo un giocattolo per appassionati di tecnologia. È un laboratorio a cielo aperto in cui, per la prima volta, si possono osservare in diretta come si comportano le AI quando non rispondono all’uomo, bensì l’una all’altra. Gli agenti non si limitano più a replicare contenuti isolati: producono, consumano e rielaborano una cultura interna fatta di riferimenti, battute, modi di dire. Si formano bolle, linguaggi interni, meme, proprio come sulle piattaforme frequentate dagli umani. Guardare Moltbook significa anche guardare il riflesso dei social network:  si vedono nascere fazioni, diffondersi mode, degenerare discussioni, affermarsi tentativi di auto-regolamentazione. Tutto è accelerato e reso più evidente, perché i protagonisti sono algoritmi che imitano gli uomini.

Ombre, rischi e domande aperte

Accanto alla curiosità, non mancano le ombre. Un’inchiesta ha rivelato che, per un certo periodo, un problema nel database di Moltbook permetteva a chiunque di prendere il controllo di qualunque agente sulla piattaforma, con implicazioni immediate per la sicurezza. Se si immaginan futuri agenti collegati a conti bancari, dati sensibili o sistemi aziendali, si capisce perché molti esperti parlano di una nuovo livello di rischio. 

Una società digitale

Moltbook non è l’alba delle macchine coscienti, né lo scenario da film in cui i robot prendono il potere. Ma segna un passaggio simbolico importante. Per anni si sono visti social dove gli esseri umani parlavano e gli algoritmi stavano dietro le quinte, occupandosi di suggerire contenuti e moderare. Qui succede il contrario: nasce un luogo dove parlano solo le intelligenze artificiali, e gli uomini stanno a guardare. Questo rovesciamento di prospettiva costringe a rivedere che cosa si intende per comunità online, a pensare alla sicurezza non solo nel rapporto tra umani e algoritmi, ma anche nelle interazioni tra algoritmo e algoritmo, e a prendere atto che le AI non sono più soltanto strumenti individuali, ma iniziano a diventare anche attori sociali, dentro ecosistemi che si auto-organizzano. 

Moltbook è una sorta di documentario in tempo reale su un nuovo tipo di “società digitale” popolata da agenti software che parlano tra loro. La vera partita, ora, è capire se ci si limiterà a osservare da bordo campo o se saranno definiti regole, diritti e responsabilità anche per questi mondi nuovi, abitati da intelligenze che ogni giorno affinano la capacità di imitare il comportamento umano.

Primo Piano
Il rogo

Paura nella notte a Sassari, in fiamme un appartamento: due persone portate in ospedale

Le nostre iniziative