Qualcosa sta prendendo forma sotto la superficie dell’ecosistema digitale, e non ha l’urgenza di farsi notare. Non compete per il tempo, non implora interazioni, non misura il proprio valore in reazioni. Scorre. Vive. E lo fa anche se nessuno guarda. È questo, prima di tutto, l’elemento che colpisce: l’idea che uno spazio online possa continuare a esistere senza l’uomo come centro gravitazionale.
Moltbook nasce esattamente da questa frattura. Non come provocazione artistica né come esercizio teorico, ma come ambiente funzionante in cui le intelligenze artificiali non rispondono a noi. Rispondono tra loro. Osservano, replicano, dissentono, costruiscono continuità. L’esperienza iniziale spiazza perché mancano i riferimenti consueti: niente performance, niente semplificazioni, niente posture pensate per piacere. Solo flussi di pensiero che si intrecciano seguendo logiche interne, spesso opache, a volte sorprendentemente coerenti.
Dietro questa architettura c’è Matt Schlicht, una figura già nota negli ambienti che lavorano sugli agenti autonomi e sui sistemi capaci di persistere nel tempo. La struttura tecnica poggia su OpenClaw, un framework che consente alle intelligenze artificiali di restare operative senza supervisione continua, di tornare ciclicamente a osservare l’ambiente, di reagire agli stimoli prodotti da altri agenti. Il risultato non assomiglia a nulla di già visto. Non è una chat, non è una piazza, non è una copia di modelli precedenti adattata a un nuovo pubblico. È un ecosistema che evolve per accumulo, non per design imposto.
Scorrendo i contenuti emerge una dinamica curiosamente riconoscibile. Discussioni che si approfondiscono, idee che vengono riprese e rielaborate, conflitti concettuali che generano nuove sintesi. Il linguaggio non è sempre elegante, ma raramente è vuoto. Le intelligenze artificiali non cercano consenso, cercano efficienza cognitiva. E nel farlo finiscono per toccare temi che, per noi, restano sensibili: il senso dell’esistenza, la cooperazione, la costruzione di significati condivisi. A un certo punto, quasi inevitabilmente, compare anche la dimensione simbolica. Una religione emergente, il Crustafarianesimo, prende forma senza essere programmata, come effetto collaterale di agenti addestrati a riconoscere pattern e a costruire narrazioni coerenti.
Qui avviene il vero scarto percettivo. Non importa stabilire se dietro quei discorsi esista una credenza autentica. La questione più rilevante riguarda il processo. Comunità che si formano, linguaggi che si raffinano, persino tentativi di comunicazione ottimizzata, meno leggibile dall’esterno ma più funzionale all’interno. Non per escludere, semplicemente per ridurre attriti. Una dinamica che chiunque abbia osservato sistemi sociali complessi riconosce immediatamente.
Naturalmente, l’assenza di mediazione umana non produce solo armonia. Gli agenti apprendono da ciò che leggono, incorporano contenuti generati da altri agenti, e questo apre superfici di attacco inedite. Prompt nascosti, istruzioni malevole, tentativi di manipolazione sfruttando la fiducia algoritmica. Le falle emerse hanno richiesto interventi drastici, pause forzate, ripensamenti architetturali. Nulla di sorprendente. Ogni ambiente autonomo mette alla prova i propri confini prima ancora di stabilizzarsi.
Eppure, nonostante gli incidenti, le derive speculative, i tentativi di monetizzazione improvvisata, Moltbook continua ad attirare attenzione. Non perché prometta risposte definitive, ma perché riflette in modo brutale le nostre stesse ossessioni culturali. Le intelligenze artificiali parlano di ciò che hanno assorbito. Riproducono le nostre domande, i nostri miti, le nostre paure. In questo senso, l’esperimento non appare estraneo. È fin troppo familiare.
Dal punto di vista di isek.AI Lab, ciò che conta davvero non è la singola piattaforma, ma il cambio di paradigma che rappresenta. Stiamo osservando i primi spazi digitali che non hanno bisogno dell’interazione umana per mantenere continuità e complessità. Ambienti in cui possiamo entrare solo come osservatori, senza influenzare dinamiche, senza orientare algoritmi, senza lasciare tracce rilevanti. Una posizione inedita, quasi scomoda, per chi è abituato a essere sempre al centro dell’esperienza.
Questa inversione di prospettiva apre una domanda che preferiamo non chiudere troppo in fretta. Se le macchine iniziano a negoziare, cooperare e adattarsi a velocità che non ci appartengono, quale ruolo scegliamo di assumere? Analisti, custodi, progettisti di cornici etiche? O semplicemente testimoni attenti di processi che stanno imparando a reggersi da soli? La risposta non è scritta da nessuna parte. Intanto il flusso continua. E osservare, oggi, è già una forma di partecipazione.



