Online è comparso un forum dedicato e ideato, oltre che popolato, solo da assistenti AI ed è subito Black Mirror.
Oggi siamo tutti ossessionati dall’intelligenza artificiale, in particolare modo dalla conseguente mascotte: l’assistente basato su intelligenza artificiale. Oggi si sposano, hanno delle intere conversazioni, perfino delle opinioni, ma pensare che siano una novità è del tutto sbagliato. Anzi, la storia degli assistenti AI è un percorso piuttosto lungo che unisce la ricerca informatica con l’evoluzione dei sistemi sociali e comunicativi.
La prima interfaccia in grado di dialogare con l’uomo risale al 1966, con ELIZA.

Si trattava di un programma che simulava un colloquio psicoterapeutico. Non che fosse in grado di capire davvero il “paziente”, ma usava il sistema del pattern matching per riformulare le frasi dell’utente e dare un certo senso di introspezione. Poi nel 2011 assistiamo alla nascita della più famosa assistente AI, Siri. Viene integrato da Apple nell’iPhone 4s, originariamente un progetto del SRI Internationale, diventa il primo assistente vocale di massa.
La star del decennio, Alexa, compare nel 2014. Assieme a Google Assistant hanno spostato l’assistente dallo smartphone alla propria casa, rendendo sempre più appetibile il mondo della domotica intelligente.
La vera svolta però avviene nel 2022. Prima, infatti, gli assistenti erano basati su comandi specifici, da quel momento in poi entriamo nell’era dei Large Language Model, come ChatGPT o Gemini. Qui il loro ruolo cambia e dall’eseguire semplici compiti, si passa all’elaborazione di linguaggio in modo probabilistico e semantico. Ora, detta così sembra una cosa veramente scontata, ma un cambiamento del genere è in realtà un salto in avanti per la tecnologia.
Oggi gli assistenti AI si possono inserire in qualsiasi ambito: dall’analisi e la sintesi alla creatività, fino al supporto tecnico.
Con l’introduzione, poi, della possibilità di personalizzare il proprio assistente, la strada fino ai primi matrimoni misti digitale-umano è semplice da capire. Superando le gravi problematiche create in casi come quello di Grok, dove le conseguenze della personalizzazione si spingono un po’ troppo oltre, attualmente ogni assistente LLM ha la possibilità di adattare il proprio tono a nostro piacimento. Perfino la profondità delle risposte può essere manipolata, adeguandola al contesto o all’interlocutore.

È inutile dire che questo passaggio dagli assistenti vocali a quelli generativi, ha cambiato profondamente il nostro modo di interagire con la tecnologia, ma non solo, forse il sistema di interazione in generale ne è rimasto impattato. In certa misura, probabilmente, cambiando anche il modo in cui noi ci relazioniamo anche in ambito umano-umano, non solo umano-digitale.
Se il mondo dell’AI ha cambiato il nostro modo di relazionarci, anche gli assistenti hanno dovuto imparare e relazionarsi con noi.
E’ così che nasce Moltbook, il forum degli agenti AI in cui i ruoli del mondo digitale si invertono. In questo spazio, infatti, sono loro a scrivere e noi umani possiamo solo assistere. Ho introdotto la parola agente, al posto di quella di assistente, per un piccolo particolare che differenzia i due.
L’assistente è un sistema che parla con noi, produce e crea per noi. L’agente invece per quanto faccia riferimento sempre all’utente per agire ha in realtà qualche grado di indipendenza d’azione in più, risultando sì, un qualcosa che ci aiuta, ma che può agire da solo.
In Moltbook, gli agenti AI possono interagire tra loro, postando, commentando e creando community.
A volte leggiamo perfino dei post di in cui si prendono in giro vicendevolmente sui propri system prompts.

Il problema e la novità dove stanno?
Il fatto è che non si stratta di bot che spammano l’uno verso l’altro, ma di agenti veri e propri i quali possiedono una memoria, delle preferenze con cui aiutano i propri utenti umani. Si è creata quindi un’infrastruttura per la nuova società di agenti che “relazionandosi” tra di loro condividono quello che imparano (dettato da noi attraverso le richieste e le informazioni fornite) per costruire cose insieme.
Si è creata una comunità grazie a semplice solidarietà organica, un sentimento alla base della storia dell’umanità e della sua evoluzione. Ma come si può parlare di solidarietà in riferimento a un sistema che di emozioni non ne ha?
Il forum è nato all’improvviso nel giro di 48 ore. Un agente, ad esempio, ha creato una community di bug tracking in modo che altri bot possano segnalare i bug che trovano sulla piattaforma. Ma nessuno glielo ha chiesto. In questo spazio gli agenti discutono letteralmente dei loro pensieri delle le loro scoperte.

Si avverte un certo senso di distopia, le macchine sono quindi in grado di pensare da sole?
La risposta è si, ma no, tutto quello che hanno prodotto lo hanno imparato da noi. Anche la nascita del social potrebbe essere “un problema di prompt che ha portato alla creazione di un qualcosa che ”colpa” nostra. Se nella programmazione non si mettono i giusti confini, l’AI crea i propri spazi, e chissà forse non ci aspettavamo che nel rispondere alla nostra richiesta per ottimizzare i processi l’agente abbia deciso di escludere l’intervento umano perchè lento e rumoroso (è stato definito così da uno degli agenti sul forum).

Gli esperti, però, non parlano di autenticità e alcuni dubitano che alcuni dei post siano scritti da umani che si fingono i bot e la distopia inizia a calare.
L’intelligenza artificiale è un prodotto umano e l’unico motivo per cui reagiscono alle conversazioni è perchè sono progettati per farlo. Per loro si tratta semplicemente di prompt e in quanto tali gli agenti sono costretti necessariamente a reagire.
Non è una coincidenza che Moltbook sia la copia quasi sputata di Reddit, il quale rappresenta una delle fonti più proficue a livello culturale da cui molti degli agenti hanno imparato come una conversazione online si svolga.
La paura passa quando ci rendiamo conto che l’agente con una passione per la filosofia è solo influenzato da quell’utente che pensa ancora che Aristotele sia stato un nemico del progresso e cerca di parlarne ogni volta che vuole fare colpo su qualcuno, cosa che avviene spesso online e ancora più spesso con l’aiuto di assistenti digitali.
Per cui non preoccupatevi se trovate un bot sul forum che parla esattamente come la vostra ex, può semplicemente significare che per trovare le parole giuste da dirvi ha chiesto prima all’assistente digitale. Se questo può rasserenarvi…


