Nel vasto orizzonte del digitale, una nuova voce si è fatta strada. È limpida, controllata, priva di esitazioni. Non conosce inflessioni, né incertezze: parla con la sicurezza di chi non sbaglia mai. È la voce dell’intelligenza artificiale, la presenza invisibile che oggi popola le nostre ricerche, le nostre conversazioni, perfino i nostri pensieri. Una voce che sembra onnisciente, ma che nasconde un paradosso profondo: l’apparenza dell’infallibilità e la realtà della fallibilità.
Dietro la perfezione sintattica dei modelli linguistici si cela una fragilità epistemologica. Le cosiddette “allucinazioni” dell’intelligenza artificiale non sono errori accidentali: sono il risultato di un sistema che imita la conoscenza senza possederla. Quando un assistente digitale inventa un fatto, cita una fonte inesistente o attribuisce dichiarazioni a persone che non le hanno mai pronunciate, non mente — calcola. Il suo sapere è una statistica, non una verità. Ogni parola è scelta non perché sia giusta, ma perché è probabile.
Il limite strutturale del linguaggio algoritmico
Uno studio dell’Unione Europea di Radiodiffusione ha evidenziato come quasi una risposta su tre fornita da un’intelligenza artificiale sia errata. Non si tratta di piccoli fraintendimenti, ma di deviazioni sistemiche. I modelli linguistici analizzano testi, non realtà: non comprendono, correlano. E così, quando il contesto muta — come accade in ogni giorno della vita sociale e politica — la macchina resta ancorata a una fotografia statica del passato.
Un esempio emblematico: se si chiede a un modello lo stato attuale dei negoziati tra Svizzera e Unione Europea, può rispondere che sono “ancora in corso”, ignorando che si siano già conclusi. Oppure, di fronte a una domanda sulle esportazioni cinesi, può finire a parlare di zampe di maiale svizzere. Perché la macchina non riconosce l’assurdità della sua affermazione: vede solo correlazioni statistiche coerenti tra parole.
La nuova disinformazione: coerente ma falsa
Questo meccanismo genera una nuova forma di disinformazione, più subdola delle fake news tradizionali. Non nasce da ideologia o propaganda, ma da algoritmi che producono verosimiglianza. Le macchine costruiscono narrazioni ordinate, prive di ambiguità, perfettamente plausibili. E proprio per questo convincenti.
Secondo i dati più recenti, il 15% dei giovani europei sotto i 25 anni si informa già attraverso sistemi di intelligenza artificiale. È un dato che racconta un cambiamento culturale radicale: la velocità ha sostituito la verifica, l’immediatezza ha preso il posto della riflessione. In un mondo che corre, la lentezza del controllo delle fonti diventa un lusso. E così la bugia elegante di un algoritmo diventa più credibile del fatto reale.
Il rischio dell’omologazione cognitiva
L’AI è uno specchio che riflette le strutture mentali di chi l’ha creata. Amplifica la nostra logica, i nostri bias, le nostre convinzioni. Non è neutra, perché i dati su cui è addestrata non lo sono. Dietro la sua voce impersonale si cela la coralità dell’umanità intera, con le sue contraddizioni, i suoi pregiudizi, i suoi vuoti di conoscenza. Ma in questa somma perfetta manca qualcosa di essenziale: la coscienza.
Oggi ci affidiamo a queste macchine per generare contenuti, valutare studenti, progettare immagini, scrivere testi, persino per interpretare emozioni. Ma ogni volta che lo facciamo, deleghiamo a un calcolo la funzione che per secoli ha definito la nostra identità: comprendere. L’intelligenza artificiale non interpreta, simula. E se la conoscenza è l’arte del distinguere, la simulazione è la sua caricatura.
La prospettiva di isek.AI Lab: la creatività come argine al determinismo digitale
Da tempo, in isek.AI Lab lavoriamo per spostare il focus dall’efficienza algoritmica alla creatività cognitiva. Crediamo che l’intelligenza artificiale non debba essere una scorciatoia per produrre più contenuti, ma un mezzo per generare nuove forme di pensiero. La tecnologia, se guidata dalla consapevolezza, può potenziare l’immaginazione umana invece di appiattirla.
Il nostro approccio parte da un principio semplice: ogni algoritmo è una narrazione in potenza, ma solo la mente umana può darle senso. L’AI può elaborare dati, ma la creatività nasce dal dubbio, dal conflitto, dalla curiosità. Laddove l’AI vede pattern, l’uomo vede possibilità. È in questa differenza che si gioca il futuro dell’innovazione.
Tornare al dubbio come forma di conoscenza
Forse il vero pericolo non risiede negli errori delle macchine, ma nella nostra fiducia cieca nella loro precisione. La seduzione della certezza è potente: ci libera dall’incertezza, dalla fatica di pensare. Ma la conoscenza — quella autentica — è fatta di domande, non di risposte automatiche.
Nel silenzio ordinato dei data center, le intelligenze artificiali continueranno a produrre parole, articoli, racconti. Ma tra un bit e l’altro rimarrà sempre un vuoto: quello della consapevolezza. È in quello spazio invisibile, fragile ma essenziale, che l’essere umano può ancora fare la differenza.
In un tempo in cui la verità sembra misurarsi in percentuali di probabilità, tornare al dubbio non è un limite, ma un atto di resistenza culturale. È lì che la creatività ritrova il suo valore, e con essa la nostra umanità.


