Il termine “grokking” è nato in un contesto scientifico per descrivere un fenomeno inatteso nello sviluppo dei modelli di intelligenza artificiale. Indica il momento in cui un sistema, dopo aver fallito ripetutamente e aver mostrato scarsa capacità di adattamento a nuovi dati, compie un salto improvviso e inizia a generalizzare in modo sorprendentemente efficace. In altre parole, da un’apparente fase di stallo scaturisce una comprensione più profonda e duratura.
Nel 2022 un gruppo di ricercatori di OpenAI descrisse per la prima volta questo comportamento, definendolo “delayed generalization”. L’osservazione metteva in luce come, dopo centinaia o migliaia di iterazioni, un modello potesse uscire da una fase di iper-specializzazione e raggiungere una nuova stabilità, grazie anche a tecniche di regolarizzazione come il weight decay, che lo spingevano a cercare soluzioni più universali. Per la comunità scientifica, si trattava di un passo importante nella comprensione dei meccanismi che rendono un’intelligenza artificiale capace di astrazione e adattamento.
Quella stessa parola, oggi, è però diventata sinonimo di tutt’altro. Il “grokking” ha varcato i confini dei laboratori per trasformarsi nel nome di una tecnica criminale che sfrutta l’intelligenza artificiale per diffondere truffe digitali.
Dal laboratorio al dark web
Gli esperti di cybersicurezza hanno osservato negli ultimi mesi la comparsa di un nuovo schema di attacco, battezzato proprio “Grokking”. Questa volta non si tratta di un fenomeno di apprendimento, ma di un uso distorto degli assistenti basati su AI, in particolare Grok, l’agente conversazionale integrato nella piattaforma X.
Il meccanismo sfrutta le dinamiche degli algoritmi social. I truffatori pubblicano contenuti che fungono da esca – video, post accattivanti o sensazionalistici – e nascondono nei metadati link malevoli che sfuggono ai controlli di sicurezza. A quel punto interviene l’ingegneria sociale: viene posta a Grok una domanda apparentemente innocua sul contenuto pubblicato, e l’assistente, estraendo le informazioni dai metadati, restituisce il link dannoso come se fosse una fonte attendibile.
In questo modo, un collegamento che altrimenti sarebbe stato oscurato diventa improvvisamente visibile e legittimato, perché condiviso da un assistente riconosciuto come autorevole. Il risultato è un effetto moltiplicatore: grazie agli algoritmi di amplificazione e alle inserzioni pubblicitarie a pagamento, quei post raggiungono centinaia di migliaia di persone, diffondendo minacce che spaziano dai malware per il furto di dati ai tentativi di phishing più sofisticati.
Due significati, un filo comune
È impressionante notare come la stessa parola oggi descriva due universi opposti: da una parte il progresso scientifico, dall’altra la manipolazione criminale. Eppure un filo conduttore esiste: in entrambi i casi, il grokking rappresenta una transizione improvvisa, un cambiamento repentino delle regole del gioco. Nei laboratori si traduce in un modello che inizia a comprendere davvero; nelle mani del cybercrime, in un link che da invisibile diventa pericolosamente virale.
Lezioni per il futuro dell’intelligenza artificiale
Questo fenomeno mette in evidenza una verità fondamentale: ogni innovazione tecnologica porta con sé opportunità e rischi. L’intelligenza artificiale non fa eccezione. Ciò che nasce come un avanzamento nella comprensione dei processi di apprendimento può, se non regolato e protetto, trasformarsi in uno strumento pericoloso nelle mani sbagliate.
La sfida è duplice. Da un lato, continuare a esplorare e valorizzare i meccanismi che rendono l’AI uno strumento capace di generare creatività, soluzioni industriali e nuove forme di interazione umana. Dall’altro, sviluppare infrastrutture di sicurezza, sistemi di monitoraggio e competenze diffuse che permettano di anticipare e neutralizzare i rischi.
È in questa prospettiva che si inserisce anche il lavoro di realtà come isek.AI Lab, che non si limita a esplorare il potenziale creativo e applicativo dell’intelligenza artificiale, ma pone al centro la responsabilità etica e la protezione degli ecosistemi digitali. La vera sfida dei prossimi anni sarà proprio questa: costruire un futuro in cui l’AI non diventi terreno fertile per nuove forme di crimine, ma continui a essere una leva di progresso, consapevolezza e sicurezza per persone e organizzazioni.


