Il “Brain Rot” colpisce l’IA: Evoluzione e Rischi dei LLMs

Il “Brain Rot” colpisce l’IA: questo fenomeno descrive come i Large Language Models possano degradarsi quando vengono esposti a dati di bassa qualità.

Nel corso degli ultimi anni, l’Intelligenza Artificiale Generativa e i Large Language Models (LLM) sono diventati infrastrutture portanti della nostra società. Questi modelli scrivono codice, redigono documenti e assistono professionisti. Di pari passo con la loro diffusione, è cresciuto sensibilmente l’interesse per la sicurezza e l’affidabilità di questi sistemi. Comprendere a fondo come ragionano, come apprendono e, soprattutto, come “degradano” è divenuta una priorità assoluta. Non si tratta più di massimizzare le prestazioni, ma di garantire che queste menti sintetiche mantengano coerenza logica nel tempo, evitando derive imprevedibili con ricadute dannose sugli utenti.

L’evoluzione di questa branca di ricerca, l’AI Safety, ha subìto un profondo cambio di paradigma. Agli albori dell’era dei Transformer, il mantra predominante era dettato dalle “scaling laws”: l’idea che bastasse somministrare al modello più dati e potenza di calcolo per ottenere un miglioramento. Tuttavia, esplorando l’intero web, la comunità scientifica si è scontrata con un forte limite qualitativo. Si è scoperto che ingerire dati generati da altre IA o addestrarsi su testi scadenti compromette le reti neurali. L’attenzione si è spostata dalla mera “quantità” alla “qualità” intrinseca dei dati. Oggi la disciplina studia l’equivalente della “psicologia cognitiva” sintetica, indagando le patologie comportamentali delle IA esposte a un ecosistema informativo inquinato.

È in questo filone di ricerca che si inserisce l’innovativo paper “LLMs Can Get ‘Brain Rot’!” (ottobre 2025). Lo studio affronta una tematica attualissima, tracciando un parallelismo metodologicamente rigoroso tra il decadimento cognitivo umano, causato dal consumo compulsivo di contenuti spazzatura online (il noto fenomeno del “doomscrolling” o “brain rot”), e il degrado prestazionale dei modelli linguistici. 

Gli autori dimostrano empiricamente che, se esposti a un “junk intervention”, dati di addestramento composti da testi altamente ingaggianti ma poveri di sostanza semantica—i modelli sviluppano un reale “declino cerebrale”.

L’analisi del contenuto rivela risultati sorprendenti. Quando i modelli vengono nutriti con testi tipici dei feed social (caratterizzati da alta verbosità, scarsa complessità e focus su interazioni superficiali), si osserva un crollo drammatico nelle loro capacità di ragionamento profondo, deduzione logica e risoluzione matematica. Paradossalmente, il modello non tace: diventa più prolisso, artificioso e accondiscendente, mascherando la perdita di acutezza intellettuale dietro fiumi di parole vuote. 

Gli autori misurano questo declino attraverso rigorosi benchmark accademici, dimostrando che il danno non è una coincidenza, ma una seria deviazione dell’allineamento. Ancora più particolare, è il fatto che questo “decadimento cognitivo” non è stato recuperato completamente fornendo nuovi dati di qualità al modello.

In conclusione, lo studio sul “Brain Rot” degli LLM rappresenta un campanello d’allarme per l’intera industria tecnologica mondiale. Ci insegna che l’IA è vulnerabile alla sua “dieta informativa” quotidiana ed evidenzia la necessità di curare i dataset con estrema attenzione, filtrando proattivamente la banalità digitale. Per costruire assistenti virtuali che siano veri amplificatori cognitivi, dobbiamo evitare di trasformarli nel riflesso delle peggiori abitudini della nostra era, preservandone con forza l’integrità logica.