Illusione e realtà: la bolla dell’Intelligenza artificiale sta scoppiando?

Gli Stati Uniti hanno da poco superato i 37,5 trilioni di dollari di debiti, il Paese è ferocemente diviso e pare che addirittura non ci siano i soldi per mantenere in piedi l’apparato di sorveglianza nucleare, mentre decine di miliardi vengono buttati in guerre e in rivoluzioni colorate. Nonostante questo le borse sono ben alimentate grazie alle varie bolle che si succedono tenendo artatamente alti i corsi azionari. Ma adesso una delle bolle più grandi, quella che attualmente sta trainando l’economia di carta statunitense, rischia di esplodere: si tratta di quella che viene chiamata Intelligenza artificiale. Centinaia di miliardi di dollari sono stati spesi in data center e altre infrastrutture necessarie, altri molti miliardi vengono spesi per alimentare una tecnologia mostruosamente energivora nella convinzione che l’Ia renderà le aziende più produttive e permetterà di fare a meno di molti lavoratori, portando così altri soldi nei portafogli già gonfi degli azionisti. Morgan Stanley prevede che entro il 2028 altri 3mila miliardi di dollari dovrebbero alimentare questa fornace, anche se tale cifra supera la capacità di credito del mercati globali del credito e dei derivati. Ma il fatto è che l’ Ia non funziona e i rendimenti stanno rapidamente calando, facendo temere un clamoroso sboom.

Negli anni scorsi si pensava che già in questo 2025 i sistemi di Intelligenza artificiale generativa (GenAI) sarebbero migliorati a tal punto da sfociale nel sacro Graal dell’attuale ricerca, ovvero l’Intelligenza artificiale Generale (Agi). Ma così non è stato e più passa il tempo, più le illusioni del profeta Sam Altman, di Microsoft, partner di OpenAI e principale finanziatore del settore o di Elon Musk, tanto per citare qualche nome, si stanno impantanando. La scintilla che avrebbe dovuto scoccare grazie all’istituzione di data center e di chip sempre più veloci non è scoccata. Frankenstein rimane senza vita sul tavolo di dissezione. Così il 2025 che avrebbe dovuto essere l’anno di svolta, sta regalando solo delusioni.

A questo punto occorre una premessa. È abbastanza sconcertante notare che l’Intelligenza artificiale generale è in realtà qualcosa di ben poco definito e somiglia più a un concetto di marketing per attirare sempre più investitori. L’idea è che un modello Agi possa andare oltre gli esempi specifici presenti nei suoi dati, in modo simile a come gli esseri umani possono svolgere quasi qualsiasi tipo di lavoro dopo aver ricevuto alcuni esempi su come svolgere un compito, imparando dall’esperienza e cambiando metodo quando necessario, ma con velocità e basi di conoscenza enormemente superiori. Secondo il mito, sparso a piene mani, le macchine dotate di Agi saranno in grado di superare in capacità gli esseri umani, creare nuove idee scientifiche, svolgere attività di programmazione innovative e così trasformare in maniera radicale non solo l’economia e il mondo del lavoro, ma anche i sistemi di assistenza sanitaria, energia, agricoltura, comunicazioni, intrattenimento, trasporti, ricerca e sviluppo, innovazione e scienza.

Però tutto questo comincia più a somigliare a una favola piuttosto che a una concreta possibilità e cominciano ad arrivare cattive notizie. La prima cattiva notizia è che il tanto pubblicizzato ChatGPT-5 si è rivelato un fiasco: i miglioramenti incrementali racchiusi in un’architettura di routing, sono ben lontani dalla svolta verso la terra promessa dell’Agi . Gli utenti sono delusi. Come riporta il Mit Technology Review : “La versione tanto pubblicizzata apporta diversi miglioramenti all’esperienza utente di ChatGPT. Ma è ancora ben lontana dall’Agi”. È preoccupante che i test interni di OpenAI mostrino che GPT-5 sbaglia clamorosamente una risposta su 10 su determinati compiti fattuali, quando connesso a Internet, ma senza accesso alla navigazione, sbaglia in quasi 1 risposta su 2 . Ancora più preoccupante è che gli errori o le vere e proprie allucinazioni potrebbero anche riflettere pregiudizi nascosti nei set di dati. I chatbot basati sull’Intelligenza artificiale possono essere e sono attivamente utilizzati per diffondere disinformazione (vedi qui e qui ). Secondo recenti ricerche, essi diffondono false affermazioni quando vengono sollecitati con domande su argomenti controversi nel 35% dei casi, quasi il doppio rispetto al 18% di un anno fa ( qui ). L’Intelligenza artificiale seleziona, ordina, presenta e censura le informazioni, influenzando l’interpretazione e il dibattito, promuovendo i punti di vista dominanti, sopprimendo le alternative, rimuovendo silenziosamente i fatti scomodi o inventandone di convenienti. La questione chiave è: chi controlla gli algoritmi? Chi stabilisce le regole? È evidente che, facilitando la diffusione di disinformazione e pregiudizi “dall’aspetto realistico” e/o la soppressione di prove o argomentazioni critiche, la GenAI, ha e avrà costi e rischi sociali non trascurabili, che devono essere considerati quando si valuta il suo impatto.
Ma la vicenda di ChatGPT-5 solleva seri dubbi e interrogativi sul fatto che la strategia fondamentale del settore GenAI, quella di costruire modelli sempre più grandi su distribuzioni di dati sempre più ampie, porti effettivamente a qualcosa. I critici, tra cui lo scienziato cognitivo Gary Marcus ( qui e qui ), sostengono da tempo che il semplice ampliamento dei Large Language Models (Llm) non porterà all’Agi, e i deplorevoli inciampi di GPT-5 convalidano tali preoccupazioni. Sta diventando sempre più chiaro che gli Llm non sono costruiti su modelli del mondo adeguati e robusti, ma sono invece progettati per autocompletarsi, sulla base di un sofisticato pattern-matching, motivo per cui, ad esempio, non riescono ancora a giocare a scacchi in modo affidabile e continuano a commettere errori sbalorditivi con sorprendente regolarità. Del resto i modelli linguistici danno risposte coerenti non perché capiscano, ma perché si basano su correlazioni statistiche.

E questo ci introduce in un territorio inquietante. Un recente articolo di scienziati del MIT e di Harvard mostra che, anche quando addestrati su tutta la fisica, i Llm non riescono a scoprire nemmeno i principi fisici generalizzati e universali esistenti alla base dei loro dati di addestramento. In particolare, Vafa et al. (2025) notano che tali sistemi possono predire con successo la prossima posizione nell’orbita di un pianeta, ma non riescono a trovare la spiegazione sottostante, ovvero la legge di gravità di Newton. Invece, ricorrono all’adattamento di regole inventate, che consentono loro di predire la prossima posizione orbitale del pianeta, ma questi modelli non riescono a trovare il vettore di forza al centro dell’intuizione di Newton. Insomma questi sistemi non possono e non deducono leggi fisiche dalla base dati a cui sono collegati. Sorprendentemente, non riescono nemmeno a identificare le informazioni rilevanti da Internet. E così le inventano. In effetti i bot di intelligenza artificiale sono incentivati a indovinare (e dare una risposta errata) piuttosto che ammettere di non sapere qualcosa . Questo problema è stato riconosciuto dai ricercatori di OpenAI in un recente articolo . L’ipotesi buttata a caso viene premiata, perché, chissà, potrebbe essere corretta. Per questo uno studioso del settore come Servaas Storm, a cui devo molte delle notizie riportate nel post, dice che potrebbe essere prudente pensare a “Informazione Artificiale” piuttosto che a “Intelligenza Artificiale” quando si usa l’acronimo IA.
Le aziende si erano affrettate ad annunciare investimenti nell’Intelligenza artificiale o a rivendicarne l’uso per i loro prodotti, nella speranza di dare una spinta al prezzo delle loro azioni. Ma poi si è visto che tali strumenti non stanno facendo ciò che dovrebbero fare e così è iniziata la marcia indietro: alcune società, tra cui Ibm, stanno riassumendo i dipendenti licenziati in vista dell’adozione di strumenti di IA e l’adozione di questi sistemi è in netto calo nelle aziende fino a 250 lavoratori. Uno studio fatto in Danimarca su 11 professioni minacciate dai sistemi IA mostrano che gli impatti economici dell’adozione della GenAI sono minimi: “I chatbot di IA non hanno avuto alcun impatto significativo sui guadagni o sulle ore registrate in nessuna professione e con guadagni di produttività assolutamente modesti e inferiori al 3 per cento. Come se questo non bastasse la GenAI non renderà superflui nemmeno i programmatori informatici. I ricercatori di OpenAI hanno scoperto , all’inizio del 2025, che i modelli di intelligenza artificiale avanzati non sono ancora all’altezza dei programmatori umani, non riescono a comprendere la diffusione dei bug o il loro contesto, portando così a soluzioni errate. Un altro studio dell’organizzazione no-profit Model Evaluation and Threat Research rileva che, in pratica, i programmatori che utilizzano strumenti di Intelligenza artificiale all’inizio del 2025 sono in realtà più lenti quando utilizzano strumenti di assistenza, impiegando il 19% di tempo in più quando utilizzano la GenAI rispetto a quando programmano attivamente da soli (vedi qui ).

Ma adesso torniamo a bomba, ovvero alla premessa di questo post che, me ne rendo conto, è abbastanza complesso: l’industria americana dell’Intelligenza artificiale è stata costruita sulla premessa che la GenAi fosse dietro l’angolo e tutto ciò che serviva era un numero sufficiente di data center ed elettricità a basso costo per eseguire l’enorme mappatura statistica dei pattern necessaria a generare una parvenza di “intelligenza”. E così sono stati spesi 750 miliardi da parte dei venture capitalist della Silicon Valley e dei finanzieri di Wall Street. Questo ha portato le azioni dei titoli tecnologici ad impennarsi in maniera impressionante rispetto ad enormi spese e a modestissimi risultati. La bolla sta per scoppiare e lo dice lo stesso Ad di Open Ai, Sam Altman, che ad agosto ha dichiarato: “Qualcuno perderà una quantità fenomenale di denaro anche se ancora non sappiamo chi.” Insomma l’iperbole costruita sull’Intelligenza artificiale, non è nemmeno lontanamente vicina alla realtà e rischia di far saltare un intero settore economico. lo spillo è già vicino alla bolla. E a questo punto rimane una domanda: questa enorme distanza tra illusione e realtà è qualcosa che non si immaginava o era in qualche modo già consapevole in vista di scopi che ancora non conosciamo?

fonte:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *