✋ Lo so, arrivo tardi. Ma mi sono presa un week end lungo al mare, e finalmente sotto l’ombrellone, ho avuto il tempo di leggere con calma lo studio di Apple: “The Illusion of Thinking”
Uno di quei paper che ha fatto molto rumore nella comunità AI… e di cui (giustamente) hanno parlato in tanti.
🎧 Mi sono lasciata alle spalle le critiche al metodo di ricerca (ce ne sono, e anche forti).
Preferisco soffermarmi sugli spunti che contano.
⸻
📌 Apple ha testato modelli di AI “ragionativa” (come ChatGPT o3) su puzzle via via più complessi.
Il risultato?
Più il compito si fa difficile… più l’AI si ritira.
Il ragionamento crolla. Le risposte peggiorano. I tentativi si riducono.
Come se si scoraggiasse.
Ma è davvero così sorprendente?
⸻
🧠 Un modello linguistico non “pensa”
Riproduce il linguaggio umano in modo straordinario.
Ma non capisce davvero.
E non ha intenzionalità.
Fa pattern-matching statistico, non logica.
➡️ La chiamiamo “intelligenza artificiale”, e forse faremmo meglio a tradurre la parola Intelligence come “conoscenza” e non intelligenza artificiale”… dato che credo che oggi siamo ben lontani dalla AGI (Artificial General Intelligence):
quella vera, autonoma, capace di pensare e ragionare in modo simile a noi (per intenderci quella che usano come spauracchio tutti i giornalisti)…
Oggi abbiamo LLM — Large Language Models — che imitano bene, ma non capiscono a fondo.
⸻
💥 E poi ci sono loro: le hallucinations
❝ Le Allucinazioni sono quando l’AI si inventa qualcosa di plausibile ma falso, ma ce lo dice con convinzione. ❞
E non è un errore di distrazione: è una conseguenza del modo in cui l’abbiamo addestrata.
Per renderla più fluida, più naturale, più “umana”…
le abbiamo chiesto la risposta più plausibile, non la più giusta.
Et voilà: creatività sì, accuratezza… a volte no.
E la cosa che mi ha sempre affascinata è che quando abbiamo permesso al modello di essere plausibile e non vero e quindi imperfetto, ha smesso di sembrare un robot e ha iniziato a parlare come noi esseri umani….
⸻
🎭 Io lo dico da tempo: i modelli generativi non pensano, performano.
Recitano. Mettono in scena il nostro linguaggio.
E se non conosciamo il meccanismo, rischiamo di sopravvalutarli.
Sicuramente non pensano, almeno per il momento.
⸻
👉 Quindi no, questo paper non mi sorprende.
Ma è importante. Perché smonta il mito.
E ci ricorda che per costruire modelli seri — e sicuri — dobbiamo partire da una base solida:
Conoscenza.
Consapevolezza.
E soprattutto… umiltà.