L’AI ha sbagliato.
Ma chi l’ha usata non se n’è accorto.
E questa è la parte davvero interessante.
🤖 L’AI ha allucinato. Deloitte pure.
È successo davvero:
un report commissionato dal Governo Australiano è finito sotto i riflettori perché conteneva citazioni accademiche inventate e riferimenti inesistenti.
Il motivo?
Era stato scritto in parte con l’aiuto di un modello di intelligenza artificiale.
La cosa più curiosa non è l’errore.
È che — a quanto pare — nessuno del team se n’è accorto.
Come se non sapessero nemmeno cosa sia una hallucination (quando l’AI crea informazioni che suonano vere, ma non lo sono).
Attenzione, non è l’AI ad aver fallito in questo caso.
È la cultura digitale a non essere all’altezza della tecnologia che usa.
⸻
🎯 La verità è semplice e particolarmente scomoda:
L’AI non è intelligente: è amplificatrice.
Se la usi con metodo, moltiplica il valore.
Se la usi senza capire come funziona, moltiplica l’errore.
E se le persone non sanno che cosa sia una allucinazione e usano l’AI come semplice copia - incolla il prezzo puó essere molto alto.
⸻
Piccola parentesi da “la tocco piano”
[Se fossi nei committenti, la prossima volta ci penserei bene a commissionare all’esterno… con un bel Deep Research farei da me, farei prima e pagherei (molto) meno] 🤗😅😖
⸻
💭 Provocazioni a parte, il punto:
Il caso Deloitte non parla di errori tecnologici.
Parla di errori umani: di fiducia cieca, di mancanza di cultura, di delega senza controllo.
L’intelligenza artificiale non sostituisce quella umana — la rivela.
E quando non la trova… si arrangia.
Alla sua maniera. 😉