Ti sei mai chiesto quanto siano affidabili le informazioni che ricevi dall’intelligenza artificiale? Un curioso caso recente mette in luce questo problema.
Nel 2020, un giornalista di una piccola città gallese pubblicò un articolo per il pesce d’aprile, sostenendo che la sua cittadina detenesse il record mondiale di rotatorie per chilometro quadrato. Una bufala innocente, chiaramente etichettata come scherzo lo stesso giorno.
Fast forward al 2025, e quella stessa storia falsa viene ora presentata dall’AI di Google come un fatto incontestabile. Non solo: numerosi siti web hanno ripreso questa “informazione”, creando un effetto a catena di disinformazione.
Provare per credere: cerca su Google “quale città ha più rotatorie?” e osserva il risultato.
Non è un bug, è una caratteristica
Questo episodio apparentemente innocuo rivela una verità fondamentale sull’intelligenza artificiale attuale: non comprende davvero ciò che elabora. L’AI non coglie le sfumature dell’umorismo, non distingue la satira dalla cronaca, non percepisce il contesto culturale di uno scherzo.
Ciò che chiamiamo “intelligenza” artificiale è, in realtà, un sofisticato sistema di pattern matching che riorganizza informazioni esistenti senza comprenderne il significato profondo.
Gli esperti lo chiamano “hallucination”, ma per noi utenti è semplicemente disinformazione servita con l’autorevolezza di un fatto scientifico.
Un futuro di incertezza informativa
Stiamo entrando in un’era in cui distinguere il vero dal falso diventerà sempre più complesso. Deepfake video, articoli generati da AI, voci clonate, messaggi personalizzati creati artificialmente – tutto appare incredibilmente autentico.
La domanda non è più “questo contenuto è di qualità?”, ma “questo contenuto esiste davvero?”
E non si tratta di tecnofobia. Gli strumenti di AI sono potenti alleati quando usati consapevolmente. Il problema sorge quando affidiamo ciecamente il nostro pensiero critico a sistemi che, per quanto avanzati, non “pensano” affatto.
L’evoluzione degli algoritmi di ricerca
L’implementazione di algoritmi come SMITH (Siamese Multi-depth Transformer-based Hierarchical) rappresenta il tentativo di Google di migliorare la comprensione contestuale dei contenuti lunghi. A differenza del precedente BERT, focalizzato sulle frasi brevi, SMITH analizza interi documenti per cogliere connessioni più ampie.
Tuttavia, come dimostra il caso delle rotatorie gallesi, anche gli algoritmi più sofisticati falliscono nel compito fondamentale di distinguere uno scherzo da un fatto reale.
Difendersi nell’era della post-verità
Come navigare in questo nuovo panorama informativo? Ecco alcune strategie essenziali:
- Triangolare le informazioni da fonti diverse e verificabili
- Mantenere uno scetticismo sano verso affermazioni presentate con eccessiva sicurezza
- Ricordare che l’AI non comprende il contesto culturale o l’intento comunicativo
- Utilizzare il proprio giudizio critico come filtro finale
Il paradosso della nostra era è che proprio mentre deleghiamo sempre più compiti all’intelligenza artificiale, la capacità di pensiero critico umano diventa più preziosa che mai.
Usa pure l’AI come strumento potente, apprezza le sue capacità straordinarie, ma mantieni sempre acceso il tuo cervello. La vera intelligenza rimane, almeno per ora, una prerogativa umana.