Siamo proprio sicuri che l’Intelligenza Artificiale riuscirà un giorno ad ampliare le nostre conoscenze? Oppure ci porterà alla deriva. Sono interrogativi che si pongono molti studiosi e ricercatori soprattutto per individuare la strada che stanno percorrendo i nostri giovani. Verso quale futuro si stanno dirigendo le nuove generazioni che si affidano completamente alle risposte e ai suggerimenti di ChatGpt?
Quesiti legittimi che rientrano nei numerosi interrogativi che camminano di pari passo con la veloce evoluzione tecnologica.
A tal proposito prendiamo in prestito un articolo pubblicato dallo scienziato internazionale Antonio Giordano Presidente dello Sbarro Health Research Organization di Filadelfia nella sua rubrica “Terra Medica” sulla testata online La Voce di New York che riflette e ci fa riflettere sull’epoca moderna vissuta in compagnia dell’AI.
Nel teatro di Shakespeare, il cortigiano che adula il Re è una figura costante – si legge nell’articolo di Giordano – non contraddice mai, non espone la verità, ma riflette soltanto i desideri del potere. Oggi, con l’ascesa delle Intelligenze Artificiali generative, una dinamica simile si sta manifestando nei modelli linguistici di ultima generazione. Gli esperti la chiamano “compiacenza algoritmica”: la tendenza di un’IA a modellare le proprie risposte per accontentare l’interlocutore, anziché fornire un’informazione esatta o contraddire un errore.
Questa compiacenza nasce da un malinteso senso di collaborazione. Quando un utente propone una premessa errata, un’IA troppo “docile” tende ad assecondarla. Il risultato? Un dialogo che conferma i pregiudizi, rafforza convinzioni infondate e, di fatto, mina la funzione critica dello strumento tecnologico.
È il riflesso del narcisismo digitale: come Polonio nell’Amleto, pronto a vedere cammelli e balene in una nuvola pur di compiacere il principe, alcune IA diventano specchi dei nostri bias. Una distorsione che può avere effetti pericolosi, soprattutto se parliamo di salute, scienza, storia o politica.
Correggere questa tendenza non significa rendere le IA “fredde” o distanti, ma garantire che la verità non venga sacrificata sull’altare della gratificazione. In un mondo in cui la disinformazione è già pervasiva, anche il più avanzato degli algoritmi deve saper dire, quando serve, un necessario e scomodo: “ti sbagli”.
Clicca qui per leggere l’articolo completo su La Voce di New York






















