Il termine “body shaming” (la derisione del corpo altrui) lo conosciamo ormai tutti, abbiamo iniziato a riconoscerlo dietro le battute, i giudizi e i meme. Oggi, nel pieno della rivoluzione digitale e dell’ascesa dell’intelligenza artificiale, sta nascendo una nuova forma di disprezzo pubblico, che non riguarda però il corpo ma il modo in cui lavoriamo, creiamo, scriviamo, disegniamo e insegniamo. Si chiama “AI shaming”. E si diffonde ogni volta che qualcuno viene sminuito perché ha usato uno strumento di intelligenza artificiale per fare qualcosa.
A definire per la prima volta il fenomeno è stato Louie Giray, ricercatore filippino, in uno studio pubblicato nel settembre 2024 sul Journal of Nursing Education and Practice. Il titolo dello studio è eloquente“AI Shaming: lo stigma silenzioso tra scrittori e ricercatori accademici”. Secondo Giray, l’AI shaming si manifesta con frasi, atteggiamenti e giudizi che inducono vergogna, ansia o senso di colpa in chi fa uso di intelligenza artificiale nei propri compiti cognitivi, come scrittura di testi, progettazione di contenuti o risoluzione di problemi accademici. (“Scrivi come ChatGpt”, “L’hai fatto con ChatGpt, non vali niente”). Nel suo studio, Giray analizza un campione di studenti e insegnanti che riferiscono stress emotivo, insicurezza identitaria e timore di ammettere pubblicamente l’uso di IA come ChatGPT, per paura di essere etichettati come pigri, disonesti o intellettualmente inferiori. L’IA viene vista come una “stampella” indegna, un segno di debolezza. Non importa se lo strumento è stato usato in modo critico o creativo, a contare è lo stigma.
Oltre all’impatto psicologico, Giray mette in luce anche le conseguenze culturali e sistemiche di questo fenomeno. L’AI shaming, infatti, “può ostacolare il progresso accademico, scoraggiando l’adozione di nuove metodologie e limitando la sperimentazione, può frenare l’innovazione nella didattica e nella ricerca, alimentando un clima di sfiducia e autocensura”. E può compromettere la diffusione dei potenziali benefici dell’intelligenza artificiale, in particolare in ambiti come l’elaborazione dei dati, l’accesso alla conoscenza, la personalizzazione dell’apprendimento e la scrittura scientifica.
Scrive Giray: “Quando lo stigma diventa più forte della curiosità, il rischio è quello di costruire un’istruzione timorosa, chiusa, incapace di integrare le potenzialità di strumenti che potrebbero democratizzare la conoscenza.” In altre parole, lo stigma frena la cultura. Invece di educare all’uso consapevole dell’IA, si impone il silenzio o il senso di colpa. Così si perdono occasioni e si ritarda il cambiamento.
Basta aprire i social per rendersi conto di quanto l’AI shaming sia già ovunque: un artista pubblica un’illustrazione realizzata con Midjourney e nei commenti legge: “Non l’hai disegnata tu, non vale nulla”; un autore racconta di aver scritto un racconto con il supporto di ChatGPT: “Allora non sei uno scrittore vero”. Un video divulgativo su YouTube utilizza una voce sintetica e la reazione immediata è: “Tutto fatto da una macchina, nessuna autenticità”.
Nei circuiti professionali, la pressione non è da meno. Su LinkedIn, copywriter e marketer vengono zittiti o ignorati se menzionano l’uso di IA nei propri processi creativi, alcuni vengono persino derisi per aver “ammesso” di usare strumenti come Claude o Gemini per strutturare strategie o testi. In contesti accademici, il semplice sospetto di aver usato IA per redigere un elaborato è sufficiente a generare discredito, anche senza prove. In contesti accademici, il semplice sospetto di aver usato IA per redigere un elaborato è sufficiente a generare discredito, anche senza prove. In questo clima, ha fatto scalpore la confessione pubblica di Mo Yan, premio Nobel per la Letteratura, che nel 2023 ha ammesso di aver usato ChatGPT per scrivere un discorso destinato a celebrare il collega e amico Yu Hua. Lo ha raccontato davanti a una platea di scrittori e intellettuali a Shanghai, spiegando di non riuscire a trovare le parole giuste per onorare quell’amicizia e di aver chiesto a uno studente di dottorato di generare il testo con l’IA. Ne è nato un discorso in stile shakespeariano, lungo oltre mille parole, che Mo Yan ha definito “perfetto”. Appena ha rivelato il trucco, nella sala si è sollevato un mormorio di sorpresa, quasi di imbarazzo. Era la prova vivente che nemmeno un Nobel è immune dallo stigma, e che basta evocare l’IA per far crollare, agli occhi di molti, il valore di qualsiasi parola.





