L’immagine di Papa Francesco l’abbiamo realizzata con il programma Ai Midjourney.
In un mondo dove l’innovazione tecnologica avanza a passi da gigante, gli strumenti di intelligenza artificiale (AI) stanno aprendo nuovi orizzonti nella creazione di contenuti digitali. Tra queste meraviglie tecnologiche, gli strumenti per la creazione di immagini basati sull’AI di colossi come OpenAI e Microsoft stanno dimostrando le loro incredibili capacità, permettendo di generare immagini da semplici istruzioni testuali. Ma cosa succede quando questa potenza creativa incontra il delicato terreno della politica e delle elezioni?
Un recente report del Center for Countering Digital Hate (CCDH), un’organizzazione no-profit che si dedica alla lotta contro l’incitamento all’odio online, ha messo in luce un aspetto preoccupante: questi strumenti di AI potrebbero essere utilizzati per produrre immagini in grado di promuovere disinformazione elettorale. Immaginatevi immagini generate artificialmente che mostrano il presidente degli Stati Uniti in situazioni inesistenti o esponenti politici coinvolti in atti di frode. Queste “prove fotografiche” potrebbero facilmente essere sfruttate per diffondere false informazioni, mettendo a rischio l’integrità del processo elettorale.
Il CCDH ha testato alcuni dei più noti strumenti di creazione di immagini AI, tra cui ChatGPT Plus di OpenAI, Image Creator di Microsoft, Midjourney e DreamStudio di Stability AI, scoprendo che, nonostante le politiche contro la creazione di contenuti fuorvianti, alcune richieste di immagini ambigue venivano comunque soddisfatte. Curiosamente, mentre alcune piattaforme erano più efficaci nel bloccare le richieste relative a immagini di candidati noti, altre si dimostravano più vulnerabili, in particolare Midjourney, che generava contenuti fuorvianti con una certa facilità.
Di fronte a queste scoperte, le aziende dietro questi strumenti di AI non sono rimaste inattive. Mentre Stability AI ha recentemente aggiornato le proprie politiche per vietare esplicitamente la creazione o promozione di disinformazione, OpenAI ha ribadito il proprio impegno a prevenire l’abuso dei suoi strumenti. Microsoft, dal canto suo, non ha ancora rilasciato commenti, ma la comunità attende con interesse ulteriori sviluppi.
Queste iniziative evidenziano un punto cruciale: mentre l’AI apre possibilità creative senza precedenti, porta con sé anche nuove sfide etiche e di sicurezza. La linea tra innovazione e integrità informativa diventa sempre più sottile, sollevando interrogativi su come possiamo, come società, navigare in questo nuovo panorama digitale.
La capacità di creare immagini indistinguibili dalla realtà pone un dilemma: come possiamo godere dei benefici di questa rivoluzionaria tecnologia, evitando al contempo che diventi uno strumento per la disinformazione? La risposta potrebbe risiedere in una combinazione di tecnologia avanzata, politiche attente e un pubblico educato e critico. La strada da percorrere è complessa, ma la discussione è aperta, e il futuro della creatività AI è ancora tutto da scrivere.