Le principali piattaforme social (Meta, TikTok, YouTube e Snapchat) erano consapevoli che i loro servizi potevano creare dipendenza nei giovani, e hanno comunque continuato a progettarli per massimizzare il tempo di utilizzo degli adolescenti.
Sono queste le accuse che un gruppo di distretti scolastici, negli Stati Uniti, sta muovendo in una causa contro i giganti dei social media, secondo un documento legale recentemente reso pubblico che cita documenti interni delle aziende stesse. La notizia è stata ricostruita dalla CNN, che ha analizzato il contenuto della memoria depositata presso la Corte distrettuale del Nord della California.
La denuncia cita conversazioni interne, analisi aziendali e testimonianze di dipendenti che mostrano una realtà diversa da quella raccontata pubblicamente. In una chat interna, ricercatori di Meta definivano Instagram “una droga”, aggiungendo: “siamo fondamentalmente degli spacciatori”. Un rapporto interno di TikTok indicava che “i minori non hanno la capacità mentale di controllare il tempo davanti allo schermo”. Dirigenti di Snapchat ammettevano che gli utenti più assidui finiscono per essere completamente assorbiti dalla piattaforma. Alcuni dipendenti di YouTube sottolineavano che incentivare un uso quotidiano molto frequente era in contrasto con gli obiettivi di benessere digitale.
Secondo l’accusa, le piattaforme avrebbero inserito funzioni pensate per prolungare la permanenza degli adolescenti, contribuendo a una crisi di salute mentale che ricade sulle scuole, costrette a investire in consulenza e supporto psicologico. Le aziende respingono le accuse e hanno chiesto l’archiviazione del caso. CNN non ha potuto verificare in modo indipendente i documenti citati.
La causa si inserisce in una pressione legale crescente. Oltre a questo procedimento, è in corso una class action nella California meridionale che sostiene che le piattaforme abbiano danneggiato la salute mentale dei giovani. Le aziende si difendono richiamando la Sezione 230, che limita la loro responsabilità sui contenuti pubblicati dagli utenti.
I ricorrenti sostengono che gli strumenti di sicurezza per i minori introdotti negli ultimi anni, dalle pause consigliate ai controlli parentali, siano stati ritenuti poco efficaci anche dalle stesse aziende, secondo quanto emerge dai documenti. Uno degli episodi citati riguarda uno studio che Meta aveva programmato nel 2019 insieme a Nielsen: alcuni utenti avrebbero dovuto sospendere Facebook e Instagram per un mese. I test preliminari mostrarono che anche una sola settimana senza Facebook riduceva ansia, depressione e confronto sociale. Dopo questi risultati iniziali, Meta avrebbe interrotto il progetto. L’azienda nega questa interpretazione e sostiene che lo studio presentava problemi metodologici.
Il documento cita anche la funzione di “associazione familiare” di TikTok, giudicata poco utile dai dipendenti perché gli adolescenti potevano scollegare i loro account dai genitori. Inoltre, dirigenti della società avrebbero respinto l’idea di un limite rigido al tempo di utilizzo perché avrebbe avuto un forte impatto sulle entrate pubblicitarie. TikTok respinge questa lettura e rivendica investimenti miliardari in sicurezza.
Altri passaggi del rapporto riguardano funzionalità considerate problematiche: notifiche notturne, filtri che alterano l’aspetto, scorrimento infinito e riproduzione automatica. Documenti interni mostrerebbero che YouTube era consapevole del potenziale effetto “additivo” dei video brevi, pur continuando a sviluppare Shorts. Un memo interno di Snapchat descriveva alcune funzioni come “meccaniche di gioco malsane” che generano stress e senso di obbligo sociale.
Snap, Google, Meta e TikTok contestano fermamente le accuse, sostenendo che il quadro presentato dai ricorrenti sia parziale e fuorviante. Rivendicano anni di investimenti in sicurezza, privacy e benessere digitale.
I querelanti chiedono un processo con giuria, sostenendo che le piattaforme abbiano creato un “disturbo pubblico” che ricade sulle scuole e sulle famiglie. Secondo gli avvocati, le aziende erano consapevoli dei rischi per la salute mentale dei minori ma hanno continuato a promuovere funzioni che aumentano il coinvolgimento. Il caso prosegue verso il processo, con l’obiettivo di accertare l’eventuale responsabilità delle piattaforme e l’impatto sulle comunità scolastiche.





