Tutto inizia con un messaggio privato ricevuto su Instagram ricevuto da una ragazza del Tennessee. Chi l’ha inviato, un utente anonimo, voleva avvisarla che qualcuno stava diffondendo sulla piattaforma Discord delle foto sessualmente esplicite dove la protagonista era lei. O meglio, era ispirata a lei. Le immagini erano state generate con l’intelligenza artificiale generativa creata da Elon Musk, Grok, a partire da una serie di ritratti reali scattati a scuola. Uno durante l’Homecoming, la festa di inizio anno scolastico che si celebra tradizionalmente negli Stati Uniti. Una era quella dell’album di classe. La ragazza, che viene chiamata in modo fittizio Jane Doe 1 per proteggerne l’identità, riceve un link dove compaiono immagini pornografiche di lei e di altre 18 sue coetanee, molte delle quali sue compagne di scuola. Parte la denuncia, la polizia indaga. Un uomo viene arrestato a dicembre. É lui che le ha create. Ma non basta. Perché ora quelle foto continuano a girare online, su Discord, su Telegram. Si cerca un nuovo responsabile: chi quelle immagini le ha generate. O meglio chi ha creato uno strumento che dà la possibilità a chiunque di trasformare il ritratto di una minorenne in un’immagine pornografica.
