Moltissime persone stanno usando la funzione Magic Avatar dell’app Lensa AI per crearsi dei ritratti personali digitali stilizzati, da usare per esempio come immagini dei profili social ma anche per puro divertimento, e i risultati sono davvero notevoli. Gli incassi della casa produttrice, Prisma Labs, ammontano già a svariati milioni di dollari.
Ma per usare Lensa AI bisogna affidare a quest’azienda una decina di foto del proprio volto, quindi una serie di dati biometrici sensibili, e quindi sarebbe opportuno leggere l’informativa sulla riservatezza dei dati e le condizioni d’uso per scoprire che fine fanno queste foto: vengono depositate temporaneamente sui server dell’azienda, che si trovano negli Stati Uniti, e cancellate subito dopo la generazione degli avatar corrispondenti, dice Andrey Usoltsev, CEO e cofondatore di Prisma Labs.
Il problema è che oltre alle vostre foto, Lensa AI acquisisce molte altre informazioni personali “a scopo di marketing”, come per esempio (sezione 3 delle condizioni d’uso) che tipo di smartphone usate, il vostro indirizzo IP e soprattutto i dati di tracciamento pubblicitario raccolti dai principali operatori del settore, ossia i cosiddetti IDFA di Apple o gli Android Advertising ID di Google, che possono essere poi ceduti o rivenduti ad altre società.
Potete disabilitare questa raccolta di dati andando nelle apposite impostazioni di iOS o di Android e seguendo le istruzioni fornite nell’informativa di Lensa AI.
Ci sono anche alcune precauzioni che riguardano in particolare i bambini e le donne: mandare a Lensa AI immagini di bambini è contrario alle condizioni d’uso e produce risultati che mi limito a definire inquietanti. Per le donne, invece, Lensa AI ha una spiccata tendenza a generare immagini fortemente sessualizzate: l’app spesso genera nudi integrali e pose molto esplicite anche se si mandano solo fotografie del proprio volto.
I Couldn't Help Myself.....Do You Like it? #AI #lensaai #anime pic.twitter.com/04cZlSfJuc
— Charlotte Star 🇦🇺 (@CharlotteStar5) December 9, 2022
Non sembra esserci lo stesso problema per gli uomini: per loro vengono generate solitamente immagini in stile eroico o comunque ritratti normali. Potete farvene un’idea sfogliando i tweet che usano l’hashtag #lensaai.
Jumping on the TREN/D 😂
— STEVEN LEWIS BARRETT🇬🇧 (@Stevenbarrett41) December 18, 2022
Had to take off the music for copyright reasons #avata #lensaai @lensaai 🫶 pic.twitter.com/DoiuGJRctA
#lensaai pic.twitter.com/J324KDqUlr
— Kyle James (@Kylifornication) December 14, 2022
Ma il problema più grave è che è possibile usare Lensa AI per generare immagini pornografiche realistiche di altre persone in modo pericolosamente semplice. Se si appiccica rozzamente con Photoshop il volto di una persona su immagini esplicite di un’altra, Lensa AI fonde perfettamente le due immagini.
Lensa AI usa una versione del software di intelligenza artificiale Stable Diffusion dotata di filtri che dovrebbero bloccare le immagini non adatte, ma a quanto risulta dai test effettuati dai ricercatori questi filtri vanno in tilt se si usa una serie appositamente confezionata di immagini.
Le immagini pornografiche false di celebrità o di persone comuni, usate spesso come strumento di aggressione, bullismo o umiliazione, purtroppo non sono una novità, ma generarle prima richiedeva una notevole competenza nell’uso di programmi di fotoritocco e questo ne frenava la produzione e l’abuso. Ora, invece, grazie a Lensa AI questo ostacolo non esiste più: bastano un telefonino e pochi dollari.
Prisma Labs ha dichiarato che sta prendendo delle misure tecniche per risolvere questo problema, ma l’avvento di questi software di intelligenza artificiale sta creando un pantano etico che sta già spingendo alcuni governi, come quello britannico, a valutare leggi che criminalizzino la disseminazione di foto intime generate artificialmente senza consenso.
Nel frattempo è forse il caso di ridurre, se possibile, la quantità di fotografie dei nostri volti che mettiamo a disposizione di chiunque pubblicandole sui social network. L’intelligenza artificiale, purtroppo, non aiuta a contrastare la cattiveria naturale.
Fonte aggiuntiva: TechCrunch.
Commenti
Posta un commento