Gli orrori annunciati dell’IA diventano realtà. Come reagire?
[ZEUS News - www.zeusnews.it - 28-09-2023]
Questo è un articolo su più pagine: ti invitiamo a leggere la pagina iniziale
Gli orrori annunciati dell'IA diventano realtà
Il terzo disastro perfettamente prevedibile di questa rassegna è anche il più infame. La BBC ha pubblicato un'indagine che ha documentato l'uso di software di intelligenza artificiale per generare immagini sintetiche di abusi sessuali su minori [CSAM, dalle iniziali di Child Sexual Abuse Material] e venderle tramite abbonamenti a comuni servizi di condivisione di contenuti a pagamento come Patreon, che sono inconsapevoli di essere coinvolti.
Il software di intelligenza artificiale usato, secondo la BBC, è Stable Diffusion, la cui versione normale ha delle salvaguardie che impediscono di produrre questo tipo di immagine. Ma queste salvaguardie sono facilmente rimovibili da chi installa questo software sul proprio computer, e a quel punto è sufficiente dare una descrizione testuale del contenuto che si desidera e il software, impassibile, lo genererà.
La quantità di materiale di questo genere prodotto in questo modo è enorme: ciascun offerente propone in media almeno mille nuove immagini al mese. E anche se c'è chi si giustifica dicendo che nessun bambino reale viene abusato perché le immagini sono appunto sintetiche, le autorità e gli esperti notano che queste immagini sintetiche vengono generate partendo da un repertorio di immagini reali e che gli stessi siti che offrono le pseudofoto propongono spesso anche immagini di abusi effettivi. In ogni caso, la detenzione di immagini di questo genere, reali o generate, è reato in quasi tutti i paesi del mondo.
Verrebbe da pensare che materiale atroce di questo genere sia relegato nei bassifondi di Internet, magari nel tanto mitizzato dark web, ma molto più banalmente si trova spesso su normali siti web. Secondo la BBC, infatti, in Giappone la condivisione di disegni sessualizzati di bambini non è reato, e quindi molti offerenti di queste immagini le pubblicano apertamente, usando hashtag identificativi appositi. Uno di questi siti residenti in Giappone, Pixiv, ha dichiarato che dal 31 maggio scorso ha bandito "tutte le rappresentazioni fotorealistiche di contenuti sessuali che coinvolgono minori". Noterete che Pixiv parla solo di immagini fotorealistiche. E viene da chiedersi come mai questo divieto sia entrato in vigore solo ora.
Uno dei problemi più grandi di questa montagna di immagini di abusi è che rende sempre meno efficaci gli strumenti adottati dalle forze di polizia e dai social network per tracciare e bloccare questo materiale. Quando le autorità trovano un'immagine o un video di questo genere, ne producono una sorta di impronta digitale matematica, un hash, che non contiene l'immagine e non permette di ricostruirla ma consente di identificarla automaticamente. Gli elenchi di questi hash possono essere condivisi senza problemi e inclusi nei filtri automatici delle applicazioni, dei siti di condivisione e dei social network. Ma se i software di intelligenza artificiale consentono di generare innumerevoli immagini sempre differenti, questo sistema collassa rapidamente.
L'unica difesa possibile, oltre all'informazione, all'educazione, a una discussione schietta della questione e al lavoro incessante delle autorità, che hanno riscosso successi importanti anche recentemente in Svizzera, è segnalare queste immagini ai facilitatori dei servizi di pagamento, che bloccheranno gli account e i soldi che contengono. Ma è un lavoro delicatissimo, nel quale la prima regola è mai mandare copie di queste immagini a nessuno, neppure alle autorità stesse, perché si diventerebbe detentori e condivisori di questo materiale. Si deve mandare sempre e solo il link che porta al contenuto e non conservare copie o screenshot di quel contenuto. Lo sa bene, paradossalmente, proprio la BBC, quella che ha svolto quest'indagine delicatissima: nel 2017 segnalò che Facebook stava ospitando immagini di abusi su minori e fece l'errore di inviare degli screenshot di queste immagini a Facebook invece di mandare i link come richiesto. Per tutta risposta, Facebook fu costretta a denunciare alla polizia i giornalisti dell'emittente britannica.
In casi come questi, è meglio stare alla larga ed evitare ogni tentazione, per quanto umanamente comprensibile, di vigilantismo.
Fonte aggiuntiva: Ars Technica.
Intanto, è ormai chiaro che il vaso di Pandora dell'intelligenza artificiale è stato aperto, nonostante tutte le ammonizioni, non lo si può più chiudere e ci tocca conviverci. Non resta che sperare che da questo vaso escano anche tante applicazioni positive. Ma questa è un'altra storia, da raccontare in un'altra puntata.
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con Zeus News
ti consigliamo di iscriverti alla Newsletter gratuita.
Inoltre puoi consigliare l'articolo utilizzando uno dei pulsanti qui
sotto, inserire un commento
(anche anonimo)
o segnalare un refuso.
|
|
(C) by Paolo Attivissimo - www.attivissimo.net.
Distribuzione libera, purché sia inclusa la presente dicitura.
|
||
|
Gladiator