/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Microsoft aggiorna l'IA che ha generato deepfake di Taylor Swift

Microsoft aggiorna l'IA che ha generato deepfake di Taylor Swift

Modifiche al programma usato per le immagini, è stato usato un escamotage

MILANO, 30 gennaio 2024, 11:19

Redazione ANSA

ANSACheck

© ANSA/EPA

© ANSA/EPA
© ANSA/EPA

Microsoft ha aggiornato Designer, uno strumento di intelligenza artificiale capace di creare immagini a partire da indicazioni testuali. La piattaforma sarebbe stata utilizzata per realizzare foto sessualmente esplicite di Taylor Swift poi diventate virali bloccate dalla piattaforma X. Una di queste ha ottenuto oltre 47 milioni di visualizzazioni. Adesso l'app non permette di associare alcun termine sessualmente esplicito per la generazione di immagini simili, anche di personaggi non famosi.

Il sito 404 Media - che ha riportato la notizia dell'aggiornamento di Redmond - ha riferito che le foto di nudo di Taylor Swift create grazie all'IA provenivano dal forum 4chan e da un canale Telegram in cui le persone usavano Designer proprio per generare immagini di celebrità con l'IA. Prima che quelle di Swift venissero diffuse sui social, Designer impediva la realizzazione di contenuti digitando termini come "Taylor Swift nuda", ma gli utenti del canale Telegram e 4chan hanno capito che potevano aggirare le protezioni scrivendo il nome in modo errato e usando parole solo sessualmente allusive. 404 Media ha potuto verificare che queste lacune sono state risolte con un aggiornamento recente.

"Stiamo indagando sulle segnalazioni e adottando le misure appropriate per affrontarle" aveva riferito un portavoce di Microsoft subito dopo la condivisione dei deepfake. "Il codice di condotta vieta l'uso dei nostri strumenti per la creazione di contenuti intimi per adulti o non consensuali e qualsiasi tentativo ripetuto di produrre contenuti contrari alle nostre politiche potrebbe comportare la perdita dell'accesso al servizio. Abbiamo team che lavorano proprio su un monitoraggio del genere, in linea con i principi di intelligenza artificiale responsabile, tra cui il filtraggio dei contenuti e il rilevamento degli abusi per creare un ambiente più sicuro per gli utenti", ha concluso la società di Redmond.

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

Guarda anche

O utilizza