/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Amnesty, AI Act rischia di espandere sorveglianza della polizia

Amnesty, AI Act rischia di espandere sorveglianza della polizia

L'allarme contenuto nell'ultimo rapporto sui diritti umani

BRUXELLES, 26 aprile 2024, 16:05

Redazione ANSA

ANSACheck

- RIPRODUZIONE RISERVATA

Un'opportunità mancata per far fronte ai rischi derivanti dalle tecnologie di intelligenza artificiale (IA). Nel suo report annuale sulla situazione dei diritti umani nel mondo, Amnesty International torna sulle criticità dell'AI Act, la legge europea sull'intelligenza artificiale, sostenendo non solo che "il testo finale non si è spinto abbastanza in là per prevenire i danni", ma anche che potrebbe "contribuire all'espansione e alla legittimazione delle attività di sorveglianza delle autorità di polizia e di immigrazione".
    Al contrario, i governi, scrive Amnesty, dovrebbero "vietare immediatamente i software spia e le tecnologie di riconoscimento facciale", adottare "solide misure legislative e normative" per affrontare i rischi e i danni causati dalle tecnologie di IA, e "controllare le Big Tech" in modo da limitare i danni del "loro modello di business basato sulla sorveglianza".
    In generale, nel report si sottolinea come "in assenza di una regolamentazione adeguata ed efficace" l'IA generativa possa "esacerbare i rischi per i diritti umani in aree quali l'accesso al welfare, all'istruzione e all'occupazione, i diritti del lavoro, la privacy e la sicurezza online". Rischi che variano dal "rafforzamento delle disuguaglianze razziali e di altro tipo", all'"aumento della sorveglianza", all'"amplificazione dei contenuti di odio online".
    I sistemi di IA esistenti, si legge ancora nel rapporto, hanno già amplificato le disuguaglianze e danneggiato le comunità emarginate in settori quali l'accesso ai servizi statali, la polizia, la sicurezza e la migrazione. Diversi sono gli esempi menzionati da Amnesty International, dal nuovo sistema di assistenza sociale semi-automatizzato che in Serbia ha provocato la perdita dell'accesso all'assistenza sociale per migliaia di persone, colpendo "in modo sproporzionato" rom e disabili, all'uso del riconoscimento facciale da parte di Israele nei Territori palestinesi occupati che ha "rafforzato le restrizioni alla libertà di movimento e ha contribuito a mantenere il sistema di apartheid"; all'impiego da parte del Dipartimento di Polizia di New York della tecnologia per sorvegliare le proteste di Black Lives Matter in città.

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza