Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Ricercatori propongono un tasto per spegnere l'IA, come per il nucleare

Ricercatori propongono un tasto per spegnere l'IA, come per il nucleare

'Kill switch', la proposta suggestiva in documento di accademici

ROMA, 23 febbraio 2024, 16:42

Redazione ANSA

ANSACheck

© ANSA/EPA

© ANSA/EPA
© ANSA/EPA

Un pulsante, 'kill switch', per interrompere un sistema di Intelligenza artificiale nel caso fosse necessario, sulla scia di quelli sviluppati per fermare il lancio non autorizzato di armi nucleari. E' la proposta suggestiva che emerge da un documento di diverse istituzioni accademiche tra cui il Leverhulme Centre dell'Università di Cambridge, l'Oxford Internet Institute e la Georgetown University, insieme ad alcuni ricercatori di ChatGpt.
    Il documento prende in considerazione una serie di elementi tracciabili dell'Intelligenza artificiale come il sistema di calcolo ("rilevabile e quantificabile"), le grandi infrastrutture che lo supportano, i chip utilizzati per addestrare i modelli di IA che sono prodotti da un numero relativamente piccolo di aziende, i vincoli alla catena di approvvigionamento sulla produzione di semiconduttori.
    "Questi fattori offrono ai regolatori i mezzi per comprendere meglio come e dove viene implementata l'infrastruttura di intelligenza artificiale, chi può o non può accedervi e imporre sanzioni per uso improprio", sostiene il documento che evidenzia diversi modi in cui i policy makers possono regolamentare l'hardware dell'IA. Come, ad esempio, un 'kill switch', un pulsante per disabilitare anche da remoto l'uso dell'Intelligenza artificiale in applicazioni dannose o in caso di violazione delle regole. Sulla falsa riga dei blocchi di sicurezza usati per le armi nucleari.
    Uno strumento suggestivo che però, come osservano gli stessi ricercatori, potrebbe ritorcersi contro impedendo, se usato male o nelle mani sbagliate, lo sviluppo dell'intelligenza artificiale. Altro punto critico di questo documento è la partecipazione di ricercatori di OpenAI, la società madre di ChatGpt, che da una parte chiede una regolamentazione ma dall'altra deve fare business e sforna a ritmi sostenuti nuovi sistemi di IA. L'ultimo in ordine di tempo è Sora che genera video realistici di un minuto partendo semplicemente da un testo, un potenziale rischio per il cinema e per la diffusione di deepfake.
   

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza