Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Risposte senza senso, ChatGpt in confusione per qualche ora

Risposte senza senso, ChatGpt in confusione per qualche ora

OpenAI risolve problema e monitora, linguaggio poco comprensibile

MILANO, 23 febbraio 2024, 16:42

Redazione ANSA

ANSACheck

© ANSA/EPA

© ANSA/EPA
© ANSA/EPA

ChatGpt, la popolare app di intelligenza artificiale, in grado di produrre testi a richiesta dell'utente, è "impazzita" per qualche ora martedì. Il chatbot ha iniziato a generare frasi senza senso, contenenti parole inesistenti, che hanno lasciato interdetti molti utilizzatori.

Sui social sono apparsi diversi screenshot con le risposte incomprensibili che, a detta di OpenAI, l'azienda che sviluppa il servizio, sarebbero state causate da un intervento di "ottimizzazione" della piattaforma. Solo un successivo aggiornamento ha risolto la questione.

 In alcune conversazioni, ChatGpt ha finito per mischiare inglese e spagnolo, rendendo la problematica, pur seria, leggermente più scherzosa. "Muchas gracias per la tua comprensione. Sono sicuro che d'ora in poi avremo un dialogo limpido come l'acqua" una delle frasi diffuse online. Con un risvolto più critico, alcuni hanno fatto notare che chiedendo al chatbot di controllare un codice informatico, questo finiva con il divagare e cambiare discorso. In un caso, ha formulato diverse linee tutte identiche, con la frase "buon ascolto". Come scrive il sito Ars Technica, l'episodio ricorda i problemi con Microsoft Bing Chat (ora chiamato Copilot), che si era mostrato poco amichevole con gli utilizzatori al lancio un anno fa. In quell'occasione, i problemi di Bing Chat erano sorti a causa delle lunghe conversazioni che spingevano il sistema di "comportamento" del chatbot ad andare fuori dalla sua finestra di contesto, generando le cosiddette allucinazioni, risposte incoerenti, errate e fuorvianti.
   

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza