AI

OpenAI e regolamentazione

La Federal Trade Commission (FTC) ha iniziato un’indagine, questa volta molto più approfondita, su OpenAI. Attraverso una comunicazione ufficiale inviata all’azienda, la FTC ha dichiarato l’intento di esaminare se vi siano individui che abbiano subito danni a causa della creazione di false informazioni su di loro da parte del chatbot, e se OpenAI abbia adottato pratiche “sleali o ingannevoli” riguardanti la privacy e la sicurezza dei dati. Tutto questo è possibile? Ci si chiede.
OpenAI e nuova regolamentazione

L’attenzione delle autorità regolamentari in tutto il mondo si è concentrata sui prodotti dell’AI generativa, poiché esperti hanno sollevato l’allarme riguardo alla considerevole quantità di dati personali consumati da questa tecnologia, e ai suoi possibili risultati dannosi, che possono spaziare dalla disinformazione a commenti sessisti e razzisti. Eppure sembra che la matassa sia molto più complicata.

Già a maggio, come ricorderemo tutti, la FTC aveva lanciato un avvertimento al settore, focalizzandosi sulla valutazione di come le aziende possano utilizzare la tecnologia AI, inclusi i nuovi strumenti di AI generativa, e su come questi utilizzi possano influire in modo significativo sui consumatori.

Informazioni e sicurezza

Nella lettera inviata, l’autorità regolamentare statunitense ha richiesto a OpenAI di condividere informazioni interne riguardanti la gestione delle informazioni degli utenti e le misure adottate dall’azienda per affrontare il rischio che il suo modello produca dichiarazioni “false, fuorvianti o denigratorie”.

Nonostante la FTC abbia rifiutato di commentare ufficialmente la lettera, il CEO di OpenAI, Sam Altman, ha espresso delusione riguardo alla fuga di notizie riguardante la richiesta, sottolineando l’importanza di instaurare fiducia nel processo investigativo. Ha garantito la volontà dell’azienda di collaborare con la FTC, sottolineando l’impegno di OpenAI per una tecnologia sicura e orientata a favore dei consumatori, e per la conformità alle leggi vigenti.

La presidente della FTC, Lina Khan, ha testimoniato dinanzi alla commissione giudiziaria della Camera, affrontando critiche rigide da parte di alcuni legislatori repubblicani per la sua posizione rigida riguardo all’applicazione delle normative. Pur evitando di commentare direttamente sull’indagine, Khan ha condiviso le preoccupazioni generali dell’autorità riguardanti ChatGPT e altri servizi di intelligenza artificiale che si basano su enormi quantità di dati, senza adeguati controlli sulla natura di tali dati, dando luogo a potenziali frodi e inganni.
Regolamentazione e AI

Esperti del settore sono preoccupati per la vasta quantità di dati utilizzati dai modelli linguistici di ChatGPT. Ad esempio, solo due mesi dopo il lancio, OpenAI contava oltre 100 milioni di utenti attivi mensili. Inoltre, il motore di ricerca Bing di Microsoft, basato sulla tecnologia OpenAI, è stato utilizzato da oltre un milione di persone in 169 paesi durante le prime due settimane dal suo lancio a gennaio.

ChatGPT4 e futuro

L’indagine della FTC approfondirà aspetti tecnici riguardanti la progettazione di ChatGPT, compresi gli sforzi dell’azienda per correggere eventuali errori nel sistema e la supervisione dei recensori umani, i quali hanno un impatto diretto sulla qualità dell’esperienza utente. Saranno analizzate anche le segnalazioni dei consumatori e gli sforzi compiuti dall’azienda per valutare quanto i consumatori comprendano l’accuratezza e l’affidabilità del chatbot.

Nonostante le ammissioni di Altman riguardo alla fallibilità di ChatGPT, egli ha enfatizzato la trasparenza di OpenAI riguardo ai limiti della tecnologia, evidenziando l’approccio responsabile dell’azienda che non è focalizzato solo sui profitti a breve termine. Ha sottolineato che il chatbot è stato costruito sulla base di anni di ricerca sulla sicurezza, con l’obiettivo di proteggere la privacy degli utenti e comprendere il mondo nel suo insieme, senza identificare specificamente gli individui.