OpenAI ha 20 giorni di tempo per comunicare le misure intraprese in risposta alle richieste del Garante, pena una sanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo.
La notizia è destinata a generare un precedente importante. In Italia ChatGPT dovrà sospendere la propria attività, almeno fino a quando non adeguerà la propria policy alla normativa concernente la tutela della privacy. A stabilirlo è stato il Garante per la privacy italiano, che ha imposto ad OpenAI - la società che gestisce la piattaforma di intelligenza artificiale relazionale ChatGPT - una limitazione provvisoria con effetto immediato.
leggi anche
INTERVISTA Paura di Chat-GPT? Luca Gambardella: «E perché? È una macchina che non ragiona»
Dati persi
La decisione è stata presa in seguito ad una perdita di dati subita da ChatGPT il 20 marzo, durante la quale sono state smarrite le informazioni relative alle conversazioni degli utenti e ai pagamenti degli abbonati. A seguito di quell’episodio il Garante italiano ha riscontrato l’assenza di una informativa} per la raccolta e la conservazione di dati personali, oltre alla mancanza di una base giuridica che giustifichi la raccolta e la conservazione di dati personali.
Chi sorveglia gli U13?
E poi c’è la questione relativa all’età. Nonostante il servizio sia destinato ai maggiori di 13 anni, non vi è alcun filtro per verificare l’età degli utenti. Ora OpenAI ha 20 giorni di tempo per comunicare le misure intraprese in risposta alle richieste del Garante, pena una sanzione fino a 20 milioni di euro o al 4% del fatturato globale annuo.
L’appello di Musk
La vicenda italiana giunge a poca distanza dalla richiesta di fermare l’evoluzione delle intelligenze artificiali avanzata da Elon Musk e da altri imprenditori e studiosi che hanno sottoscritto un appello rivolto alle alle aziende e ai governi. Nella lettera si chiede lo stop di sei mesi allo sviluppo di sistemi di intelligenza artificiale generativi come ChatGPT. Nel mirino è finito soprattutto Gpt-4, il modello di OperAI lanciato a metà marzo, il più evoluto attualmente accessibile al pubblico.
Il rischio secondo gli esperti, è che la corsa impressa dalle società allo sviluppo di sistemi di intelligenza artificiale, generi strumenti destinati ad andare fuori controllo. Ciò che più spaventa è che ChatGPT e gli altri chatbot dialogano direttamente con le persone, senza filtri, né principi etici. Gli effetti di tali modelli potrebbero essere imprevedibili con conseguenze devastanti.
© RIPRODUZIONE RISERVATA
Iscriviti alla newsletter