ChatGpt, “dati personali e minori a rischio”. Bloccata l'intelligenza artificiale in Italia
Stop con effetto immediato a ChatGpt: il Garante della Privacy blocca il modello di chatbot basato su intelligenza artificiale e apprendimento automatico sviluppato da OpenAI specializzato nella conversazione con un utente umano. Per il Garante, sono a rischio i dati personali e c’è assenza di sistemi in grado di verificare l’età dei minori. Fino a quando non saranno rispettate le norme in materia di privacy, la piattaforma non potrà essere utilizzata in Italia. Il Garante per la protezione dei dati personali ha disposto la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAi, la società statunitense che ha sviluppato e gestisce la piattaforma. L’Autorità ha contestualmente aperto un’istruttoria.
Intelligenza artificiale e la profezia disastrosa: come finirà il mondo
OpenAi, dal canto suo, ha 20 giorni di tempo per rispondere ai rilievi dell’Autorità in attuazione di quanto richiesto dal Garante, pena una sanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo. OpenAi non ha una sede nell’Unione europea, ma ha designato un rappresentante nello spazio economico europeo. ChatGPT, il più noto tra i software di intelligenza artificiale relazionale in grado di simulare ed elaborare le conversazioni umane, lo scorso 20 marzo aveva subito una perdita di dati (data breach) riguardanti le conversazioni degli utenti e le informazioni relative al pagamento degli abbonati al servizio a pagamento. Nel provvedimento di stop, il Garante “rileva la mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAi, ma soprattutto l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di ‘addestrare’ gli algoritmi sottesi al funzionamento della piattaforma”.
L'intelligenza artificiale spaventa tutti, parte la raccolta firme per lo stop
Come testimoniato anche dalle verifiche effettuate, le informazioni fornite da ChatGpt non sempre corrispondono al dato reale. È da qui che - secondo i rilievi del Garante - deriva un trattamento di dati personali inesatto. E ancora. Nonostante - secondo i termini pubblicati da OpenAi - il servizio sia rivolto ai maggiori di 13 anni, l’Autorità evidenzia “l’assenza di qualsivoglia filtro per la verifica dell’età degli utenti”, una situazione che “espone i minori a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza”. E per tutti questi motivi è arrivato lo stop.