OpenAI ofrecerá soluciones para resolver la prohibición de ChatGPT en Italia
Los expertos dijeron que era el primer caso de este tipo de una democracia que impone una prohibición a nivel nacional en una plataforma de inteligencia artificial convencional
La compañía detrás de ChatGPT propondrá medidas para resolver los problemas de privacidad de datos que provocaron una prohibición temporal en Italia del chatbot de inteligencia artificial, dijeron los reguladores el jueves.
La autoridad italiana de protección de datos, conocida como Garante, bloqueó la semana pasada el popular chatbot de OpenAI, con sede en San Francisco, y le ordenó detener temporalmente el procesamiento de la información personal de los usuarios italianos mientras investiga una posible violación de las normas de privacidad de datos de la Unión Europea.
Los expertos dijeron que era el primer caso de este tipo de una democracia que impone una prohibición a nivel nacional en una plataforma de inteligencia artificial convencional.
En una videollamada el miércoles por la noche entre los comisionados del organismo de control y los ejecutivos de OpenAI, incluido el director ejecutivo Sam Altman, la compañía prometió establecer medidas para abordar las preocupaciones. Esos remedios no han sido detallados.
El organismo de control italiano dijo que no quería obstaculizar el desarrollo de la IA, pero enfatizó a OpenAI la importancia de cumplir con las estrictas reglas de privacidad de las 27 naciones de la UE.
Los reguladores impusieron la prohibición después de que los mensajes y la información de pago de algunos usuarios fueran expuestos a otros. También cuestionaron si existe una base legal para que OpenAI recopile cantidades masivas de datos utilizados para entrenar los algoritmos de ChatGPT y expresaron su preocupación de que el sistema a veces podría generar información falsa sobre las personas.
La llamada tecnología de IA generativa como ChatGPT está “entrenada” en grandes cantidades de datos, incluidos libros digitales y escritos en línea, y es capaz de generar texto que imita los estilos de escritura humanos.
Estos sistemas han creado revuelo en el mundo tecnológico y más allá, pero también han despertado temores entre funcionarios, reguladores e incluso científicos informáticos y líderes de la industria tecnológica sobre posibles riesgos éticos y sociales.
Otros reguladores en Europa y en otros lugares han comenzado a prestar más atención después de la acción de Italia.
La Comisión de Protección de Datos de Irlanda dijo que está "haciendo un seguimiento con el regulador italiano para comprender la base de su acción y nos coordinaremos con todas las Autoridades de Protección de Datos de la UE en relación con este asunto".
El regulador de privacidad de datos de Francia, CNIL, dijo que está investigando después de recibir dos quejas sobre ChatGPT. El comisionado de privacidad de Canadá también abrió una investigación sobre OpenAI después de recibir una queja sobre la sospecha de "recopilación, uso y divulgación de información personal sin consentimiento".
En una publicación de blog esta semana, la Oficina del Comisionado de Información del Reino Unido advirtió que "las organizaciones que desarrollan o usan IA generativa deberían considerar sus obligaciones de protección de datos desde el principio" y diseñar sistemas con protección de datos como opción predeterminada.
“Esto no es opcional: si está procesando datos personales, es la ley”, dijo la oficina.
En una aparente respuesta a las preocupaciones, OpenAI publicó una publicación de blog el miércoles que describe su enfoque de la seguridad de la IA. La compañía dijo que trabaja para eliminar la información personal de los datos de entrenamiento cuando sea factible, afinar sus modelos para rechazar solicitudes de información personal de personas privadas y actúa sobre solicitudes para eliminar información personal de sus sistemas.