Italia bloquea temporalmente ChatGPT por problemas de privacidad

Italia bloqueará temporalmente el software de inteligencia artificial ChatGPT a raíz de una filtración de datos mientras investiga una posible violación de las estrictas normas de protección de datos de la Unión Europea, dijo el viernes el organismo de control de privacidad del gobierno.

La Autoridad de Protección de Datos de Italia dijo que estaba tomando medidas provisionales «hasta que ChatGPT respete la privacidad», incluida la limitación temporal de que la empresa procese los datos de los usuarios italianos.

OpenAI, con sede en EE. UU., que desarrolló el chatbot, dijo el viernes por la noche que deshabilitó ChatGPT para los usuarios italianos a pedido del gobierno. La compañía dijo que cree que sus prácticas cumplen con las leyes de privacidad europeas y espera que ChatGPT vuelva a estar disponible pronto.

Si bien algunas escuelas públicas y universidades de todo el mundo han bloqueado ChatGPT de sus redes locales por preocupaciones de plagio estudiantil, la acción de Italia es «la primera restricción a escala nacional de una plataforma de IA convencional por parte de una democracia», dijo Alp Toker, director del grupo de defensa. NetBlocks, que monitorea el acceso a Internet en todo el mundo.

La restricción afecta a la versión web de ChatGPT, popularmente utilizado como asistente de escritura, pero es poco probable que afecte a las aplicaciones de software de empresas que ya tienen licencias con OpenAI para utilizar la misma tecnología que impulsa el chatbot, como el motor de búsqueda Bing de Microsoft .

Los sistemas de inteligencia artificial que impulsan estos chatbots, conocidos como modelos de lenguaje extenso, pueden imitar los estilos de escritura humanos en función de la gran cantidad de libros digitales y escritos en línea que han ingerido.

El organismo de control italiano dijo que OpenAI debe informar dentro de 20 días qué medidas ha tomado para garantizar la privacidad de los datos de los usuarios o enfrentar una multa de hasta 20 millones de euros (casi $ 22 millones) o el 4% de los ingresos globales anuales.

La declaración de la agencia cita el Reglamento General de Protección de Datos de la UE y señala una violación de datos reciente que involucra las «conversaciones de los usuarios» de ChatGPT e información sobre los pagos de los suscriptores.

OpenAI anunció anteriormente que tenía que desconectar ChatGPT el 20 de marzo para corregir un error que permitía a algunas personas ver los títulos o líneas de asunto del historial de chat de otros usuarios.

“Nuestra investigación también encontró que el 1.2% de los usuarios de ChatGPT Plus podrían haber revelado datos personales a otro usuario”, dijo la compañía. “Creemos que la cantidad de usuarios cuyos datos se revelaron a otra persona es extremadamente baja y nos hemos puesto en contacto con aquellos que podrían verse afectados”.

El organismo de control de la privacidad de Italia, conocido como Garante, también cuestionó si OpenAI tenía una justificación legal para su «recopilación y procesamiento masivos de datos personales» utilizados para entrenar los algoritmos de la plataforma. Y dijo que ChatGPT a veces puede generar y almacenar información falsa sobre individuos.

Finalmente, señaló que no hay un sistema para verificar la edad de los usuarios, lo que expone a los niños a respuestas “absolutamente inapropiadas para su edad y conocimiento”.

OpenAI dijo en respuesta que funciona «para reducir los datos personales en el entrenamiento de nuestros sistemas de IA como ChatGPT porque queremos que nuestra IA aprenda sobre el mundo, no sobre individuos privados».

“También creemos que la regulación de la IA es necesaria, por lo que esperamos trabajar en estrecha colaboración con Garante y educarlos sobre cómo se construyen y usan nuestros sistemas”, dijo la compañía.

La medida del organismo de control italiano se produce a medida que aumentan las preocupaciones sobre el auge de la inteligencia artificial. Un grupo de científicos y líderes de la industria tecnológica publicaron una carta el miércoles pidiendo a empresas como OpenAI que detuvieran el desarrollo de modelos de IA más potentes hasta el otoño para dar tiempo a la sociedad a sopesar los riesgos.

El presidente de la agencia de vigilancia de la privacidad de Italia dijo a la televisión estatal italiana el viernes por la noche que él fue uno de los que firmaron la apelación. Pasquale Stanzione dijo que lo hizo porque «no está claro qué objetivos persiguen» en última instancia los que desarrollan la IA.

Si la IA debería “incidir” en la “autodeterminación” de una persona, entonces “esto es muy peligroso”, dijo Stanzione. También describió la ausencia de filtros para usuarios menores de 13 años como «bastante grave».

El CEO de OpenAI, con sede en San Francisco, Sam Altman, anunció esta semana que se embarcará en un viaje por seis continentes en mayo para hablar sobre la tecnología con usuarios y desarrolladores. Eso incluye una parada prevista para Bruselas, donde los legisladores de la Unión Europea han estado negociando nuevas reglas radicales para limitar las herramientas de inteligencia artificial de alto riesgo, así como visitas a Madrid, Múnich, Londres y París.

El grupo de consumidores europeo BEUC pidió el jueves a las autoridades de la UE y a las 27 naciones miembros del bloque que investiguen ChatGPT y chatbots de IA similares. BEUC dijo que podrían pasar años antes de que la legislación de IA de la UE entre en vigencia, por lo que las autoridades deben actuar más rápido para proteger a los consumidores de posibles riesgos.

“En solo unos meses, hemos visto una aceptación masiva de ChatGPT, y esto es solo el comienzo”, dijo la directora general adjunta, Ursula Pachl.

Esperar la Ley de IA de la UE «no es suficiente, ya que existen serias preocupaciones sobre cómo ChatGPT y chatbots similares podrían engañar y manipular a las personas».

Related posts

Reportan IPhone 15 Pro posee problemas de sobrecalentamiento

Google Celebra su 25º Aniversario como el buscador más utilizado del mundo

ChatGPT ahora puede Ver, Escuchar y Hablar