Bloquea Italia app de inteligencia artificial ChatGPT por seguridad
AFP
Roma, Italia.- Las autoridades italianas anunciaron el viernes el bloqueo del robot conversacional ChatGPT, acusado de no respetar la legislación sobre datos personales y de carecer de un sistema de verificación de la edad de los usuarios menores.
En un comunicado, la autoridad nacional de protección de datos dijo que la decisión tenía “efecto inmediato” y acusó al robot de conversación de no respetar las reglas europeas y de no verificar la edad de usuarios menores.
Esta decisión tendrá como consecuencia “la limitación provisional del tratamiento de los datos de usuarios italianos por OpenAI”, la sociedad estadounidense creadora de ChatGPT, agregó.
ChatGPT, lanzado en noviembre, fue rápidamente adoptado por usuarios impresionados por su capacidad para responder a preguntas difíciles, escribir sonetos e incluso pasar exámenes.
Preguntado por la AFP, un portavoz de OpenAI aseguró que el chat estaba “desactivado para los usuarios en Italia” para respetar la decisión de la autoridad de datos.
Sin embargo, defendió que la empresa está “preocupada por la protección de datos” y considera que respeta la reglamentación europea sobre la materia.
“Trabajamos activamente en reducir los datos personales en el entrenamiento de nuestra IA. Pensamos que una regulación de la IA es necesaria y esperamos trabajar en este sentido con la Autoridad”, dijo el portavoz.
– Amenaza de sanción económica –
La autoridad italiana subraya que ChatGPT “sufrió el 20 de marzo una pérdida de datos (data breach) sobre las conversaciones de los usuarios y las informaciones relativas al pago de los abonados al servicio de pago”.
Tras las primeras notificaciones del problema, OpenAI interrumpió brevemente el servicio y luego reconoció un error en una herramienta externa que afectó un 1,2% de los abonados y un nombre indefinido de los gratuitos.
El órgano de vigilancia reprocha “la falta de una nota informativa para los usuarios cuyos datos son recogidos por OpenAI, pero sobre todo la ausencia de una base jurídica que justifique la recogida y conservación en masa de los datos personales, con el fin de entrenar los algoritmos que hacen funcionar la plataforma”.
Además, mientras que el robot está destinado a personas mayores de 13 años, “la autoridad hace hincapié en que la ausencia de cualquier filtro para verificar la edad de los usuarios expone a los menores a respuestas absolutamente no conformes con su nivel de desarrollo”.
La autoridad pide a OpenAI que “comunique en un plazo de 20 días las medidas adoptadas” para remediar esta situación, “so pena de una sanción de hasta 20 millones de euros (21,75 millones de dólares) o hasta 4% del volumen de negocios mundial anual”.
Este anuncio se produce después de que la agencia de policía europea Europol advirtió el lunes que delincuentes estaban dispuestos a aprovechar la inteligencia artificial como el robot conversacional ChatGPT para cometer fraudes y otros delitos cibernéticos.
– Temores frente a la IA –
ChatGPT es financiado por el gigante informático Microsoft, que lo ha añadido a sus servicios y se presenta como un potencial competidor del motor de búsqueda de Google.
La agencia de protección de datos de Italia prohibió también a principios de febrero a la empresa de inteligencia artificial Replika el uso de datos personales de usuarios italianos porque ofrece chatear con avatares personalizados que hablan y escuchan.
Algunos usuarios se habían quejado de recibir mensajes e imágenes demasiado atrevidos, cercanos al acoso sexual.
El Reglamento Europeo de Protección de Datos (RGPD), que ha dispuesto miles de millones de dólares en multas para los gigantes tecnológicos, podría convertirse en el mayor enemigo en el viejo continente de las nuevas IA generadoras de contenido.
La Unión Europea está preparando un proyecto de ley para regular la inteligencia artificial, el cual podría estar listo a finales de 2023 o principios de 2024 y ser aplicado en pocos años.
La inteligencia artificial genera temores profundos y no sólo por el uso de datos personales.