Europa da el primer paso para regular ChatGPT y otras herramientas de inteligencia artificial


El gobierno europeo no tiene del todo claro que ChatGPT y otras herramientas de inteligencia artificial cumplan con la legislación vigente, sobre todo en materia de protección de datos, y ha decidido dar el primer paso para crear unas normas comunes para este tipo de aplicaciones.

Esta semana, el Comité Europeo de Protección de Datos (CEPD), ha anunciado la creación de un grupo de trabajo que se encargará de evaluar los riesgos que plantean estas nuevas herramientas.

Es una decisión que se ha tomado a petición de la Agencia Española de Protección de Datos, que a principios de semana solicitó al organismo que evaluase las posibles violaciones a la privacidad por parte de ChatGPT.

España, en cualquier caso, no es el único país europeo preocupado por esta cuestión. Desde finales de marzo, el gobierno italiano ha bloqueado el acceso a ChatGPT en el país. Asegura que viola algunas de las normas de protección de datos presentes en Italia. ChatGPT, por ejemplo, no cuenta con un filtro que evite el acceso de menores y no avisa a los usuarios de que durante el uso la herramienta recopila datos personales.

Varios expertos y académicos, de hecho, han pedido recientemente a las empresas tecnológicas que desarrollan estas herramientas (fundamentalmente OpenAI y Google), que paren el desarrollo de nuevos modelos de lenguaje y herramientas de inteligencia artificial generativas hasta que se pueda acordar un marco ético y legal que proteja a los usuarios.

Esgrimen varias razones para hacerlo. Estos modelos de lenguaje han sido entrenados, por ejemplo, con material protegido por derechos de autor o sin el permiso de los usuarios. Hay también dudas sobre el efecto que podrían tener en el mercado laboral o la difusión de noticas falsas y propaganda.


No hay comentarios:

Publicar un comentario

Nota: solo los miembros de este blog pueden publicar comentarios.