Los desafíos que supone proteger los datos personales en tiempos de la IA

Los riesgos asociados al tratamiento de datos personales han aumentado dado el auge de nuevas tecnologías como la inteligencia artificial (IA). Ahora, el desafío del proyecto de ley que hoy se encuentra en tercer trámite constitucional en el Senado está en ser lo suficientemente flexible para abordar futuras innovaciones tecnológicas.
Seguir leyendo

A pesar de que han pasado seis años desde la presentación del proyecto de ley que busca perfeccionar las normas relativas al tratamiento de los datos personales, el conocimiento de los derechos de los titulares en esta materia sigue siendo bastante bajo en la población chilena.

Así lo reveló en 2020 un estudio del Consejo para la Transparencia donde se indicaba que solo un 20% de los encuestados conocía la existencia de una normativa sobre protección de datos personales y solo el 31% aseguró que leía las condiciones de privacidad al usar redes sociales o servicios de internet. Según los expertos, tres años después el panorama sigue siendo similar.

Por eso es clave ampliar la discusión y difusión de estos temas. “La seguridad de los datos, y consecuentemente la privacidad de los mismos, es necesaria, no solo por estos derechos que tienen los consumidores o titulares de datos, sino porque son un activo estratégico para fomentar la confianza con los clientes”, asegura Ruby Soteras, socia de Deloitte Legal.

Y es que en un contexto marcado por la masificación del uso de las tecnologías de información, a través de redes sociales o chatbots, el análisis de los aspectos abordados por el proyecto que hoy se encuentra en tercer trámite constitucional en el Senado resulta crucial.

En ese sentido, Nicolás Corrado, socio líder de Cyber Risk en Deloitte, subraya que tanto el proyecto de protección de datos personales como el proyecto que establece una Ley Marco sobre Ciberseguridad e Infraestructura Crítica de la Información, contemplan todas las tecnologías emergentes: “No solo a la IA generativa actual. Ambos tienen la habilidad de ser lo suficientemente flexibles para abordar futuras innovaciones tecnológicas, como la computación cuántica u otros, asegurando un marco legal resiliente y actualizado frente al rápido avance tecnológico”.

La importancia de los datos

El debate sobre la vulnerabilidad de los datos y el uso de herramientas como Chat GPT es cada vez más complejo. Hace poco, expertos de la compañía de ciberseguridad Secure&IT advirtieron sobre las posibles consecuencias de introducir información y datos personales en las interacciones con este tipo de asistentes, pues pueden registrar dichos datos para continuar entrenando la IA y, quizás, en algún punto perder el control de sobre la información personal.

Ante casos como este, Fabiana Ramírez, investigadora de Seguridad Informática de Eset Latinoamérica, explica que los algoritmos se alimentan de datos que los mismos usuarios le proveen. De esta manera, coincide en que uno de los mayores riesgos es que actualmente no se conoce qué datos privados maneja la IA, por lo que los modelos de seguridad están más enfocados en una respuesta ante un posible robo de información, más que en la prevención.

En Chile, el proyecto de Ley de Datos Personales introduce nuevos derechos vinculados a la sociedad digital, como el derecho a la portabilidad de los datos personales y el derecho de oposición a valoraciones personales automatizadas (conocido también como perfilamientos). Y a eso se suma la creación de la Agencia Nacional de Protección de Datos, que tiene como objetivo salvaguardar la seguridad pública en el ciberespacio para preservar los activos de la sociedad digital.

Implementación

“Acá la clave será que la interoperabilidad, coherencia y coordinación entre organismos públicos se logre eficientemente”, sostiene Soteras de Deloitte, sobre los desafíos que enfrentará la implementación de la normativa.

Para Macarena Gatica, socia de Alessandri Abogados y experta en protección de datos personales y ciberseguridad, el desafío está en establecer una regulación “que no sea un desincentivo a la innovación y desarrollo de la IA”. Por otra parte, dice que es clave evitar sus efectos negativos, sobre todo en consideración a la vulneración de derechos fundamentales, y también destaca que en el caso específico de la inteligencia artificial, los principales riesgos están asociados a un mal uso de los datos personales que almacena el algoritmo y la afectación de derechos fundamentales, derechos de propiedad intelectual o derechos de los consumidores.

En esa misma línea, Ruby Soteras destaca el artículo 15 del proyecto que establece la obligación para el responsable del tratamiento de datos de realizar una evaluación de impacto en la protección de los datos, cuando sea probable que algún tipo de tratamiento -por su naturaleza, alcance, contexto o tecnología utilizada- pueda producir un riesgo alto para los derechos de sus titulares. “Esta redacción amplia, y un enfoque basado en riesgos, permitirá avanzar en lograr un mejor equilibrio entre la regulación y la innovación”, concluye.

Share This