top of page
Buscar

EL IMPACTO DE LA INTELIGENCIA ARTIFICIAL COMO AMENAZA A LA PRIVACIDAD DE DATOS PERSONALES

  • Foto del escritor: Despacho Dip. Martin Yeza
    Despacho Dip. Martin Yeza
  • 23 jun
  • 4 Min. de lectura

ree

Por Liliana Molina Soljan

Doctorada en Derecho -UCA

Master en Gobernanza Ética de la IA UPSA Salamanca

Post Doctoranda en Derecho universidad de Bologna Alma Mater


Hoy, en pleno siglo XXI, estamos inmersos en una de las revoluciones tecnológicas más profundas: la era de la inteligencia artificial (IA). Esta revolución no solo está transformando nuestra sociedad, sino que también nos obliga a reconsiderar algunos de nuestros valores más fundamentales, como el derecho a la privacidad, consagrado no solo en nuestra Constitución Nacional (artículo 19) y en tratados internacionales de derechos humanos, sino también en los principios que valoramos como seres humanos.


En plena era de la algoritmocracia, la IA procesa un gran volumen de datos a una velocidad exponencial, lo que nos lleva a plantearnos retos y estrategias para proteger los entornos digitales. Es el momento de reflexionar sobre la necesidad de un marco legal actualizado y robusto que proteja este derecho fundamental en un mundo cada vez más impulsado por la IA. Actualmente, los algoritmos inteligentes recopilan, analizan y utilizan nuestros datos personales a una escala inimaginable. Esta recopilación masiva, muchas veces realizada sin nuestro pleno consentimiento o comprensión, pone en riesgo nuestra privacidad de maneras que a menudo pasan desapercibidas.


La Ley de Protección de Datos Personales N.º 25.326, sancionada en el año 2000, representó un avance significativo en la protección de la privacidad en Argentina en ese momento. Hoy ya está desactualizada: necesitamos construir un marco que sea justo, eficaz y refleje nuestros valores, que garantice la transparencia, la explicabilidad y la no discriminación en los algoritmos. Y, por supuesto, es esencial establecer mecanismos de control y auditoría que supervisen el uso de los datos personales y sancionen las prácticas abusivas.


El consentimiento en la era digital también necesita ser repensado. "Debemos avanzar hacia un modelo que no solo sea legalmente válido, sino también comprensible y significativo para los usuarios". Esto podría implicar la creación de interfaces más intuitivas, donde los usuarios puedan ver claramente qué datos se están recopilando y para qué se están utilizando. También podría implicar la introducción de mecanismos de "consentimiento granular", donde los usuarios puedan elegir qué tipos de datos compartir y cuáles no.


La IA no es neutral; lleva consigo sesgos algorítmicos que reflejan los mismos sesgos del diseñador: prejuicios sociales ya estereotipados de antemano. Los responsables de la imparcialidad son el machine learning y el deep learning, que representan un grave problema: grandes generadores de puntos ciegos que resultan en recortes falsos.


Las decisiones automatizadas ocasionan, muchas veces, graves violaciones a los derechos humanos. De allí la necesidad de contar con un sistema respetuoso de datos sensibles como la raza, la religión, las opiniones políticas y la orientación sexual. Un tratamiento no auditado y fuera de las prescripciones legales podría originar una situación discriminatoria, colocando al ciudadano en determinada “categoría” a través de un perfilamiento inadecuado, con las consecuencias dañinas que ello conlleva.


Legislaciones como el Reglamento General de Protección de Datos en Europa o, en Latinoamérica, la reciente ley de Brasil son marcos regulatorios que pueden ser tomados como referencia, ya que están a la vanguardia.


En este nuevo ecosistema, no solo es necesario el tratamiento seguro de los datos personales, sino también el cumplimiento estricto de los principios de legalidad, consentimiento, finalidad, proporcionalidad, calidad, seguridad y nivel de protección adecuado.**


Debe existir la libertad de decidir y controlar la propia información respecto a terceros, como la posibilidad de conocer su trazabilidad: esto significa saber cómo se ha llegado a determinado resultado y eliminar las cajas negras. Apostar al principio de transparencia de la IA y al consecuente derecho a impugnar decisiones desfavorables y dañinas.


La responsabilidad sobre el tratamiento debe ser proactiva, teniendo en cuenta el principio de "privacy by design", es decir, prevenir la pérdida de privacidad desde el inicio.


La transparencia y la explicabilidad de los algoritmos son cruciales para garantizar la justicia y la equidad en la era de la IA. Los desarrolladores y las empresas que utilizan estos algoritmos deben ser responsables de explicar cómo funcionan y de garantizar que no perpetúan desigualdades o discriminaciones. Esto podría implicar la creación de auditorías independientes que revisen los algoritmos y verifiquen su equidad, así como la implementación de estándares éticos que guíen su desarrollo. Asimismo, la evaluación de impacto es imperiosa en sistemas de protección robusta de datos personales, acompañada de una participación activa de un organismo de contralor oficial.


Finalmente, ningún marco legal o técnico será suficiente si no logramos educar y concientizar a la sociedad sobre la importancia de la privacidad en la era de la IA. Debemos crear una cultura de respeto por la privacidad, donde cada individuo sea consciente de su valor y esté capacitado para protegerla.


En última instancia, la privacidad en la era de la IA no es solo un desafío técnico o legal, sino una cuestión de justicia social. Debemos trabajar juntos para construir un futuro donde la tecnología sirva a la humanidad y no al revés. Concluyo con un llamado a la acción de inmediato convocando a la quíntuple hélice, que es el modelo teórico que promueve la colaboración entre cinco sectores de una sociedad para impulsar la innovación y el desarrollo sostenible: sistema educativo, sistema económico, entorno natural, público basado en los medios de comunicación y en la cultura, y sistema político. Está en nuestras manos diseñar un futuro seguro y respetuoso de los derechos humanos en plena era digital.



 
 
 

Comentarios


bottom of page