Imagen de www.shopcatalog.com, tomada de: https://www.flickr.com/photos/bookcatalog/27162728588 

CLEPTOCRACIAS DIGITALES: EL DESAFÍO DE LOS DATOS PSICOGRÁFICOS Y EL SISTEMA UNIVERSAL DE PROTECCIÓN DE DERECHOS HUMANOS

Por
Catalina Lotero Valencia 
(Estudiante de séptimo semestre de Derecho en la Universidad de Antioquia)


Se dice a menudo, con ocasión del cambio de siglo, que vivimos en una nueva “economía de la información”, que la información es poder, y que la llave para el éxito de cualquier Estado en la competencia global consiste en estar dentro del “umbral informático”, pues esto implica una serie de ventajas en el ámbito político, jurídico, económico y cultural. 

No obstante, en el escenario internacional, el éxito informático estatal se ha compartido ―y hasta cedido― en virtud de la proliferación de algunas corporaciones tecnológicas que, a partir de la apropiación que han hecho del estatus de “autoridades algorítmicas”[1], han incidido en la manifestación de nuevas formas de poder, más allá de aquél que han desempeñado los Estados como sujetos originarios del Derecho Internacional. 

Es así como a mediados de marzo de 2018, una cámara oculta de Channel 4 reveló cómo algunas compañías informáticas, en este caso Cambridge Analytica y Facebook Inc., favorecían el uso de datos personales de millones de usuarios de las redes sociales para manipular psicológicamente a los votantes en las elecciones de Estados Unidos en el 2016, donde quedó electo Donald Trump; y la campaña “Leave E.U”, sobre la salida de Reino Unido de la Unión Europea ―más conocida como Brexit―[2], con la finalidad de diseñar campañas electorales a partir de los datos psicográficos que habían obtenido de los usuarios.  

La recolección de dichos datos psicográficos se le atribuye a Aleksandr Kogan, quien a manera de proyecto personal, desarrolló en 2013 una prueba de personalidad que fue acogida como aplicación de Facebook y que fue completada aproximadamente por 265.000 usuarios[3]. Estos habilitaban a la app para recaudar información personal y de su “red de amigos”, pero sin el consentimiento de los últimos, pues dicha red no aceptaba explícitamente los términos legales de la aplicación, por lo que se llegó a estimar que Kogan contaba con los perfiles de 87.000.000 millones de usuarios[4] que, directa o indirectamente, interactuaron con la prueba de personalidad denominada “thisisyourdigitallife”. De ese modo, Kogan obtuvo las actualizaciones de estado, los “me gusta” y hasta los mensajes privados de más de un 15% de la población estadounidense, los cuales fueron vendidos a Alexander Nix, el entonces director ejecutivo de Cambridge Analytica[5]

Dicha corporación, dirigida por Nix, fue una empresa que usaba el análisis de datos para desarrollar campañas de marcas o de políticos, con el objetivo de “cambiar el comportamiento de la audiencia”[6], según indicaba su sitio web, por medio del “microtargeting conductual”[7]. Bajo esa lógica, se valían de la psicografía como una herramienta utilizada en el marketing, cuya característica esencial es revelar los gustos que poseen los consumidores y, así, construían perfiles con base en datos demográficos/geográficos ―como la edad, la religión, la etnia, el nivel de educación, la nacionalidad, el estado socioeconómico, el domicilio, entre otros― y datos psicológicos/actitudinales ―como la personalidad, las preferencias de consumo, las opiniones, entre otros―. 

Fue así como el acceso que tuvo Cambridge Analytica a cantidades masivas de información sobre los usuarios de Facebook permitió entrever que las grandes plataformas digitales estaban realizando usos fraudulentos de los “sistemas automatizados de decisión” que, valiéndose del “big data”[8], lograban identificar cuál debía ser el contenido, el tema y hasta el tono de un mensaje para cambiar la forma de pensar de los votantes. Sin embargo, la corporación no solo enviaba publicidad personalizada a los usuarios de Facebook, sino que también se encargaba de crear fake news que luego replicaba en otras redes sociales, blogs y demás medios de comunicación. Lo anterior conllevó que el caso creciera más allá del mundo digital y de las fronteras estadounidenses y británicas, pues este proceso tuvo potenciales implicaciones en Argentina, México, Colombia, Brasil, Nigeria, India, donde la compañía también prestó sus servicios. 

Lo que se observa hasta acá es que nuestros datos psicográficos y, por ende, personales, han sido utilizados para dar desarrollo a la creación de una serie de algoritmos que se encuentran insertos en dinámicas político/comerciales reguladas por una serie de obligaciones contractuales y de protección a la propiedad intelectual que las mantienen, en general, por fuera del radar del sistema universal de los derechos humanos y de los diferentes organismos que los protegen y promueven. En consecuencia, cabe preguntarse: ¿cuáles son las herramientas de las que disponemos para protegernos de la capitalización de nuestros datos personales?, ¿cómo evitar la “depreciación axiológica” de los derechos humanos en la nueva era digital?, ¿de qué manera responsabilizar a las empresas multinacionales de la vulneración de los derechos humanos? 

Mientras las grandes corporaciones digitales continúan erigiéndose como sistemas de gobierno que ejercen una nueva forma de poder ―esto es, como autoridades algorítmicas―, centradas en el auto enriquecimiento de sus dirigentes ―pues se ha llegado a afirmar que los datos cibernéticos se han convertido en el activo más valioso del mundo, inclusive por encima del petróleo―, se echa de menos una respuesta acertada que atienda a los nuevos problemas que se suscitan en torno a la protección de nuestro “otro yo digital”, problemas que han puesto en vilo, por completo, a la concepción clásica de los derechos humanos, esto es, “[…] como garantías fundamentales y estándares legales de protección de los individuos contra el poder y, más específicamente, contra el abuso del poder”[9]

Para muchos, la Declaración Universal de los Derechos Humanos aprobada en 1948[10], representa el núcleo fundamental del surgimiento del Derecho Internacional de los Derechos Humanos ―DIDH―, el cual, en el contexto de la globalización económica, ha supuesto un desafío a la concepción “estatocentrista” a la que por tanto tiempo se había sometido el derecho internacional, ya que a partir de la consideración de que los actores no estatales, como las empresas multinacionales ―en adelante, EMN―, también deberían ser titulares de una serie de derechos y obligaciones de carácter internacional y, por lo tanto, sujetos de derecho internacional con una capacidad relativa, en el presente caso resulta pertinente determinar cuál es el marco jurídico existente para regular la relación “EMN-derechos humanos”. 

Cabe anotar que debatir acerca de la subjetividad jurídica de las EMN en el ámbito internacional es un caso difícil puesto que, “[…] mientras que en el ámbito del derecho internacional público existe claridad sobre los sujetos de derecho, en el ámbito del DIDH no ocurre lo mismo dada su especial naturaleza”[11] pues, tradicionalmente, se ha considerado al Estado como el único responsable de respetar, garantizar y asegurar el disfrute de los derechos humanos de las personas bajo su jurisdicción y, bajo esa lógica, es que se ha determinado como posible respuesta a la vulneración de los derechos humanos por parte de las EMN, el hecho de que ha de ser el Estado receptor de una corporación multinacional el que decida en torno a la responsabilidad social de dichas empresas. Dado que las EMN no poseen una personalidad jurídica diferente de las entidades que la integran, su responsabilidad corporativa se diluye y, por ende, el marco regulador es el derecho nacional, y la jurisdicción competente, sus tribunales. 

Por tal motivo, más que imponer límites técnicos a estas autoridades algorítmicas[12], se trata de imponer límites externos y axiológicos a su autonomía, por lo que, en este punto, la aplicación del concepto de dignidad humana como valor y derecho intrínseco que inspiró la Declaración Universal de Derechos Humanos resulta fundamental a la hora de armonizar el derecho a la información y el derecho a la intimidad de todos los usuarios de las redes sociales. 

De esta manera, pese a que el art. 12 de la Declaración Universal de Derechos Humanos alude a que nadie será objeto de injerencias arbitrarias en su vida privada ―derecho humano a la luz del cual se puede interponer ese límite externo o axiológico al que previamente se aludió―, se considera que el desafío central que impone los nuevos tiempos al Sistema Universal de Protección de Derechos Humanos consiste en positivizar la protección de los datos personales como un derecho humano, puesto que se trata de reconocer que los seres humanos como individuos y, por ende, sujetos del Derecho Internacional, tenemos un valor no-instrumental y, por lo mismo, hemos de tener derecho a no ser objeto de decisiones basadas únicamente en el tratamiento de “sistemas automatizados de decisión”. 

Así, a pesar de los logros alcanzados por medio de la Declaración Universal de los Derechos Humanos, no existen aún lineamientos claros que permitan que las EMN se responsabilicen directamente cuando con sus acciones vulneran derechos universales, inalienables, interdependientes e inherentes a toda persona, pues estas se han beneficiado de la atomización normativa y de la estructura descentralizada del régimen internacional sobre la protección de los derechos humanos, porque en el ámbito institucional “[…] los órganos y los procedimientos que integran los mecanismos de garantía de los derechos humanos operan únicamente en el marco de tratados internacionales que los han creado”[13]

En otras palabras, la estructura organizacional de humanización del derecho internacional no ha facilitado las acciones de prevención dirigidas al interés protegido del que hemos tratado, porque son tantas las instituciones ―verbigracia: el Alto Comisionado de las Naciones Unidas para los Derechos Humanos, el Consejo de Derechos Humanos, el Comité de Derechos Humanos, la Comisión Interamericana de Derechos Humanos, la Comisión Africana de Derechos Humanos y de los Pueblos, el Consejo de Europa, el Tribunal Europeo de Derechos Humanos, entre otros― y procedimientos especiales que promueven y protegen los derechos humanos ―verbigracia, el “Examen Periódico Universal”―, que se hace necesario repensar los mecanismos de protección actuales hacia unos que, de forma unificadora e imperativa, respondan a la arquitectura institucional competente para conocer de tales casos, pero teniendo presente que el discurso de los derechos humanos debe trascender la única frontera que ha conocido, esto es, la esfera de lo público y lo estatal. 

Lo anterior conlleva que, en la práctica, se contemple como derecho subjetivo la potencial facultad que tiene un individuo de decidir qué información personal está disponible online, así como el derecho a retirar del sistema las imágenes y datos personales que circulan por las redes sociales, pues la compensación a las facilidades que nos ofrecen estos servicios digitales no ha de implicar un uso fraudulento a partir de la externalización de nuestra intimidad. 

En este contexto, los nuevos desafíos al Sistema Universal de Protección de los Derechos Humanos tratan de poner en perspectiva la frágil relación entre el derecho a la intimidad y el derecho a la información, en un período dominado por un panóptico descentralizado, voluntario y consensual, ante la inminente delegación que hemos hecho de nuestra memoria. 

[1] Entendida como una autoridad: i) propiamente dicha, pues se trata de la capacidad de determinar mediante algoritmos, el comportamiento de un individuo o de una entidad; ii) transnacional, pues se ejerce, en la mayoría de los casos, en el marco de interacciones internacionales, que involucran sujetos ubicados en varios Estados; iii) ejercida ya sea por actores públicos o privados; y, iv) con potencial riesgo de afectación a los derechos humanos, pues puede sobrepasar la esfera de lo indecidible de las personas. [URUEÑA, René. Autoridad algorítmica: ¿cómo empezar a pensar la protección de los derechos humanos en la era del “big data”? En: Latin American Law Review, 2019. N° 2. pp. 99-124. Disponible en: https://revistas.uniandes.edu.co/doi/full/10.29263/lar02.2019.05
[2] CHANNEL 4 NEWS. (Direct.). Cambridge Analytica descubierto: filmación secreta revela trucos electorales. [Programa televisivo]. Channel 4 News. 19, marzo, 2018. Disponible en: https://www.youtube.com/watch?v=mpbeOCKZFfQ
[3] REDACCIÓN BBC MUNDO. 5 claves para entender el escándalo de Cambridge Analytica que hizo que Facebook perdiera US$ 37.000 millones en un día. En: BBC. 21, marzo, 2018. Disponible en: https://www.bbc.com/mundo/noticias-43472797
[4] REDACCIÓN BBC NEWS. Cambridge Analytica: la multa récord que deberá pagar Facebook por la forma en que manejó los datos de 87 millones de usuarios. En: BBC. 24, julio, 2019. Disponible en: https://www.bbc.com/mundo/noticias-49093124
[5] REDACCIÓN BBC MUNDO. 5 claves para entender el escándalo de Cambridge Analytica que hizo que Facebook perdiera US$ 37.000 millones en un día. Op. cit. 
[6] Ibid. 
[7] Entendido como el uso de los datos de los consumidores con la finalidad de identificar sus intereses y así poder recomendarles productos que puedan desear; en otras palabras, es la personalización del contenido que recibe un consumidor. 
[8] Definido como información: i) de altísimo volumen, ii) recopilada casi que en tiempo real, iii) diversa en su variedad ―pues ofrece datos estructurados o desestructurados―, iv) exhaustiva ―pues recoge datos de grandes sectores poblacionales―, v) de alta definición ―pues independientemente de la cantidad de datos, mantiene el rigor de la información individual―, y vi) relacional ―en la medida que permite realizar comparaciones―. [URUEÑA, René. Op. cit.] 
[9] GINER, Agnes. Las empresas transnacionales y los derechos humanos. En: Lan harremanak: Revista de relaciones laborales. 2008-II. N°. 19. pp. 67-88. 
[10] ORGANIZACIÓN DE LAS NACIONES UNIDAS. ASAMBLEA GENERAL. Resolución 217A (III) (10, diciembre, 1948). Por la cual se adopta la Declaración Universal de los Derechos Humanos. París: 1948. 
[11] TANGARIFE PEDRAZA, Mónica Andrea. De la responsabilidad de la empresa y los derechos humanos. En: Internacional Law: Revista Colombiana de Derecho Internacional. Enero-junio, 2008, N°. 12. pp. 145-181. 
[12] Verbigracia, la imposición de una multa de US$5.000 millones, por parte de la Comisión Federal de Comercio de Estados Unidos (FTC, por sus siglas en inglés) a Facebook Inc., como sanción por las malas prácticas en el manejo de la seguridad de los datos de los usuarios. 
[13] CASANOVAS, Oriol y RODRIGO, Ángel. Compendio de Derecho Internacional Público. 7 ed. Madrid: Editorial Tecnos, 2018. p. 456.

0 comentarios:

Publicar un comentario