Hablemos un poco de Big Data

Destacado

¿Qué es?

En base a lo planteado por Richards & King (2014), el Big Data o los Macrodatos, es la colección y conservación a larga escala de un conjunto de datos. De lo anterior resulta que la analítica de los macrodatos o el Big Data Analytics, es la predicción y el cruce de información a gran escala sobre un gran conjunto de datos.

Como es posible ver, el fenómeno del Big Data implica «gran escala de datos». Cantidad de información que nunca había sido procesada a tal magnitud, la cual, tanto para las compañías como para los gobiernos, han constituido una gran oportunidad para mejorar los procesos y los servicios que proveen.

De igual modo, la analítica del Big Data consiste en realizar predicciones “en movimiento”, considerando la fuente del dato y los usos secundarios de su conjunto, los cuales, en ocasiones, están en pleno desconocimiento de los titulares y procesadores de dichos datos. Esto, en oposición a las antiguas técnicas de analítica «congeladas«, las cuales permitían una  mejor trazabilidad del  dato, plenamente planificado e identificado.

A medida que aumenta el volumen, suben los riesgos

El acceso inédito a dicha cantidad también aumenta el detallado análisis (y eventual control) sobre el comportamiento de las personas físicas mediante la generación de  metadatos, lo cual crece exponencialmente año tras año. Por lo tanto, la implementación de su analítica resultará cada día más rentable para los productos que derivan de ésta, cuyo valor está constantemente en ascenso, pero a riesgo de los derechos y libertades de las personas.

Este movimiento de los datos que va en aumento (desde hace unos considerables años) está permitiendo la entrada al mercado de diversos agentes encargados del cruce de información.

Un ejemplo de ello son los “data brokers”. Estas compañías obtienen información de las personas a través de los registros del gobierno, los historiales de compras, los contenidos generados en las redes sociales, entre otros. De esa forma, aquellos recolectores compilan la información y la utilizan para perfilar personas, productos que luego son ofrecidos a distintos interesados, especialmente a aquellos cuya actividad empresarial está enfocada al marketing. A raíz de ello, la comercialización del dato se ha profundizado aún más y es uno de los modelos de negocios más importantes en la digitalización de la economía.

¿Existen definiciones y posturas institucionales?

El Parlamento Europeo (2017) define al Big Data o a la analítica de los macrodatos como:

“El mecanismo de recopilación, análisis y acumulación constante de grandes cantidades de datos, incluidos los de carácter personal, procedentes de diferentes fuentes y que son objetos de un tratamiento automatizado, mediante algoritmos informáticos y avanzadas técnicas de tratamiento de datos, utilizando tanto datos almacenados como transmitidos en flujo continuo, con el fin de generar correlaciones, tendencias y patrones”.

Macroeconómicamente, establece ciertas características:

  • Su crecimiento significativo obedece a las soluciones que ofrece a los distintos agentes del mercado;
  • Genera valor añadido a diversas áreas de la sociedad; y
  • El ritmo de crecimiento en la Unión Europea se cifra en un 40% anual, velocidad siete veces mayor al de las tecnologías de la información.

A pesar de dichos beneficios, el informe advierte riesgos, mayoritariamente relacionados a la privacidad, entre los cuales destaca:

  • La difuminación de la distinción entre los datos de carácter personal-identificativos con los datos de carácter personal-identificables;
  • El análisis y toma de decisiones automatizadas sesgadas; y
  • La tendencia al monopolio del desarrollo y adquisición de mejores herramientas de analítica de macrodatos.

Por lo tanto, la revolución tecnológica resultante del surgimiento de las analíticas de Big Data, ha significado dinamizar aún más el fenómeno de la digitalización de la economía. Lo anterior, debido a que el análisis del comportamiento humano está adquiriendo mayor importancia con el desarrollo de productos derivados de la “Inteligencia Artificial” y a los cuales las multinacionales tecnológicas están implementando a gran magnitud “personalizando cada parte de cada interacción”. (Richards & King, 2014)

La privacidad de tu RUT

Destacado

Indíqueme su RUT”. Todos los ciudadanos, cotidianamente, nos hemos visto enfrentados a esta petición sutil, pero preocupante, ya sea ante una caja de algún establecimiento del retail o entidad financiera. Sin embargo, una vez que accedemos a dicha petición, no tomamos conciencia sobre los riesgos que implican para nuestra privacidad entregar nuestro RUT, un número de identidad cuya finalidad está siendo intensamente desvirtuada por el mercado.

El número de identidad es un código único que le es asignado a todo residente (temporal o definitivo, de corta o larga estancia) de un país y cuya utilidad primordial es la de individualizarlo frente al Estado y fiscalizarlo en el cumplimiento de sus obligaciones fiscales.

En lo que respecta a Chile y al ámbito de la privacidad, es primordial vincular la finalidad jurídica del RUT para detectar cómo su utilización indebida podría afectar a los derechos y libertades de las personas, especialmente si se les confiere como un bien mercantil a los data brokers.

El origen y la naturaleza jurídica del RUT

El RUT es una creación propia del Derecho Administrativo y es una serie numérica, única e irrepetible, asignada a cualquier residente en Chile. La denominación civil de dicha serie es la de “Rol Único Nacional” (R.U.N.), consignada en todo documento de identidad expedido por la autoridad (cédula o carnet).

En 1924, el legislador, mediante los Decretos Ley N°26 y N°102 (aún no disponibles en línea), creó el “Servicio de Identificación” (luego, “Servicio de Identificación y Pasaportes”), dependiente del Ministerio del Interior y, posteriormente, de la entonces “Dirección General de Investigaciones”, predecesora de la Policía de Investigaciones. Dentro de las funciones que se les entregó al servicio, fue la creación de un catastro penal, de residentes infractores, los cuales eran incorporados mediante un número de identidad de carácter único. Todo lo anterior, con la finalidad de colaborar y auxiliar a la policía en la persecución de la delincuencia (Decreto N°51 de 1943 del Ministerio del Interior).

Cabe mencionar, sin embargo, que en 1924 las necesidades del Estado chileno estaban fuertemente arraigadas en un clima de confrontación y tensión política. Con la dictación de estos dos cuerpos legislativos, con fecha de 07 de octubre, el país estaba siendo gobernado interinamente por un Comité Militar, luego del “Ruido de Sables” sucedido en septiembre, que provocó el exilio del Presidente Alessandri Palma. Por ende, es dable concluir que, producto del desorden institucional, el número de identidad adquirió una finalidad especialmente policíaca-registral.

La primera evolución: desde la necesidad policíaca a la cívica

En 1943, bajo el segundo gobierno radical a cargo del Presidente Juan Antonio Ríos, el Ejecutivo, mediante el Decreto Supremo N°51 del Ministerio del Interior, fusionó los Servicios de Identificación y de Registro Civil (el actual “Servicio de Registro Civil e Identificación” o SRCeI), y corrigió la finalidad normativa del número de identidad, asociándolo a una de carácter puramente registral, con objetivos adicionales al penal. No en vano, en dicho decreto se señaló expresamente que la identificación había sobrepasado la finalidad criminal, adoptando otras más complejas para el Estado.

La mutación que se produjo en 1943, también fue una consecuencia del movimiento político y económico de la época (la industrialización de Chile y un rol proactivo del Estado en la marcha de la economía). Desde dicha perspectiva, se rescataban valores cívicos consecuentes con ese proyecto, otorgándole a la persona un rol más humano y responsable cívico frente al Estado.

Sin perjuicio de esta mutación jurídica, la finalidad del decreto también era la de alcanzar la uniformidad de una tarjeta en la cual constara, además del código numérico, nuevos instrumentos de verificación de la identidad de su portador, tales como la fotografía, la firma y otros datos anexos. Dicha tarjeta, es lo que se denomina como documento de identidad, conocido como “cédula” o “carnet”, el cual iba a ser entregado por el servicio fusionado a todo ciudadano.

Sin embargo, ¿desde qué momento el número del documento de identidad mutó hacia uno de usos mercantiles? Y, desde dicha base, ¿cómo afecta a la privacidad del titular, su mal utilización, desde la perspectiva de los derechos y libertades?

La creación del R.U.T. y su homologación al número de identidad

En 1969, el legislador creó el denominado “Rol Único Tributario” (abreviado como “R.U.T.”), mediante el Decreto con Fuerza de Ley N°3/1969 del Ministerio de Hacienda, con la finalidad de identificar a los contribuyentes con las mismas formas de asignación y verificación que realiza el Servicio de Registro Civil e Identificación para las personas físicas.

Dicho hito jurídico introdujo un quiebre importante en la finalidad del número de identidad, adquiriendo una de carácter económica-fiscal. El número de documento de identidad, entonces, pasó a ser asociado a un contribuyente, a cuyo cargo está el Servicio de Impuestos Internos, y que fue ampliado a las personas jurídicas.

Desde la eficacia de la recaudación tributaria, no cabe duda que se trató de una mejora significativa, puesto que se asoció a la “persona” con el “contribuyente”. Se fusionaron ambos conceptos. Sin embargo, desde la perspectiva de la privacidad, y particularmente de la protección de datos personales, hubo un retroceso, porque dicha modificación legal confundió al ciudadano-residente con el contribuyente, lo que abrió la puerta a la “mercantilización” del número de identidad.

Sin embargo, cabe señalar que para los efectos administrativos-registrales, el Servicio de Registro Civil e Identificación mantiene la asignación del número a las personas físicas, a pesar de la homologación anteriormente expuesta, y cuya denominación es la de “Rol Único Nacional” (“R.U.N.”).

La mercantilización del RUT y los efectos nocivos a la privacidad de las personas

Como se ha expuesto durante el desarrollo de esta columna, el número de documento de identidad mutó desde un código de vigilancia policíaca del Estado hacia uno de carácter fiscal, criterio reforzado por la legislación chilena vigente. Sin embargo, ¿por qué se pide con tanta frecuencia por entes privados?

La respuesta proviene de su naturaleza como dato personal y de la relevancia que tiene dicha información para el funcionamiento del mercado. Según los estándares del Reglamento General de Protección de Datos de 2016, un dato personal se define como “toda información sobre una persona física identificada o identificable” y es identificable toda persona física “cuya identidad pueda determinarse, directa o indirectamente, mediante un identificador” (De igual manera se refiere la Ley N°19.628 de Protección de la Vida Privada, de 1998).

Por ende, el “R.U.T.” o “R.U.N.” es un identificador de personas físicas. Esa es su naturaleza y cuya finalidad es la de garantizar el cumplimiento de las obligaciones fiscales y administrativas.

Además, está consignado en el documento de identidad y es un medio que tienen los agentes del Estado para verificar -junto con otros datos, tales como la fotografía o biométricos- la existencia de la persona. Esta explicación resulta algo tautológica, pero ello se produce por la naturaleza burocrática del RUT.

En Chile no existe una cultura de respeto sobre la privacidad del “RUT”. Se pide y se entrega a todo agente del mercado, el cual lo utiliza con una diversidad de fines particulares. Un ejemplo de ello es la entrega de dicho dato a «data brokers», lo cual es sumamente valorado por multinacionales o retails.

La urgencia de su protección: una oportunidad para el Estado

Pues bien, una vez clarificado lo que es el RUT, supone considerar las bases de legitimación que tienen las empresas para su tratamiento. Lamentablemente, en Chile la legislación es precaria, por lo que es pertinente acudir a estándares propuestos por la Unión Europea y su Reglamento.

Primero que todo, como estamos frente a la protección de derechos y libertades, se requiere la entrega de un consentimiento expreso por parte del ciudadano-residente (sin perjuicio de coexistir otras bases de legitimación). De ello, se deriva la obligación previa por parte del responsable de entregar toda la información necesaria y suficiente sobre las finalidades de su tratamiento.

De esa manera, surge el derecho de oposición por parte del titular, esencial para que el residente no pierda los beneficios (indebidamente) otorgados por la entrega del RUT, tales como las ofertas condicionadas. En Chile, esto es una práctica recurrente y que van desde la aplicación de un descuento en la compra de un producto o la devolución o cambio de productos (derechos reconocidos por la Ley del Consumidor).

Sin embargo, el ciudadano no asimila que ese dato personal es oro para las multinacionales por las características de la economía digital, la cual consiste en el intercambio de datos (en este caso de consumidores) y que son recogidos y perfilados por los data brokers.

Por ello, las asociaciones de consumidores deben dar cuenta que esta práctica es absolutamente ilegítima, pues se utilizan incentivos perversos con la finalidad de mercantilizar el RUT, para luego analizar y perfilar el comportamiento del consumidor. Esto último, conlleva un riesgo inherente para los derechos y libertades de las personas, puesto que el valor de dicho dato, está facilitado por el propio Estado, ente garante de su autenticidad.

Esa es la gravedad de su mal utilización y de la escasa voluntad legislativa para regularla. Lamentablemente, la práctica comercial se ha normalizado y se toleran por los consumidores. De ese modo, un código que facilitaba el registro penal de ciudadanos, pasó a ser un instrumento valioso para el mercado y los data brokers.

El cambio del RUT: hacia la creación de una nueva serie alfanumérica

Cabe indicar que el Estado se encuentra legitimado para tratar el RUT por razones de seguridad y de interés general (cuya finalidad jurídica y legal es precisamente esa). Sin embargo, dicha legitimación no es así para el retail o los agentes del mercado. Éstos deberían recoger un consentimiento libre, leal y expreso por parte del consumidor, sin que éste sea castigado por oponerse, lo que es considerado como un derecho elemental para una efectiva protección de sus datos de carácter personal.

Por lo tanto, se abre una oportunidad para el Estado de cambiar el RUT para, a su vez, abolir la mercantilización de dicho dato personal. Asimismo, para regular las ofertas condicionadas a su entrega.

Según mi criterio, la mal utilización del RUT es de tal gravedad que debiera replantearse su continuidad tal como la conocemos. No vislumbro una dificultad técnica en la generación de un nuevo código para los residentes y con fines estrictamente administrativos, porque la tecnología para generarlos existe y a un costo razonable.

El Estado debe subsanar su omisión inexcusable sobre la protección del RUT, lo que ha llevado a mercantilizar un dato personal, considerando que dicha información está siendo utilizada por las empresas para rastrear económicamente al ciudadano y en su más absoluto desconocimiento.

Eliminar el RUT y cambiarlo por otra serie numérica pareciera ser una solución radical, pero creo óptima para una protección efectiva a los derechos fundamentales de los ciudadanos, los cuales han estado desprovistos de ésta desde hace décadas.

Una nueva razón para proteger tus datos: las elecciones

El denominado escándalo de “Cambridge Analytica”, técnicamente, constituyó un cuestionable tratamiento de datos de carácter personal, denominado como “perfilado” para fines electorales. Esto significó que, desde distintas fuentes públicas (como Facebook), se creó y ofreció a ciertos interesados (partidos políticos y candidaturas) estadísticas de comportamiento de potenciales electorales para que, de esa manera, éstos pudieran analizar dichos datos, clasificarlos y teledirigirles mensajes de campaña.

Desde que se dio a conocer este tipo de prácticas, se abrió un debate ético sobre el uso de los datos de carácter personal para realizar perfilados políticos. ¿Es ello deseable en un sistema democrático?

El tema es polémico por dos fundamentos cualitativos. En primer lugar, respecto a la calidad del responsable del tratamiento y, en segunda instancia, de los tipos de datos que se recolectan y perfilan. Ante ello, se debe reconocer que la magnitud de las consecuencias de su mal uso, acarrearía costos que no serían a nivel individual, sino que para toda la sociedad. En consecuencia, ¿qué posición debiera adoptar un ordenamiento jurídico frente a esta realidad?

La calidad de los responsables y de los datos de las personas

La primera cuestión a tener presente, es determinar la base de legitimación para realizar este tipo de tratamiento. A primera vista, debiera ser el interés público, algo que pudiera resultar evidente, puesto que es la finalidad jurídica de toda organización política.

Sin embargo, esta argumentación no pareciera ser del todo suficiente. Esto, puesto que solo se está atendiendo a una cuestión meramente formal, eludiendo que la sustancia del escándalo de “Cambridge Analytica” es el reproche a una práctica de los partidos, facciones o candidaturas para la persecución de sus intereses particulares, como sería su triunfo electoral, como también de la vulnerabilidad de las fuentes de acceso público en la obtención de los datos de sus usuarios.

Por lo tanto, resulta mayormente relevante delimitar las finalidades del tratamiento que realizarán los responsables y que resulten ser conciliables (de manera efectiva) con la esencia del sistema democrático, los partidos políticos y la protección de derechos y libertades.

Y ahí radica la dificultad de lograr una armonía entre medio y fin, puesto que, si bien el objetivo final del perfilado es la optimización de los recursos para la transmisión de mensajes electorales, el riesgo de vulneración a derechos fundamentales de los individuos se vuelve particularmente alta.

Ello, porque la calidad de los responsables de tratamientos (políticos y candidaturas), les permitirá conocer de manera (cada vez más) cierta el comportamiento de sus electores y de sus, eventualmente, gobernados.

En consecuencia, de manera indirecta, se estaría fomentando una mayor injerencia a los gobiernos y representantes en la intromisión a la privacidad de las personas, lo que atenta contra las bases de un Estado de Derecho Liberal. Por lo tanto, sobre esta realidad el ordenamiento jurídico debiera tener una reacción eficaz, tanto en severidad como en la prevención.

El delicado contexto de una campaña electoral

De igual forma, se debe tomar en cuenta el contexto en el que se desenvuelve ese tipo de tratamiento que son las campañas electorales, las cuales tienen condiciones especiales. En ellas, se exacerban las emociones de los electores, lo que se realiza a través de una intensa transmisión de mensajes. Y, como toda campaña, el objetivo del marketing político será precisamente la optimización de los recursos que se adopten y de la consecución eficaz del objetivo que es su triunfo.

A primera vista, uno es capaz de vislumbrar que el mensaje de la propaganda electoral, se está tornando cada vez más emocional, exacerbando sentimientos vinculados al odio y al terror. No en vano, ya es evidente el mal uso de las aplicaciones de mensajería instantánea donde se replican, una y otra vez, mentiras y falsas alarmas sobre calamidades fundadas en prejuicios, fenómeno catalogado como posverdad.

Por ende, la regulación del perfilado electoral y el uso de datos de carácter personal de los electores, se torna mayormente complejo. Esto, debido a que el riesgo aumenta exponencialmente por el contexto ya enunciado, por lo que la sociedad deberá debatir acaloradamente si se está en condiciones para aceptar dichos riesgos y, si la respuesta es positiva, cómo reaccionar eficazmente ante ellos.

Chile, aún está lejos en la regulación de esta materia (y me aventuro a decir que también en la discusión). Es del todo evidente que conceptos como “Chilezuela” en la última elección presidencial, fueron viralizados y fomentados por discursos de terror, de los cuales nadie sabe cómo se elaboraron y propagaron (de manera muy eficaz, por cierto). Asimismo, la incógnita seguirá estando presente si el legislador no toma una posición urgente sobre este tema que ya es una realidad.

¿Qué hacer mientras tanto?, pues, como en todo régimen de protección de datos de carácter personal, otorgar a un órgano autónomo (independiente) las atribuciones necesarias para sancionar y prevenir el mal uso de los datos por parte de los partidos políticos. Aunque la respuesta quizá inmediata sería la formulación de instructivos a las candidaturas en período electoral por la transmisión de propaganda política en un contexto digital, pero no con el objetivo directo de proteger los datos de carácter personal, debido a que dichas atribuciones deben ser otorgadas por ley, la cual aún se encuentra en un lento trámite y «hasta quién sabe cuándo”.

La sanción a Google por protección de datos: la organización de los usuarios y la «arquitectura de la información»

El 29 de enero de 2019, la autoridad de control francesa de protección de datos personales, sancionó a Google con $50 millones de euros, por la falta de observación al Reglamento General de Protección de Datos Europeo, en lo relativo a los deberes de transparencia y claridad de la información que entrega a sus usuarios.

A continuación, haré mención de los aspectos más importantes de dicha resolución, la cual, más allá de la aplicación de una multa a una multinacional digital, aporta novedades para facilitar la generación de conciencia en la ciudadanía sobre el tratamiento de sus datos de carácter personal.

La importancia de las asociaciones de consumidores y las acciones colectivas

Las acciones colectivas para demandar la protección de datos personales y ejercidas por asociaciones representantes de un gran número de usuarios, resultan necesarias para una mayor y mejor garantía de sus derechos frente a una multinacional. Esto se torna necesario, producto de la asimetría de información que existe entre el ciudadano y dichas entidades, especialmente sobre la cantidad y sensibilidad de los datos personales que se tratan.

En este caso concreto, el alegato de las asociaciones reclamantes, consistió en que Google y su sistema operativo Android, no permitían a los usuarios interiorizarse sobre las políticas de confidencialidad y condiciones generales de uso de sus servicios, en el momento de la prestación de su consentimiento.

Para las asociaciones, lo anterior revestía importancia, debido a que Google, con fines comerciales, recoge datos personales de todos sus usuarios, perfilando sus comportamientos y ofrecerlos al mercado.

La autoridad de control francesa (CNIL o Comisión), en vista de lo alegado, incorporó en su resolución el análisis de las operaciones de tratamiento concernientes a Google y a su sistema operativo “Android”.

Primeramente, señaló que son operaciones de tratamiento distintas y, por ende, con diferentes finalidades, las cuales deben ser informadas separadamente. Esto, a pesar de la alegación de Google que afirmó ofrecer a sus usuarios la posibilidad de crear una cuenta distinta, o de prescindir de ella, para el uso de otros de sus servicios (por ejemplo, Youtube).

Sin embargo, la autoridad de control lo consideró insuficiente, puesto que la compañía no realiza la distinción material ni explícita de ambos tratamientos, ofreciendo incluso la posibilidad de vincular las cuentas de Google con el sistema operativo, lo que permitiría “mejorar la experiencia usuaria”. Esto último, terminó por desvirtuar la argumentación de Google.

La arquitectura de la información como elemento clave para la transparencia

Sin embargo, la autoridad de control francesa, al cursar la infracción, lo hizo teniendo en cuenta los requisitos de transparencia y accesibilidad que debe cumplir la multinacional para la obtención del consentimiento de los usuarios, conforme al Reglamento Europeo de Protección de Datos de 2016.

Para fundamentar el reproche, la autoridad de control atiende a los criterios de la “arquitectura de la información” que mantiene la compañía en sus plataformas, en vistas del ejercicio de los derechos de sus usuarios.

En primer lugar, señaló que, según el orden de las etapas para la creación de una cuenta Google, el usuario presta el consentimiento al momento de terminar su realización. Lo anterior, sin perjuicio de la posibilidad que Google ofrece al usuario de no consentir, aunque la Comisión advirtió que ello no resultaba de manera clara.

La Comisión observó que, una vez entregado el consentimiento, el usuario debe acudir a una serie de acciones para tomar conocimiento efectivo de las políticas de confidencialidad y de los términos de uso y condiciones de la compañía para el tratamiento de sus datos personales.

En ese sentido, la “arquitectura de la información”, es deficiente ya que no cumplía con la facilitación máxima de la información al usuario, quien debe recurrir a una serie de acciones en la web con el objeto de interiorizarse sobre los términos en que prestó su consentimiento.

La autoridad de control agregó que la arquitectura es un aspecto esencial para tener por cumplidos los deberes de transparencia y claridad de la información, pues dichas obligaciones tienen como objetivo dar a conocer al usuario el “alcance y las consecuencias eventualmente afectadas en las operaciones de tratamiento” en el momento en que éste otorga su consentimiento, sin que el usuario tome conocimiento sobre lo consentido en una etapa ulterior.

Es en este último punto, la autoridad de control realizó el mayor reproche. Esto, porque la cantidad de información que maneja la compañía y la sensibilidad de los datos de los usuarios (tales como el historial de ubicaciones, imágenes, comportamiento diario, resultados de búsqueda) o a un dispositivo Android, elevan los estándares de transparencia y claridad.

Para justificar lo anterior, la Comisión realizó una descripción de la accesibilidad que tiene el usuario sobre sus datos. De ese modo, pudo constatar que dicha información se encuentra dispersa en varios documentos (particularmente, en las Reglas de Confidencialidad y Condiciones de Uso) y cuya visualización recién se obtiene en fases posteriores a la creación de la cuenta.

Por ende, resulta “ergonómicamente inadecuada” la forma en que Google entrega la información. En las figuras descritas, la Comisión indicó que “hay cinco acciones que son necesarias para que el usuario pueda acceder a la información relativa a la personalización de los anuncios y seis en el caso del historial de su geolocalización”.

De manera ilustrativa, la autoridad de control se detuvo sobre las formas en que el usuario puede tener conocimiento sobre la recogida de su información con fines publicitarios. Si bien la Comisión señaló que Google permite a los usuarios configurar la forma cómo recaban sus datos, esto resulta aún más confuso, porque deben cliquear y desactivar opciones, ventana tras ventana.

Por ende, la arquitectura de la información de la plataforma de Google, a criterio de la autoridad de control, no cumplió con los requisitos de transparencia, accesibilidad y claridad del Reglamento Europeo, fundamentos del ejercicio de los derechos asociados de los interesados sobre sus datos de carácter personal. Esto, teniendo en vista que el tratamiento que hace Google sobre los datos, son particularmente masivos e intrusivos.

Masivos, por cuanto la Comisión destacó que los datos recogidos, provienen de fuentes extremadamente variadas: “Los datos son recogidos por el uso del teléfono; a través de la petición de prestación de servicios de la información; la mensajería de Gmail o por Youtube, y por los datos generados en la actividad de los usuarios y los cuales son ofrecidos a terceros sitios que utilizan los servicios de Google, especialmente Google Analytics”.

Intrusivos, puesto que los datos “revelan un grado importante de precisión de numerosos aspectos relacionados con la vida íntima de las personas, como sus hábitos, gustos, contactos, opiniones o lugares visitados. El resultado de la combinación de esos datos refuerza considerablemente el carácter masivo e intrusivo de los tratamientos en cuestión”.

Si en Chile el debate sobre la protección de datos personales se robustece, el legislador deberá tomar en cuenta estos factores que van en directa relación a una garantía efectiva de los derechos y libertades de los usuarios frente a multinacionales o el Estado. Por lo tanto, deberá incluir acciones colectivas y deducidas en razón del interés público; y la exigencia de una adecuada “arquitectura de la información” a entidades públicas y privadas con el objeto de establecer máximos estándares de transparencia.

De esa manera, el cumplimiento de estos dos criterios, permitirá incorporar la necesidad de «crear conciencia» en la ciudadanía sobre los delicados aspectos que conllevan el tratamiento, masivo e intrusivo, de datos de carácter personal.

No seas inocente y detecta a un bot

Últimamente en Chile, se ha visto desarrollar un fenómeno ligado a la creación de una realidad en base a la afirmación de falsedades, a través de las redes sociales. Aunque ello no es novedoso a nivel global, se está evidenciando un uso tendencioso de éstas para generar y propagar mensajes dirigidos a la opinión pública, con el objeto de deformar su percepción y modificar su comportamiento hacia la consecución del fin previsto por el emisor del mensaje.

La mentira siempre ha existido, lo preocupante ahora es la propagación de ella.

Una herramienta que está siendo utilizada para ello, es Twitter. Ésta es una red social concebida como microblogging, cuyo elemento sustancial es la generación de mensajes breves para que sean replicados por el resto de los usuarios.

¿Cuál es la influencia de Twitter?

Twitter, al ser un espacio de expresión de opiniones, captó la rápida atención de aquellos usuarios que, de alguna forma, pretendían ser influyentes, lo cual se lograba con el aumento de seguidores. De esa forma, la plataforma convirtió a los usuarios influyentes en su principal atracción y producto.

Claramente, ello fue identificado tanto por el mercado como por el sistema político. El producto de Twitter es el usuario influyente, y en ello, la estrategia comunicacional de cualquier marca o político, debía incluir la viralización de su contenido. Para conseguirlo, se engendró como práctica la creación de bots, una estrategia cuestionable que se ha tornado cuestionable.

Los peligros del bot en Twitter

Un bot es la automatización de una acción repetidora en la internet. A medida que mayor sea la repetición, mejor será la eficacia del bot. De igual manera, si el bot utiliza mecanismos de inteligencia artificial, éste puede terminar imitando conductas humanas en la internet.

Entonces, por su propia naturaleza, un bot es una herramienta eficaz en la internet. Lo que debe llamar la atención, es la creación mal intencionada de éstos para repetir comentarios odiosos en las redes sociales, pero especialmente en Twitter, pues están logrando construir una falsa percepción sobre la realidad.

La virulencia con la cual los bots están siendo configurados, debe preocuparnos como usuarios libres de internet, pues la libertad que nos otorga podría ser perjudicada, porque el acceso a una mayor y mejor información se merma por la creación automática de perfiles cuyo contenido es odioso y que está al afán de algunos emisores, quienes distorsionan la percepción de los usuarios para sus propios fines.

Por cierto, la generación de bots, siempre requerirá alguna técnica profesionalizadora, la cual genera gastos económicos que solo pocos pueden costear.

Cómo detectarlos

Como usuario, no es difícil detectar a un bot. Solo basta con un detenerse en el timeline, leer y cliquear.

En primer lugar, detenerse. Esto resulta casi instintivo ante la presencia de un contenido polémico u odioso, generado por un usuario influyente. Además que existe un patrón de conducta, al menos, coincidente: si el contenido es odioso, las probabilidades de ser replicados por bots, aumentan.

Sin embargo, la detección recién comienza en los perfiles de los usuarios que repercuten dicho contenido.

Al abrirse el hilo de la conversación o el detalle de los re-tuits, se debe poner atención a los perfiles que replicaron lo publicado por un usuario influyente (y virulento). De esa forma, se recomienda cliquear al azar dos o tres, para ingresar al detalle de sus perfiles.

Recién entonces, se puede detectar al bot. Usualmente, sigue y le siguen, pocos usuarios.  No tienen fotografía de perfil o usan una genérica. El nombre de usuario, en su mayoría, fueron determinados al azar (por ejemplo, «@asdf123456»). Fueron creados en una fecha reciente al tuit y su patrón de conducta es replicar el contenido de un usuario influyente determinado o de otros «afines al bot«. 

Cabe recalcar que, en la mayoría de los casos, los perfiles bots no tienen mayor acción que replicar contenido (re-tuitear). Si existe interacción, ésta suele ser confusa, por no decir incoherente. Pues claro, es una máquina.

Sin embargo, hay que tomar en cuenta que, como todo proceso de automatización, el bot también está sujeto a una optimización, por lo que sus interacciones podrán resultar mucho más complejas, con dinámicas mayormente afinadas y humanizadas, las cuales, a primera vista del usuario, ya no serán posibles de identificar.

De manera preventiva, podemos crear conciencia y ejercer estas pequeñas acciones para detectar y denunciar los contenidos odiosos o falsos, recuperando a Twitter (y las redes sociales en general) como un espacio activista y potencialmente dialogante.

¿Derecho a la desconexión digital?: Una nueva perspectiva de los derechos laborales

La irrupción de las nuevas tecnologías, también ha traído cambios en la interacción entre los empleadores y los trabajadores. Esto, debido al uso laboral que se le ha dado a las aplicaciones de mensajería instantánea, permitiendo una práctica recurrente por parte de los empleadores de dar instrucciones o monitorear tareas, generalmente, fuera de la jornada ordinaria de trabajo.

No en vano, tanto la legislación francesa como la española (incorporada recientemente en la reforma a la Ley Orgánica de Protección de Datos Personales), han consagrado el denominado “derecho a la desconexión digital”, que no es más que el respeto del empleador a la jornada ordinaria de trabajo, al derecho a la intimidad y privacidad del trabajador.

En razón de lo anterior, una instrucción de trabajo por parte del empleador, constituiría una intromisión indebida a ese espacio, lo cual, actualmente, no se encuentra amparado en la legislación chilena.

Pero, ¿el trabajador está obligado a seguir las instrucciones que le notifican en su dispositivo móvil?

Resulta claro que la intromisión indebida que ejerce el empleador, no permite un adecuado comportamiento del propio trabajador en orden a no responder u omitir deliberadamente las instrucciones que ha recibido. Lo anterior, por el riesgo al cual se somete producto de su razonable temor a perder el empleo.

Actualmente, el legislador chileno ha establecido mecanismos obligatorios de registros de ingreso y salida del lugar de trabajo para acreditar el cumplimiento de la jornada. Sin embargo, ello hoy resulta insuficiente, pues el uso del espacio físico de trabajo ya no constituye necesariamente una presunción de que el trabajador está ejerciendo su oficio en tiempo y orden.

Ahora bien, este es un ámbito que aún no encuentra una clara regulación y sanción por parte de los ordenamientos jurídicos citados y existen algunos criterios, débilmente, asentados. En primer lugar, la legislación francesa faculta al trabajador a no contestar u omitir deliberadamente una instrucción de trabajo recibida en su dispositivo móvil u ordenador, sin que traiga aparejado su despido, lo que sería injustificado por vulneración a derechos fundamentales (como el de su intimidad).

En segundo lugar, y sin perjuicio de lo enunciado en el párrafo anterior, existe un campo de negociación entre los sindicatos y los empleadores de incorporar esta práctica en los convenios colectivos de trabajo. De esa manera, por un lado, se le faculta al empleador de informar previa y debidamente el uso de las nuevas tecnologías para fines laborales y, por otro, otorga al trabajador la garantía de pago de horas extras que le ha implicado cumplir con las instrucciones fuera de su jornada ordinaria.

En consecuencia, en vez de indicar que se trata de un derecho efectivo a la «desconexión digital» del trabajador, resulta propio hablar de una garantía de respeto a su descanso, privacidad y pago de horas extras.

Por ende, lo rescatable de este ejercicio, es poner en el debate esta nueva realidad: la correcta administración del tiempo de los trabajadores en un entorno digital.

Sin embargo, en Chile este debate tiene que estar circunscrito a mayores garantías de negociación colectiva para los sindicatos y que estén vinculadas con el respeto de los derechos fundamentales de los trabajadores. Ello implicaría adoptar sanciones a prácticas actuales aparejadas con el uso de las nuevas tecnologías, y que están al borde de la licitud, como es el uso de servicios de georreferenciación o de videovigilancia por parte de los empleadores, los cuales también vulneran el derecho a la intimidad y privacidad de los trabajadores.

¿En qué está el proyecto de ley francés sobre ‘Fake News’?

Durante 2017 (particularmente marzo), el Gobierno del Presidente Macron, ingresó un proyecto de ley, cuyo objeto era la regulación de la difusión de noticias falsas (fake news) durante las campañas electorales. Asimismo, en julio de 2018, la Asamblea Nacional francesa, aprobó el proyecto. Eso sí, impulsada con los votos del oficialismo.

El proyecto era altamente atractivo, luego de lo sucedido en las elecciones presidenciales de Estados Unidos en 2016 y el controvertido Brexit. Repercusiones que también hubo en Latinoamérica, como fue en el caso del “Plebiscito por la paz” en Colombia.

Sin embargo, ¿cuál es el supuesto original de este proyecto de ley? Pues, que las falsas noticias, de alguna manera, están afectando al desarrollo democrático de los países o bien, tal como lo establece el mensaje del proyecto, se ha constituido como una “nueva amenaza para la democracia”.

Preliminarmente, el proyecto propuso límites al debate legislativo. En primer lugar, la discusión no debía versar sobre la imposición de un control sobre la internet, sino que, como en todo Estado de Derecho, de regularla. En segundo lugar, tampoco se ponía en cuestión la libertad de prensa. En ello el proyecto es claro, pues la libertad de información y el derecho de acceder a ella por parte de la ciudadanía, son pilares fundamentales de las democracias contemporáneas.

En ese orden de ideas, el proyecto pone de relieve la revolución del uso de las tecnologías y las formas en que, actualmente, se están difundiendo las noticias, a un ritmo jamás visto en la historia. Por lo tanto, la forma de ejercer el periodismo también ha mutado, libremente, pero arriesgado.

Entre paréntesis, vale señalar que el Gobierno Francés puso de relieve que la sanción, más allá de la generación de las noticias falsas, era sobre los efectos dañinos que ésta haya producido. Este punto es relevante, puesto que lo pretendido no es la censura previa, sino que la atribución de responsabilidades por la generación de daños a la sociedad en su conjunto y al sistema democrático.

Así las cosas, el proyecto se funda en un espíritu preventivo y educativo, más que punitivo. Sin perjuicio de ello, en el texto original, sí se establecen sanciones (incluso penales) sobre los agentes que provocan daño en la difusión de noticias falsas. Cabe agregar que esto último, se plasmó en el debate legislativo, puesto que generó controversia por parte de la oposición sobre las prerrogativas del juez para detener la difusión de noticias falsas en plenas campañas electorales.

En ese sentido, el espíritu del proyecto estaba siendo transgredido, debido al riesgo que ocasionaría una intervención del Estado en plena campaña electoral, contexto donde los sistemas democráticos deben debatir acaloradamente sobre la coyuntura que a la ciudadanía le interesa y que luego puede manifestar a través de las urnas.

Sin embargo, creo que los puntos atingentes a la prevención, son positivos. Se establece como principio la educación tecnológica y mediática, la cual debe constar de una política pública impulsada desde el Ejecutivo, en la cual se encuentren incluidas las recomendaciones provenientes de la sociedad civil.

También establece mecanismos de transparencia para los medios de comunicación. Esto es relevante y perfectamente viable en cualquier sociedad democrática. Acá vale ejemplificar el derecho consagrado a la ciudadanía de solicitar la fuente de información de la noticia que se está divulgando. De esa manera, los medios asumirían una responsabilidad social corporativa en contextos de álgidos debates democráticos. mejorando su credibilidad y reputación ante el electorado.

En último lugar, el proyecto ha sido innovador sobre las concepciones de noticias falsas, incluyendo los mecanismos de difusión contemporáneos, como la de “creación de bots”, algo que es común, especialmente en Twitter.

En consecuencia, si se discute legislativamente esta materia, el paradigma francés es una muestra clara de lo que debe surgir en un debate, poniendo de relieve la regulación de los daños producidos por una noticia falsa y procurando evitar la censura previa. Asimismo recalcar como pilar fundamental, la educación tecnológica y mediática, incentivada desde el Ejecutivo, el cual fomente una participación ciudadana activa en el aprendizaje del uso de las tecnologías por la ciudadanía. Y, en último lugar, sobre qué tipo de mecanismos de transparencia deben asumir los medios de comunicación en la difusión de sus noticias.