¿Sheinbaum propuso vigilar a las personas en redes sociales?
La invasión de la privacidad es una de las mayores preocupaciones en la sociedad moderna. Esta se puede expresar de formas sutiles o descaradas, a través de particulares o del Estado. Pero hay algo que siempre la caracteriza, es incómoda, injusta y se siente como una traición. Ese podría ser el caso del Plan de Renovación del C5 de Sheinbaum que incluye entre otras cosas, implementar cámaras con reconocimiento facial, monitoreo de redes sociales y bases de datos con los perfiles de cada persona. ¿Terrorífico? Probablemente.
Reconocimiento facial, análisis de redes sociales y bases de datos con información personal.
El pasado 15 de noviembre se presentó la «Propuesta de Renovación Funcional y Tecnológica del C5 Ciudad de México» desarrollada por el Consejo Científico Asesor del próximo gobierno. El consejo se compone de académicos de la UNAM y la Autónoma Metropolitana. Algunas de las propuestas para la renovación de equipos e inclusión de tecnologías preocuparon a varias personas quienes mencionaron una probable intromisión a la privacidad.
Una de las principales propuestas incluye la renovación de más de 6 mil cámaras que datan de 2009 y el mejoramiento de los sistemas de datos y la tecnología de las cámaras. Al respecto, en el punto número cinco de la «Renovación Funcional y Tecnológica» se menciona lo siguiente:
Es de muy alta importancia que en el C5-Ciudad de México se incorporen infraestructuras de cómputo de alto rendimiento y de supercómputo (…) la creación de bases de datos confiables de reconocimiento facial, de placas vehiculares, de análisis en tiempo real de redes sociales, entre otras. (…)
Esto supondría que la Secretaría de Seguridad Pública de la Ciudad de México almacenaría, clasificaría y utilizaría la imagen fácil de las personas según lo considere adecuado sin su consentimiento. De igual manera contempla «analizar» en tiempo real las redes sociales sin especificar a qué se refiere en específico con «analizar».
Usarán algoritmos para reconocer emociones, características y tópicos.
En el punto número ocho se vuelve a hacer mención de los cambios que sufrirá el sistema de video de la ciudad y las nuevas tecnologías que incorporará. Destacan entre ellas: el reconocimiento de rostros, la detección de acciones específicas, análisis de eventos masivos como manifestaciones y el reconocimiento de personas en específico.
Finalmente, en el punto número nueve se plantea el desarrollo de «Sistemas Automatizados para el Monitoreo y Análisis del Contenido de Redes Sociales». El punto señala la utilidad de las redes sociales para acceder a información valiosa de manera «indirecta» para «mejorar los tiempos de respuesta en incidentes». Para esto se desarrollaron varios algoritmos con los siguientes fines:
- Clasificación de tópicos, búsquedas de palabras clave, contabilizar frecuencias de palabras.
- Clasificaciones de las emociones contenidas en un texto.
- Ver si el contenido es agresivo, tiene algún nivel de misoginia y su polaridad (negativo, neutral o positivo).
- Inferir del texto las características de los usuarios (edad, sexo, idioma, entre otros).
- Detección de eventos.
- Análisis de tendencias y eventos atípicos.
El latente riesgo del uso incorrecto de la información.
Muchas de estas propuestas de implementación tienen severas implicaciones en la privacidad de los usuarios pues no se detalla que uso se le dará a esta información recolectada de forma automatizada. Ni tampoco existen garantías de que el sistema no vaya a ser usados con fines ajenos a la seguridad pública.
Dicha situación también se da con el reconocimiento facial y las bases de datos que se generen con base en este. No existe garantía del uso adecuado posterior de la información recolectada ni que no se vayan a usar para fines políticos ajenos a salvaguardar a la sociedad.
Casos similares del uso indebido de la información recolectada de los usuarios se han dado en los Estados Unidos con el escándalo de la NSA hace aproximadamente un lustro o bien el uso casi distópico del reconocimiento facial en China para la vigilancia estatal de sus ciudadanos.
¿Se estará México acercando a convertirse en una distopía orwelliana? Es difícil preverlo, pero el riesgo es latente y creciente y habrá que ser vigilantes de las implicaciones de la aplicación de la tecnología en la vigilancia para la seguridad pública. Los riesgos del uso indebido están, y eso es lo relevante.