¿Para cuándo poner en duda al algoritmo? Pablo Martínez Garrido.

Hay algo en los gestos que atrae la curiosidad. Ese lenguaje con el que el cuerpo habla por detrás de las palabras ha sido la obsesión de muchos de aquellos que tratan de desvelar la comunicación misteriosa del subconsciente. Una mirada, una postura o una mueca imperceptible puede delatar un discurso verbal aún incluso cuando creemos estar convencidos de lo que decimos y de lo que somos. Y esa búsqueda de la verdad en lo sustancial ha estado estrechamente ligada a la imagen.

Sería la cinematografía, especialmente por parte de los hermanos Lumière, la que asentaría la presencia de la imagen en el discurso antropológico para dotarla de objetividad. Con aquel instrumento la mirada científica viajó por todo el mundo con el fin de catalogar la vida numerosos pueblos colonizados. Frente a la cámara, la otredad era entendida como trofeo de la técnica occidental.

De igual manera, el artista Manu Arregui aplica sobre la sexualidad la óptica analítica de los sistemas de reconocimiento facial y corporal. En su proyecto Estudios de medición sobre el movimiento amanerado, que el artista a orientado a las manos, al cuerpo y a la cara sucesivamente desde 2014; lo amanerado, entendido por la lógica patriarcal como inherente a la homosexualidad, es desfragmentado en una sucesión de datos de posicionamiento basados en el tracking de puntos. A través de imágenes de estudio encorsetadas por una cuadrícula se registra todo movimiento grácil atribuido culturalmente a la pluma, mientras se hace énfasis en la mediación de una iconografía científica. Aquí la imagen es empleada para medir, y aunque no juzga, evidentemente calcula. Al igual que con el caballo de Muybridge, el movimiento es extendido en el tiempo para tratar de encontrar aquello que la mirada dominante es incapaz de percibir, como si fuera necesario comprender la razón de las anomalías del género. Bajo la óptica de la inteligencia artificial, Arregui traslada la conflictividad del género a la iconografía de los sistemas de vigilancia. La imagen parece aludir a las salas de control donde se visualizan las imágenes de cámaras de circuito cerrado en cárceles o aeropuertos. Lo amanerado es visto así como un agente delictivo que no debe dejarse entrar, la amenaza a todo un sistema.

Ejercicios de medición sobre el movimiento amanerado de las manos. Manu Arregui, 2014.

La confianza en los sistemas de reconocimiento programado, por su parte, se obsesiona en la misma cuestión reflejada por Arregui, y de alguna manera termina por justificar la criminalización de lo extraño. Recordemos que la homosexualidad es delito en numerosos países y a menudo es castigada por la pena de muerte. La compañía israelí Faception trabaja en la detección de la personalidad a través del desarrollo de sistemas de reconocimiento facial. Su misión, según explica su página web, es revelar la personalidad mediante imágenes faciales a escala con el fin de revolucionar la manera en la que compañías, organizaciones e incluso robots entienden a la gente, y con ello mejorar drásticamente la seguridad, las telecomunicaciones, la toma de decisiones y las experiencias. Su trabajo se centra así en el empleo de imágenes de sistemas de vigilancia, como cámaras o drones, para generar un programa basado en la detección de personas conflictivas. Para ello reúnen una enorme cantidad de imágenes para definir perfiles de personalidad y luego un programa se encarga de clasificar a las personas mediante vídeo en streaming. Este sistema es, al fin y al cabo, una herramienta para la guerra quirúrgica: un término acuñado durante el mandato de Barack Obama con el que se pretendía despolitizar la guerra mediante la confianza en una acción precisa por parte de las tecnologías de reconocimiento, que gracias a la inteligencia artificial serían capaces de atacar exclusivamente a terroristas y evitar daños colaterales en la población civil.

Tras hablar de esto, uno se plantea desear no tener que ser identificado por estos sistemas de reconocimiento. A menudo, la invisibilidad es entendida como un manto protector contra un ojo que criminaliza. Ejemplo de esto sería la táctica del black block, empleada en manifestaciones en las que todos los participantes visten ropa negra con el fin de evitar ser identificados, a la vez de dar la impresión de una sola masa unida. O estrategias provenientes de propuestas artísticas como el maquillaje antirreconocimiento propuesto por Adam Harvey en su proyecto CV Dazzle, el cual está basado en la técnica del camuflaje disruptivo: un sistema inspirado en el cubismo con el objetivo de disfrazar a los navíos norteamericanos durante la Primera Guerra Mundial y confundir al enemigo acerca de su orientación, distancia y velocidad; pues los barcos no podían hacerse invisibles en el mar.

SS West Mahomet con camuflaje disruptivo, 1918

Sin embargo, el trabajo de la investigadora del MIT Joy Buolamwini nos cuestiona la conveniencia de no ser identificados. Sus estudios acerca del reconocimiento facial han llegado a la conclusión de que la inteligencia artificial de las compañías más relevantes en la materia (tales como IBM, Microsoft o Face++), discrimina a las personas negras y de piel oscura. Tal y como demuestra en un artículo, los sistemas de reconocimiento facial aciertan un 99% con personas blancas pero sólo un 35% con personas negras. Sus investigaciones muestran también cómo estos sistemas se basan en aspectos muy concretos a la hora de definir el género. Para ello Buolamwini los desafía a identificar fotografías de históricas mujeres negras. No siendo capaz esta inteligencia artificial de comprender un género neutro (pues limita su clasificación a los dos géneros tradicionales), las confunde con hombres el 100% de las veces, ya que trata de aplicar los criterios de distinción sexual en los rostros caucásicos sobre los negros. En base a este hecho Buolamwini fundó la plataforma AJL (siglas de Algorithmic Justice Leage) a favor de una escritura de programación integradora. ¿La razón? La preocupación a que los sistemas de reconocimiento den falsos positivos al identificar a una persona negra. Según Buolamwini, dado que la opinión pública confía tan ciegamente en la exactitud de la inteligencia artificial, una persona negra identificada erróneamente por un sistema de reconocimiento puede ser acusada falsamente de un delito. Al contrario que con un delincuente caucásico, pues es más fácil de identificar y distinguir del resto de los blancos, cualquier persona negra es potencialmente sospechosa y puede ser detenida sin pruebas evidentes.

En conclusión, queramos o no ser reconocidos por los sistemas de análisis facial, es evidente que la impresión de veracidad que ofrecen los algoritmos alude, como ha sido siempre, al refuerzo de los prejuicios inherentes al discurso del poder. Al igual que otras tecnologías de registro cuya impresión de veracidad se ha conseguido cuestionar, como es el caso de la escritura, la pintura, la fotografía o el vídeo; hoy es la evidencia del algoritmo la que debe ser puesta en duda, pues es la base sobre la que se construye la realidad en la que vivimos. Para ello, yo apuesto por una toma de conciencia a la hora de escribir código, para desarrollar una escritura inclusiva que rechace las dicotomías en las que hasta ahora se ha basado la lógica en la programación.

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s