top of page
  • @arusa1989

Face/Off: muéstrame una foto y te diré como sos


Dicen por ahí que los días grises suelen inspirar a la gente. Quizás esos días en que te sentís potencialmente incapacitado de salir a la calle, te hacen usar la materia gris de tu cabeza. A mi me pueden zarandear para despertarme, que yo mantengo mi convicción de dejar durmiendo mi cabecita cual revolucionario cubano de la primera hora. Pero bueno cada persona es un mundo.

Aún así, habría que darles crédito a esos rumores, porque hoy es un día gris, e indudablemente dieron ganas de escribir. Esos milagros que pasan cada muerte de obispo (pensándolo bien, por la salud de todos, mejor abandonar el teclado).


Lo lindo de esos días de reflexión personales, es que ponés todo en perspectiva: “¿Existimos?”; “¿Por qué hay sufrimiento en el mundo?”; “¿Me quedo en la cama 10 minutos más?”; “¿ Donde carajo está Wally?”.

Esa facultad que tenemos los seres humanos, sin ninguna duda, es la libertad de elección. Podría quedarme en la cama reflexionando, faltar al trabajo y tomar mates mientras veo la nada (hasta que nos compremos “The Legend of Zelda”, ese día no nos ven escribiendo más). Incluso podría ir al trabajo, ceder la maravillosa capacidad de reflexión que el gris del firmamento nos da (Keep Calm and en tu cara Borges).

¿Qué seríamos sin la libertad de elección? Y aún más. ¿Que sería el ser humano sin su capacidad de elegir cómo expresar esa libertad?

Esta misma pregunta me hacía cuando encontré una nota que me hizo parar los 3 o 4 pelos que tengo en la cabeza: Una IA puede adivinar tu inclinación sexual tan solo mirando una foto.

Si, como lo lees... Un algoritmo desarrollado bajo los auspicios de la Universidad de Stanford podría predecir con bastante exactitud si una persona es o no gay, basada en una foto de su cara. Para esto, usó de muestra más de 35.000 imágenes que habían sido publicadas en un sitio de citas de Estados Unidos (en un uso bastante cuestionable éticamente) con una representación uniforme de gay y heterosexual (determinado a través de los perfiles personales) y de sujetos masculinos y femeninos. Según estos científicos, las redes neuronales profundas extrajeron características del enorme conjunto de datos, e identificaron ciertas tendencias para ayudar a determinar la sexualidad de una persona. Los hombres homosexuales tendían a tener características, expresiones y estilos "atípicos de género", lo que significa que parecían rasgos más femeninos. A menudo tenían mandíbulas más estrechas, narices más largas y frente más grande que los hombres heterosexuales. Lo contrario era cierto para las mujeres gay, que generalmente tenían mandíbulas más grandes y frentes más pequeñas.

Mamita...que tremendo todo esto!!!

Y de repente, cual ninja digno de un nuevo Mortal Kombat, todo mi pensamiento se resume a: ¿Para qué queremos programas de computación que puedan identificar características personales con tan sólo una foto?

MANDA PAUSA Y ARRANQUEMOS DE NUEVO…. ¿INTELIGENCIA ARTIFICIAL?

Reseteamos para los recién llegados. ¿Qué es Inteligencia Artificial? Hemos hablado largo tendido en muchísimos artículos (propios y “tomados prestado momentáneamente”) sobre las bondades de ésta tecnología.

En sí, una I.A. es un programa de computadora que tiene la capacidad de poder reproducir los modelos cognitivos de los seres humanos, de tal manera que puedan actuar, razonar y procesar información. En nuestras Redes sociales hemos hablado muchísimo sobre una de las facultades que se han incorporado en los algoritmos de éste tipo de tecnología: el “Machine Learning” o aprendizaje de máquina, que es el modelo utilizado en la actualidad para poder lograr que una máquina “adquiera conocimiento”, procese dicha información, y devuelva una respuesta a través de un cierto grado de “razonamiento” (no es ésta la palabra, pero bueno….no es que seamos ingenieros…. si hay un ingeniero entre el público sepa disculpar XD).

También hemos comentado muchísimo que éste tipo de programas está empezando a utilizarse en varias industrias. La más notoria, mediáticamente hablando, es la del sector automotor, con empresas de la envergadura de Honda, Ford o Chevrolet. Y con otras menos conocidas hasta hace poco tiempo, como Tesla.

Pero no podemos limitar su utilidad exclusivamente a éste rubro. Sin ir más lejos, Facebook decidió utilizar inteligencia artificial en un intento por evitar los suicidios en vivo (Ver “Suicide Squad 2.0….”).

AHORA SI…. VOLVEMOS…..INTELIGENCIA ARTIFICIAL PARA DETERMINAR ORIENTACION SEXUAL?? WTF??

Ahora que nos ubicamos en tema, vamos a las no tan positivas aplicaciones de ésta tecnología. Un programa tiene la capacidad de poder identificar la orientación sexual de una persona con una foto.

Durante siglos, el concepto mismo de Homosexualidad fue tabú en gran parte de las civilizaciones occidentales, y de hecho sigue siéndolo para muchos, aunque afortunadamente sin consecuencias legales. Si, podrás decirme que se sigue combatiendo socialmente, pero no te van a mandar a la horca si se enteran señores! (Bueno, por lo menos no en la mayoría de las civilizaciones occidentales…. aunque no te garantizo todas u.u).

Mientras escribía la nota, Micaela me dice (con cara de preocupada), "pero Ariel, este proyecto de machine learning es peligrosísimo! El mundo no se termina en Occidente, así como Argentina no termina en la General Paz!. En muchos países está castigado con la pena de muerte o prisión, imaginate lo que podrían hacer los Estados aplicándolo en reconocimiento biométrico. Un desastre total".

Un vistazo al mapa de ILGA.ORG nos muestra cuán peligroso puede ser este algoritmo en manos gubernamentales equivocadas. Muchos países de África, Asia y Oriente tienen leyes severas que criminalizan o no protegen.

Mapa de situación legal de los derechos LGTB alrededor del mundo, actualizado a Mayo de 2017

Volviendo a occidente y ya limitándose a la República Argentina, en los últimos años se ha logrado equiparar derechos reconocidos con exclusividad a la comunidad heterosexual, a todas las parejas, comenzando a implementarse desde el Estado una ideología que apunta a la diversidad y a la libertad de elección en la orientación sexual (por favor, no me maten por algunos errores de concepto XD). Esto se ve, por ejemplo, en las reformas al Código Civil y Comercial, o a la implementación de la Ley de Género Nro. 26.743, entre otras.

Con todo ésto dicho, la pregunta que deberíamos hacer, más allá de la increíble capacidad de reconocimiento facial que tienen los programas hoy por hoy sería: ¿Para qué queremos saber la orientación sexual?

NEO-NAZISMO-LOMBROSIANO 4.4...O ALGO ASI…

Dirás: ¿De quién estas hablando Willys? (si, nos encanta esa frase XD).

Ezechia Marco Lombroso (según el nombre transcrito del Sr. Wikipedia, aunque siempre escribió bajo el seudónimo de Cesare) era un médico y criminólogo italiano quien se encargó de desarrollar una suerte de “determinismo biológico”. Básicamente, consideraba que podía determinarse si una persona era o no criminal por la fisiología del cuerpo y del cráneo del analizado. El "criminal nato" lo llamaba, alguien nacido para delinquir y que no podia escapar a su destino.

Ahora vayamos por el Nazismo. Creo que el que desconoce esa palabra (mas allá de no

haber abierto nunca un libro de historia), no vio las 400 peliculas de Hollywood, y los más de 800 videojuegos que se realizaron a lo largo de los últimos 70 años postguerra (los números pueden o no coincidir con la realidad XD… lo dejamos a tu criterio). En esencia, es la construcción de una idea política sobre la base de la superioridad racial (en éste caso, del pueblo Ario germánico) por sobre las demás sociedades, siendo justificativo para su aniquilación.

Si... todo bien resumido da tan chino como para un capítulo de Rick y Morty. O quizás de South Park… aunque la verdad que me perdí varias temporadas… Bueno como sea.

AHORA VOLVAMOS AL TEMA DEL DIA POR FAVOR

Sentado todo lo anterior, llegamos entonces al momento cúlmine. La gran respuesta a la incógnita: ¿Por qué te ponés a escribir hoy?

Permitir programar programas (lindo juego de palabras) que busquen segmentar a las personas, individualmente, por fisiologías es reavivar conductas discriminatorias y que han degenerado en grandes catástrofes sociales. No hay que buscar mucho para saber que el Apartheid o el exterminio nazi (por sólo nombrar dos dentro de la modernidad, podríamos remontarnos al exterminio de los aborígenes americanos) se fundaron en estúpidas ideas que planteaban superioridad de una persona por sobre otra.

Ahora, si creamos herramientas que faciliten individualizar y clasificar a cada ser humano de manera sistemática en base a su elección sexual, tema central de esta investigación, ¿a cuántos pasos estamos de realizarlo también a su porte físico, o a su ideología política?

Si hay que enunciar la cantidad de violaciones que implican que se incorpore en los Algoritmos éste tipo de comportamientos (repito: identificar, por ejemplo, la “elección sexual” de una persona) creo que no terminaríamos más de escribir.

Nombro algunos:

  • Derecho a la intimidad.

  • Creación de bases de datos ilícitas, creando perfiles (otra violación a la ley de datos personales)

  • Conductas discriminatorias y racistas.

El programa desarrollado por los investigadores a los que hace alusión la nota que transcribimos al principio también puede ser utilizada, en conjunción con otro tipo de programas.

Demos un ejemplo gráfico. Algunas empresas comenzaron a utilizar un Algoritmo en la selección del personal a contratar (otro programa que también da que hablar para otra oportunidad) y que pretende reemplazar de ésta manera la presentación de Curriculums de los aspirantes a conseguir un empleo. ¿Qué pasaría si se le incorporara evitar el reconocimiento facial a los fines de poder evitar “gente con tendencias gay” a su algoritmo?

¿Y si el algoritmo apunta a las ideas políticas? ¿A cuántos pasos estaríamos de someternos íntegramente a una sociedad algorítmica, cuyos dueños son íntegramente las empresas desarrolladoras del Programa?

¿A cuánto estamos de establecer el monto de los Seguros o de los Servicios de Salud en referencia a los datos que extraiga un Algoritmo de nuestras fotos?

¿Hasta qué punto podemos tolerar como sociedad que un programa (programado por seres humanos, no nos olvidemos de ésto) decida por nosotros?

Filósofos del salón, por favor, dejen sus comentarios, y que comience el gran interrogatorio!

1,193 views0 comments
bottom of page