Es común ir por la calle y al ver el rostro de alguien, una vez analizadas sus facciones, lo cataloguemos de malandro, y tomemos la decisión de cambiar de acera. Inconscientemente aplicamos la frenología. Según la “ciencia” de la frenología, el carácter, el intelecto y las habilidades de un individuo pueden deducirse por el tamaño y la forma de su cabeza. La “frenología” nos suena a algo antiguo, que pertenece a un libro de historia nazi, archivado en algún lugar. Nos gustaría pensar que juzgar el valor de las personas en función del tamaño y la forma de sus cráneos es una práctica que ha quedado en el pasado. Sin embargo, la frenología vuelve a asomar su cabeza llena de protuberancias, esta vez bajo el disfraz de la tecnología.
A pesar de sus fundamentos científicos inconsistentes, la frenología goza de cierto respeto por parte de quienes estudian el cerebro. Como otra teoría pseudocientífica que más tarde impregnó la cultura mundial, la frenología fue una creación de un médico vienés fascinado por la psique humana. Cuando era un escolar a finales de 1700, Franz Joseph Gall notó que los compañeros de clase que podían memorizar pasajes largos con facilidad, parecían tener ojos prominentes y frentes grandes. De esto infirió que un órgano de la memoria verbal debía estar detrás de los ojos. Especuló que si una habilidad estaba “señalada por una característica externa”, otras también podrían estarlo. Su teoría ampliada trajo renombre a Gall, pero también la desaprobación de las autoridades eclesiásticas, que consideraban heréticas tales ideas. En 1802, el estado le prohibió promover su teoría en Austria. Como era de esperar, esto solo aumentó el interés público.
En los primeros años del siglo XIX había un mundo hambriento de una visión “científica” de la psique humana, que ofreciera la esperanza de la perfectibilidad individual. Todos rápidamente volvieron su atención hacia el cráneo y las ideas de Gall se difundieron por toda Europa. Los empleadores seleccionaban a los trabajadores con perfiles frenológicos particulares, incluso las mujeres empezaron a cambiar sus peinados para lucir rasgos frenológicos más favorecedores.
En el siglo XX, la frenología había perdido cualquier pizca de autoridad científica y se mantuvo entre unos pocos fanáticos. La enciclopedia Britannica incluyó en sus tomos una predicción perspicaz: “Basada, como muchas otras filosofías artificiales, en una mezcla de suposición y verdad, ciertas partes sobrevivirán y se incorporarán a la psicología científica, mientras que el resto llegará, a su debido tiempo, a ser relegada al limbo de las herejías decaídas”. ¡Y así resultó! Aunque la frenología cayó en un merecido descrédito, los científicos modernos señalan que de alguna manera fue notablemente profética.
En los últimos años, los algoritmos de aprendizaje automático han experimentado una explosión de usos, algunos legítimos y otros un tanto turbios. Varias aplicaciones recientes prometen a gobiernos y empresas privadas el poder de obtener todo tipo de información a partir de la apariencia de las personas. Un ejemplo, investigadores de la Universidad de Stanford crearon un algoritmo de “radar gay” que, según dicen, puede distinguir entre hombres homosexuales y heterosexuales el 81% de las veces, y el 74% en las mujeres. Lo cual plantea preguntas sobre los orígenes biológicos de la orientación sexual, la ética de la tecnología de detección facial y la posibilidad de que este tipo de software viole la privacidad de las personas o sea usado con fines anti-LGBT.
La inteligencia artificial probada en la investigación, que se publicó en el Journal of Personality and Social Psychology, se basó en una muestra de más de 35.000 imágenes faciales de hombres y mujeres. Los investigadores extrajeron características de las imágenes utilizando “redes neuronales profundas”, es decir, un sofisticado sistema matemático que aprende a analizar imágenes basadas en un gran conjunto de datos. Los investigadores citan la muy controvertida afirmación de que las exposiciones a hormonas durante la gestación, daría lugar a rostros atípicos de género.
Hay empresas que afirman poder utilizar inteligencia artificial para ayudar a los empleadores a detectar los rasgos de personalidad de los candidatos a un puesto de trabajo, en función de sus expresiones faciales. Quizás el uso más notorio del reconocimiento facial es el caso de los investigadores Xiaolin Wu y Xi Zhang, quienes afirmaron haber entrenado un algoritmo de inteligencia artificial para identificar a los delincuentes en función de la forma de sus rostros, con una precisión del 89,5%. Los investigadores no llegaron tan lejos como para respaldar las ideas sobre fisonomía y carácter que circularon en el siglo XIX, en particular del trabajo del criminólogo italiano Cesare Lombroso: “los criminales son bestias sub-evolucionadas, subhumanas, reconocibles por sus frentes huidizas y narices aguileñas”. Sin embargo, el intento de identificar los rasgos faciales con alta tecnología aplicados a la criminalidad, se basa directamente en el “método de composición fotográfica” desarrollado por Francis Galton, que superponía los rostros de varias personas para encontrar las características indicativas de cualidades como salud, enfermedad, belleza o criminalidad.
Este tipo de investigación genera preocupaciones sobre posibles escenarios como en la película de ciencia ficción Minority Report (Sentencia Previa), en la que las personas pueden ser arrestadas basándose únicamente en la predicción de que cometerán un delito. Las tecnologías que intentan detectar los rostros de los delincuentes o los tramposos pueden tener objetivos nobles, pero tienden a conducir al mismo resultado predecible: muchos falsos positivos para las personas ya marginadas, lo que lleva a la negación de derechos y oportunidades.
La inteligencia artificial nos puede decir cualquier cosa sobre alguien, siempre y cuando se tengan suficientes datos, pero la pregunta que debemos hacernos como sociedad es, ¿queremos ser etiquetados por un algoritmo “inteligente”?
La inteligencia artificial nos puede decir cualquier cosa sobre alguien, siempre y cuando se tengan suficientes datos, pero la pregunta que debemos hacernos como sociedad es, ¿queremos ser etiquetados por un algoritmo “inteligente”?
ResponderBorrar