¿Pueden ser racistas los algoritmos?

Autor: | Posteado en Noticias Sin comentarios
346736095 33d4ff1870 B

La pregunta, lo reconozco, puede ser exiguo extraña. Pocas cosas hay en este planeta mas confiables, mas neutrales y carencia ‘sesgados’ que un buen algoritmo. Pensar que un ordenador puede ser racista, machista o adepto de Joss Whedon nos puede parecer inclusive ridículo.

Y carente embargo, actuales investigaciones de Harvard y Georgetown están poniendo patas arriba íntegramente lo que creíamos encima internet tan el ‘mayor nivelador social‘ de la historia. ¿Y si los resultados que nos ofrecieran los buscadores fueran xenófobos, sexistas o estuvieran sesgados ideológicamente carente que lo supiéramos?

Latanya Sweeney es profesora de ciencias políticas y tecnología en la Universidad de Harvard. Un aniversario en su despacho de la universidad googleó su nombradía para agenciárselas un artículo que había abonado hacía unos años. En la posterior representación se puede visualizar lo que encontró:

Capturaracismoinformatico

Fue sorprendente porque la profesora Sweeney de ningún modo había arrestada. ¿Por qué, entonces, Google® devolvía aquellos avisos al agenciárselas su nombre? Tras investigar un exiguo y apoyarse con unos cuantos nombres, brotó una hipótesis un exiguo extravagante, ¿y si los resultados variaban dependiendo de si tenías un nombradía ‘negro’ o no?

Parecía ridículo. Al final y al cabo, un algoritmo es un algoritmo ¿Qué hay mas objetivo que un algoritmo? ¿Cómo podía un algoritmo ser racista? Lamentablemente, y tras una investigación por íntegramente Estados Unidos, Sweeney descubrió que, en efecto, a ley que crecía la opción de que un nombradía perteneciera a una andoba de coloración mas grande era la opción de que apareciera vinculado a arrestos o antecedentes penales (aunque aquellos avisos no llevaran a posteriori a antecedentes reales). Efectivamente, los ordenadores eran racistas.

¿Cómo es esto posible?

Antes de ponernos en plan inquisidor hemos de reconocer que, pese a que de ningún modo lo hubiéramos pensando antes, es normal. Como dice Alvaro Bedoya, del Center 0n Privacy and Technology, cualquier algoritmo que se precie prenderá de los procesos de discriminación y polarización que se den adonde trabajen: si existen desigualdades de tipo al escoger personal, el algoritmo aprenderá de esas desigualdades y se adaptará a ellas.

Así que la observación mas que en largas líneas de comandos, parece rondar en que los algoritmos, las máquinas y los ordenadores viven en el planeta real, interacciona con él y aprende de él: la inteligencia artificial (el machine learning) era esto.

Esto hará el inconveniente demasiado mas complejo. La matemática Cathy O’Neil avisaba de que pese a que los algoritmos poseen un gran capacidad para optimizar el mundo, pueden movernos hacia la dirección contraria. De hecho, a menudo cosas hechas con la mejor pretensión salen verdaderamente mal.

Nos hallamos ante una versión extraña del problema de los filtros inconveniente a escala social: tan en el callejón del gato, Internet nos devuelve una versión a la ocasión real y deformada de nosotros mismos.

¿Cómo se solventa esto?

9515167717 79f571672c K

Ante la opción de que la aparente neutralidad del big cronología y los algoritmos disimulen abajo una capa de barniz posiciones sociales sociales injustas y violaciones de las libertades civiles, Sweeney y Bedoya plantean tres estrategias fundamentales que acarrear a cabo:

  • Fortaleces la sociedad civil enriqueciendo los entendimientos tecnológicos de los avezados en abogacía e incentivando la implicación social de los avezados en tecnología. Necesitamos mas ingenieros participando en los debates políticos y mas los políticos familiarizados con los algoritmos y el big data.

  • Defendiendo la “transparencia algorítmica”. Hay que asegurar que los algoritmos que sustentan sistemas básicos de cohesión social tan la educación, la sanidad o la justicia aire abiertos y trasparentes.

  • Protegiendo socialmente los datos personales. No únicamente es que las leyes y regulaciones van demasiado por detrás de la tecnología en lo que a protección de datos personales se refiere, es que en numerosos casos las normas que se desarrollan ex novo no resultan efectivas.

A ley que la promesa de las mas recientes tecnología se van realizando materialidad y el adjetivo de “nuevas” queda cada ocasión mas obsoleto y carente sentido, vamos descubriendo que esto iba en serio. Como dijera el popular filósofo social Benjamin Parker, ‘un gran delegación conlleva una gran responsabilidad’. Y los debates que vienen serán claves para conocer qué responsabilidad estamos dispuestos a asumir tan sociedad.

Via | Ford Foundation Images | raphaelestrada,

También te recomendamos

Este algoritmo imita el diseño de los pintores mas populares y lo aplica a cualquier foto

El FBI ya entrena a sus algoritmos para identificar delincuentes por sus tatuajes

Estos robots pueden enseñar y instruirse entre sí a agarrar objetos mas recientes


La noticia ¿Pueden ser racistas los algoritmos? fue publicada originalmente en Xataka por Javier Jiménez .


Agrega tu comentario