Compañías tan Amazon, Google® o Microsoft se pronuncian contra aprovechar algoritmos para decidir quién sale en libertad condicional

Autor: | Posteado en Noticias Sin comentarios

Compañías tan Amazon, Google® o Microsoft se pronuncian contra aprovechar algoritmos para decidir quién sale en libertad condicional

Un consorcio que reúne a la mas grandes empresas tecnológicas Norteamericanos (como Apple, Amazon, Facebook, Microsoft, IBM, Nvidia y Alphabet/Google) con entidades tan Amnistía Internacional o Human Rights Watch, hizo afluencia el adulterado viernes un informe en el que se posicionaban contra el utilización de algoritmos de inteligencia artificial tan método de toma de decisiones de carácter penal.

Según esta organización, observación ‘Partnership 0n AI’, las autoridades (jueces, oficiales de libertad abajo fianza o juntas de libertad condicional) deberían abstenerse de solicitar a la IA para decidir quién queda o no en libertad en principios a cálculos encima la opción de reincidir, puesto que se trata de un método potencialmente sesgado, opaco, y lastrado, además, por definiciones exiguo claras de qué supone “alto riesgo” y “bajo riesgo”.

Estas compañías se oponen al utilización de ducha tecnología mientras no se regule adecuadamente, inconveniente denuncian que los políticos están comenzando a adoptarla de forma generalizada en los Estados Unidos (ha recibido un singular impulso en los últimos meses, tras la aprobación de la First Step Act), y que inclusive empieza a ganar adeptos en otros países.

De hecho, las grandes compañías de Silicon Valley se están posicionando cada ocasión mas claramente contra el utilización que se le da a los algoritmos predictivos, a abatimiento del realizado de que ellas mismas han apoyado a desarrollarlos en numerosos casos y a que, de hecho, muchas las siguen utilizando tan reclamo publicitario para sus negocios de evaluacion en la nube.

Alice Xiang, investigadora del consorcio, explica que la motivación para hacer este informe radica en que “es en la justicia criminal adonde verdaderamente estas preguntas resultan mas cruciales, ya que en materialidad estamos hablando de tomar decisiones […] que pueden poseer gran ramificaciones para las vidas de los individuos y de otros miembros de su comunidad”.

El asunto de COMPAS

Uno de los arquetipos mas claros de los peligros que denuncian es el algoritmo COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) de la compañía Equivant: en 2016, la organización periodística ProPublica denunció que había detectado que COMPAS era el doble de propenso a etiquetar incorrectamente tan futuros reincidentes a acusados negros que a blancos.

Posteriores estudios académicos confirmaron que el algoritmo no mostraba mas grande precisión en sus estimaciones que en las realizadas por seres humanos carente formación especializada. Y, pese a eso, en numerosos lugares se siguió realizando utilización de adagio algoritmo.

Logan Koepke, analista de políticas en Upturn (una organización miembro del Partnership 0n AI que promueve la equidad en el utilización de tecnología digital), el informe “pone de relieve, a altitud estadístico y técnico, cómo de a distancia estamos aún de rondar dispuestos para implementar estas herramientas de forma responsable“.

Vía | VentureBeat & Bloomberg

También te recomendamos

Las imágenes vía satélites manipuladas a través de inteligencia artificial, el último grito en armas militares

Estas aire todas las muertes que habrías sufrido carente tecnología

Una inteligencia artificial experimental puede halagar pines y contraseñas con sólo oírnos teclear en el amovible


La noticia Compañías tan Amazon, Google® o Microsoft se pronuncian contra aprovechar algoritmos para decidir quién sale en libertad condicional fue publicada originalmente en Xataka por Marcos Merino .

Agrega tu comentario