Si con la tecnología podemos predecir crímenes la gran cuestion es ¿debemos?

Autor: | Posteado en Noticias Sin comentarios

En la abanico de CBS Medium Allison Dubois -interpretada por Patricia Arquette- apoya al fiscal a solucionar íntegramente persona de crímenes peliagudos. Gracias a sus poderes paranormales Dubois es capaz de desentrañar los misterios que traen de cabeza a los inspectores mas avezados. Como ocurre a menudo, carente embargo, la materialidad supera a la ficción. La justicia no solicita de médiums, pitonisas ni telépatas para combatir el crimen. Tiene a su aptitud una herramienta demasiado mas eficaz: la tecnología. Algunas comisarías y juzgados la llevan al extremo de emplearla, aseguran, para predecir delitos y actuar previamente de que ocurran. La clave es… ¿Funciona realmente? Y encima todo, en el asunto de que de este metodo sea, ¿hasta qué cordura pasivo utilizarse con ese fin?

Poco a exiguo los softwares de prevención de la criminalidad acemilero peso en las jefaturas. Algunos, similares a PredPol, aparato que estrenó hará años el Departamento de Policía de Los Ángeles y que se ha extendido al carencia a mitad centenar de agencias policiales repartidas por el mundo, apoyan a determinar el riesgo de que se cometa un delito en un zona geográfica. Otros programas, tan COMPAS, valoran la opción de que un individuo reincida en el futuro. La Tecnologia Ha Permitido Desarrollar Softwares De Prevencion De Delincuencia Su movimiento varía en cada caso, dependiendo de cuál sea el objetivo. En su web oficial PredPol asegura que usa únicamente 3 factores para elaborar sus predicciones: el tipo de delito, la ubicación y la fecha y hora. Los resultados se plasman en una interfaz web a través de Google® Maps, adonde se representan en cuadrados de 150×150 m las “áreas de mas grande riesgo”.

En España la Policía Local de Castellón aplica una herramienta pionera -de filosofía semejante a PredPol- en colaboración con la Cátedra Eurocop de la Universidad Jaume I que ya ha despertado el interés de los agentes de Rivas Vaciamadrid y la Policía Nacional. Su director, el matemático Jorge Mateu, detalla que su software trabaja con info geográfica, económica, meteorológica… que le posibilita trasladar a un atlas el riesgo de que se cometa un determinado delito. Mapa De Predpol Con Su Evaluacion De Riesgos Por Zonas

“Se meten las variables que tomará el algoritmo matemático para la creación de los mapas de riesgo”, explica Mateu, quien apostilla que el aparato maneja una extensa grado de factores. Entre ellos hay datos ligados de apariencia directa con las infracciones que se procura evitar. “Son coordenadas (x, y, t, d) concediendo el lugar de la ciudad y el momento del delito. La componente ‘d’ indica su tipo: robo, homicidio, riña callejera…”, anota el directivo de la Cátedra Eurocop. Durante la fase de modelización y predicción, el aplicación posee en recuento el histórico de crímenes de cada zona.

A mas grandes el software usa valores demográficos y económicos -población por sectores, barrios o distritos, propiedades, altitud de vida…- y medioambientales. Cada minuto u hora se miden aspectos tan la temperatura, la celeridad del viento, la humedad o la lluvia, que juegan un papel primordial a la hora de establecer la probabilidad de que se cometan actos criminales.

Herramientas tan PredPol permiten anticipar el riesgo de delito en zonas geográficas. COMPAS valora la opción de que un individuo “fichado” reincida

“Lo que hacemos es proponer modelos de predicción en espacio-tiempo, modelos estocástico-matemáticos que, de alguna forma, arrojan con qué opción va a ocurrir un delito, en qué zonas de la ciudad y en qué momentos temporales, en un formato demasiado sencillo: las calles salen coloreadas con tonos que representan probabilidades. Esos mapas aire de actualización continua”, explica Mateu: “La policía va tomando los datos y reajustando las predicciones a futuro, por lo cordura posee el feedback en asamblea verdadero para las siguientes horas”.

Diferente máquina emplean los softwares que laboran con individuos concretos en ocasión de barrios. El algoritmo de COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), aplicación comercializado por la empresa Northpointe, opera con las respuestas que sus sujetos dan a un cuestionario de 137 ítems. Según sus promotores, el aplicación posibilita conocer la opción de reincidencia de alguien que ya ha empresa un delito.

Los datos aire extraídos de registros criminales y de preguntas que se formulan directamente a cada una de las personas analizadas: antecedentes familiares, consumo de drogas en su entorno, participación en peleas a lo largo de la infancia… Con ellos COMPAS determina a través de una escala numérica si el riesgo de que vuelva a delinquir resulta bajo, moderado o alto.

“COMPAS se cimenta en datos estadísticos y dinámicos para generar sus resultados de riesgo y necesidades. El utilización de mesuras dinámicas posibilita que estas cambien con el asamblea a ley que varía el comportamiento”, aclara Northpointe, que asegura disponer de mecanismos para eludir que respuestas incorrectas o falsas de los sujetos puedan alterar sus valoraciones.

Una expansión imparable

Desde su puesta en marcha modelos predictivos tan PredPol o COMPAS han ganado popularidad y peso en los sistemas de justicia. La herramienta comercializada por Northpointe empezó a utilizarse en los juzgados de EE UU en 1998 y en los últimos 20 años ha ido haciéndose cada ocasión mas usual en el país. Las puntuaciones de COMPAS se usan por arquetipo para decidir encima la libertad condicional. Al carencia en 2016, en algunos estados -como Colorado, Virginia u Oklahoma- los jueces tenían llegada a la evaluación inclusive a lo largo de la fase de la sentencia penal.

Un éxito semejante alcanzaron los softwares que operan con mapas al diseño de PredPol. Ciudades repartidas por el globo han optado incorporarlos a sus comisarías o, al menos, los han probado. Montevideo, Milán, Chicago, California, Manchester, Kent, Dubai… Son únicamente unos cuantos ejemplos. En Kanagawa, en la región de Kantō, cerca de Tokio, la policía valora emplear herramientas similares para optimizar la seguridad a lo largo de las Olimpiadas y Paraolimpiadas de 2020. Mateu apunta que su aplicación de predicción ha suscitado el interés de Colombia, México y Ecuador.

Su expansión ha ido acompañada a menudo de estudios que predican las bondades de estas herramientas. La Policía de Memphis e IBM, por ejemplo, aseguran que el utilización de un software de descomposición predictivo producido por el gigante azul ha permitido reducir un 30% los crímenes mas graves y un 15% los sucesos violentos en la ciudad. En 2014 la Policía de Reading (Pensilvania) mantenía que reconocimiento a PredPol había disminuido un 23% los robos en levemente 14 meses. Antonio Javier Dieguez

No todos los descomposición apuntan en la semejante dirección. En los últimos años investigaciones independientes -al margen de las empresas que desarrollan los softwares– cuestionan que este persona de herramientas sean una panacea. En 2013 el semanario SFWeekly publicaba un artículo en el que concluía que benévola aviso del éxito de PredPol dependía de su marketing agresivo.

Según recogía el semanario de San Francisco, la empresa solicita a las agencias de policía que promocionen sus virtudes aun en el punto -sostiene- “su efectividad todavía no ha resultado probada”. A metodo de arquetipo cita el asunto de Seattle, adonde PredPol habría abaratado su precio un 36% -hasta dejarlo en 135.000 dólares- a alteración de que la ciudad le favoreciera con benévola prensa.

SFWeekly no es el único que ha arrojado sombras encima la eficacia de los programas predictivos. En 2016 la organización de periodismo ProPublica divulgó un exhaustivo informe en el que apuntaba dudas encima la efectividad de COMPAS y alertaba de los profundos sesgo raciales del sistema.

Las herramientas de predicción han experimentado una expansión notable. Algunas voces cuestionan carente bloqueo la privación de estudios independientes e inclusive sus sesgos

Ante aquellos resultados un obtener del Dartmouth Collegue realizó asamblea posteriormente un mas reciente análisis para valorar el rango de aciertos de COMPAS. Sus conclusiones fueron inclusive mas sorprendentes: el algoritmo dio en el clavo en el 65% de las ocasiones. El conjunto de atención formado por los investigadores con unas 400 personas reclutadas a través de Amazon Mechanical Turk lo hizo en una ley similar: entre el 63 y 67% de las veces. Lo chocante es que los voluntarios carecían de preparación y disponían de carencia datos que COMPAS. Aplicaban únicamente… ¡Su intuición!

A la luz de unos y diferente estudios la cuestion del millón es… Podemos, inconveniente ¿debemos usar los sistemas de prevención de delincuencia? ¿Es un falla o un cordura solicitar a softwares de predicción por zonas, tan PredPol? ¿Y los similares a COMPAS, que atañen a individuos específicos? ¿Podrían enquistar guetos urbanos los primeros al presuponer que serán escenarios de crímenes? ¿Predisponen a los agentes de policía? Y los segundos, ¿perpetúan prejuicios? ¿Dejan en manos de herramientas parciales el futuro de los encausados?

El debate está servido.

Una de las discusiones mas frecuentes se centra en cómo evaluar la eficacia de los programas. Dado que las campañas para prevenir la delincuencia no suelen depender únicamente de un software, ¿cómo determinar en qué ley es este encargado de un descenso de la criminalidad? ¿Cuánto es mérito del algoritmo y cuánto de otras políticas? Sus críticos censuran tambien la opacidad con la que suelen operar los programas, comercializados a menudo por empresas privadas.

“La policía quiere una actitud de prevención, no de reacción”, anota Mateu, quien reconoce que esa particularidad dificulta valorar los resultados del software. “La policía distribuye las patrullas de tal apariencia que van a un incomunicación en una franja horaria. Si el delito no ocurre la cuestion es: ¿Se pasivo a que el modelo no ha resultado fiable o a que, tan han ido previamente de que ocurra, lo han evitado?”

Un estudio impulsado por la organización ProPublica concluyó que COMPAS perjudica a los sujetos negros y que su porcentaje de cordura es semejante al de los humanos

Sergio Ilarri, profesor del zona de Lenguajes Computacionales y Sistemas de Ingeniería de la Universidad de Zaragoza, señala que en gran ley el éxito de un software depende de que la recogida de información se haga de apariencia eficiente. “Los datos deben ser tan completos, precisos y representativos tan sea posible”, aconseja el avezado previamente de advertir de los “sesgos” que pueden ocasionar “metodologías inadecuadas, prejuicios o la sencillo subjetividad de los implicados”.

El directivo de la Cátedra Eurocop reconoce que es “imposible” acaparar predicciones con una fiabilidad absoluta, del 100%, inconveniente insiste en que los modelos que maneja su software arrojan altas posibilidades comprendidas entre el 70 y 80%. “Se trabaja con aleatoriedad y eso constantemente deja una franja imposible de control”, abunda Mateu, convencido carente bloqueo de que sigue habiendo indiscutible margen de mejora.

A menudo los datos disponibles deben manejarse con precaución. En el asunto de PredPol, gran aviso de los estudios que se citan para acreditar su eficacia están ligados a la propia empresa. Durante su análisis, SFWeekly contactó con ciudades de EEUU que usan el software de predicción en busca de valoraciones independientes. El resultado –como ya se hacía eco XATAKA en 2015- fue decepcionante: ninguna logró o quiso proporcionar informes de elaboración propia. Jorge Mateu Recibe Una Condecoracion De La Policia Nacional De Colombia Por El Software De Su Equipo

Sarah L. Desmarais y Jay P. Singh elaboraron un estudio en 2013 en el que analizaron 19 sistemas de evaluación de riesgo -CAIS, DFIA, IORNS, ROC, RMS, OGRS… Tambien de COMPAS- y detectaron la falta de informes objetivos encima su eficacia. “En la gran gran mayoría de los casos, la validez únicamente se había examinado en 1 o 2 estudios realizados en EE UU y, con frecuencia, los completaban los mismos que desarrollaban el instrumento”, concluían.

¿Herramientas con sesgos raciales?

PredPol incide en que para su labor “nunca se usa información elenco identificable”. “No se usa info demográfica, étnica o socioeconómica. Esto elimina la opción de violaciones de privacidad o derechos civiles”, subraya de apariencia tajante la empresa. Sin embargo, ¿podría el utilización de estas herramientas enquistar guetos o condicionar a los agentes de policía?

En 2015 Forbes citaba a Peter Scharf, un criminólogo de Louisiana que alertaba de que sistemas tan PredPol pueden acarrear a agentes inexpertos a exagerar carente pretenderlo la conflictividad de un barrio. Antonio Diéguez, Catedrático de Lógica y Filosofía de la Ciencia de la Universidad de Málaga, admite que es “difícil” demostrar la eficacia de estos recursos, inconveniente ve “fuera de lugar” la crítica de que puedan fomentar guetos. “Al contrario, contribuirán a su desaparición”.

“La existencia de guetos posee causas sociales, económicas… Que se reduzca la delincuencia puede apoyar a que un gueto deje de serlo”, reflexiona Diéguez: “¿Criminalización? La gran gran mayoría de las personas de estas zonas aire víctimas, no delincuentes”. En su opinión, si los agentes llegaran a tratar tan un criminal aptitud a algún vecino de un barrio señalado por PredPol se debería a un sentencia humano, no del software. Su principal crítica se centra en la “opacidad” del sistema.

El profesor Andoni Alonso Puelles, del Departamento de Filosofía y Sociedad de la Universidad Complutense de Madrid, invita a reflexionar encima la titularidad de los programas y los datos con los que operan. “Las zonas peligrosas de una ciudad aire un saber mas o carencia tácito. No creo que en ese pesaroso afecte mucho. No me parece incorrecto que un Estado organice este persona de cosas. Lo que me causa mas inconvenientes es si aire las empresas las que lo proveen. ¿Quién posee la propiedad y la titularidad de los datos y del producto?”, reflexiona el académico.

Los partidarios de programas similares a PredPol replican que su utilización mejoría la seguridad y posibilita una organización mas eficiente de los recursos. Mateu recuerda que los datos que maneja la policía aire tambien confidenciales. “Esa info no se hará pública. No puede ser que a la gente de una ciudad se le diga que en determinadas zonas hay una peligrosidad innata. Hay que ir con demasiado cuidado para eludir definir la ciudad por zonas de conflictividad”, señala.

Un debate que perjudica al futuro judicial

El debate se regresa mas complicado con programas tan COMPAS, que laboran con individuos concretos. El estudio de ProPublica -que analizó la evaluación de mas de 7.000 arrestados en Broward entre 2013 y 2014- arrojaba un sesgo racial: “Los demandados de raza negra que no reincidieron en 2 años tenían casi el doble de probabilidades de ser clasificados erróneamente tan de mas grande riesgo en comparación con sus contrapartes blancos (45% frente al 23%)”.

Los softwares de predicción aire un utensilio mas para la justicia, no sustitutos del factor humano, concluyen los avezados consultados

En 2014 el entonces Fiscal General de EE UU, Eric Holder, ya advertía de que con las puntuaciones de riesgo se podrían rondar introduciendo sesgos en los tribunales. Otro examen publicado en 2015 por Associated Press (AP) hallo “problemas significativos” en las encuestas que se elaboraban para las herramientas de evaluación de riesgos, pese a que carente citar a COMPAS ni nadie diferente programa. Sus conclusiones -recordaba AP- se han usado encima íntegramente en la toma de decisiones encima la libertad condicional, “pero cada ocasión mas se utilizan para dictar sentencia”.

Consciente de las críticas por sus sesgos, Northpointe alega en su aparición administrativo que COMPAS “funciona don entre géneros y etnias”. La empresa únicamente reconoce “algunas limitaciones con con respecto a la idoneidad para los delincuentes con enfermedades mentales”. Entre las 137 preguntas que plantea a los sujetos que evalúa, de hecho, no habría ninguna encima la raza. Sin bloqueo el fundador de la compañía, el profesor Tim Brennan, ha reconocido la dificultad de elaborar un aparato con factores que no puedan correlacionarse con la etnia.

Si se ha demostrado que tiende a penalizar a la población negra, si su porcentaje de aciertos es semejante al que obtienen los humanos echando don de la sencillo intuición… ¿Cómo se justifica su éxito comercial? Una explicación es el deseo de racionalizar la onerosa política carcelaria de EE UU, que cuesta millones a sus arcas públicas. En su artículo, AP apuntaba que se podría acaparar un primordial ahorro gracias, en parte, a las herramientas de evaluación de riesgo.

Diéguez urge “andar con pies de plomo” en el punto se trata con personas. “Estos sistemas aire opacos. No justifican la determinación final. Eso evita detectar sesgos en casos concretos, únicamente a largo plazo”, advierte el catedrático de la Universidad de Málaga. En enero el célebre periodista Ed Yong se hacía eco en las páginas de The Atlantic del asunto de Eric Loomis, que ejemplifica el temor de Diéguez.

La policía arrestó a Loomis mientras conducía un automóvil que se había usado en un tiroteo. Al decidir su condena el juez tuvo en recuento -entre otros factores- la valoración de COMPAS, que asignó al acusado un riesgo elevado de reincidencia. La sentencia: 6 años de prisión. Su abogado apeló argumentando la falta de transparencia del programa. La Corte Suprema de Wisconsin dictó contra Loomis porque consideró que la condena de prisión habría resultado la semejante carente COMPAS, inconveniente sí recomendó manejar el algoritmo con precaución. Mapa Con La Informacion Que Maneja El Equipo De Mateu

Puelles considera que los programas del corte de COMPAS constituyen “una herramienta más” a disposición de los magistrados. “Igual que previamente debían interpretar informes psiquiátricos, policiales, de la Seguridad Social… para sacar sus conclusiones. No creo que un juez competente se fie únicamente de un algoritmo”, razona. Sin bloqueo advierte encima el “peligro” de “automatizar la justicia”.

“Este es un asunto mas de esa especie de mística del algoritmo que puede usar consecuencias lamentables. Sería indispensable un acercamiento prudencial y poseer presente que el factor conciliador resulta fundamental. Al fin un juez que dicta una sentencia viciada o errónea es responsable, inconveniente si un algoritmo se recarga el futuro de 30 o 40 personas… ¿Quién es el responsable? ¿El programador? ¿La compañía? Empieza a desaparecer la responsabilidad”, lamenta Puelles, quien plantea abrir “un debate profundo” encima el aptitud de este persona de recursos.

Desde la Universidad de Sevilla, José Antonio Marín Casanova, profesor entre otras materias de Filosofía Actual, Tecnociencia y Sociedad, invita a “abandonar la ingenua tecnofobia”, pese a que carente “entregarse a la tecnofilia”. “Habría que someter estas herramientas de prevención de la delincuencia a tests de resistencia axiológica para constatar en qué ley pueden ser contraproducentes por fomentar la discriminación ideológica, étnica, económica, religiosa o sexual, por no proclamar de su factible utilización no ya para eludir el crimen, destino para castigarlo preventivamente”, reflexiona.

Una apoyo más, no una “caja mágica”

En lo que coinciden las voces críticas y los partidarios de las herramientas de prevención consultados es en que estas deben entenderse tan utensilios, no tan un sustituto del criterio de los expertos. “La idea es que puedan usarse tan ayuda, inconveniente no tan elementos determinantes”, señala Diéguez previamente de apuntar la ironía que supondría agenciárselas algoritmos mas fiables carente atacar al semejante asamblea las causas de la delincuencia: los factores económicos y sociales.

Ilarri: “Es primordial trabajar en la formación de las personas que utilicen estos recursos, en reglamentos y códigos éticos que regulen la recolección y utilización de datos”

“Estamos en un mundo del big data. Hay mucha info en la Red y la policía solicita herramientas para llegar. Está Claro® que al fin aire decisiones personales, que aire los cuerpos directivos, los agentes… los que toman las decisiones. Esto ayuda en ese proceso. No creo que se principios únicamente en un software”, abunda Mateu. De apreciación similar, Ilarri recuerda que los programas brindan un “apoyo” tan favor “útiles por su aptitud para procesar grandes volúmenes de datos de diferente tipo”.

No se pasivo delegar completamente en ellos la toma de decisiones. Si consideramos estas herramientas ‘cajas negras’ a las que proporcionamos datos de diferente persona y que mágicamente nos devuelven respuestas óptimas estaríamos cometiendo un gran error, ya que supondría asumir que el software y el modelo empleados aire perfectos y completos”, razona.

Ilarri insiste además en la apuro de que sean “equipos multidisciplinares y especializados” los que manejen los programas. “Es fundamental el papel de los avezados del ámbito del inconveniente que se desea abordar (en este caso, por ejemplo, de las personas con pericia en la organización de las fuerzas de seguridad) para usar e interpretar adecuadamente cordura los datos de llegada tan los resultados y tomar decisiones informadas, guiadas por los datos”, precisa.

“Correctamente utilizadas por elenco especializado, estas herramientas pueden apoyar a planificar acciones de apariencia adecuada. Utilizadas de apariencia incorrecta pueden acarrear a decisiones inadecuadas o inclusive reforzar prejuicios” -remata el experto- “Es primordial trabajar en la formación de las personas que las utilicen, en reglamentaciones y códigos éticos que regulen la recolección y utilización de datos, y en el ampliación de técnicas de gestión de datos mas avanzadas”.

También te recomendamos

Un par de chicos listos: smartphones(teléfonos inteligentes) y smart TVs, la rebelión del ocio tecnológico don a don

IBM utilizó cámaras de la policía de Nueva York para un aparato que posibilita agenciárselas personas por coloración de piel, según The Intercept

Aura de Telefónica vivirá tan IA en Google® Assistant o Facebook Messenger, pero, ¿para qué servirá realmente?


La noticia Si con la tecnología podemos predecir crímenes la gran cuestion es ¿debemos? fue publicada originalmente en Xataka por Carlos Prego .

Agrega tu comentario