Riesgos y beneficios de usar IA para detectar delitos

Las ventajas de la inteligencia artificial (IA) no se pueden resumir en palabras simples. Desde la atención médica hasta el estilo de vida, desde el transporte hasta la comunicación, desde la IA en el lugar de trabajo hasta los interiores de las casas, desde la IA en la gestión de desastres hasta la IA en los servicios al cliente , la IA tiene una amplia red.

Desde las últimas décadas, la IA también está transformando el sistema global de impartición de justicia.

Entonces, ¿cómo evalúan las empresas de vanguardia los beneficios y riesgos de la rápida evolución de la gestión de riesgos y la lucha contra el crimen de la IA? A continuación, explicamos algunos de esos beneficios y riesgos de la IA en la detección de delitos.

¿Cuál es el papel de la IA en el Derecho penal ?

Las empresas están utilizando la IA para prevenir y detectar todo, desde el robo rutinario de los empleados hasta el uso de información privilegiada. Muchos bancos y grandes corporaciones emplean inteligencia artificial para detectar y prevenir el fraude y el lavado de dinero. Las empresas de redes sociales utilizan el aprendizaje automático para bloquear contenido ilícito como la pornografía infantil.

Las empresas experimentan constantemente con nuevas formas de utilizar la inteligencia artificial para una mejor gestión de riesgos y una detección de fraudes más rápida y receptiva, e incluso para predecir y prevenir delitos.

Si bien la tecnología básica actual no es necesariamente revolucionaria, los algoritmos que utiliza y los resultados que puede producir sí lo son. Por ejemplo, los bancos han estado utilizando durante décadas sistemas de monitorización de transacciones basados ​​en reglas binarias predefinidas que requieren que la salida se verifique manualmente. La tasa de éxito es generalmente baja: en promedio, solo el 2% de las transacciones marcadas por los sistemas finalmente reflejan un crimen real o una intención maliciosa.

Por el contrario, las soluciones de aprendizaje automático actuales utilizan reglas predictivas que reconocen automáticamente las anomalías en los conjuntos de datos. Estos algoritmos avanzados pueden reducir significativamente la cantidad de alertas falsas al filtrar los casos que se marcaron incorrectamente, al mismo tiempo que descubren otros que no se detectaron con las reglas convencionales.

Dada la gran cantidad de datos disponibles en la actualidad y las crecientes expectativas de los clientes y las autoridades públicas cuando se trata de proteger y administrar esos datos, muchas empresas han decidido que esta es una de las únicas formas de mantenerse al día con los delincuentes cada vez más sofisticados.

Hoy, por ejemplo, se espera que las empresas de redes sociales descubran y eliminen videos y mensajes de reclutamiento de terroristas casi al instante. Con el tiempo, las herramientas de lucha contra el crimen impulsadas por IA podrían convertirse en un requisito para las grandes empresas, en parte porque no habrá otra forma de detectar e interpretar patrones rápidamente en miles de millones de datos.

Pero determinar si las soluciones de lucha contra el crimen de IA son una buena opción estratégica para una empresa depende de si los beneficios superan los riesgos que las acompañan.

Uno de esos riesgos es que se pueden sacar conclusiones sesgadas de la IA en función de factores como el origen étnico, el género y la edad. Las empresas también pueden experimentar una reacción violenta de los clientes que se preocupan de que sus datos sean mal utilizados o explotados por una vigilancia aún más intensiva de datos de sus registros, transacciones y comunicaciones, especialmente si esos conocimientos se comparten con el gobierno.

Recientemente, por ejemplo, un banco europeo se vio obligado a dar marcha atrás en su plan de pedir permiso a los clientes para monitorizar sus cuentas de redes sociales como parte de su proceso de solicitud de hipoteca, luego de una protesta pública por sus tácticas de «Gran Hermano».

Evaluación del ajuste estratégico

Antes de embarcarse en una iniciativa de gestión de riesgos de IA, los gerentes primero deben comprender dónde el aprendizaje automático ya está marcando una gran diferencia. Los bancos, por ejemplo, están poniendo fin a los delitos financieros de forma mucho más rápida y económica que antes mediante el uso de IA para automatizar procesos y realizar análisis de «aprendizaje profundo» de varias capas.

Aunque los bancos ahora presentan 20 veces más informes de actividades sospechosas relacionadas con el lavado de dinero que en 2012, las herramientas de IA les han permitido reducir los ejércitos de personas que emplean para evaluar alertas de actividades sospechosas. Esto se debe a que sus alertas falsas se han reducido a la mitad gracias a la IA, y porque muchos bancos ahora pueden automatizar el trabajo preliminar humano de rutina en la evaluación de documentos.

Por ejemplo, usando inteligencia artificial,Paypal también ha reducido a la mitad sus alertas falsas. Y Royal Bank of Scotland evitó pérdidas de más de $ 9 millones para los clientes después de realizar una prueba piloto de un año con Vocalink Analytics, una empresa de pagos, para usar IA para escanear transacciones de pequeñas empresas en busca de facturas falsas.

Las herramientas de IA también permiten a las empresas descubrir patrones o relaciones sospechosas invisibles incluso para los expertos. Por ejemplo, las redes neuronales artificiales pueden permitir a los empleados predecir los próximos movimientos incluso de delincuentes no identificados que han descubierto formas de evitar los desencadenantes de alertas en los sistemas de seguridad basados ​​en reglas binarias.

Estas redes neuronales artificiales vinculan millones de puntos de datos de bases de datos aparentemente no relacionadas, que contienen todo, desde publicaciones en redes sociales hasta direcciones de protocolo de Internet utilizadas en redes Wi-Fi de aeropuertos, propiedades inmobiliarias o declaraciones de impuestos, e identifican patrones.

El siguiente paso para evaluar la sabiduría de lanzar un programa de gestión de riesgos de IA es que las empresas evalúen en qué medida los clientes y las autoridades gubernamentales esperan que estén a la vanguardia. Incluso si no se convierte en una obligación reglamentaria o legal, a las empresas les puede resultar ventajoso desempeñar un papel de liderazgo en el uso de análisis avanzados para poder participar en el establecimiento de estándares en toda la industria. Pueden ayudar a garantizar que los participantes de la industria, los reguladores, los innovadores tecnológicos y los clientes estén seguros, sin pisotear la privacidad y los derechos humanos de las personas.

Auge de las asociaciones público-privadas para la prevención del delito con IA

Las empresas y los organismos encargados de hacer cumplir la ley han estado experimentando por separado con el uso de inteligencia artificial para mejorar su capacidad de detectar y prevenir delitos. Ahora, están trabajando cada vez más juntos, desarrollando plataformas de datos compartidos, protocolos de informes y circuitos de retroalimentación.

Las alianzas público-privadas para combatir el crimen serán cada vez más comunes. Las instituciones financieras, las unidades de inteligencia financiera y las fuerzas del orden público están comenzando a establecer asociaciones público-privadas para compartir datos y usar IA para detectar delitos en ciertas jurisdicciones.

Por ejemplo, en el Reino Unido, la Agencia Nacional contra el Crimen está trabajando en estrecha colaboración con Finanzas del Reino Unido para usar IA con el fin de identificar mejor no solo los delitos financieros y económicos, sino también mejorar su capacidad de usar información financiera para detectar otros tipos de delitos como la trata de personas. y falsificación. Las autoridades también están explorando cada vez más formas de aumentar el intercambio de información e inteligencia entre los sectores público y privado.

A medida que el crimen organizado y los delincuentes se vuelven más sofisticados y la cantidad de datos disponibles para el sector privado sigue aumentando exponencialmente, las empresas y las fuerzas del orden entrarán en más asociaciones público-privadas para aprovechar su gran cantidad de datos y detectar posibles actividades delictivas de manera aún más eficiente.

Usos de la IA para detectar delitos

Hoy en día, la IA se usa más comúnmente para detectar delitos como el fraude y el lavado de dinero. Pero en el futuro, es probable que también se use comúnmente en otras industrias. A continuación hay tres áreas en las que vemos que la IA se usa para prevenir:

  • Transporte de mercancías ilegales. Con AI, las empresas de entrega urgente pueden evaluar la probabilidad de que los paquetes contengan productos ilegales, como narcóticos, e informarlos a las autoridades pertinentes.
  • Actividades terroristas. Los minoristas y las farmacias podrían usar herramientas sofisticadas de inteligencia artificial para identificar a los clientes que compran cantidades inusuales de productos químicos que podrían usarse como precursores de actividades terroristas.
  • Trata de personas. Las compañías navieras pueden usar sus datos y capacidades de inteligencia artificial para identificar los contenedores que tienen más probabilidades de usarse para el tráfico de personas y así salvar vidas.

Finalmente, los gerentes deben determinar si tiene más sentido crear o comprar el tipo de solución de IA que satisfaga sus necesidades. Para llegar a esta decisión, los gerentes deben buscar casos de uso probados en los que la IA ya esté logrando lo que esperan lograr. Luego, deben decidir con qué proveedor trabajar, en función de su capacidad para manejar el aprendizaje automático que aborda el tipo de problema que enfrenta la empresa de los gerentes con el nivel de calidad que satisfará a los reguladores.

Sin embargo, si es probable que una empresa se enfrente a delitos más complicados o de rápida evolución, es posible que requiera un modelo más sofisticado y personalizado. En ese caso, suele ser más beneficioso desarrollar una solución de aprendizaje automático internamente. Esto es especialmente cierto si las soluciones proporcionadas externamente son costosas u ofrecen un bajo grado de certeza en sus resultados.

Evaluación y mitigación de los riesgos internos

A medida que los gerentes examinan cómo la IA puede ayudarlos a identificar actividades delictivas, también deben considerar cómo encaja con su estrategia de IA más amplia. La gestión de riesgos de IA y la detección de delitos no deben llevarse a cabo de forma aislada.

Las pruebas retrospectivas con modelos más simples pueden ayudar a los bancos a limitar el impacto de conclusiones potencialmente inexplicables extraídas por la inteligencia artificial, especialmente si hay un evento desconocido para el cual el modelo no ha sido entrenado.

Por ejemplo, los bancos usan inteligencia artificial para monitorizar transacciones y reducir la cantidad de alertas falsas que reciben sobre posibles transacciones deshonestas, como dinero que se lava con fines delictivos. Estos se prueban contra modelos más simples basados ​​en reglas para identificar posibles valores atípicos. Un modelo de IA puede, por ejemplo, pasar por alto por error una gran transacción de lavado de dinero que normalmente activaría una alerta en un sistema basado en reglas si determina, con base en datos sesgados, que las grandes transacciones realizadas por clientes que residen en vecindarios ricos no merecen tanta atención.

El uso de este enfoque permite a las empresas diseñar modelos de aprendizaje automático más transparentes, incluso si eso significa que operan dentro de límites más explícitos.

Las empresas también deben prepararse para ajustar sus procesos de gestión de riesgos para contrarrestar sistemáticamente los modelos de autoaprendizaje impulsados ​​por IA que pueden desarrollar sesgos a medida que se recalibran constantemente. Los bancos, por ejemplo, deben probar y verificar con frecuencia un subconjunto aleatorio de sus análisis de lavado de dinero y fraude para garantizar que los sistemas impulsados ​​por IA no penalicen injustamente a ningún grupo en particular.

Sobre todo, los gerentes deben evaluar si el análisis de datos de su empresa es suficiente para manejar herramientas complejas de IA. De lo contrario, deben desarrollar capacidades de análisis de datos internamente para alcanzar una masa crítica de procesos automatizados y análisis estructurados.

Comprensión y preparación para los riesgos externos

El mayor uso de herramientas de IA para la prevención del delito también podría causar que los riesgos externos se desborden de formas inesperadas. Una empresa podría perder su credibilidad ante el público, los reguladores y otras partes interesadas de innumerables maneras, por ejemplo, si hay alertas falsas que identifican erróneamente a las personas como «sospechosas» o «criminales» debido a un sesgo racial integrado involuntariamente en el sistema. O, en el otro extremo del espectro, si pasan por alto actividades delictivas, como el tráfico de drogas realizado por sus clientes o los fondos canalizados desde países sancionados como Irán.

Los delincuentes podrían recurrir a medidas más extremas y potencialmente violentas para superar a la IA. Los clientes podrían huir a entidades menos monitorizadas fuera de las industrias reguladas. Incluso podría desarrollarse un riesgo moral si los empleados se vuelven demasiado dependientes de las herramientas de lucha contra el crimen de IA para atrapar a los delincuentes por ellos. Es posible que los empleados desarrollen una falsa sensación de comodidad y luego dejen de verificar regularmente los resultados y pasen por alto casos obvios.

Para evitar que esto suceda, las empresas deben crear y probar una variedad de escenarios de eventos en cascada resultantes de herramientas impulsadas por IA que se utilizan para rastrear actividades delictivas. Para burlar a los lavadores de dinero, por ejemplo, los bancos deberían realizar “juegos de guerra” con exfiscales e investigadores para descubrir cómo vencerían a su sistema.

Con los resultados producidos a través del análisis de escenarios, los gerentes pueden ayudar a los altos ejecutivos y miembros de la junta a decidir qué tan cómodos se sienten con el uso de la IA para combatir el crimen. También pueden desarrollar manuales de gestión de crisis que contengan estrategias de comunicación interna y externa para que puedan reaccionar rápidamente cuando las cosas (inevitablemente) salgan mal.

Beneficios

AI en este momento está lista para traer la evolución en los datos comerciales. Con ciertas habilidades, como el análisis de grandes cantidades de datos, inteligencia de decisiones, conocimientos comerciales, modelos de pronóstico, análisis predictivo, existe la posibilidad de que la inteligencia artificial vaya más allá de la capacidad humana.

La IA en la justicia penal tiene un papel muy importante. Hemos enumerado algunas de las ventajas que tiene la tecnología en la justicia penal.

Conocimientos más profundos

Las tecnologías de IA proporcionan información más profunda de los datos. Se adhiere a la información menor que los humanos a veces pasan por alto.

Análisis predictivo

Los conocimientos más profundos proporcionan predicciones futuras de los datos recopilados. Los algoritmos de IA ayudan a analizar grandes conjuntos de datos para encontrar soluciones y predicciones futuras.

Psicología Forense

La psicología forense es una de las principales ventajas de la IA. Los organismos encargados de hacer cumplir la ley utilizan los análisis forenses para rastrear al culpable a través de datos biológicos e IA.

Mantiene los datos

Mediante el mantenimiento de los datos, términos legales y registros antiguos. AI hace que el proceso de justicia penal sea mucho más simple y rápido.

Automatización en prisiones

La IA también ayuda en las etapas posteriores a la condena. Proporciona automatización de la seguridad en celdas y prisiones. Y al mismo tiempo, asiste en la rehabilitación de los delincuentes. Ayuda a rastrear a los prisioneros y notificar a los guardias en caso de emergencia.

Por ejemplo, la prisión de Yancheng, que es una instalación operada por el Ministerio de Justicia de China, tiene cámaras instaladas en cada celda con el objetivo de utilizar IA para rastrear a sus reclusos.

Asistencia criminógena

La IA y sus algoritmos también ayudan en las necesidades criminogénicas. Determina la forma especial que puede ayudar a los delincuentes sugiriendo la mejor forma especial de tratamiento para ellos.

Programas de entrenamiento basados ​​en algoritmos

Una cárcel en Finlandia tiene un esquema de entrenamiento que utiliza algoritmos de entrenamiento basados ​​en IA. La inteligencia artificial diseña las diferentes tareas para los prisioneros según sus habilidades y, por lo tanto, los ayuda a aprender nuevas profesiones y trabajos. Estas nuevas habilidades aprendidas ayudan a los presos a servir a la sociedad una vez que finaliza el período de su sentencia.

Predice la reincidencia

Según la Universidad de Stanford, la inteligencia artificial predice la reincidencia mejor que los humanos. Los algoritmos de IA clasifican la complejidad del sistema de justicia penal y brindan mejores decisiones.

Las herramientas de evaluación de riesgos son considerablemente mejores que los humanos para aclarar la complejidad del sistema de justicia penal y proporcionar decisiones más precisas. Considera esto: cuando solo están involucradas unas pocas variables, los humanos son perfectamente capaces de predecir por sí mismos qué acusados ​​​​serán arrestados más tarde por otro delito. Pero cuando hay un mayor número de aspectos en juego, los algoritmos normalmente superan a los humanos.

En algunas pruebas, tuvieron una precisión de casi el 90% al predecir qué acusados ​​tienen posibilidades de ser arrestados nuevamente. Los humanos, por el contrario, demostraron una precisión de solo alrededor del 60%.

Prueba de evaluación de riesgos

Las herramientas de evaluación de riesgos brindan resultados más exactos y precisos en comparación con los métodos tradicionales de juicio humano.

Transparencia

Las decisiones que toman los algoritmos de IA son siempre de naturaleza transparente. En comparación con las decisiones humanas que a veces pueden estar sesgadas.

Para que la IA se utilice de manera efectiva en el sistema de justicia penal, los derechos de las personas a saber cómo funcionan la IA y los algoritmos deben conciliarse con los derechos de las empresas a proteger sus datos y materiales. Además, es necesario evaluar si la IA debe o no someterse a un estándar más alto de transparencia que la toma de decisiones humana.

Algunas IA avanzadas, conocidas como redes neuronales, funcionan como un «sistema de caja negra». Esto significa que incluso los creadores de la IA no entienden completamente cómo toma sus decisiones. Imagina el aprendizaje automático como una caja con perillas: gira las perillas y el resultado será diferente. Sin embargo, nadie entiende completamente lo que sucede dentro de la caja. Es un sistema complejo que aprende al recibir datos, pero no podemos comprender exactamente cómo analiza los datos para tomar decisiones.

Decisiones lógicas

Las decisiones y predicciones realizadas por los algoritmos de IA son totalmente lógicas y se basan completamente en hechos y datos. Las decisiones humanas a veces son impulsadas por emociones y sentimientos.

Biometría

La biometría es otra ventaja de la IA. Apoya la asistencia y el reconocimiento de los presos a través de características de identificación biológica.

Riesgos

No todo es un lecho de rosas, también existen algunas limitaciones de la IA en el sector de la justicia penal. Las principales limitaciones son las siguientes:

Proceso complejo

Los algoritmos de IA y la inteligencia de decisiones son un proceso complejo. A veces, incluso el propio creador original no es consciente de ello. Esta limitación a veces crea un gran retraso en el sistema.

Privacidad de datos

No importa cuál sea el campo, la privacidad de los datos siempre ha sido una gran limitación de la IA. La IA y sus algoritmos arriesgan la protección de los datos de las personas.

Algunas personas pueden temer que la inteligencia artificial use información personal de manera que pueda violar la privacidad. Es por ello que los interesados ​​deben prestar su consentimiento explícito al tratamiento de sus datos personales, así como al principio de minimización de datos, el principio de limitación de la finalidad y el conjunto de derechos relativos a las ocasiones en que se permite la toma de decisiones automatizada.

El Reglamento General de Protección de Datos (GDPR) proporciona algunos puntos de referencia aquí. Cuando los datos se traten de forma automatizada, el responsable del tratamiento deberá aplicar las medidas adecuadas para proteger los derechos y libertades del interesado, así como sus intereses legítimos.

El RGPD también comprende el derecho del interesado a obtener «información significativa sobre la lógica involucrada» durante el procedimiento de procesamiento automatizado.

No considera el factor humano o emocional

La justicia cada vez no puede ser impulsada por los hechos y la lógica. A veces también es necesario mirar el lado emocional de la historia. Aquí, la IA y su tecnología son fracasos.

Implicaciones de sesgo

Como hemos visto, la principal consideración ética al utilizar la IA en la justicia penal como herramienta de evaluación de riesgos/necesidades es el sesgo. El sesgo se puede introducir en la IA de muchas maneras diferentes. Si la IA es una red neuronal, debe recibir datos de entrenamiento. Por ejemplo, si se hace que una IA distinga entre perros y gatos, debe recibir imágenes de ambos para que «sepa» cuáles son cuáles.

Por lo tanto, una red neuronal que actúa como una herramienta de evaluación de riesgos/necesidades debe recibir datos sobre ciertos delincuentes y si reincidieron. Sin embargo, los datos que recibe la IA a menudo reflejan un sesgo que ya está presente en los humanos y lo exacerba.

En última instancia, tanto los humanos como las máquinas pueden estar sesgados. Dos personas diferentes pueden tener dos interpretaciones muy diferentes de la ley y perspectivas sobre el castigo por un determinado delito. Los algoritmos están sesgados debido a los datos que reciben y cómo los interpretan. Estos dos tipos de sesgos son fundamentalmente distintos. El sesgo de la IA es un error informático que fue provocado por un aspecto del sesgo muy humano que sirven para erradicar.

Se puede argumentar que el sesgo humano consiste en que diferentes personas interpretan la ley de diferentes maneras para lograr la justicia de la manera que les parezca adecuada. Sin embargo, cuando observamos los datos, podemos ver que lo que se presenta como un sistema de justicia próspero en realidad podría estar compuesto por humanos que no son consistentes en sus propias decisiones o que no separan sus propios puntos de vista personales de la imparcialidad y la razón requerida para ser un juez eficaz.

Una cosa importante para recordar es que la toma de decisiones humana no mejorará en el corto plazo, mientras que la IA está en constante desarrollo. Estamos aprendiendo a eliminar el sesgo de nuestros algoritmos de una manera que es imposible hacerlo en nuestras mentes.

Presunción de inocencia

De vez en cuando, el uso de herramientas algorítmicas en los procesos penales puede dar lugar a violaciones del derecho a un juicio justo, en particular en lo que respecta al derecho a un juez elegido al azar, el derecho a un tribunal independiente e imparcial y la presunción de inocencia.

La presunción de inocencia se considera un principio fundamental del derecho. Significa que toda persona debe ser considerada inocente hasta que se pruebe su culpabilidad tras un juicio justo.

Por supuesto, algunas personas expresan su preocupación de que las herramientas de IA puedan conducir a predicciones sesgadas e inexactas. Sin embargo, al tener en cuenta la presunción de inocencia y el objetivo de reducir el número de personas detenidas antes del juicio, los sistemas de toma de decisiones de IA se están mejorando para ayudar a los jueces a identificar las razones para liberar a las personas en lugar de centrarse únicamente en los riesgos de las personas.

Perspectivas

No sólo en el sistema de impartición de justicia. Las herramientas de IA se han ampliado para detectar contrabando y otras señales de alerta, como delitos. En los últimos años, AI ha frenado varias operaciones ilegales, incluidos los delitos relacionados con niños. Y en los próximos años se espera que la IA se vuelva más fuerte en el campo, cruzando todas las barreras y limitaciones.

Mediante el uso de IA, las empresas pueden identificar áreas de posibles delitos como el fraude, el lavado de dinero y el financiamiento del terrorismo, además de delitos más mundanos como el robo de empleados, el fraude cibernético y las facturas falsas, para ayudar a las agencias públicas a procesar estos delitos de forma mucho más efectiva y eficiente.

Pero con estos beneficios vienen los riesgos que deben evaluarse de manera abierta, honesta y transparente para determinar si el uso de la IA de esta manera es un ajuste estratégico. No será fácil. Pero una comunicación clara con los reguladores y los clientes permitirá a las empresas estar a la altura del desafío cuando las cosas salgan mal. La IA finalmente tendrá un impacto enormemente positivo en la reducción del crimen en el mundo, siempre que se gestione bien.

Para que la IA se utilice con la mayor eficacia posible en el sistema de justicia, debemos trabajar para resolver estas consideraciones sociales y éticas. También deberíamos preguntarnos qué tan importante es que el algoritmo sea completamente transparente porque, en algunos casos, la transparencia total es imposible tanto en la IA como en la toma de decisiones humana.