La investigación y la regulación de la inteligencia artificial (IA) tratan de equilibrar los beneficios de la innovación con los posibles daños y perjuicios. Sin embargo, una consecuencia no deseada del reciente aumento de la investigación en IA es la posible reorientación de las tecnologías de IA para facilitar los actos delictivos, lo que se denomina IA-Crime (IAC). El AIC es teóricamente factible gracias a los experimentos publicados sobre la automatización del fraude dirigido a los usuarios de las redes sociales, así como a las demostraciones de manipulación de mercados simulados impulsada por la IA.
Explorando el significado de IA-Crime
Todavía no se ha reconocido la importancia del IA-C como fenómeno distinto. La literatura sobre las implicaciones éticas y sociales de la IA se centra en la regulación y el control de los usos civiles de la IA, en lugar de considerar su posible papel en la delincuencia. Además, la investigación sobre IA disponible está dispersa en distintas disciplinas, como los estudios socio´-jurídicos, la informática, la psicología y la robótica, por nombrar sólo algunas. Esta falta de investigación centrada en el IAC socava el alcance tanto de las proyecciones como de las soluciones en esta nueva área de actividad delictiva potencial.
La inteligencia artificial (IA) puede desempeñar un papel cada vez más esencial en los actos delictivos en el futuro. Dos experimentos de investigación (teóricos) aportan pruebas de la «delincuencia de la IA» (IAC). En el primero, dos científicos sociales computacionales utilizaron la IA como instrumento para convencer a los usuarios de las redes sociales de que hicieran clic en los enlaces de phishing dentro de los mensajes producidos en masa. Dado que cada mensaje se construyó mediante técnicas de aprendizaje automático aplicadas a los comportamientos anteriores de los usuarios y a sus perfiles públicos, el contenido se adaptó a cada individuo, camuflando así la intención que había detrás de cada mensaje. Si la víctima potencial hubiera hecho clic en el enlace de phishing y rellenado el formulario web subsiguiente, entonces (en circunstancias del mundo real) un delincuente habría obtenido información personal y privada que podría ser utilizada para el robo y el fraude. La delincuencia impulsada por la IA también puede afectar al comercio. En el segundo experimento, tres informáticos simularon un mercado y descubrieron que los agentes comerciales podían aprender y ejecutar una campaña de manipulación del mercado «rentable» que comprendía un conjunto de operaciones fraudulentas.
¿Cómo medir la responsabilidad penal en casos con IA’s?
Aunque el análisis superficial del diseño y la implementación de un agente artificial (AA) podría sugerir un tipo particular de comportamiento relativamente simple al desplegarse el agente artificial actúa de maneras potencialmente más sofisticadas que las expectativas originales. Las acciones y planes coordinados pueden aparecer de forma autónoma, por ejemplo, como resultado de técnicas de aprendizaje automático.
Grado de responsabilidad
En primer lugar habría que cuestionar el grado de responsabilidad, que hace referencia a la preocupación de que la IA pueda socavar los modelos de responsabilidad existentes, amenazando así el poder disuasorio y reparador de la ley. Los modelos de responsabilidad existentes pueden ser inadecuados para abordar el futuro papel de la IA en las actividades delictivas. Por lo tanto, los límites de los modelos de responsabilidad pueden socavar la seguridad jurídica, ya que puede darse el caso de que los agentes, artificiales o no, realicen actos u omisiones delictivos sin que concurran las condiciones de responsabilidad suficientes para que un delito concreto constituya una infracción penal. La primera condición de la responsabilidad penal es el actus reus: una acción u omisión delictiva realizada voluntariamente. En el caso de los tipos de IAC definidos de tal manera que sólo el agente artificial puede llevar a cabo la acción u omisión delictiva, el aspecto voluntario del actus reus puede no cumplirse nunca, ya que la idea de que un agente artificial pueda actuar voluntariamente es discutible.
Cuando la responsabilidad penal se basa en la culpa, también tiene una segunda condición, la mens rea (mente culpable), de la que hay muchos tipos y umbrales diferentes de estado mental aplicados a diferentes delitos. En el contexto del IAC, la mens rea puede comprender la intención de cometer el actus reus utilizando una aplicación basada en la IA (umbral de intención) o el conocimiento de que el uso de un agente artificial provocará o podría provocar una acción u omisión delictiva (umbral de conocimiento).
Umbral de intención
En cuanto al umbral de intención, si se admite que un agente artificial puede realizar el actus reus, en aquellos tipos de IAC en los que la intención constituye (en parte) la mens rea, una mayor autonomía del agente artificial aumenta la posibilidad de que la acción u omisión delictiva se desvincule del estado mental (intención de cometer la acción u omisión): los robots autónomos y los agentes artificiales tienen una capacidad única para desdoblar un acto delictivo, en el que un humano manifiesta la mens rea y el robot o agente artificial comete el actus reus.
Umbral de conocimiento
En cuanto al umbral de conocimiento, en algunos casos la mens rea podría faltar por completo. La posible ausencia de una mens rea basada en el conocimiento se debe al hecho de que, incluso si se entiende que un agente artificial puede realizar el actus reus de forma autónoma, la complejidad de la programación del agente artificial hace posible que el diseñador, desarrollador o realizador (es decir, un agente humano) no conozca ni prediga el acto u omisión delictiva del agente artificial. La implicación es que la complejidad de la IA proporciona un gran incentivo para que los agentes humanos eviten averiguar lo que hace precisamente el sistema de aprendizaje automático, ya que cuanto menos sepan los agentes humanos, más podrán negar la responsabilidad.
¿Sería adecuado revisar los requisitos legales?
Como alternativa, los legisladores pueden definir la responsabilidad penal sin el requisito de la culpa. Esta responsabilidad sin culpa, que se utiliza cada vez más para la responsabilidad por productos en el derecho de daños (por ejemplo, productos farmacéuticos y bienes de consumo), llevaría a asignar la responsabilidad a la persona jurídica sin culpa que desplegó un agente artificial a pesar del riesgo de que pueda realizar una acción u omisión delictiva. Tales actos irreprochables pueden implicar a muchos agentes humanos que han contribuido al delito prima facie, como por ejemplo mediante la programación o el despliegue de un agente artificial.
Sin embargo, algunos estudios sostienen que la mens rea con intención o conocimiento es central para la habilitación del derecho penal para la censura y no podemos simplemente abandonar ese requisito clave de la responsabilidad penal ante la dificultad de probarlo. El problema es que, si no se abandona del todo la mens rea y solo se rebaja el umbral, entonces, por razones de equilibrio, la pena puede ser demasiado leve (la víctima no es compensada adecuadamente) y, a la vez, desproporcionada (¿fue realmente culpa del acusado?) en el caso de delitos graves, como los que se cometen contra la persona.
Otras problemáticas derivadas de la IAC
La supervisión de los AIC se enfrenta a tres tipos de problemas: la atribución, la viabilidad y las acciones entre sistemas.
- La atribución del incumplimiento es un problema porque este nuevo tipo de organismo inteligente puede actuar de forma independiente y autónoma, dos características que enturbiarán cualquier intento de trazar un rastro de responsabilidad hasta un autor.
- En cuanto a la viabilidad de la supervisión, un autor puede aprovecharse de los casos en que los agentes artificiales operan a velocidades y niveles de complejidad que simplemente superan la capacidad de los supervisores del cumplimiento .
- La atribución del incumplimiento es un problema porque este nuevo tipo de organismo inteligente puede actuar de forma independiente y autónoma, dos características que enturbiarán cualquier intento de trazar un rastro de responsabilidad hasta un autor.
- En cuanto a la viabilidad de la supervisión, un autor puede aprovecharse de los casos en que los agentes artificiales operan a velocidades y niveles de complejidad que simplemente superan la capacidad de los supervisores del cumplimiento, por ejemplo: bots maliciosos.
- Las acciones entre sistemas plantean un problema para los monitores AIC que sólo se centran en un único sistema. Los experimentos entre sistemas muestran que la copia automatizada de la identidad de un usuario de una red social a otra (un delito de robo de identidad entre sistemas) es más eficaz para engañar a otros usuarios que la copia de una identidad dentro de una misma red.
Delitos de los que puede ser partícipe una IA
Comercio, mercados financieros e insolvencia
Incluye los delitos como la fijación de precios, las operaciones con información privilegiada, como la negociación de valores basada en información comercial privada, y la manipulación del mercado. Los agentes comerciales artificiales se adaptan y alteran nuestra percepción de los mercados financieros como resultado de estos cambios.
Tráfico de drogas
El tráfico de drogas se percibe como una amenaza debido a que los delincuentes utilizan vehículos no tripulados, que dependen de las tecnologías de planificación y navegación autónoma de la IA, como instrumentos para mejorar las tasas de éxito del contrabando. Según Europol, los drones presentan una amenaza horizontal en forma de contrabando de drogas automatizado. Dentro de esta línea también entran los vehículos submarinos no tripulados (UUV) ofrecen un buen ejemplo de los riesgos de doble uso de la IA y, por lo tanto, del potencial de los AIC. Por otro lado, tenemos los bots sociales que puedan explotar la rentabilidad de las herramientas de publicidad conversacional y personalizada para facilitar la venta de drogas ilegales.
Delitos contra la persona
Se relaciona el AIC con el acoso y la tortura. En lo que respecta al acoso, este se realiza a través de los bots sociales. Un actor malévolo puede desplegar un bot social como instrumento de acoso directo e indirecto. El acoso directo está constituido por la difusión de mensajes de odio contra la persona. Los métodos indirectos incluyen retuitear o dar «me gusta» a tuits negativos y sesgar las encuestas para dar una falsa impresión de animosidad a gran escala contra una persona. Ahora que la IA puede generar contenidos falsos más sofisticados, son posibles nuevas formas de acoso. Recientemente, los desarrolladores han lanzado un software que produce vídeos sintéticos. Es de destacar que muchos de estos vídeos sintéticos son pornográficos y ahora existe el riesgo de que usuarios malintencionados sinteticen contenidos falsos para acosar a las víctimas.
En lo que respecta a la tortura, el riesgo de AIC se vuelve plausible si los desarrolladores integran las capacidades de planificación y autonomía de la IA en un agente artificial de interrogatorio. Para el sujeto del interrogatorio, el riesgo es que un agente artificial pueda ser desplegado para aplicar técnicas de tortura psicológica (por ejemplo, imitando a personas conocidas por el sujeto de la tortura) o física. Algunos actores malintencionados pueden percibir el uso de la IA como una forma de optimizar el equilibrio entre el sufrimiento y hacer que el interrogado mienta, o se confunda o no responda. Todo esto puede ocurrir independientemente de la intervención humana. Por lo tanto, resulta más fácil utilizar la tortura, como resultado de las mejoras en la eficacia (falta de compasión), la motivación del ejecutor (menos emoción) y la responsabilidad ofuscada (desprendimiento físico).
Robo, fraude, falsificación y suplantación
En lo que respecta al robo y al fraude no corporativo, se describe un proceso de dos fases que comienza con el uso de la IA para recopilar datos personales y procede a utilizar los datos personales robados y otros métodos de IA para falsificar una identidad que convenza a las autoridades bancarias para realizar una transacción (es decir, que implique un robo y un fraude bancario). El fraude con tarjetas de crédito es predominantemente un delito en línea que no suele requerir interacción física, la IA puede impulsar el fraude proporcionando síntesis de voz o ayudando a recopilar suficientes datos personales.
En el caso del fraude empresarial, la IA utilizada para la detección también puede facilitar la comisión del fraude. En concreto cuando los ejecutivos implicados en el fraude financiero conocen bien las técnicas y los programas informáticos de detección del fraude, que suelen ser información pública y fácil de obtener, es probable que adapten los métodos con los que cometen el fraude y dificulten la detección del mismo, especialmente mediante las técnicas existentes.
Si la legislación no prohíbe mayores niveles de autonomía para un determinado agente artificial, la ley debe obligar a que esa libertad vaya acompañada de mecanismos tecnológicos que impidan la aparición de actos u omisiones delictivas una vez desplegados en la sociedad.
King, T.C., Aggarwal, N., Taddeo, M. et al. Artificial Intelligence Crime: An Interdisciplinary Analysis of Foreseeable Threats and Solutions. Sci Eng Ethics 26, 89–120 (2020). https://doi.org/10.1007/s11948-018-00081-0