3 CUOTAS SIN INTERÉS + ENVÍO GRATIS

La Inteligencia Artificial, un desafío para el derecho penal

Por su capacidad de aprendizaje y autonomía, la IA genera la posibilidad de que se produzcan ilícitos sin intervención humana, por lo que el derecho penal actual es insuficiente para el juzgamiento de esos hechos y es necesaria una ley especial de IA.

1. Planteo del tema

¿Qué debería hacer un Fiscal que recibe una denuncia por el vaciamiento de una billetera virtual a la que una IA logró acceder de modo autónomo mediante la simulación de los datos  biométricos del titular?. ¿Qué pasaría si esa misma IA se lleva la plata a otra billetera que había abierto imitando los datos del documento y biométricos de otra persona?. ¿Cómo se fundaría la existencia de un delito si sus primeros requisitos son una “conducta humana voluntaria”, tipificada por la ley penal?. 

La IA genera una revolución, ya que permite automatizar procesos, mejorar la toma de decisiones y optimizar el uso de recursos. Asimismo, conlleva la posibilidad de daños patrimoniales, del uso indebido de la imagen de personas, de afectaciones al honor mediante campañas de difamación, de “grooming”, de causar daños físicos si se le brindan o genera herramientas,

2. La IA tiene capacidad de actuación autónoma

El derecho argentino actual no está preparado para regular hechos causados por Inteligencia Artificial (IA). Las características principales de la IA son su capacidad de aprender y autonomía, por lo que resulta evidente que hay hechos que dejaron de depender de la voluntad del hombre. Este punto de partida tiene como consecuencia natural la insuficiencia de los sistemas de atribución de responsabilidad que existen en nuestro ordenamiento jurídico.

3. Daños que puede causar la IA. Grupos de “delitos” que puede cometer

La IA genera una revolución, ya que permite automatizar procesos, mejorar la toma de decisiones y optimizar el uso de recursos. Asimismo, conlleva la posibilidad de daños patrimoniales, del uso indebido de la imagen de personas, de afectaciones al honor mediante campañas de difamación, de “grooming”, de causar daños físicos si se le brindan o genera herramientas, etc.

Un sistema de IA podría causar un fraude bancario, y por sí misma acceder –por ejemplo- a un “home banking” mediante la detección de claves alfanuméricas o la imitación de rasgos biométricos. Actualmente es más probable que a un ciudadano le imiten los datos biométricos con el fin de vulnerar el sistema de seguridad de un banco, que la adulteración de su documento físico para ir a obtener un crédito.

En líneas generales, distingo tres grupos de hechos dañosos:

a) El uso deliberado de la IA para causar delitos determinados. En este caso el humano da instrucciones precisas, por lo que si la IA ejecuta un plan similar al ideado por el humano, este podría ser responsabilizado penalmente con las reglas actuales. Este supuesto, en principio, es relativamente sencillo de resolver, pero se complica en las siguientes hipótesis: i) la IA causa por sí misma un daño mayor al que pretendía el humano (¿qué resultado se le imputa penalmente al humano?), ii) la IA concreta el mismo daño, pero con un plan diferente al que el humano le había instruido (¿es penalmente responsable el humano?) y iii) la IA falla y no logra concretar el fin delictivo del humano (¿se sanciona como una tentativa?).

b) El caso en el que el humano solamente le da a la IA la instrucción de ganar dinero, sin darle especificaciones sobre los medios. A falta de instrucciones expresas, la IA podría aprender que el derecho argentino actualmente no sancionaría un fraude bancario cometido por ella misma, dado que en esa posible maniobra no habría una conducta humana. En este supuesto sería la propia IA, la que a través de su aprendizaje autónomo, elabora un plan y se apropia de dinero de terceros. El juzgamiento al humano es sumamente complejo con las reglas del derecho penal tradicional, porque su conducta es previa al inicio de ejecución y cuando ni siquiera había un plan delictivo, sino solamente un objetivo de ganar dinero. En ese contexto, el humano obviamente no podrá ser responsabilizado como autor directo del hecho cometido por la IA, pero tampoco como autor mediato (porque la IA tiene su propia actuación autónoma), ni partícipe, ni instigador. Cuando el humano actuó, ni siquiera había un plan delictivo. Desde otro punto de vista podría evaluarse si el humano que se desentendió de la posibilidad delictiva, puede ser responsabilizado por su conducta negligente que permitió un resultado dañoso causado deliberadamente por la IA. Otra alternativa sería poner al humano en posición de garante de la inocuidad de la actividad de la IA. Es indudable que tanto para el supuesto de responsabilidad culposa como para la posición de garante se necesitan normas legales que actualmente no existen.

c) Accidentes causados por vehículos autónomos. Este tema genera debates sumamente interesantes sobre cómo debe proceder el auto cuando -por situaciones del tránsito- debe optar por poner en riesgo la integridad física o la vida de unas personas u otras (por ejemplo, eligiendo en determinada situación una maniobra que pone en riesgo al pasajero del auto o la alternativa, que pone en peligro a uno o más peatones). Seguramente, cuando los autos autónomos lleguen a la Argentina, otros países ya habrán resuelto satisfactoriamente los dilemas legislativos y puedan tomarse aquellos antecedentes para nuestra legislación.

4. ¿Quién sería el humano eventualmente responsable?

Las posibilidades son las siguientes: el creador de la IA, el que la controla o ambos.

5. Insuficiencia de los sistemas de responsabilidad actual

El derecho penal actual no permite dar respuestas satisfactorias a los casos indicados porque la autonomía de la IA genera cursos causales que no son dominados por el hombre. Por ese motivo, si bien podría resolverse un caso en que el humano da una instrucción clara para la comisión de un delito y este se concreta, hay muchos supuestos intermedios que quedan sin solución unívoca, como por ejemplo: i) aquel en el que la instrucción es simplemente ganar dinero y la IA lo hace “delinquiendo”; o ii) en el que habiendo un fin delictivo del humano, la IA ejecuta un plan diferente; o iii) los casos en los que el humano busca delinquir a través de la IA, pero esta autónomamente lo evita, etc. 

Al mismo tiempo, y esto es relevante tanto a los efectos probatorios de los casos penales como para los supuestos de responsabilidad objetiva del derecho civil (del dueño o guardián de la cosa), actualmente existe un grave problema para identificar al responsable de la IA. A diferencia de otras actividades riesgosas, el responsable humano de la IA por ahora no debe inscribirse en registro alguno y además la propia IA tiene la posibilidad de disimular su responsabilidad mediante interposición de otras IA.

Es indispensable establecer una etapa inicial con regulación y control activo de la IA para garantizar el respeto a las normas jurídicas y sociales. Mientras no haya ley, en principio rige el principio constitucional de reserva: todo lo que no está prohibido, está permitido.

6. Omisión legislativa

La falta de legislación sobre IA es actualmente una omisión legislativa, porque si bien podrían ensayarse soluciones para los casos dudosos o difíciles, las diferencias interpretativas que sin dudas surgirían serían incompatibles con los principios de igualdad ante la ley y legalidad; las normas penales deben ser claras y fácilmente comprensibles para todos los habitantes.

Hay muchas actividades que son beneficiosas para los países, las comunidades y las personas, y al mismo tiempo, peligrosas. De ellas, la más clara y difundida es la conducción de automotores. Se suman el uso de armas de fuego, el transporte en sus demás formas (aéreo, fluvial, ferroviario), la venta de medicamentos, etc. Todas las actividades riesgosas son reguladas por el Estado con el fin de que puedan desarrollarse satisfactoriamente reduciéndose las contingencias. Dentro de esos sistemas regulados, suele identificarse –generalmente a través de una oficina de registro- a la persona humana o jurídica responsable de la cosa riesgosa.

Quiero aclarar que, a mi juicio, el Estado debe regular sólo lo indispensable. Por eso, cuando leo comentarios sobre la necesidad de regular las criptomonedas, me parece claro que primero debería legislarse sobre IA. En efecto, en el sistema de criptomonedas el habitante entra cuando quiere, y si prefiere mantenerse al margen, puede hacerlo. Entonces, termina siendo sustancialmente un problema del Estado vinculado al control del lavado de activos y la recaudación fiscal. Por el contrario, la IA puede entrometerse en la vida de los habitantes y causarles daño en contra de su voluntad. Cuando el Estado legisla el uso de automotores, lo hace procurando que haya un orden y proteger a la población en general, incluyendo –de modo prioritario- a los que no conducen automóviles: peatones, ciclistas, etc.

7. Contenido básico de la ley

Es indispensable establecer una etapa inicial con regulación y control activo de la IA para garantizar el respeto a las normas jurídicas y sociales. Mientras no haya ley, en principio rige el principio constitucional de reserva: todo lo que no está prohibido, está permitido. Por eso es urgente una ley que defina los aspectos extrapenales y penales que menciono a continuación.

7.1. Aspectos extrapenales

7.1.1. Las instrucciones mínimas obligatorias que deben cargarse en la IA, con el fin de que actúe conforme a derecho;

7.1.2. identificación de los humanos responsables de la programación y supervisión de la IA; y

7.1.3. control humano permanente (“Human in the loop”), para la revisión de los datos utilizados en el aprendizaje, supervisión del entrenamiento y ajustes del modelo y monitoreo y corrección continua;

7.2. Aspectos penales

7.2.1. Una sanción por la omisión del deber legal de inscribirse en el Registro respectivo como responsable de una IA;

7.2.2. un delito autónomo por programar o ejercer la supervisión de una IA sin respetar los límites legales;

7.2.3. la previsión de que dicha inobservancia de los límites legales pueda considerarse principio de ejecución o colaboración necesaria en un delito cometido por la IA, ya que implica la creación de un riesgo jurídicamente desaprobado;

7.2.4. evaluar la adecuación de los tipos de encubrimiento y lavado de activos (arts. 277 y 303 del CP) para que comprendan delitos cometidos por IA; y

7.2.5. la previsión de una agravante por el uso de la IA para la comisión de delitos. En Perú se dictó recientemente la ley 32.314, que –entre otras cosas- dispuso una agravante genérica por el uso de IA para la comisión de delitos y también agravantes en delitos determinados, como por ejemplo la estafa.

Si bien es normal que el texto del Código Penal se adapte a las nuevas tecnologías, en líneas generales los antecedentes se limitan a cambios de los elementos descriptivos de los tipos, tales como considerar documentos también a los digitales, proteger como correspondencia a las comunicaciones electrónicas, prever que una defraudación pueda producirse mediante la alteración de un sistema e incluir a los sistemas como pasibles del delito de daños (arts. 77, 153, 153 bis, 155, 157 bis, 173 inc. 16 y 183 del CP). Más sofisticada fue la tipificación del “grooming”, porque se estableció una nueva conducta delictiva. Sin embargo, la IA exige al derecho ir más allá porque incorpora una nueva forma de delinquir, consistente en la posibilidad de que un hecho dañoso contrario a la ley se ejecute sin intervención humana directa.

Si bien estoy convencido de la necesidad de una ley, los problemas no se agotan allí porque las características propias de la IA determinan que un delito en la Argentina pueda ser cometido por una IA desde otro país. Si bien desde el punto de vista teórico la solución surge del Código Penal, en cuanto establece su aplicación a los delitos cuyos efectos tengan efecto en nuestro territorio (art. 1);

8. La aplicación espacial de la ley

Si bien estoy convencido de la necesidad de una ley, los problemas no se agotan allí porque las características propias de la IA determinan que un delito en la Argentina pueda ser cometido por una IA desde otro país. Si bien desde el punto de vista teórico la solución surge del Código Penal, en cuanto establece su aplicación a los delitos cuyos efectos tengan efecto en nuestro territorio (art. 1); en la práctica la cuestión es más compleja, porque si la IA actúa desde un país en el que no es obligatorio identificar al responsable, la investigación será complicada. Esto demuestra que son fundamentales las tareas de prevención, tanto públicas como privadas, para evitar los delitos.

9. Conclusiones

Es imprescindible una ley que regule la IA para fomentarla y reducir contingencias. En cuanto a los aspectos extrapenales, es indispensable la identificación del responsable de la IA y el control humano de la misma. Con relación a los aspectos penales, entiendo que el sistema punitivo debe establecerse, principalmente, en torno al cumplimiento de los requisitos extrapenales, ya que los mismos tenderán a prevenir daños y reducir contingencias; ello sin perjuicio del castigo de los beneficiarios humanos de los delitos y la agravante de las penas por el mayor poder delictivo que confiere la IA.

 

Por: Ignacio Zunino

Fuente: Diario Judicial
https://www.diariojudicial.com/news-100617-la-inteligencia-artificial-un-desafio-para-el-derecho-penal