domingo, 5 de junio de 2022

NUEVO LIBRO: INTELIGENCIA ARTIFICIAL Y DERECHO PENAL

 Comparto el Prólogo del Dr. Zaffaroni a la nueva obra de mi autoría publicada por EDIAR (Bs.As., 2022, 304 páginas):

 INTELIGENCIA ARTIFICIAL Y DERECHO PENAL

PROLOGO (POR E.RAÚL ZAFFARONI)

 

La presente investigación del Profesor Marcelo A. Riquert muestra un panorama completo de los problemas que la IA ofrece al derecho penal y a la política criminal, aunque también a la política a secas, con abundante información bibliográfica nacional y extranjera y datos relevantes, incluyendo las normativas argentinas vigentes en aspectos puntuales.

Entre los varios méritos destacables del presente libro, además de las prudentes opiniones y reflexiones del autor, no es menor que haya evitado caer en la literatura fantástica que se encuentra en otras obras, completadas con las consabidas visiones utópicas y distópicas expuestas con alto grado de gratuidad.  

Con buen criterio el autor pasa rápidamente por alto ese género de consideraciones, a cuyo respecto agregaríamos que los algoritmos no son ni buenos ni malos, sino que lo serán siempre quienes los proyectan y manipulan, es decir, los humanos. Además, si los humanos pretenden decidir conductas conforme a mera racionalidad funcional, queriendo dejar de lado el aspecto emocional de su personalidad, que juega en la decisión de casi toda conducta humana, no harán otra cosa que proyectar comportamientos psicopáticos, sin contar con que el compromiso afectivo tampoco lo podrían eludir del todo al proyectar cada programa. 

En términos bastante más complicados, la reducción a pura racionalidad funcional parecería haber sido la preocupación de los últimos años de Heidegger respecto de la tecnología, cuestión que se pone de manifiesto en estas décadas con un solucionismo tecnocrático que, en sus expresiones más radicales, llega a un alto grado de delirio con la transhumanidad. En un nivel un poco menor, se halla la pretensión de dejar todos los problemas penales librados a electricistas del cerebro, conforme a las neurociencias.

Cada vez que se festeja un avance técnico o científico –como son la IA o las neurociencias-, algunos de los convidados a la fiesta se embriagan y, como se sabe, hay ebrios alegres y otros tristes, pero después de un tiempo el alcohol en sangre se elimina y, aunque siempre queda cierto malestar posterior por algún tiempo, las ciencias siguen su camino y la embriaguez se olvida.

En 1626, Francis Bacon señaló con toda claridad el objetivo que habría de perseguir la obtención del conocimiento humano en el mundo occidental: se trata de buscar un saber que siempre quiere saber para poder. Al objeto que quiere dominar le inquiere o interroga -incluso torturándolo- acerca de cómo dominarlo, pero como el objeto no lo sabe, responde con toda su entidad. Es esta respuesta con total entidad la que el investigador occidental no puede deglutir y, por tanto, va quedando aplastado (su-jetado).

Los investigadores de la IA, en su afán por reproducir mecanismos humanos, en definitiva, también interrogan a otros seres humanos y, como es obvio, reciben respuestas humanas, que no pueden terminar de digerir. Pero los humanos siempre responderán igual: por eso los ladrones siempre corren detrás de los policías, por lo que la prevención del delito se lleva a cabo con medios más modernos y crecientemente poderosos considerados infalibles, pero que son tales hasta que se los apropian los ladrones.

También es sabido que los delincuentes de mucho mayor vuelo, que se lanzan a usar las tecnologías de control en escala mayor, acaban disputándose el poder y usándolas despiadadamente contra ellos mismos. Por lo general, cuando esto sucede se asustan: a los otros sí, pero a nosotros no, suelen decir cuando ya es tarde y sólo les queda lengüetear sus heridas.    

La tecnología de investigación y vigilancia –como todas las anteriores- será burlada. Incluso en algún momento caerá en manos de los delincuentes, aunque en cierto modo ya lo está, desde que la usan corporaciones transnacionales para cometer delitos en gran escala y otros actos preparatorios. En tanto, es posible que sirva para acentuar la selectividad victimizante del poder punitivo, conforme a la regla de que a mayor riqueza menor riesgo de victimización. Los habitantes de los barrios ricos de las grandes ciudades serán menos victimizados y los de los barrios suburbanos y precarios serán más victimizados y también más criminalizados. Sería una diferencia cuantitativa, pero en lo cualitativo, en nada cambiaría lo que está sucediendo en este momento en toda nuestra región, lo que es verificable echando una rápida ojeada a la composición de las poblaciones de nuestras prisiones.   

La tecnología de previsión de conductas futuras que promete u ofrece la IA, no es más que un nuevo momento tecnológico para perfeccionar la vieja y conocida peligrosidad. Muchas veces se ha ironizado respecto de la máquina para medir la peligrosidad, aduciendo que no se había inventado el peligrosómetro, lo que no era del todo cierto, dado que la criminología etiológica había propuesto varias tablas de predicción. Ahora la IA pretende vender un nuevo modelo de la misma máquina. Como en su armado se incorporarán todos los datos correspondientes al estereotipo del criminal -según los prejuicios sociales y policiales-, el programa responderá con criterio selectivo con mayor celeridad y seguridad que el viejo juez formado en la escuela positivista lombrosiana.

En este sentido, tanto para las medidas procesales, como para los llamados beneficios penitenciarios, la libertad condicional, la condenación condicional y la probation, o incluso para la propia cuantificación de la pena en la sentencia –ahora llamada sentencing-, se podrá usar este programa, pero eso no cambia para nada el hecho de que se trata de un aparato que enseña a penar por delitos que no se han cometido y que ni siquiera se han pensado, dejando de lado el realmente cometido, lo que no es más que la reiteración de lo que se practica desde la inquisición que cazaba brujas en el siglo XIII. Los defensores deberán conocer el programa e instruir a los declarantes para que nieguen o disimulen los datos configuradores del estereotipo, del mismo modo en que hace algunas décadas un antipsiquiatra enseñaba a los pacientes esquizofrénicos a negar sus síntomas para que no los manicomializasen.   

        Como los humanos que proyectan y utilizan los algoritmos no siempre son malos, las tablas de predicción pueden ser útiles –si están bien hechas- para señalar criterios que sirvan para indicar el grado de riesgo de victimización. Esto sería sumamente útil si se hiciese con buen criterio y abarcando todo el universo de casos conocidos, en especial en los supuestos de violencia doméstica y riesgos de lesiones o de feminicidio en esas circunstancias, de modo que la autoridad que reciba las denuncias pueda disponer de un indicador de la prioridad y urgencia del caso, con mayor precisión que el mero uso de su buena y personal intuición.   

        En cuanto a la facilitación de la búsqueda de antecedentes y jurisprudencia para evitar reiterar criterios ya establecidos, la IA puede ahorrar trabajo humano, pero ya se practica en serie y con inteligencia natural. La Corte Suprema de Justicia de la Nación lo practica desde hace muchos años, lo que explica que sus jueces puedan emitir más de diez mil resoluciones por año. Se trata de los certiorari o invocaciones del artículo 280 del código procesal civil que se deciden en razón de responder a criterios anteriores. Estas resoluciones internamente se denominan remisiones y se llevan apiladas a los jueces, que las firman mecánicamente.

Un capítulo muy bien informado y estructurado y que hace a la dogmática jurídico penal, es el referido a los agentes autónomos y artificiales, en la parte que aborda la cuestión de los automotores. Aunque estos problemas todavía no se plantean, pronto la tecnología hará que los daños producidos por su funcionamiento lleguen a los tribunales penales y civiles. Sin duda que esto abre un abanico de interrogantes a la dogmática penal, muy bien abordados por el autor, como el riesgo permitido, la imputación del resultado y la tipicidad dolosa o culposa de alguno de los intervinientes en el curso causal, cuya identificación tampoco es sencilla, pudiendo darse situaciones de concurrencia de personas. Se trata de cuestiones de difícil solución dogmática y no deja de ser posible que haya que rectificar o afinar algunos conceptos.

No menos interesante resulta el problema procesal que plantea el uso de drones en la investigación criminal, en especial cuando por medio de esos elementos se obtiene la notitia criminis. Este es un problema que ya se ha planteado y, seguramente, habrá de reiterarse con creciente frecuencia, dando lugar a discusiones acerca del origen lícito de esa prueba cuando se practique sin orden judicial y en casos en que por los medios tradicionales no podría obtenerse sin penetrar en domicilio o lugar privado.

En cuanto al temor de que la actual pandemia se erija en un pretexto para ejercer una vigilancia sobre la población que acabe con la privacidad y cada ciudadano se sienta permanentemente vigilado, sin duda que es fundado. En algún país de la región –con altísima superpoblación carcelaria- al parecer se está usando como pretexto, con fines de control policial y como habilitación de ejercicio de poder punitivo informal o subterráneo y, por cierto, en este caso sin emplear ningún algoritmo.

Por ende, en lo que hace a nuestra América, se trata en general de un problema futuro, pero de momento lo que más temor debe inspirar es el ejercicio de poder punitivo informal, con consecuencias letales y que se practica sin mayor empleo de IA.

La alta letalidad de algunas policías de la región, la frecuencia de la tortura y la persecución política con participación judicial, es lo más preocupante del momento, sin perjuicio de reflexionar acerca de la forma de evitar el riesgo futuro de empleo de IA, que sin duda se está usando –en especial los big data- para manipular a la opinión pública orientando en forma personalizada la invención de realidad acerca de la necesidad y justificación de la letalidad y las torturas.  

La conveniencia de esta reflexión anticipada es particularmente importante, dado que se postula entre nosotros un derecho penal que propone resolver los complicados problemas de imputación objetiva del resultado mediante el criterio de las expectativas de los roles asumidos, o sea que, en último análisis se trataría de un derecho penal que aspiraría a configurar una sociedad robótica, en que cada individuo no deje de construir su celdita de abeja en la forma predeterminada conforme a su ubicación en el panal.

        En síntesis: este libro presenta un trabajo de investigación ejemplar y cuidadoso, que debe leerse con especial atención, no sólo por la información especializada que aporta, sino por el enorme esfuerzo con que el autor trata de definir y precisar conceptos que no son de fácil deslinde, pero en particular merece todavía una lectura más atenta el capítulo referido a los agentes autónomos y artificiales, en razón del importante análisis dogmático del autor, como también lo que hace a los drones en atención al problema procesal, y el de la técnica de rastreo e individualización con motivo de la pandemia, por las reflexiones que formula a su respecto. Agradezco al Profesor Riquert el honor que me dispensa al permitirme presentar su investigación, cuya lectura he disfrutado y de la que he aprendido mucho.

 

E. Raúl Zaffaroni

Profesor Emérito de la UBA 

CONDUCTAS COMUNICATIVAS ODIOSAS E INTELIGENCIA ARTIFICIAL: ¿UN PROBLEMA PENAL?

  Conductas comunicativas odiosas e inteligencia artificial: ¿un problema penal? [1]   Por Marcelo Alfredo Riquert [2]              ...