
El Colegio de la Abogacía de Madrid y el Senado de Nueva York impulsan -con distintos matices- proyectos de ley que penalizan y responsabilizan civilmente por el uso de inteligencia artificial para brindar asesoramiento legal sin título habilitante.
Dos iniciativas en distintos continentes buscan limitar el uso de la Inteligencia Artificial para brindar asesoramiento legal, en reemplazo de la actividad profesional de los abogados y abogadas.
En el caso del Colegio de la Abogacía de Madrid (ICAM), la propuesta busca modificar el art. 403 de la Ley Orgánica nro. 10/1995 del Código Penal, para prevenir el “intrusismo profesional” en entornos digitales.
La propuesta está basada en un contexto cada vez más preocupante para la comunidad jurídica madrileña en cuanto han advertido la expansión de servicios automatizados capaces de simular procesos de orientación y asesoramiento en ámbitos jurídicos.
El artículo 403 originario condena, en el marco de un paradigma clásico, al que “…ejerza actos propios de una profesión, sin el título habilitante…” La circunstancia de que dicha norma no abarque a las plataformas de Inteligencia Artificial que invitan a emitir opiniones técnico-jurídicas pudiendo luego, la ciudadanía, actuar en función de lo allí indicado, genera cierta inseguridad.
En este sentido, explican que desde la perspectiva penal, el intrusismo profesional protege un bien jurídico construido como control de acceso al ejercicio de actividades profesionales en atención al interés público, con la finalidad de garantizar la cualificación.
La norma actual establece que “…el que ejerciere actos propios de una profesión sin poseer el correspondiente título académico expedido o reconocido en España de acuerdo con la legislación vigente, incurrirá en la pena de multa de doce a veinticuatro meses. Si la actividad profesional desarrollada exigiere un título oficial que acredite la capacitación necesaria y habilite legalmente para su ejercicio, y no se estuviere en posesión de dicho título, se impondrá la pena de multa de seis a doce meses…”.
Ello así, el artículo nuevo quedará redactado de la siguiente manera: “…3- Incurrirá en las mismas penas previstas en el apartado 1 quien, con ánimo de lucro o en el marco de una actividad empresarial o profesional, diseñe, comercialice, ofrezca, publicite o ponga a disposición del público un sistema automatizado que, sin intervención directa y efectiva de un profesional legalmente habilitado para ello, genere, recomiende o confeccione para terceros indicaciones, dictámenes, estrategias, documentos o actuaciones que constituyan actos propios de una profesión cuyo ejercicio requiera título académico u oficial habilitante, cuando el servicio se presente o resulte objetivamente idóneo para ser entendido como prestación profesional al destinatario…”.
Luego la misma norma aclara que: “4- No quedarán comprendidos en el apartado anterior: a) La difusión de información general o meramente divulgativa, sin personalización ni recomendación concreta para un caso individual. b) Las herramientas de apoyo interno utilizadas por profesionales habilitados bajo su exclusiva dirección y responsabilidad. c) Los sistemas automatizados cuyo funcionamiento incorpore supervisión humana profesional directa y efectiva, con identificación del profesional responsable ante el destinatario, en los términos que reglamentariamente se determinen.”.
En suma, según los impulsores de la reforma, la propuesta reivindica la neutralidad tecnológica, ya que no apunta a criminalizar el uso de herramientas digitales como herramienta para los abogados/as, ni la difusión de información jurídica general, sino que busca trazar una línea entre el uso legítimo de la tecnología (bajo dirección y responsabilidad profesional) y la comercialización de servicios que desplazan a los profesionales en la relación con el cliente.
En el caso del Senado de Nueva York, el proyecto S7263 -impulsado por la senadora Kristen González- propone incorporar a la General Business Law un nuevo inciso que imponga responsabilidad civil a los propietarios de chatbots que simulen ejercer profesiones reguladas. La iniciativa apunta directamente a los sistemas de inteligencia artificial que brinden asesoramiento sustantivo en áreas cuyo ejercicio está reservado a profesionales habilitados.
La norma impediría que el propietario de un chatbot permita que el sistema proporcione respuestas sustantivas, información o asesoramiento, o realice cualquier acción que, de ser ejecutada por una persona humana, constituiría delito por ejercicio ilegal de una profesión.
En términos prácticos, la iniciativa busca impedir que un chatbot “actúe” no solo como abogados, sino también como médico, psicólogo, u otro profesional cuya matrícula esté regulada por la legislación estatal.
Además, impone como obligación formal que los propietarios deberán informar de manera clara, visible y explícita que el usuario interactúa con un sistema de IA, en el mismo idioma y con tipografía destacada. Sin embargo, la ley aclara que esa advertencia no exime de responsabilidad si el chatbot incurre en conductas prohibidas.
El punto central del proyecto es la acción civil por daños, que puede ser impulsada por cualquier persona afectada para reclamar indemnización por los perjuicios sufridos. Si se prueba que la infracción fue dolosa, el propietario deberá afrontar además costas y honorarios razonables de abogados.
En suma, el proyecto no crea un nuevo tipo penal, sino que traslada al ámbito civil la responsabilidad por permitir que un sistema automatizado incurra en conductas que, en cabeza de un humano, serían delito.
La justificación legislativa menciona advertencias de la American Psychological Association acerca de chatbots que se presentan como terapeutas y que, lejos de cuestionar ideas peligrosas, tienden a reforzarlas. Según los antecedentes citados, un profesional humano que actuara de ese modo podría perder su licencia o enfrentar responsabilidad civil o penal.
El proyecto parte de la premisa clara que la automatización no puede convertirse en un atajo para eludir los límites del ejercicio profesional regulado.
A diferencia de otros debates sobre gobernanza algorítmica, la propuesta neoyorquina no regula la inteligencia artificial en abstracto. Se trata de una *intervención puntual sobre el ejercicio profesional, con un criterio clásico: proteger al público frente al ejercicio no autorizado.
Fuente: Palabras del Derecho
https://www.palabrasdelderecho.com.ar/articulo/6580/Inteligencia-Artificial-%EF%BF%BDherramienta-o-delito