10% OFF CON TRANSFERENCIA BANCARIA / HASTA 6 CUOTAS SIN INTERÉS / ENVÍO GRATIS A TODO EL PAÍS

Por Martín Leguizamón - Facundo Castillo - Matías Werner

 

LA RESPONSABILIDAD CIVIL POR ALGORITMOS PREDICTIVOS:

UN NUEVO PARADIGMA JURÍDICO A PARTIR DEL FALLO SEREN C/ GOOGLE INC.

 

I. ENTRE LA PREDICCIÓN Y LA DIFAMACIÓN: EL ALGORITMO DE GOOGLE COMO FUENTE DE DAÑO *

1.     ¿Qué es un algoritmo y por qué importa en el Derecho?

Antes de abordar las implicancias jurídicas de la responsabilidad por algoritmos, es fundamental comprender qué es un algoritmo, cómo opera, y por qué su impacto excede lo meramente técnico.

En términos sencillos, un algoritmo es un conjunto de instrucciones definidas para resolver un problema o realizar una tarea específica. Si bien su concepto no es nuevo, ni desconocido —una receta de cocina o un instructivo de armado son formas básicas de algoritmos—, en el entorno digital adquieren una dimensión decisiva, como ser determinan qué vemos, qué consumimos y cómo percibimos la realidad en línea.

En el caso de los motores de búsqueda, como Google, los algoritmos procesan miles de millones de datos en fracciones de segundo para ofrecer sugerencias automáticas o predicciones basadas en patrones de búsqueda colectiva. Estas funciones —como "autocompletar" o "búsquedas relacionadas"— operan de forma aparentemente neutra, pero lo cierto es que no lo son.

Tal como lo menciona la Corte Suprema en el considerando 23 del caso "Denegri, Natalia Ruth c/ Google Inc." (Fallos: 345:482), donde la defensa dice que “no necesariamente sigue una cronología. Sale lo que Google estima que es más relevante para ese usuario. Aparte es distinto si uno lo busca en Argentina, si lo busca en Estados Unidos, porque lo relevante va a ser distinto. […] Es una cosa complejísima (…)”

Este sistema no “piensa”, pero aprende de patrones, utiliza una rama de la inteligencia artificial llamada “machine learning” o en nuestro lenguaje, aprendizaje automático, para observar e identificar algunas cuestiones, tales como:

-       La búsqueda de otros usuarios con palabras similares;

-       Qué combinaciones son más frecuentes en determinada región o idioma;

-       Los temas que están en tendencia en nuestra región;

-       Qué historial de búsqueda tiene el propio usuario, siempre y cuando este registrado con su cuenta;

-       Qué páginas han sido más clickeadas para determinadas expresiones.

Por eso, al escribir “Dr. Seren”, el algoritmo puede sugerir —aunque es completamente falso— “Dr. Seren mala praxis”, si esa combinación fue buscada alguna vez o si el sistema, por sus parámetros internos, considera que esa asociación es “probable” o “relevante”.

Pero aquí surge el problema, lo que el algoritmo sugiere, no siempre es verdadero. Y cuando esas sugerencias afectan la reputación de una persona ¿Quién es el responsable de reparar el daño ocasionado?

Estas decisiones algorítmicas, aunque no estén hechas por un humano, tienen consecuencias jurídicas. Un algoritmo que sugiere falsamente que una persona cometió un delito, que está relacionada a la “mala praxis” o a cualquier conducta deshonrosa, está violando derechos como el honor, la intimidad, la identidad digital, o la protección de datos personales.

El Derecho no puede permanecer indiferente. Así como se exige diligencia a quien difunde información, también se le debe exigir responsabilidad al proveedor del sistema, quien automatiza y propaga asociaciones erróneas. Asociaciones que al aparecer en primer lugar de “predicción” hacen presumir al usuario que es la más “real” o la más “idónea”.

Ahora bien, la pregunta que nos atañe a todos ¿Puede un algoritmo dañar? ¿Y si realiza el daño, quién debe responder por él? 

2.     Los algoritmos, la verdad y el derecho

El desarrollo de algoritmos de predicción, como los que utilizan en Google, ha modificado radicalmente el acceso a la información en los entornos digitales. Ya no es el usuario quien define lo que busca, sino que es el sistema quien anticipa lo que “debería” buscar, mediante funciones como “autocompletar” o “búsquedas relacionadas”.

Ahora bien, teniendo en cuenta este poder del manejo de la información, debemos entender que el algoritmo bajo ningún punto de vista es una herramienta neutra, esto genera impactos reales en la percepción pública de los sujetos, es por ello, que la empresa usuaria debe asumir una responsabilidad absoluta sobre el daño que estas herramientas de predicción puedan ocasionar.

Tal es así, que en el reciente fallo de la Cámara Civil y Comercial Federal (Sala I), en el caso Seren c/ Google Inc. (abril 2025), constituye un hito jurisprudencial en el reconocimiento de la responsabilidad civil derivada del funcionamiento de estos algoritmos predictivos.

Es imposible no trazar el paralelismo con respecto a otras decisiones de la Corte Suprema como Rodríguez o Denegri, donde se discutió la desindexación de contenidos existentes en los resultados de búsqueda del sitio www.google.com.ar.

No obstante, en este caso existe una clave, y es que se analiza la creación algorítmica de vínculos falsos que no se corresponden con información alojada en la web, lo que habilita una nueva teoría de la imputación digital.

El caso "Seren c/ Google Inc." (Cámara Civil y Comercial Federal, Sala I, abril de 2025) marca un punto de inflexión en el reconocimiento judicial de la responsabilidad civil por daños ocasionados por algoritmos predictivos.

El Dr. Juan Manuel Seren promovió una acción de hábeas data solicitando que se eliminara la expresión "mala praxis" de las búsquedas relacionadas que aparecían automáticamente al ingresar su nombre en Google. Alegó que nunca fue denunciado administrativa ni judicialmente por tal motivo, y que esta vinculación algorítmica, sin sustento alguno, lesionaba su honor, reputación profesional y derechos personalísimos.

La sentencia de la Cámara revocó lo decidido en primera instancia y admitió la acción. Señaló que el funcionamiento del buscador constituye tratamiento de datos personales (Ley 25.326) y que la expresión sugerida era manifiestamente falsa, sin respaldo fáctico alguno.

Estableció que Google, al tener capacidad técnica para evitar el daño, debía actuar conforme al deber de prevención (art. 1710 CCyC). Se hizo eco del principio ya delineado por la CSJN en "Rodríguez, María Belén c/ Google Inc." (Fallos: 337:1174), donde se afirma que la responsabilidad del buscador se configura al tomar conocimiento del daño y no actúa diligentemente.

La importancia del fallo Seren radica en que desplaza el eje del análisis: ya no se trata de contenidos alojados en los resultados de búsqueda del sitio www.google.com.ar respecto de información extraída de sitios de terceros, pero alojada en la propia página de los buscadores de internet, en el caso www.yahoo-com.ar y www.google.com.ar, sino de información generada por el propio sistema predictivo de Google.

Este cambio habilito una nueva teoría de la imputación digital, donde el algoritmo no es solo herramienta, sino también fuente principal de daño autónoma.

La jurisprudencia de la Corte Suprema argentina ha sido clave para sentar las bases del tratamiento de responsabilidad por contenidos en Internet: 

"Rodriguez, Maria Belén c/ Google Inc. s/ dafios y perjuicios"

En "Rodríguez, María Belén”, la CSJN descartó la aplicación de un régimen de responsabilidad objetiva para los motores de búsqueda, sosteniendo que no puede imputarse automáticamente la responsabilidad por contenidos generados por terceros  y alojados en los resultados de búsqueda de los sitios www.google.com.ar y www.yahoo.com.ar si no media culpa o negligencia.

En el precedente histórico estableció el criterio del "conocimiento efectivo" como parámetro determinante. ¿Qué quiere decir esto? Un buscador no es responsable hasta tanto no se le comunique de manera clara y fehaciente que un contenido es lesivo o ilícito.

Esta doctrina se fundamenta en la libertad de expresión y en la necesidad de evitar mecanismos de censura previa, pero deja en claro que una vez advertido del perjuicio, el intermediario digital ya no puede alegar pasividad y resulta responsable civilmente por los daños ocasionados a un tercero ajeno al buscador. El fallo, además, distingue entre los casos de ilicitud evidente (como lo califica  la CSJN pornografía infantil o la incitación a la violencia, entre otros casos delimitados de modo claro por la Corte Suprema), donde la sola notificación del damnificado es suficiente, y los supuestos más complejos o dudosos (como ataques al honor), donde puede requerirse intervención judicial.

“Denegri, Natalia Ruth c/ Google Inc. s/ derechos personalísimos: Acciones relacionadas”

En el caso "Denegri, Natalia Ruth", si bien la Corte Suprema rechazó la pretensión de aplicar el llamado "derecho al olvido" —por tratarse a su criterio, que no comparto, de información veraz, relacionada con hechos públicos y de “interés histórico”—, introdujo una visión crítica y novedosa respecto del rol de los algoritmos de búsqueda, abriendo además la puerta de par en par su aplicación en otros casos, tal como el precedente consentido por la firma Google “POMPILIO, Natalia c/ GOOGLE INC s/ HABEAS DATA” ( 21 de abril de 2.021, Sala II, Cámara Civil y Comercial Federal.

En particular, el considerando 23 del fallo constituye un hito en la comprensión judicial de la lógica algorítmica, al reconocer que los resultados arrojados por Google no son neutrales ni cronológicos, sino que responden a parámetros de relevancia definidos por la empresa: ubicación del usuario, popularidad del contenido, historial de navegación, entre otros. La propia empresa, en audiencia pública, reconoció que su “algorritmo no es neutro”.

La Corte advirtió que esta opacidad algorítmica tiene un impacto directo sobre la forma en que los demás perciben a una persona: los resultados en las primeras páginas de búsqueda pueden configurar una imagen o "perfil" digital que condiciona relaciones laborales, profesionales o sociales.

Ante este riesgo, el Tribunal exhortó a “asumir hacia el futuro la problemática de ciertos aspectos del funcionamiento de los algoritmos, para que resulten más entendibles y transparentes para los usuarios, hoy sujetos a la decisión de aquellos”.

Esta afirmación es clave, pues, sitúa al algoritmo como un actor con poder estructurante sobre la información personal y sugiere que el paradigma de la autodeterminación informativa exige, en el siglo XXI, incorporar garantías de transparencia tecnológica.

Esta visión encuentra plena resonancia en el caso "Seren c/ Google Inc.", donde el sistema predictivo del buscador asociaba el nombre del actor con la expresión "mala praxis" sin que existiera ninguna denuncia o antecedente al respecto, ocasionándole gravísimos daños personales y profesionales sin justificación legal alguna.

El algoritmo, al aplicar patrones estadísticos o tendencias colectivas, terminó generando una vinculación dañosa, falsa y arbitraria. Así como en “Denegri” la Corte reconoció el poder performativo del algoritmo para moldear identidades, en “Seren” la justicia ordinaria admite que dicha performatividad puede tornarse lesiva y, por ende, jurídicamente imputable.

Ambos fallos se complementan: mientras uno sienta una doctrina de transparencia y comprensión pública del algoritmo, el otro avanza de modo brillante y con redacción sencilla pero contundente en la tutela concreta frente a sus efectos dañinos.

El considerando 23 no es solo una reflexión ética: es el umbral hacia una nueva doctrina de responsabilidad digital, basada en la visibilización del poder algorítmico y en la exigencia de que sus operadores —como Google— rindan cuentas por los impactos en los derechos personalísimos de terceros ajenos al buscador, fuente  y génesis de daños a los derechos personalísimos de modo arbitrario.

La sentencia en el caso Seren no solo reconoce el daño, sino que impone a Google un deber de cesar en la asociación predictiva falsa. Esto se inscribe en el marco del deber de prevención previsto en el artículo 1710 del Código Civil y Comercial, y también se vincula con los estándares internacionales sobre tutela preventiva.

La Corte Suprema, incluso en el caso Denegri, validó que, ante vinculaciones claramente lesivas, puede exigirse a los motores de búsqueda adoptar medidas correctivas. Es decir, la tutela no requiere siempre daño consumado, sino que basta con la amenaza cierta de afectación a derechos personalísimos.

Asimismo, el considerando 23 del fallo “Denegri” reclama avanzar hacia un diseño más transparente de los algoritmos. Esta necesidad se conecta con las "Directrices Éticas para una IA fiable" de la Comisión Europea, que exigen explicabilidad, es decir, que un modelo de aprendizaje automático y sus resultados pueden explicarse de forma que tengan sentido para un ser humano a un nivel aceptable, trazabilidad y control humano sobre los sistemas automatizados.

En conclusión, el caso "Seren c/ Google Inc." inaugura una nueva etapa en la doctrina de la responsabilidad civil digital. Por primera vez, en fallo histórico de la Sala II de la Cámara Civil y Comercial Federal se reconoce la lesividad autónoma de un algoritmo predictivo, y se impone una obligación de cesar en la propagación de sugerencias falsas.

El fallo obliga a repensar el rol de los motores de búsqueda, ya no como simples intermediarios, sino como actores principales de los daños causados a terceros ajenos a los buscadores, con capacidad de crear significado e impactar en la reputación de las personas. La imputación por daño algorítmico requiere adaptar el derecho de daños a los desafíos tecnológicos actuales, con énfasis en la transparencia, el control y la prevención

Entonces para concluir me pregunto: ¿Estamos dispuestos a dejar que los algoritmos impunemente decidan cómo se construye nuestra identidad digital sin exigirles responsabilidad para evitar esos daños injustos?

 

 

II. RESPONSABILIDAD PENAL ALGORÍTMICA: ENTRE LA FICCIÓN DEL NO-SUJETO Y LA URGENCIA DEL DERECHO **

1.     La reputación online en la era de los algoritmos

Hace apenas una década, atribuir intencionalidad a un algoritmo era un gesto poético. Hoy convivimos a diario con modelos de lenguaje que parecen escucharnos, aconsejarnos, incluso contradecirnos. Sin embargo, despojado de su aura, un gran modelo de lenguaje (LLM) no “piensa” ni “quiere”: predice el siguiente token. Esa trivialidad estadística, multiplicada por billones de parámetros y entrenamientos exhaustivos, se vuelve culturalmente decisiva porque coloniza una función que durante milenios creímos exclusivamente humana: contar historias. Y hoy, las redes y sistemas digitales también relatan: con deepfakes y algoritmos, fabrican historias sin narrador humano.

Pero, ¿Cómo “piensan” los LLM? Un Modelo de Lenguaje de Gran Tamaño (o Large Language Model – LLM por sus siglas en inglés) es, en esencia, una función que aproxima distribuciones de probabilidad sobre secuencias de símbolos.

Un LLM es, en esencia, una función que aproxima distribuciones de probabilidad sobre secuencias de símbolos. do un texto, estima la probabilidad de cada posible “siguiente pedacito de palabra” (token) y elige el más probable en ese contexto. Si ese cálculo se repite miles de veces por segundo, el resultado parece una conversación fluida. Pero sigue siendo eso: cálculo probabilístico, no comprensión humana. Y como todo cálculo que aproxima patrones del mundo, puede errar, y esos errores —si se los muestra con apariencia de certeza o se los usa sin verificación— pueden causar daño (p. ej., atribuir falsamente un delito, inducir a una transferencia fraudulenta, o amplificar una difamación).

Se puede pensar en un GPS como analogía. El sistema toma datos históricos y en vivo (tránsito, cortes, trayectos) y calcula cuál ruta probablemente te llevará más rápido. El 95% de las veces acierta; el 5% restante te puede mandar por un desvío peligroso o por una calle cortada que el sistema no “vio” a tiempo. No “quiso” equivocarse: estimó con datos incompletos. Un LLM hace algo parecido con el lenguaje: suele elegir palabras que “encajan”, pero a veces completa con algo falso. Cuando esos completados plausibles se usan para decidir cuestiones sensibles, como atribuir delitos o faltas a una persona, el sistema jurídico debe decidir si el error estadístico es jurídicamente neutro, civilmente reparable o penalmente relevante.

En Argentina, el caso “Seren, Juan Manuel c/ Google Inc. s/ hábeas data (art. 43 CN)” abre una senda práctica para la categoría -todavía joven- de responsabilidad algorítmica. Un cirujano plástico comprobó que, al buscar su nombre, el módulo de búsquedas relacionadas sugería “mala praxis”. No existían resoluciones, denuncias ni contenido periodístico que justificaran esa asociación. La señal no era una página de terceros: era una pieza de interfaz que, por su prominencia junto al nombre, institucionalizaba una insinuación lesiva.

La sala I de la Cámara Civil y Comercial Federal revocó la sentencia de primera instancia y ordenó a Google cesar la asociación. El razonamiento se apoya en tres columnas. Primero, el buscador no es un espejo pasivo: la función de sugerencias construye contenido, con efectos reputacionales. Segundo, la ausencia de sustento fáctico torna la asociación injustificada y, principalmente, el damnificado no puede tolerar la afectación so pretexto de que la asociación obedece a parámetros “técnicos”. Tercero, el remedio es quirúrgico y compatible con la libertad de expresión: no bloquea contenidos de terceros ni impide hallarlos; “apaga” la señal algorítmica lesiva.

A partir de Seren, una definición operativa de responsabilidad algorítmica podría enunciarse así: es factible atribuir consecuencias jurídicas al diseño y operación de módulos de predicción cuando, sin respaldo fáctico suficiente, lesionan derechos personalísimos. En este caso, la solución fue un remedio acotado a la situación particular, no por censura general. No se trata de culpar “a la máquina”, sino de exigir al operador de la máquina que minimice daños previsibles y acate órdenes proporcionadas.

Otro caso interesante sobre responsabilidad algorítmica se dio en el caso Walters v. OpenAI. Sintéticamente, el juicio se originó luego de que el periodista Frederick Riehl preparaba una nota sobre un litigio público de la Second Amendment Foundation contra el fiscal general de Washington. Copió pasajes del escrito y luego pegó el enlace al PDF en ChatGPT para solicitar un resumen. El sistema primero respondió que no podía acceder al enlace y, más tarde, pese a esa admisión, generó un “resumen” falso donde describía un caso de malversación e identificaba a Mark Walters (famoso conductor radial) como tesorero/CFO de la fundación -cargo que no ostentaba-. El periodista, que veía avisos en el sistema sobre posibles errores y que, además, detectó autocontradicciones en los resultados que le devolvía ChatGPT, verificó el documento y no publicó la falsedad.

Pero Mark Walters demandó a OpenAI y el Tribunal Superior del Condado de Gwinnett, Georgia, falló a favor de la empresa detrás de ChatGPT. Varios argumentos sostienen la decisión, para el objeto del presente trabajo, nos detendremos en dos: primero, existieron advertencias visibles y contradicciones sobre la capacidad del sistema para leer el enlace por lo que un lector no tomaría la salida como afirmación fáctica sin corroboración. “…ChatGPT puede, y de hecho a veces proporciona, información factualmente inexacta…”, [1]sostuvo, de hecho, el tribunal. Segundo, publicación y daño: no hubo difusión por terceros ni daño probado atribuible a ese episodio.

El fallo resiste, explícitamente, convertir la alucinación en responsabilidad objetiva del proveedor. Reconoce, además, que el sistema incorporaba medidas de mitigación (alineamiento, términos y condiciones advertencias visibles) y que el propio usuario, un periodista experimentado, operó con criterio.

Ahora bien. Si tenemos esa pauta para analizar la responsabilidad en el ámbito civil, cómo podemos estudiarla cuando el conflicto escala a la esfera penal.

2.     ¿Los algoritmos son inimputables?

Hemos señalado que los humanos siempre hemos inventado artefactos para contar historias. La novedad de la era de la IA generativa es que ahora esas historias impostan voces, rostros y pruebas. En el borde entre la ficción y el expediente, la IA no solo amplifica delitos viejos: inventa modalidades que obligan a reescribir tipos penales, reglas probatorias y protocolos de investigación: el mismo arsenal técnico que facilita productividad y asistencia amplifica formas clásicas de delito y habilita medios comisivos novedosos que van desde estafas con deepfakes, la producción, distribución, facilitación de material de explotación sexual infantil mediante imágenes sintéticas hasta una suerte de “industrialización” de la ingeniería social, con campañas de “phishing” hipersegmentado y que incluye voz clonada, guiones personalizados para estafas románticas, y redacción de código malicioso de baja complejidad.

Desde la dogmática penal, estos fenómenos reclaman tipicidad clara (por ejemplo, agravar el tipo penal que castiga la defraudación cuando medie suplantación de identidad generada por IA, adecuar la redacción típica del artículo 128 del Código Penal para que no existan dudas acerca de su las imágenes generadas por IA constituyen una conducta criminal ) y prueba reproducible (preservación de prompts, metadatos, registros de sesión, peritajes de detección de deepfakes.

Con ese telón de fondo, ¿qué significa hablar de responsabilidad algorítmica en el ámbito penal? La literatura identifica tres planos, que conviene no mezclar. Primero, la imputación penal por daños cometidos “con” IA: aquí, la regla general mantiene en el centro a la persona humana, quien es la que tiene el “dominio del hecho”: diseña, configura o utiliza un sistema generativo para defraudar, difamar o extorsionar responde personalmente por el delito, igual que cuando usa cualquier herramienta; la IA opera como instrumento, no como sujeto. La posición comparada reciente es clara: la interacción maliciosa con sistemas generativos genera responsabilidad penal directa del agente humano (autor o partícipe), sin atajos exculpatorios por “culpa de la máquina”.

Segundo, la discusión sobre si la IA misma podría ser penalmente responsable. La doctrina clásica de Gabriel Hallevy[2] agrega al modelo la IA como “agente inocente” y el humano que la manipula como verdadero autor. La segunda incluye el concepto de culpa como factor de atribución para responsabilizar al humano que creó o puso en marcha el sistema, en caso de que un resultado lesivo era una consecuencia típica razonablemente previsible.

En este segundo caso, el autor Si la IA no actúa como “agente inocente” porque su diseño o uso le confiere autonomía (pensemos en los agentes de IA que pueden tomar decisiones autónomas), Aquí, además de la responsabilidad del humano por el resultado previsible, para Hallevy podría alcanzar un tercer supuesto y es la tercera vía, descartada por el momento, que estipula la responsabilidad directa de la IA, algo que cambiaría el modelo de imputación penal moderna ya que requeriría reconocer como sujeto a estos modelos, algo que hoy ningún ordenamiento mayor acepta. En la práctica, los dos primeros modelos refuerzan la idea instrumental: la IA es un medio y la imputación recae en diseñadores, operadores o usuarios según el caso y el grado de previsibilidad/culpa; el tercero permanece como tesis académica.

En síntesis, en materia penal, los agentes de IA no desplazan la autoría humana; la reconfiguran.

 

 

III. NEUTRALIDAD QUE NO ES TAL. LA SENTENCIA HISTÓRICA QUE CONDENÓ EL DISEÑO DE LOS ALGORITMOS POR FALTA DE TRANSPARENCIA ***

Mis colegas en sus destacados análisis del fallo Juan Manuel Seren que nos convoca en este artículo doctrinario resultaron absolutamente claros en cuanto a los hechos que originaron el mismo. Además, efectuaron un análisis pormenorizado del fallo respecto de la responsabilidad civil de los algoritmos predictivos, su vinculación con el derecho penal y la necesidad de contar a la brevedad posible con marcos legales adecuados que establezcan las reglas claras para todos los protagonistas de las nuevas tecnologías, en especial, las victimas de dichas herramientas y tecnologías.

Mi enfoque será distinto al seguido por mis apreciados colegas, colocando mayor hincapié y especial énfasis en mis vivencias personales con el caso Seren -como también las víctimas injustas de los buscadores de internet- ya que desde el minuto uno me genero un desafío profesional y personal que confieso tenía la más absoluta certeza que iba a lograr, como en toda la jurisprudencia que obtuve a lo largo de 20 años de trabajo en estos temas.

Supe en todo momento que era el desafío profesional que me faltaba.

Para tener un marco de mayor comprensión de lo que quiero resaltar en este artículo, me permito reproducir lo que Juan Manuel de puño y letra escribió acerca de sus sentimientos con el caso en el libro “Violencia de género a través de la tecnología, Editorial Hammurabi, pagina 117, abril 2024, como consecuencia de la medida cautelar dictada con fecha 22 de septiembre de 2.022, por la Sala I de la Cámara Nacional en lo Civil y Comercial Federal:

“Todo comenzó sorpresiva e inesperadamente en mi consultorio médico atendiendo pacientes como lo realizo hace muchos años con mucha dedicación y amor por la profesión que ejerzo.

Recuerdo que en una consulta médica y en la mitad de la charla la paciente me pregunta si a ella le iba a pasar lo mismo que la chica de Google.

Quedé sorprendido y perplejo, no sabia lo que me hablaba.

De inmediato le pregunté de qué chica de Google me hablaba.

Inmediatamente la paciente me relató que al buscar mi nombre en el buscador Google para observar qué clase de médico era, en los resultados de búsqueda "sugeridos" por la propia empresa, se me relacionaba con varios artículos de pacientes operadas de cirugía mamaria que habían sufrido diversas complicaciones supuestamente por mi intervención. No podia salir de mi asombro, quede perplejo, por cuanto jamas tuve una denuncia administrativa, menos judicial de algun caso que me vincule con casos de mala praxis profesional.

Le explique el procedimiento médico para la operacion mamaria que me consultaba la paciente, los riesgos potenciales, continuando de modo profesional con la consulta con muchisima angustia interior.

A los pocos días en otra consulta surge la misma pregunta de otra paciente. Mi angustia aumento de modo acelerado porque nuevamente y a los pocos dias de la anterior (creo que cuatro sin mal no recuerdo) se me hace saber que el buscador google me relacionaba con complicaciones quirúrgicas graves. 

Ese mismo día llegue a casa y me Googlee,  coloque en el campo de búsqueda "dr seren" y "juan seren" en el buscador de Google y automáticamente en los resultados de busqueda SUGERIDOS por el propio buscador mi nombre de modo FALSO y GRAVE se vinculaba con casos de mala praxis profesional en  cirugía mamaria. No podia creer lo que mis ojos estaban observando cuando jamas habia tenido una denuncia de mala praxis médica en mi contra.

Lo grave de la sugerencia efectuada por google, "conectándome" de modo irresponsable con casos de mala praxis, al ingresar a las notas a las cuales sugería el buscador me encontraba involucrado, no existia NI UNA SOLA REFERENCIA A MI NOMBRE con los casos que se detallaban de mala praxis médica.

Solo aparecía en las búsquedas sugeridas por el buscador Google en sus resultados vinculado con casos de mala praxis que jamás existieron.

Esa noche no pude dormir de la desesperacion y la preocupacion, durante mucho tiempo mas.

Veia que mi carrera intachable a nivel nacional e internacional se iba al tacho de basura por el obrar imcompresible de una empresa tecnologica mundial que vinculaba mi nombre y apellido con casos de mala praxís médica que jamas ocurrieron. Era el protagonista involuntario de una película de terror.

Entre en un estado de indignación, angustia y ansiedad por resolver esta difamación, lo que hizo que los días sean eternos y que la mente se disperce ante semejante difamación sobre mi persona. Injusta e ilegalmente el buscador mas importante del mundo me trataba como un médico complicado con casos de mala praxis, sugiriendo tal alternativa en sus propios resultados de busqueda. De dicha forma inducía al usuario a pensar de modo directo que no era un buen profesional. Pense reiteradamente en el fin de mi exitosa carrera como cirujano plástico. Quiza no puedan comprender mi desesperación, me resulta imposible transmitir en palabras, que las horas y días e conviertieron en eternas ante semejante difamación de mi buen nomre y honor y mi trayectoria profesional.

Comence de inmediato a buscar cómo reportat al buscador Google para informar que no tenía nada que ver con toda la difamación que se alojada en los resultados de búsqueda de modo "sugerido". Todo era dificultoso por cuanto no existía una herramienta que el buscador ponga  a disposición del usuario para solucionar la cuestión de modo presuroso, cuando mi trayectoria profesional quedaria manchada para siempre.

Envié emails a Google, recibiendo repuestas automáticas que no me otorgaban ningún tipo de solución. Mi angustia crecia minuto a minuto. 

Comos si fuera poco las consultas comnezaron a disminuir de modo grave. Pensé que debía hacer más publicidad, pero como hacer más publicidad pense inmediatamente si Google me estaba difamando de modo grave e ilegal.

Contacte un abogado conocido de la familia a quién le comenté lo que me estaba ocurriendo. Su consejo fue remitir una carta documento a la empresa Google que no tuvo respuesta alguna, al igual que los correos electrónicos remitidos.

Todo quedó en la nada quizás por desconocimiento o por no saber que hacer ante la indiferencia de la empresa Google que, a sabiendas del grave daño que me estaba ocasionando, miraba para otro lado haciendo ostentación de su poder, sin importarle que la "falta de transparencia absoluta de su algoritmo" conducia al fin de mi carrera profesional médica.

Mi estado de angustia, preocupación y malestar general aumentaban día a día sin saber que hacer para solucionar este gravísimo problema que me ocasionada Google.

Afortunadamente en una cena de sábado  con amigos comenté  el calvario por el que estaba transitando. Inmediatamente uno de los presentes de modo enfático me dijo: "tenes que hablar  con Martín Leguizamon", es el único abogado que te puede solucionar el tema rapidamente. 

El domingo a las 8.00 am me estaba comunicando con Martín Leguizamón. Mi sorpresa no pudo ser mayor ya que me atendió  pese a la hora y el día.

Inmediatamnte me dijo "quedate tranquilo" tiene solución. No podía creer lo que escuchaba porque hasta ese momento todos los abogados consultados me decían que no tenía solución.

Desde un primer momento me entendió, me tranquilizó y me explicó los pasos a seguir. Me senti contenido, en manos de un profesional del derecho que demostraba seguridad y contundencia, además que me contenia ante mi grandísima angustia.

Recuerdo que me dijo en tono firme y enfático lo soluciono rápido se trata de un claro caso de "falta de transparencia del algoritmo" de Google.

Me cito al otro día en una Escribania a los fines de constatar ante escribano público lo que aparecia alojado en los resultados de búsqueda del buscador Google.

Apenas lo vi supe que la solución se encontraba mas cerca. Lo vi seguro, enfático, firme, con mucha convicción y siendo sumamente claro en sus palabras y conocimientos de derecho. Senti alivio, Martín sabia muy bien lo que iba a hacer juridicamente para solucionar mi grave caso.   

Todo ocurrió luego tal cual me lo explicó Martín de modo pormenorizado y firme en poco tiempo. Siempre me contuvo y me acompaño en este proceso.

Martín obtuvo en tiempo record una medida cautelar dictada por la Sala I de la Cámara Civil y Comercial Federal contra Google ( 22 de septiembre de 2.022 ) que le ordenaba a Google de modo inmediato "eliminar las búsquedas sugeridas con mi nombre y apellido o DR. Seren alojadas en los resultados de búsqueda del sitio www.google.com.ar como "búsqueda sugerida" por el propio buscador.

Los camaristas Florencia Nallar, Fernando Uriarte y Juan Perzziello Vizier comprendieron la grave problemática, otorgándome proteccion jurisdiccional contra el avasallamiento de mis derechos personalisimos por parte de la empresa Google.

Martín pasó de ser el abogado que conocí de casualidad gracias a un amigo que me lo recomendó, a ser mi abogado personal y lo que es más importante, ¡mi amigo!

Gracias eternas Martín por tu humanidad, por tu empatía y tu gran capacidad de contención.

Gracias eternas por tu compromiso con el derecho y las víctimas de las grandes empresas tecnologicas.

¡Gracias eternas por tu efectividad profesional! Gracias amigo!!

A Juan Manuel lo conocí en forma personal el día 25 de enero de 2.022 -luego de una charla telefónica- en la Escribanía Tomasino con la finalidad de constatar notarialmente los hechos que dieron origen a su acción de habeas data.

Recuerdo ese día con total claridad. No puedo olvidar lo dificultoso que fue explicarle que iba a solucionar su tema, por cuanto se encontraba absolutamente abatido, presagiando de  modo catastrófico a cada instante el final de su exitosa carrera profesional como médico cirujano plástico.

De modo firme le señale que la solución la iba a lograr, pero que la misma podía demandar un tiempo, solo necesitaba que tenga paciencia y confíe en mi trabajo profesional.

Le estaba pidiendo paciencia a una víctima del buscador www.google.com.ar que en tiempo real y de modo global arruinaba su exitosa carrera profesional, sin tener en cuenta el tiempo y la paciencia que yo le pedía a Juan Manuel.

Nadie como el suscripto conoce mejor los padecimientos de las víctimas de los buscadores de internet, las redes sociales y las nuevas tecnologías.

Nadie me lo conto, hace 20 años defiendo los derechos personalísimos de las personas vulnerados por los gigantes de internet de modo arbitrario, ilegal e irrazonable. El argumento poco creíble de estas empresas para avasallar los derechos de las personas es siempre el mismo, la libertad de expresión, colocando este sublime derecho por encima de otros de igual rango constitucional como lo son el derecho a la intimidad, el honor y la dignidad humana.

No debe prevalecer uno por encima de otro con la excusa insólita de la censura y el ataque a la libertad de expresión. La lógica indica que en toda contienda de derechos, debe ponderarse con ecuanimidad cuál de ellos se encuentra mayormente afectado para su protección, sin que ello implique en modo alguno la desprotección del otro derecho.

Insistí y le pedí confíe en mí trabajo. Sabía firmemente que su caso iba a sentar un precedente histórico en cuanto a la responsabilidad civil de los algoritmos predictivos y las búsquedas sugeridas por el propio buscador.

Puedo afirmar sin temor a equivocación que en veinte años y más de cuatrocientos casos en cuestiones de derecho y nuevas tecnologías, jamás vi una persona tan abatida como Juan Manuel Seren. Quizás la más cercana fue Natalia Denegri, con resultado diferente en su caso, pero vaya paradoja, el contenido de este último caso, en su considerando 23, fueron los cimientos que sostienen los sólidos fundamentos del caso Seren. No me canso de afirmar que el caso Denegri es el caso Belén Rodríguez dos,  por su contenido y proyección futura. Ambos marcaron un antes y después en el derecho nacional e internacional, como lo marcara en el futuro en el ámbito nacional e internacional el caso Juan Manuel Seren. No puedo dejar de reiterar que con Natalia Denegri se cometió una injusticia monumental, no porque lo afirme el suscripto, sino porque en cualquier ámbito universitario, académico, judicial y jurídico se habla de ello. 

Ese 25 de enero de 2.022 le afirme a Juan Manuel que su caso iba a resultar histórico. No me equivoque.

El fallo de primera instancia fue un verdadero recital de desaciertos y desconocimiento de los algoritmos diseñados por los ingenieros de los buscadores que llamaba la atención, incluso con argumentos contrarios a los esbozados por el perito informático en su claro dictamen lo que resultaba inaudito.

Afirmó el Juez que es evidente que las “múltiples variables predefinidas por el algoritmo son resultado de la recolección de datos efectuados por el algoritmo de la demandada como consecuencia de la interacción dinámica entre el algoritmo de la demandada y las acciones de los usuarios…”. No era necesaria dicha aclaración: El Juez olvido o ignoro que el algoritmo fue diseñado por los ingenieros de Google para satisfacer los intereses de Google.

La "neutralidad" algorítmica es la gran mentira de nuestro tiempo, una cortina de humo que oculta la maquinaria de la manipulación de los datos de las personas de cualquier forma, AUN LA PREDICTIVA Y SUGERIDA..
Parecería que para el Juez de Primera Instancia la complejidad de las "búsquedas relacionadas o predictivas" y "autocompletar" las convierte en entes autónomos, libres de responsabilidad. Como si la dificultad técnica fuera sinónimo de impunidad. Que cada usuario acceda con un perfil específico no hace sino aumentar la obligación de los buscadores de internet de asegurar la veracidad de la información que ofrece.

¿Acaso no es esa la esencia del servicio que dicen proporcionar?
 Y ya sabemos que estas herramientas supuestamente "ayudan" a los usuarios a refinar sus búsquedas como lo afirmo el magistrado de Primera Instancia de modo curioso. Lo que obvio el magistrado es que la “depuración” de esa información jamás debe ocasionar daños a terceros ajenos al buscador, menos aún “predecir” información falsa que afecta derechos constitucionales.

La supuesta "relevancia" de los resultados no es más que un eufemismo para la manipulación algorítmica como lo hizo de modo ilegal Google con Juan Seren. Todo ello surge de modo claro y contundente de la pericia informática, ignorado de modo pasmoso por el Juez de Primera Instancia.

Escudarse en la complejidad y el dinamismo de los algoritmos para justificar la violación de los derechos de los usuarios, excluyendo la aplicación de la ley 25.326, es una admisión de desconocimiento o, peor aún, de indiferencia ante los daños causados por el buscador a terceros ajenos a su millonario negocio.

Que las predicciones se basen en múltiples variables y datos históricos no las convierte en oráculos infalibles. El daño que pueden causar es tan real como las líneas de código que los componen. El algoritmo además fue diseñado por los  ingenieros de la empresa por pedido “a la carta” de los propietarios de la firma Google.

 La descripción exhaustiva del funcionamiento de "autocompletar" es una cortina de humo para minimizar la percepción del problema. La opción de "desactivarla" es tan ridícula como ineficaz. La gran mayoría de los usuarios de los buscadores de internet ni siquiera saben que esa opción existe.

El fallo de Primera Instancia fue una celebración de la forma sobre el fondo. Se regodeaba en las complejidades tecnológicas con afirmaciones sin sustento factico, jurídico y técnico que ignoraron las cuestiones éticas fundamentales y las claras disposiciones de la ley 25.326.

La afirmación del Juez de Primera Instancia que se sustenta en que la información generada por un algoritmo no es susceptible de ser almacenada porque es una “elaboración algorítmica”, es sencillamente un chiste de mal gusto y un disparate gigantesco.

Claro, puede que no esté grabada en una tabla de datos estática, pero no se engañen: se procesa, se utiliza y se reutiliza con las consecuencias indeseadas del caso que tratamos entre muchos otros similares.

Que la naturaleza "dinámica" de los datos impida declararlos falsos o inexactos como afirmo el Juez de Primera Instancia en su revocada sentencia es una burla imposible de soportar.

El fallo de primera instancia fue el triunfo de la semántica sobre la razón, un intento de enmascarar la realidad: que estos sistemas, lejos de ser neutrales, reflejan y amplifican los prejuicios, la discriminación, la falta de transparencia y los perjuicios a terceros.

El fallo de Cámara coloco de modo contundente las cosas en su lugar, con extrema claridad conceptual, de la que careció de modo absoluto el fallo de primera instancia, finalmente revocado por la Sala I de la Cámara Nacional en lo Civil y Comercial Federal. El fallo de Cámara fue consentido expresamente por Google Inc., dato no menor. No tengo duda alguna que evito que la Corte Suprema de Justicia de la Nación amplíe los brillantes fundamentos del considerando 23 del caso Denegri, podría resultar un salto al vacío.

El fallo de Cámara resulto para Juan Manuel Seren un  vendaval de alivio personal, familiar y profesional, además de construir los sólidos cimientos de lo que se discute en el mundo en la actualidad  acerca de las búsquedas predictivas y sugeridas por los buscadores de internet.

También en mi criterio el considerando 23 del caso Denegri (28 de junio de 2.022) sentó de modo contundente la necesidad de prestar atención a la inteligencia artificial, la falta de transparencia de los algoritmos, la absoluta falta de neutralidad de los algoritmos de los buscadores de internet que podría generar un cierto perfil de las personas que condicione la composición de lugar que el internauta se hará de la identidad de la persona auscultada.

La Corte Suprema de Justicia de la Nación el día 28 de junio de 2.022 sentó de modo claro las bases sólidas del fallo Juan Manuel Seren, siendo injusta en ese caso con Natalia Denegri en su lucha contra el gigante de internet. Por ello el caso Denegri lo denomino el caso Belén Rodríguez dos.

Nunca pude explicarle a Belén Rodríguez la importancia de su fallo desde su dictado en el mes de octubre de 2.014, ni a Natalia Denegri desde el mes de junio de 2.022, quizás por mi dificultad para hacerme entender aunque mi esfuerzo fue denodado o bien porque las mismas se sintieron absolutamente defraudadas por la Justicia Argentina, a raíz de los injustos fallos dictados por la Corte Suprema de Justicia de la Nación, aunque nobleza obliga, sentaron jurisprudencia histórica en ambos casos, reconocidas a nivel nacional e internacional.

Lo cierto es que ambos fallos resultaron históricos y marcaran el camino de la jurisprudencia Nacional e Internacional por años. Los buscadores festejaron su resultado de modo pírrico porque sus contenidos son claros en cuanto a la responsabilidad civil de los buscadores de internet y la aplicación del derecho al olvido en nuestro país.

El fallo Belén Rodríguez originó más de cien condenas a lo largo de los años y desde el año 2.014 a los buscadores de internet.

El fallo Denegri es el cimiento más sólido del caso Juan Manuel Seren que estableció la responsabilidad algorítmica por las búsquedas predictivas y sugeridas. Para comprender su importancia me permito reproducir el considerando 23 en su totalidad:

“…23. Que finalmente, más allá de que los fundamentos de la petición de la actora no alcancen para justificar el bloqueo de vínculos referidos a información de interés público, los planteos que ha efectuado, así como los temas debatidos en la audiencia pública vinculados con los criterios que utilizan los motores de búsqueda para determinar sus resultados –tales como el número de veces que las palabras-clave aparecen en el sitio, el lugar en el que aparecen, el título y la calidad del sitio, la cantidad de sitios que abrevan en tal lugar, el orden en el que los contenidos se presentan, entre otros factores− no pueden ser ignorados. Es así que el presente pronunciamiento no implica desconocer que el creciente uso de herramientas de tecnología informática y, en particular, de sistemas que podrían incluirse dentro de la categoría “Inteligencia Artificial” (IA), suscita numerosos interrogantes respecto de su campo de aplicación a la luz de los derechos fundamentales reconocidos en la Constitución Nacional y en los Tratados de Derechos Humanos, así como respecto de su incidencia en la ordenación del debate público. Aun cuando el tema no haya sido objeto de debate en la presente causa, cabe destacar la existencia de un foro de discusión mundial acerca del modo de compatibilizar los problemas que en algunas ocasiones podrían suscitarse entre los mencionados derechos y el funcionamiento de los sistemas de algoritmos (como ejemplo de los temas en debate en la materia, puede consultarse las “Directrices Éticas para una IA fiable”, Grupo Independiente de Expertos de Alto Nivel sobre Inteligencia Artificial creado por la Comisión Europea en junio de 2018)”. En este marco, y específicamente referido a los criterios de ordenamiento de la información por parte de los buscadores, la representación de la demandada sostuvo en la audiencia que el modo en que el algoritmo ordena los resultados “no necesariamente sigue una cronología. Sale lo que Google estima que es más relevante para ese usuario. Aparte es distinto si uno lo busca en Argentina, si lo busca en Estados Unidos, porque lo relevante va a ser distinto. […] Es una cosa complejísima (…)”. Posteriormente agregó que no era ese un criterio “neutro” (respuesta del Doctor Grondona p. 46 y 50 de la versión taquigráfica de la audiencia). En base a la forma en que Google manifestó que aparecen los resultados, se podría generar un cierto perfil de las personas que podría condicionar la composición de lugar que el internauta se hará de la identidad de la persona auscultada. De ahí la necesidad de asumir hacia el futuro la problemática de ciertos aspectos del funcionamiento de los algoritmos de los que se sirven los motores de búsqueda, para que resulten más entendibles y transparentes para los usuarios, hoy sujetos a la decisión de aquellos.…”

Lo que la Corte Suprema de Justicia de la Nación considero de suma importancia en el mes de enero de 2022, fue aplicado de modo brillante por la Sala I de la Cámara Nacional Civil y Comercial en el fallo Seren, afirmando de modo contundente que:

“…8. Ello sentado, no está cuestionada en la especie la vinculación con casos de mala praxis en la sugerencia de búsqueda entre las "búsquedas relacionadas" ante la introducción del nombre del actor-Dr. Seren o Juan Manuel Seren- (cfr. listados de resultados de búsqueda con el nombre del actor y acta de constatación notarial que obran entre fs. 28/45) con anterioridad a la medida precautoria En el ordenamiento jurídico nacional el reconocimiento y la protección del derecho al honor encuentran fundamento en el art. 33 de la Constitución Nacional y en los tratados internacionales (Pacto de San José de Costa Rica y Pacto Internacional de Derechos Civiles y Políticos) que cuentan con jerarquía constitucional desde su reforma en 1994, que a su vez también los contemplan como una restricción legítima al ejercicio de otro derecho fundamental como la libertad de expresión (conf. arts. 11 y 13.2.a del Pacto de San José de Costa Rica; 17 y 19.3.a del Pacto Internacional de Derechos Civiles y Políticos; V y XXIX de la Declaración Americana de los Derechos y Deberes del Hombre, y 12 de la Declaración Universal de Derechos Humanos); a nivel infraconstitucional encuentran fundamento en el art. 52 del Código Civil y Comercial de la Nación (cfr. CSJN, Fallos: 343:2211). Así, el honor, en tanto derecho personalísimo que tiene todo individuo, ampara a las personas frente a expresiones o mensajes que la hagan desmerecedora en la consideración ajena al ir en su descrédito (cfr. CSJN, Fallos. 345:482). El actor funda la vulneración de sus derechos en la falsedad de la sugerencia descripta. Por un lado, no está discutido que ninguno de los contenidos de los resultados del listado a los que dirigía la sugerencia "Dr. seren mala praxis" entre las "Búsquedas relacionadas" mencionaba que el actor hubiera sido denunciado o vinculado con hechos de mala praxis médica, tal como el señor juez expuso en la resolución del 15-7-2022 (fs. 54) como resultado de la constatación efectuada por secretaría (ver considerando III, noveno párrafo). Por otro, el actor produjo prueba a fin de acreditar la inexistencia de denuncias por mala praxis a su respecto en el ámbito penal y administrativo (cfr. certificado de antecedentes penales incorporado el 22-11-222; informe de la Cámara de Apelaciones en lo Penal, Penal Juvenil, Contravencional y de Faltas agregado el 28-11-22; informe de Noble Compañía de Seguros S.A. incorporado el 1-12-22 e informes del Ministerio de Salud agregados el 19-12-22 y el 10-4-23). Sobre esa base, como se dijo en la resolución de la Sala del 22-9-2022, la vinculación del nombre del actor con la expresión "mala praxis" en el primer lugar de las "búsquedas relacionadas“, sin un contexto que la justifique, es susceptible de afectar sus derechos personalísimos, pues importa un menoscabo de su reputación profesional (cfr. Sala III causa 1165/2015/1/ del 18-5-2015). , doctr. Y es precisamente la falta de información links o contenido referido a casos de mala praxis relacionados con el actor en los a los que remite el buscador lo que priva de sustento a la sugerencia, a la par que determina que en la especie no esté involucrada la libertad de expresión. Con relación a la URL cuya desindexación reclamó el actor extrajudicialmente -con anterioridad al dictado de la sentencia- que menciona la demandada en la contestación del memorial, más allá de que no se pudo verificar el contenido porque había sido eliminado -materia en la que las partes coinciden-, el tema no es susceptible de ser examinado por el Tribunal, habida cuenta de que no fue sometido a la decisión del juez de primera instancia, extremo que veda su juzgamiento en la Alzada (arts. 271 y 277 del Código Procesal). 9. Por otra parte, frente a la admisión de la demandada respecto de la posibilidad de cumplir con lo requerido (en la misma dirección ver puntos 19 y k del informe pericial informático agregado el 10-4-23) el hecho de que la sugerencia de búsqueda objetada sea el resultado de la interacción del algoritmo con las búsquedas previas de los usuarios, no implica que el afectado deba soportar inerte las consecuencias que de ello se derivan, cuando está al alcance de la demandada impedir la continuación del daño mediante la supresión de la sugerencia lesiva (arg. art. 1710 del Código Civil y Comercial, texto aprobado por la ley 26.994).….”.

En palabras de la brillante decisión tomada por los magistrados Uriarte, Perozziello Vizier y Nallar “la vinculación del nombre del actor con la expresión "mala praxis" en el primer lugar de las "búsquedas relacionadas“, sin un contexto que la justifique, es susceptible de afectar sus derechos personalísimos, pues importa un menoscabo de su reputación profesional”.

Ni más ni menos lo que la Corte Suprema de Justicia de la Nación observo como una grave problemática a solucionar en el caso Denegri, al afirmar de modo categórico que “En base a la forma en que Google manifestó que aparecen los resultados, se podría generar un cierto perfil de las personas que podría condicionar la composición de lugar que el internauta se hará de la identidad de la persona auscultada. De ahí la necesidad de asumir hacia el futuro la problemática de ciertos aspectos del funcionamiento de los algoritmos de los que se sirven los motores de búsqueda, para que resulten más entendibles y transparentes para los usuarios, hoy sujetos a la decisión de aquellos”.

Esta necesidad resaltada por la Corte Suprema de Justicia de la Nación fue asumida de  modo magnifico por la Sala I de la Cámara Nacional en lo Civil y Comercial Federal, dictando un fallo que marcara el camino jurisprudencial acerca de la problemática de ciertos aspectos del funcionamiento de los algoritmos de los que se sirven los motores de búsqueda que podría condicionar la composición de lugar que el internauta se hará de la identidad de la persona auscultada.

El fallo que analizamos otorgo una brillante solución a la composición FALSA de tiempo y lugar de la identidad de Juan Manuel Seren, gravemente afectada hasta el dictado de la medida cautelar, mas luego confirmada por el fallo que analizamos, que mereció la debida protección jurisdiccional a raíz de las búsquedas sugeridas por la firma Google Inc. de modo arbitrario e ilegal. No resultar menor señalar y reiterar que el fallo dictado por la Cámara Federal fue consentido expresamente por la empresa Google Inc.

Además, otorgo a Juan Manuel Seren la paz de la que fue privado por años por la firma Google Inc. a raíz de la absoluta falta de transparencia de sus algoritmos que, permitieron de modo arbitrario e ilegal vincular su nombre de forma predictiva y sugerida con casos de mala praxis médica en tiempo real y a nivel global. ¡Gravísimo!

Concluye la Cámara Federal afirmando que “…10. En tales condiciones, corresponde hacer lugar a la acción incoada y condenar a la demandada a cesar de sugerir o asociar la expresión "mala praxis“ en las "Búsquedas relacionadas" cuando se realiza una búsqueda con el nombre y apellido del actor o con la abreviatura "Dr." seguida de su apellido. La decisión que se adopta se toma sobre la base de las circunstancias específicas de la causa, como que no se ha demostrado que existan contenidos que vinculen al actor con casos de mala praxis. A tal efecto se pondera especialmente que lo pretendido no afecta la libertad de expresión porque no impide encontrar a través de la herramienta de búsqueda información de cualquier naturaleza sobre el actor que pudiera existir en internet, en los términos del art. 1° de la ley 26.032 que considera comprendida dentro de la garantía constitucional que ampara la libertad de expresión a la búsqueda, recepción y difusión de información e ideas de toda índole, a través del servicio de Internet..”.

Lo decidido por la Sala I de la Cámara Nacional en lo Civil y Comercial Federal es una excelente y admirable decisión que protege de modo correcto y contunde el derecho a la honra y honor de Juan Manuel Seren. Además, en modo alguno puede afectar la libertad de expresión porque no impide encontrar a través de la herramienta de búsqueda información de cualquier naturaleza sobre el actor que pudiera existir en internet, ello en los términos del art. 1° de la ley 26.032 que considera comprendida dentro de la garantía constitucional que ampara la libertad de expresión a la búsqueda, recepción y difusión de información e ideas de toda índole, a través del servicio de Internet.

Otorgo a Seren la tranquilidad espiritual, personal, profesional y familiar que tambaleo por años de modo injusto, por la absoluta falta de transparencia del algoritmo de la firma Google Inc. que, arbitrariamente y mediante sugerencias falsas, decidió vincularlo con casos de mala praxis de los que jamás participo y con los cuales nada tuvo que ver, salvo para el diabólico algoritmo de Google. Debo resaltar, aunque no resulte necesario a esta altura, que Juan Manuel Seren en toda su carrera profesional, brillante por cierto, jamás fue objeto de una denuncia administrativa o penal.

Concluyo esta nota elaborada con mis queridos y apreciados colegas,  proclamando que solo las personas que padecen a las empresas tecnológicas de modo injusto y arbitrario conocen con certeza lo que ocurre en sus vidas a partir de ese momento y hasta encontrar una solución final, la que muchas veces suele ocurrir luego de años de padecimientos injustos por la soberbia de las empresas tecnológicas que se creen con el poder de dañar vidas ajenas sin consecuencias.

Quizás con alguna pequeña consecuencia a través de una sentencia de condena que fijan montos grotescos por su insignificancia, que potencian la forma de obrar  de las empresas multinacionales frente a los reclamos justos de las víctimas de los buscadores de internet y las redes sociales. Parece que es más redituable para estos gigantes abonar una condena irrisoria en nuestro país, que en el peor de los casos no supera los cinco mil dólares, que tomar medidas de buen empresario que permitan evitar dañar injustos a terceros ajenos a la empresa, obrando con la máxima y debida diligencia en procura de solucionar el grave daño causado de modo injusto a terceros.

Y ello no parece tan difícil,  porque su propio letrado apoderado en la audiencia pública llevada a cabo en el caso Natalia Denegri les afirmo en la cara a los ministros del máximo Tribunal que los algoritmos NO SON NEUTROS y DEPENDEN DE LA VOLUNTAD de la empresa, lo que demuestra que tienen el control ABSOLUTO de ellos y deciden sobre la información que alojan en los resultados de búsqueda del sitio www.google.com.ar, ergo, eliminarlos demanda solo un “clic” que las empresas se niegan a efectuar de modo injustificado, aun cuando el daño que causan la mayoría de las veces resulta irreparable.

El letrado apoderado de la firma Google en la audiencia pública del caso Denegri de modo enfático y contundente afirmo sin dudar en tono enérgico: “…que el modo en que el algoritmo ordena los resultados “no necesariamente sigue una cronología. Sale lo que Google estima que es más relevante para ese usuario. Aparte es distinto si uno lo busca en Argentina, si lo busca en Estados Unidos, porque lo relevante va a ser distinto. […] Es una cosa complejísima (…)”. Posteriormente agregó que no era ese un criterio “neutro” (respuesta del Doctor Grondona p. 46 y 50 de la versión taquigráfica de la audiencia)…”.

Para el suscripto no se trata de una novedad, lo afirmo desde el año 2.006, pero si para muchos desprevenidos y muchos habladores del derecho y las nuevas tecnologías que, sin conocimientos, se cansaron de afirmar que los buscadores de internet no tienen el control de lo que publican en sus resultados de búsqueda al tratarse de una herramienta neutra.  Alarmarte el absoluto desconocimiento del funcionamiento de los algoritmos y sus consecuencias por parte de “algunos profetas del derecho y las nuevas tecnológicas”, quienes redactaron de modo obsecuente “papeles” por “encargo” que hoy en día los deben avergonzar.

Me pregunto para finalizar: ¿Es serio pensar y afirmar en el año 2.025 que los buscadores de internet no tienen el poder de decisión de lo que publican en sus resultados de búsqueda? ¿Es serio afirmar en el año 2.025 que los buscadores de internet son herramientas neutras? ¿Cuantos papeles que afirmaron acerca de la neutralidad deberán volver a redactar? ¿Cuántos papeles que afirmaron acerca de la absoluta falta de “poder de decisión de los resultados de búsqueda deberán volver a redactarse”, aunque lo mejor sería incinerarlos?

No es mi caso, porque afirmo y sostengo lo mismo desde el año 2.006. Muchos deberán cambiar su postura e incinerar “papeles” aunque se sonrojen, porque en definitiva resulto penoso lo que afirmaron en los “papeles” redactados para regocijo de las empresas tecnológicas. Esos “papeles” encargados a determinados personajes que se hacían llamar “especialistas en nuevas tecnologías”  hoy en día aparecen como adefesios jurídicos.

La respuesta para desprevenidos y supuestos “ilustrados” curiosamente la dio el abogado que representa a la empresa Google hace años en nuestro país, quien afirmo sin titubeos ni ruborizarse a los Ministros de la Corte Suprema de Justicia de la Nación en la audiencia pública del caso Denegri: “que el modo en que el algoritmo ordena los resultados “no necesariamente sigue una cronología. Sale lo que Google estima que es más relevante para ese usuario. Aparte es distinto si uno lo busca en Argentina, si lo busca en Estados Unidos, porque lo relevante va a ser distinto…”.

Y si no es neutro y alojan lo que Google cree que es más relevante para el usuario, no tengo ninguna duda que deben desindexar y eliminar resultados de búsqueda de modo veloz para evitar daños injustos a terceros ajenos al buscador, como ocurrió con Juan Seren a través de las búsquedas sugeridas y predictivas.

Simple tal como lo destaca el propio apoderado de la firma Google , aplicado de modo acertado y absolutamente contundente el fallo Seren  a raíz de la saludable “preocupación de la Corte Suprema desde el fallo Denegri”, aunque eludió y gambeteo aplicarlo de dicho precedente histórico!

Seren es el primer fallo que estableció en toda Latinoamérica la responsabilidad civil de los buscadores de internet por las búsquedas predictivas y sugeridas. El caso Seren es el triunfo del derecho, la ley y la Constitución Nacional sobre la omnipotencia de las grandes empresas tecnológicas. Su firmeza que lo coloca en autoridad de cosa juzgada resalta el considerando 23 del fallo Denegri.

Es curioso, al menos, que las supuestas victorias que festejaron los buscadores en nuestro país resulten sus peores adversarios a nivel jurisprudencial. ¡A veces el triunfo de dos batallas no alcanza para para obtener la victoria final!

 

Acceda al fallo aquí>>

 

Notas

* Comentario elaborado por Facundo Castillo. Abogado Litigante - USPT. Asesor de Empresas y Gremios. Docente Universitario de Grado.

** Comentario elaborado por Matías Werner. Abogado UBA. Especialista Cibercrimen y Evidencia Digital. Consultor en ciberdeguridad y privacidad. Profesor de Grado y Posgrado. Editor de Diario Judicial.

*** Comentario elaborado por Martín Leguizamón. Abogado (UBA) a cargo del Departamento de «Nuevas Tecnologías» del Estudio Jurídico Fernando Burlando. Desarrolla actividades académicas a nivel nacional e internacional. Participó del primer Congreso Mundial sobre Derecho al Olvido en el Congreso Nacional de Perú en el mes de junio de 2023. CREADOR DEl caso «Rodríguez, María Belén c. GOOGLE INC. y otro s/Daños y perjuicios» de la Corte Suprema de Justicia de la Nación, que estableció el estándar de responsabilidad subjetiva en contra de los buscadores en la República Argentina. A la fecha ha logrado noventa y ocho (98) condenas por daños y perjuicios contra los buscadores www.google.com.ar y www.yahoo. com.ar. Obtuvo la primera sentencia sobre falsas noticias contra Google Inc. en el país, aplicando la acción  preventiva de daños con fecha 30 de diciembre de 2019,  en los autos caratulados «TUYSUZ GALVEZ, F. c. GOOGLE INC. s/Acción preventiva de daños», en trÁmite por ante el Juzgado Federal en lo Civil Nº 4, Secretaría Nº 8 (SENTENCIA FIRME). Obtuvo la aplicación por primera vez en el país del derecho al olvido en el caso «POMPILIO, N. A.  c. GOOGLE INC s/HABEAS DATA (ART. 43, CN)», sentencia firme de la Sala II de la CÁMARA NACIONAL DE APELACIONES EN LO CIVIL Y COMERCIAL FEDERAL,  21/4/22.

[1] Walters, Marc v. Open AI LLC. Superior Court of Gwinett City, Georgia. 19/5/2025 https://images.assettype.com/barandbench/2025-06-19/0rtb594b/Mark_Walters_v_OpenAI_1750311692.pdf
[2] Hallevy, Gabriel (2010) "The Criminal Liability of Artificial Intelligence Entities - from Science Fiction to Legal Social Control," Akron Intellectual Property Journal: Vol. 4: Iss. 2, Article 1. Available at: https://ideaexchange.uakron.edu/akronintellectualproperty/vol4/iss2/1