
Los biólogos nos enseñan que los seres vivos tenemos básicamente dos funciones que son prioritarias para la preservación y supervivencia:
Por un lado el ahorro de energía (traducido en lenguaje vulgar «la Ley del menor esfuerzo»), es decir el uso racional de las propias fuerzas a conciencia de que son finitas y, máxime en épocas de vacas flacas, en ocasiones difíciles de reponer. Ejemplos muchos: la hibernación del oso en épocas de poco alimento; un jugador de fútbol que camina la cancha -hasta Messi- en determinados pasajes del partido para poder tener la energía necesaria en otros; o un ciclista que regula en algunas etapas para picar en otras, chuparse detrás de otros que pasan picando y otros trucos para bien aprovechar la propia energía.
También he visto como docente como las nuevas generaciones prefieren que el trabajo duro (aprender) lo haga otro (la IA) y se sientan a ver los resultados. Y ese ejercicio (o la falta de él), trasladado al trabajo profesional puede tener resultados catastróficos porque lo que la IA genera no siempre es correcto y, me atrevo a decir, que casi nunca es totalmente correcto. Entonces, el menor esfuerzo por el uso de IA, máxime si se trata de un profesional y el pescuezo de un cliente está en juego, son simplemente mala praxis.
Y de ahí el caso que nos ocupa. Ah! Antes de pasar al caso concreto: el segundo atributo que la biología maximiza en los seres vivos es la voluntad y capacidad de reproducirse. Tal vez si el menor esfuerzo se ve maximizado, pero el segundo resentido tengamos alguna chance de salvarnos de estos individuos. La naturaleza será sabia?
Al caso.
(De Diario Judicial)
El máximo tribunal de Tucumán consideró de gravedad institucional la presentación de un recurso con jurisprudencia inexistente, advirtió sobre la delegación irreflexiva en sistemas de IA y sostuvo que la tecnología nunca puede sustituir la responsabilidad profesional.
La tecnología promete velocidad; la Justicia exige prudencia. En esa tensión se inscribe el reciente pronunciamiento de la Corte Suprema de Justicia de Tucumán, que decidió apartar a una abogada penalista luego de constatar que había presentado un recurso extraordinario con citas jurisprudenciales inexistentes, precedentes tergiversados y hasta vocales “inventados”.
El fallo, dictado el 28 de noviembre de 2025 en San Miguel de Tucumán, no es un alegato contra la innovación. Es, en cambio, una advertencia severa sobre la irresponsabilidad profesional cuando se delega en herramientas de inteligencia artificial sin control humano ni verificación de fuentes.
Un recurso extraordinario con jurisprudencia que no existía
El caso tuvo origen en la condena a ocho años de prisión de un imputado por abuso sexual con acceso carnal. Confirmada la sentencia por el Tribunal de Impugnación, la defensa interpuso lo que denominó “recurso de casación”, pese a que el régimen procesal vigente prevé la impugnación extraordinaria.
Ese error técnico fue apenas el comienzo. Al examinar el escrito, la Corte detectó una sucesión de citas atribuidas a precedentes de la propia Corte provincial que no existían; en otros casos, fallos reales con fundamentos alterados; y hasta la mención de vocales que jamás integraron el tribunal.
Lo mismo ocurrió con referencias a la Corte Suprema de Justicia de la Nación: números de Fallos que correspondían a causas ajenas a la materia penal o que no contenían las doctrinas invocadas.
Para el tribunal, no se trató de simples imprecisiones. Habló de invención y tergiversación reiterada de jurisprudencia, en un escrito presentado en la última instancia recursiva local.
La IA no es el problema; el problema es la ausencia de control
La Corte sostuvo que el recurso fue “posiblemente elaborado mediante el uso de herramientas de inteligencia artificial” o de fuentes no confiables, sin que la profesional ejerciera el más mínimo control sobre la veracidad de las citas.
El eje del razonamiento es contundente: el fenómeno de las llamadas “alucinaciones” —respuestas plausibles pero falsas generadas por sistemas de IA— no traslada la responsabilidad a la herramienta. La responsabilidad sigue siendo del profesional que firma el escrito.
Delegar íntegramente la tarea intelectual en un sistema automatizado, sin contraste con fuentes auténticas ni revisión crítica, vulnera —según el fallo— los deberes de probidad, diligencia y lealtad procesal que rigen el ejercicio de la abogacía. Y en materia penal, donde está en juego la libertad, esa negligencia adquiere una gravedad superlativa.
Defensa formal no es defensa efectiva
El tribunal fue más allá del reproche ético. Entendió que la actuación colocó al imputado en una situación de indefensión, porque el derecho de defensa no se satisface con la presencia formal de un abogado, sino con una asistencia técnica real y eficaz.
La sentencia recuerda que la garantía constitucional del artículo 18 exige una intervención personal, reflexiva y fundada del defensor. Un escrito construido con citas falsas, aunque formalmente prolijo, no constituye una defensa sustancial.
Por eso, la Corte resolvió apartar a la letrada del proceso, ordenar la designación de un nuevo abogado y remitir los antecedentes al Tribunal de Ética y Disciplina del Colegio de Abogados de Tucumán.
Un espejo para otras profesiones
El mensaje del fallo no se agota en el ámbito penal. La inteligencia artificial ya atraviesa múltiples sectores, entre ellos el mercado asegurador. Se la utiliza para análisis de riesgos, liquidación de siniestros, detección de fraude y, cada vez con mayor frecuencia, para la redacción de cláusulas, condiciones generales y comunicaciones contractuales. También gradualmente para asesoramiento el cliente.
Pero el caso tucumano ofrece una lección transversal: ningún algoritmo puede sustituir la responsabilidad profesional. Una póliza mal redactada, una cláusula ambigua generada automáticamente o una condición copiada sin revisión pueden generar conflictos de interpretación, nulidades o litigios de alto impacto económico.
Así como en el proceso penal una cita inexistente vulnera el derecho de defensa, en el seguro una redacción defectuosa puede afectar la cobertura, la solvencia reputacional de la aseguradora y la confianza del asegurado. En ambos escenarios, la herramienta es auxiliar; el juicio crítico es indelegable.
La tecnología, bien utilizada, potencia la capacidad humana. Mal utilizada, la simula. Y esa simulación —sea en un recurso extraordinario o en una póliza de seguro— puede tener consecuencias institucionales y patrimoniales profundas.
