MiGaceta
Nivel 2 · Intermedio Cap 5 del libro · vigente al cierre mes

Casos canónicos de alucinación

Los siete casos canónicos que todo abogado mexicano debe conocer antes de usar IA en práctica profesional. Cuando un cliente o tribunal te pregunte "¿qué riesgo concreto corres?", estos siete son la respuesta. Cobertura completa: más de 1,200 casos documentados al cierre de mayo 2026 (Damien Charlotin DB).

Mata v. Avianca, Inc.

junio 2023 · S.D.N.Y.
Abogados

Steven Schwartz, Peter LoDuca

Sanción

USD 5,000

Seis precedentes inventados por ChatGPT, citados en escrito. El caso fundacional — primera sanción documentada por uso de IA con alucinaciones en práctica legal.

678 F. Supp. 3d 443 (S.D.N.Y. 2023) Ver fuente primaria →

Park v. Kim

enero 2024 · 2nd Cir.
Abogados

Jae S. Lee

Sanción

Referencia al Comité de Quejas

Cita ficticia generada por ChatGPT. Cuando se le pidió aportar copia, no pudo. Lección: ocho meses después de Avianca, los abogados seguían cometiendo el mismo error.

91 F.4th 610 (2d Cir. 2024) Ver fuente primaria →

People v. Crabill

noviembre 2023 · Colorado PDJ
Abogados

Zachariah Crabill

Sanción

Suspensión 3 años + USD 224 admin fee

Usó ChatGPT para producir escrito con jurisprudencia inventada, sin verificar. Defensa ("confié en la IA") rechazada. El abogado firma, no la IA.

No. 23PDJ067 (Colorado PDJ, 22-nov-2023) Ver fuente primaria →

Kruse v. Karlen

febrero 2024 · Mo. Ct. App. E.D.
Abogados

Jonathan Karlen (pro se + consultor)

Sanción

USD 10K damages + apelación desestimada

22 de 24 casos ficticios en appellate brief, generados por IA vía un consultor online. Tercerización legal a "consultores" = tercerización a IA con identidad ficticia.

692 S.W.3d 43 (Mo. Ct. App. E.D. 2024) Ver fuente primaria →

Wadsworth v. Walmart, Inc.

febrero 2025 · D. Wyoming
Abogados

Rudwin Ayala, T. Michael Morgan, Taly Goody (Morgan & Morgan)

Sanción

USD 5,000 total (3 abogados) + pro hac vice revocada

9 citas, 8 inventadas. Herramienta NO fue ChatGPT sino MX2.law (LLM corporativo interno de Morgan & Morgan). Primer caso documentado donde el safe harbor corporativo funcionó: la firma no fue sancionada por acreditar políticas internas previas.

No. 2:23-cv-00118-KHR, 2025 WL 608073 (D. Wyo. 24-feb-2025) Ver fuente primaria →

United States v. Cohen

marzo 2024 · S.D.N.Y.
Abogados

Michael Cohen (cliente) + abogado

Sanción

Sin sanción formal (no mala fe)

Cohen, no abogado, generó citas falsas en Google Bard y se las pasó a su abogado. El juez Furman lo describió como "embarrassing". Riesgo no es sólo del abogado; los clientes pueden contaminar el record con material AI-generated.

No. 18-cr-602 (S.D.N.Y. 20-mar-2024) Ver fuente primaria →

Sanción récord D. Oregon

marzo 2026 · D. Oregon (juez Mark Clarke)
Abogados

Caption pendiente verificación

Sanción

USD 109,700

Filings con errores AI-generados, 15 citas + 8 quotations fabricadas en disputa civil sobre viñedo/bodega. La sanción monetaria más alta registrada al cierre 2026. NO relacionado con Wadsworth ni Morgan & Morgan (es caso distinto).

Caption específico pendiente de verificación humana

Damien Charlotin AI Hallucination Cases DB

Damien Charlotin, investigador francés, mantiene la base de datos pública más completa de casos documentados de alucinaciones de IA en práctica legal. Al cierre de mayo de 2026, contabilizaba más de 1,200 casos en jurisdicciones de cinco continentes — un cuadruple del "300+" reportado en versiones anteriores del libro.

Ver base de datos completa →

El contador en vivo dentro de esta landing está en roadmap Q3 2026 (sincronización periódica con Charlotin DB).

Recibe en tu correo las 6 plantillas operativas del libro

Política de uso de IA, cláusula de engagement letter, checklist de evaluación, bitácora de uso, validación de output y carta al cliente. Más errata viva del libro y acceso al RAG playground (verano 2026).

Sin spam. Te enviamos máximo un correo al mes con actualizaciones del libro y nuevos recursos. Puedes darte de baja en cualquier momento.