MiGaceta
Nivel 2 · Intermedio Cap 6 del libro · navegable por principio

BMA + ABA Formal Opinion 512

Los dos marcos éticos canónicos sobre uso de IA generativa por abogados. El Cap 6 del libro los traduce al workflow diario; esta página mantiene la referencia rápida para consulta. Vigente al cierre de 2026.

Lineamientos BMA (México, diciembre 2025)

Los Lineamientos para el Uso Responsable de la Inteligencia Artificial en el Ejercicio Profesional del Derecho publicados por la Barra Mexicana, Colegio de Abogados, A.C. son los primeros de toda América Latina. Documento completo en bma.org.mx.

1

Competencia tecnológica

El abogado debe entender suficientemente la IA que usa para dirigirla con criterio profesional. No se exige nivel experto; sí el mínimo para detectar errores.

2

Confidencialidad

Datos de cliente sólo en plataformas con BAA/DPA. Plan gratuito = violación material.

3

Honestidad con el cliente

Divulgación general en engagement letter + específica para usos atípicos. Opt-out respetable.

4

Responsabilidad profesional indelegable

El abogado firma, no la IA. Validación 100% de citas. Reescritura de párrafos para conservar voz autoral.

5

Documentación de uso

Bitácora del uso de IA en cada asunto. Auditable interna y externamente.

6

Mejora continua

El despacho revisa su política IA cada seis meses por la velocidad del cambio tecnológico y regulatorio.

ABA Formal Opinion 512 (Estados Unidos, julio 2024)

Primera guía formal del mundo sobre uso de IA generativa por abogados. Aunque no es vinculante stricto sensu, su autoridad interpretativa es muy alta — la mayoría de las barras estatales se han alineado. Documento oficial en americanbar.org.

Competencia

Incluye explícitamente competencia tecnológica. Un abogado que usa IA debe entender capacidades, limitaciones y riesgos suficientemente.

Comunicación con cliente

Divulgación cuando el uso de IA sea material para los servicios. ABA Op. 512 desarrolla el umbral de materialidad.

Confidencialidad

Sólo herramientas con garantías contractuales adecuadas (BAA/DPA). Riesgo si el output IA filtra información de cliente al modelo.

Candor con el tribunal

Verificación obligatoria de citas. Mata v. Avianca, Park v. Kim, Crabill: sanciones bajo este Rule.

Supervisión

Socio responsable de uso IA por asociados y staff. Wadsworth v. Walmart: safe harbor corporativo funcionó por políticas internas previas acreditadas.

Conducta profesional

Uso engañoso de IA (firmar como propio output no revisado) puede constituir misconduct.

Convergencia entre BMA y ABA

Los dos marcos convergen en cinco puntos:

  1. Validación obligatoria de citas (deber de _candor_ ante el tribunal).
  2. Confidencialidad: solo planes corporativos con BAA/DPA para datos de cliente.
  3. Divulgación al cliente cuando el uso de IA sea material.
  4. Supervisión: socio responsable del uso de IA por asociados y _staff_.
  5. Criterio profesional indelegable: la IA produce borrador, el abogado firma.

Si en duda en un caso concreto: aplica el criterio más estricto de los dos. Eso te protege bajo ambos marcos simultáneamente.

Recibe en tu correo las 6 plantillas operativas del libro

Política de uso de IA, cláusula de engagement letter, checklist de evaluación, bitácora de uso, validación de output y carta al cliente. Más errata viva del libro y acceso al RAG playground (verano 2026).

Sin spam. Te enviamos máximo un correo al mes con actualizaciones del libro y nuevos recursos. Puedes darte de baja en cualquier momento.