Competencia tecnológica
El abogado debe entender suficientemente la IA que usa para dirigirla con criterio profesional. No se exige nivel experto; sí el mínimo para detectar errores.
Los dos marcos éticos canónicos sobre uso de IA generativa por abogados. El Cap 6 del libro los traduce al workflow diario; esta página mantiene la referencia rápida para consulta. Vigente al cierre de 2026.
Los Lineamientos para el Uso Responsable de la Inteligencia Artificial en el Ejercicio Profesional del Derecho publicados por la Barra Mexicana, Colegio de Abogados, A.C. son los primeros de toda América Latina. Documento completo en bma.org.mx.
El abogado debe entender suficientemente la IA que usa para dirigirla con criterio profesional. No se exige nivel experto; sí el mínimo para detectar errores.
Datos de cliente sólo en plataformas con BAA/DPA. Plan gratuito = violación material.
Divulgación general en engagement letter + específica para usos atípicos. Opt-out respetable.
El abogado firma, no la IA. Validación 100% de citas. Reescritura de párrafos para conservar voz autoral.
Bitácora del uso de IA en cada asunto. Auditable interna y externamente.
El despacho revisa su política IA cada seis meses por la velocidad del cambio tecnológico y regulatorio.
Primera guía formal del mundo sobre uso de IA generativa por abogados. Aunque no es vinculante stricto sensu, su autoridad interpretativa es muy alta — la mayoría de las barras estatales se han alineado. Documento oficial en americanbar.org.
Incluye explícitamente competencia tecnológica. Un abogado que usa IA debe entender capacidades, limitaciones y riesgos suficientemente.
Divulgación cuando el uso de IA sea material para los servicios. ABA Op. 512 desarrolla el umbral de materialidad.
Sólo herramientas con garantías contractuales adecuadas (BAA/DPA). Riesgo si el output IA filtra información de cliente al modelo.
Verificación obligatoria de citas. Mata v. Avianca, Park v. Kim, Crabill: sanciones bajo este Rule.
Socio responsable de uso IA por asociados y staff. Wadsworth v. Walmart: safe harbor corporativo funcionó por políticas internas previas acreditadas.
Uso engañoso de IA (firmar como propio output no revisado) puede constituir misconduct.
Los dos marcos convergen en cinco puntos:
Si en duda en un caso concreto: aplica el criterio más estricto de los dos. Eso te protege bajo ambos marcos simultáneamente.
Política de uso de IA, cláusula de engagement letter, checklist de evaluación, bitácora de uso, validación de output y carta al cliente. Más errata viva del libro y acceso al RAG playground (verano 2026).
Sin spam. Te enviamos máximo un correo al mes con actualizaciones del libro y nuevos recursos. Puedes darte de baja en cualquier momento.