La posibilidad de que una IA asuma el rol de abogado plantea interrogantes jurídicos, éticos y reglamentarios. Aunque las herramientas de IA están cada vez más presentes en tareas auxiliares (investigación, redacción, análisis predictivo), los marcos legales vigentes en la mayoría de jurisdicciones impiden que una máquina asuma de forma autónoma las funciones reservadas al abogado humano. A continuación, se examinan los principales límites y razones:
1. Requisito de personería y ejercicio profesional
- Capacidad jurídica: El ejercicio de la abogacía está regulado como una actividad profesional reservada a personas físicas o, en su caso, a personas jurídicas debidamente autorizadas (despachos). Una IA no posee personería ni responsabilidad legal plena, por lo que no puede ser sujeto activo de un contrato de prestación de servicios profesionales ni asumir obligaciones éticas y disciplinares.
- Inscripción en colegios profesionales: En casi todas las jurisdicciones, solo los abogados registrados en el colegio o barra pueden litigar, firmar escritos y suscribir contratos de honorarios, funciones que no puede desempeñar una IA.
2. Responsabilidad y atribución de actos
- Responsabilidad civil y penal: La IA carece de capacidad para responder civil o penalmente por actos jurídicos. Ante un error o perjuicio ocasionado por una recomendación automatizada, la responsabilidad recae necesariamente en la persona o entidad que diseñó, desplegó o supervisó la herramienta—no en la IA misma.
- Deber de supervisión: Códigos deontológicos exigen que el abogado verifique y apruebe todo resultado derivado de IA. La supervisión humana es obligatoria para atribuir responsabilidad profesional y garantizar diligencia.
3. Ética y deberes deontológicos
- Secreto profesional: El manejo de información confidencial por una IA plantea riesgos de filtración o tratamiento inadecuado. Las normas de confidencialidad exigen que solo el abogado y su personal autorizado tengan acceso a datos de clientes, no sistemas externos que puedan retener o reutilizar información sin control.
- Independencia y lealtad: La IA sigue algoritmos de terceros, lo que podría comprometer la independencia del abogado si la herramienta prioriza intereses comerciales del proveedor o introduce sesgos no detectados.
4. Regulación vigente y proyectos normativos
- Clasificación de sistemas de IA según riesgo: Inspirados en la UE, algunos países latinoamericanos están incluyendo categorías de alto riesgo para IA que intervenga en decisiones judiciales o asesoría legal. Estas requieren licencias especiales y evaluaciones de impacto antes de su uso en procesos decisorios.
- Prohibición de ejercicio autónomo: Ninguna normativa hasta la fecha permite que una IA se registre como abogado ni que actúe ante tribunales sin un patrocinador humano. Los proyectos de ley en Brasil, Perú y Chile refuerzan la exigencia de supervisión y responsabilidad humana sobre sistemas de IA legal.
5. Límites prácticos y técnicos
- Alucinaciones y precisión: Las IA generativas pueden producir información errónea o inexacta (“alucinaciones”), lo que hace imprescindible la verificación por un abogado para evitar errores jurídicos graves.
- Falta de juicio ético y estratégico: La deliberación ética, la empatía y la negociación personal son competencias humanas esenciales para la abogacía que no pueden replicar algoritmos por completo.
Aunque la IA está transformando profundamente tareas auxiliares en la práctica legal, no puede ejercer la abogacía de forma autónoma ni reemplazar al profesional humano. Los marcos legales, códigos deontológicos y exigencias de responsabilidad civil y penal obligan a que toda actuación de IA sea supervisada y atribuida a un abogado o despacho registrado. La IA seguirá siendo un potente instrumento que potencia la eficiencia, pero su uso debe enmarcarse siempre en la responsabilidad, ética y control propio del ejercicio profesional del Derecho.