En los últimos años, la Inteligencia Artificial ha captado la atención de las masas. Ha sido incorporado cada vez más por industrias grandes y avanzadas. Con la reciente invención de modelos de lenguaje grande (LLM) como ChatGPT, el uso de la IA ha aumentado aún más. El campo del derecho no es una excepción a esta adopción masiva de la Inteligencia Artificial.
Pero con el atractivo de cada nuevo invento, viene su lado oscuro. Para la integración de la Inteligencia Artificial en la práctica jurídica, existen preocupaciones éticas. Especialmente, con el uso cada vez mayor de la IA en la investigación, la redacción de documentos y otros productos de trabajo, han surgido una serie de cuestiones éticas. Esto lleva a reflexionar sobre si es incluso beneficioso utilizar la IA.
Si bien existen diversos estándares de conducta en todo el mundo para los profesionales del derecho, es universal que los abogados están obligados a brindar una representación competente a sus clientes. Por lo tanto, la utilización no autorizada de programas de IA para la práctica del derecho es especialmente relevante para la discusión de la ética en el contexto de la IA. Pero al mismo tiempo, el uso consciente de estos programas de inteligencia artificial puede agilizar el trabajo legal y ser muy beneficioso para los abogados. Esto lleva a la discusión en las siguientes secciones mientras se consideran los pros y los contras de este nuevo dilema ético.
Adopción de la IA en la práctica jurídica
Investigación y documentación jurídica
La primera integración de la IA en el campo legal fue Electronic Discovery o comúnmente conocido como eDiscovery. El proceso implica que un abogado entrene a una computadora para clasificar los documentos de un caso. Se utiliza un método de codificación predictiva que es esencialmente una IA que puede clasificar documentos según sea necesario. Esto ayudó a los abogados no sólo a gestionar mejor el tiempo, sino también a recopilar conocimientos e identificar precedentes relevantes a un ritmo sin precedentes.
Automatización de tareas rutinarias
Una de las razones clave de la alta tasa de adopción de la IA en todos los estratos industriales es su capacidad para realizar tareas repetitivas, con alta eficiencia y sin errores. Por lo tanto, las tecnologías de IA a medida creadas específicamente para la revisión de documentos, la diligencia debida, el análisis de contratos o la identificación de jurisprudencia actúan como una herramienta potente. Estas tecnologías permiten a los profesionales del derecho centrarse en aspectos más estratégicos y complejos de sus casos, lo que da como resultado una mayor productividad y mejores resultados.
Responsabilidades éticas con la llegada de la IA
La Asociación de Abogados de Estados Unidos ha señalado que la IA plantea las cuestiones éticas más desafiantes y complejas en materia de principios de competencia, confidencialidad, gestión de la práctica y honestidad. Por lo tanto, los abogados deben ser conscientes de los riesgos éticos que plantea la IA con el uso no autorizado, los datos confidenciales de los clientes y la renuncia indirecta a los privilegios de producto laboral cliente-abogado y abogado.
Competencia
Se espera que cada abogado se desempeñe lo mejor que pueda y sea profesionalmente competente para manejar los casos y atender correctamente a sus clientes. Cuando los abogados utilizan la IA, deben ser conscientes del alcance de la responsabilidad ética que plantea dicho uso. En segundo lugar, los abogados deben ser conscientes de cómo se están incorporando las herramientas de inteligencia artificial para garantizar que puedan seguir brindando una representación competente a sus clientes. Por ejemplo, en un caso reciente, un juez federal de Nueva York sancionó a dos abogados por presentar un escrito por AI, haciendo referencia a jurisprudencia inexistente. Por último, con la rápida adopción de la IA en la práctica jurídica y con la disponibilidad de herramientas más avanzadas, los abogados deben considerar si no utilizar dichas herramientas de IA se considerará un incumplimiento de los criterios de competencia.
Confidencialidad
Es imperativo que un abogado mantenga la confidencialidad durante todo el ciclo de vida de un caso para proteger el privilegio abogado-cliente. Es ilegal en la mayoría de los países divulgar información del caso/cliente sin el consentimiento previo del cliente. Algunas herramientas de inteligencia artificial como ChatGPT no garantizan la confidencialidad de datos. Por ejemplo, OpenAI advierte a sus usuarios de ChatGPT que no “compartan ninguna información confidencial en [sus] conversaciones”.
Incluso afirmando que “las conversaciones podrán ser revisadas” por los empleados de OpenAI para mejorar sus sistemas. Por lo tanto, para garantizar un uso ético, los abogados deben confirmar que las herramientas de inteligencia artificial empleadas cuentan con medidas para proteger la información compartida en la plataforma. En tales circunstancias, Nymiz puede ser una solución beneficiosa, ya que ayuda a anonimizar o seudonimizar la información en documentos legales para garantizar una privacidad intacta y, al mismo tiempo, brinda la posibilidad de compartir documentos según la “necesidad de saber”.
Gestión de la práctica
Numerosas herramientas de inteligencia artificial se han vuelto de uso común en firmas de abogados y departamentos legales. Pero una de las áreas clave de enfoque para garantizar una gestión fluida de la práctica a través de herramientas de inteligencia artificial sería la responsabilidad en materia de precisión, confiabilidad y explicabilidad. La precisión suele depender del diseñador y del propósito de la herramienta. Sin embargo, es muy esencial garantizar que el individuo o la institución tenga la capacidad de implementar dichas herramientas y tenga medidas para evaluar los resultados. De manera similar, los procesos de verificación cruzada, como algoritmos o capacitación para evaluar los resultados, garantizarán la confiabilidad. Finalmente, la solución de IA debe ser explicable a los clientes, abogados opuestos, tribunales o cualquier otra parte interesada para garantizar la transparencia y el cumplimiento de los deberes éticos. Dentro del ámbito de la gestión de la práctica, también se incluye el deber de supervisar a los no abogados y a los abogados subordinados. Si dichas personas utilizan herramientas de inteligencia artificial, los socios supervisores deben garantizar que se cumplan todas las obligaciones profesionales. Básicamente, esto implicará comprender qué herramientas de IA son apropiadas para qué tareas y la precisión de los resultados.
Honestidad
Una tendencia común de la IA y las herramientas de este tipo es generar datos ilustrativos o falsos. Como se mencionó en la sección anterior, es necesario incorporar algoritmos, capacitación o supervisión manual para garantizar que los resultados de dichas herramientas sean reales, relevantes y creíbles. Los abogados están obligados a garantizar que su opinión, trabajo y producto de su trabajo sean honestos y confiables. Por lo tanto, los abogados no deben enviar un resultado de IA directamente a los clientes, sino utilizarlo como un borrador o una versión preliminar del trabajo que necesita un mayor perfeccionamiento para crear el producto final del trabajo.
La IA ya no es un futuro lejano, sino una realidad presente. Por tanto, suponer que el ámbito jurídico no se integraría más con la IA y sus herramientas sería falso. Por lo tanto, es imperativo comprender y ser consciente de la ética legal para garantizar una fácil navegación a través del proceso. Mientras los abogados utilicen la IA para aumentar su trabajo en lugar de reemplazarlo; y las herramientas de inteligencia artificial que no involucran a abogados humanos se abstienen de brindar asesoramiento legal; La IA se puede utilizar para realizar trabajos jurídicos de calidad, mejorar los servicios jurídicos y aumentar el acceso a la justicia. Siempre debe haber un elemento humano en el trabajo de los abogados para garantizar que siempre se respete la obligación ética de los abogados para con sus clientes.