La IA puede prevenir injusticias, pero también puede causarlas

El uso de la inteligencia artificial no tiene porque limitarse a marketing y ventas, desarrollo de productos y servicios, y operaciones de servicio. La IA también puede emplearse para prevenir injusticias en el sistema legal. Desafortunadamente, la IA también ha sido causa de sufrimiento para muchas personas en las últimas décadas.

Según el Registro Nacional de Exoneraciones de los Estados Unidos, aquellos que han sido condenados injustamente desde 1989 han perdido 29.950 años de su vida a causa errores del sistema penal. Consciente de este problema, California Western School of Law estableció The California Innocence Project. Esta iniciativa busca ayudar en casos con evidencia que indique que los acusados han sido condenados de forma injusta.

Por desgracia, los beneficios de este proyecto solían ir de la mano con lo demandante que era la tarea. No solo requería una gran inversión de tiempo, sino el talento de expertos en derecho e investigación. Sin embargo, eso ya es cosa del pasado.

Como ha pasado en otras industrias, la IA puede agilizar el trabajo de los abogados para rectificar injusticias provocadas por error humano o malicia. Lo anterior no quiere decir que la IA deba asumir totalmente una tarea que requiere cierto grado de empatía.

CoCounsel, el nuevo aliado de The California Innocence Project 

Aunque The California Innocence Project ha logrado más de 4.000 exoneraciones desde 1999, aún hay muchos condenados de forma errónea en búsqueda de justicia. Ahí es donde entra la IA generativa desarrollada por CaseText y OpenAI. Diseñado como un asistente legal, CoCounsel es un modelo de lenguaje extenso (LLM) basado en ChatGPT. Fue entrenado con documentos, casos y procedimientos legales.

CoCounsel es capaz de analizar y resumir documentos legales, preparar deposiciones y bocetar reportes. Según Michael Semanchik, abogado en CIP, esta herramienta ha liberado al equipo legal para enfocarse tareas que requieren interacción humana.

En un campo tan sensible como el derecho, es vital que la IA produzca información precisa. No puede ser afectada por sesgos, alucinaciones y otros problemas.

Para reducir estos riesgos, CoCounsel fue probado por abogados de más de 400 firmas internacionales, independientes y compañías pertenecientes a Fortune 500. También se ha asegurado que los datos sensibles no sean almacenados o empleados por la plataforma. No hay riesgos de que se filtren y sean utilizada de forma inadecuada.

¿Cómo se verán afectados los abogados y el sistema legal por la IA generativa? 

La IA generativa tiene el potencial de transformar la profesión del derecho automatizando varias tareas rutinarias y demandantes de tiempo. También puede ayudar a los abogados en la búsqueda de información y la toma de decisiones.

Por ejemplo, Michael Semanchik comenta que bocetar una carta para un cliente solía tomar 15 minutos. Ahora puede lograrse en solo uno. La herramienta también ayuda a resumir documentos complejos, lo que agiliza la labor de clientes y abogados.

Casos de uso de la IA generativa en el campo legal 

Forbes señala un trío de casos de uso de la IA generativa en el campo legal:

  • LegalZoom ha dicho que la IA ayudará a simplificar sus operaciones y eliminar ineficiencias a la hora de hacer y analizar contratos.

  • ThoughtRiver ha desarrollado una plataforma potenciada por IA diseñada para automatizar el proceso de analizar contratos y resaltar riegos.

  • Lex Machina ofrece un producto que busca predecir el comportamiento de cortes y jueces. Esto puede ayudar a calcular el tiempo que pueda tomar el litigio, además de mostrar potenciales costos y resultados.

Lo anterior no quiere decir que no haya obstáculos. Estos giran alrededor de la calidad y la privacidad de los datos. No menos importante, hay problemas de corte ético.

Los riesgos de la inteligencia artificial en el campo legal 

A pesar de lo avanzada y amena que pueda parecer, no se puede olvidar que la inteligencia artificial es solo un software. ¿Qué quiere decir esto? Pues que al final del día es indiferente al sufrimiento que puede provocar en el caso que cometa un error.

Como revela la Universidad de Oxford, la IA ha sido protagonista de dos injusticias.

  • El escándalo del servicio postal en Inglaterra, que en 1999 implementó un sistema llamado Horizon. Este fue diseñado para dar cuentas de todas las transacciones y rastrear el inventario. También supervisaba el trabajo de los responsables de dirigir las oficina postales. El problema comenzó cuando la IA acusó erróneamente a dichos empleados de robo tras generar datos erróneos.

  • El caso en el que el gobierno de Australia buscaba emplear una IA que emparejara datos de la salud y la oficina de impuestos para identificar ‘sobrepagos’ en el sistema de salud. Nuevamente, la creación de datos erróneos causaron que la IA asignara ilegalmente deudas a ciudadanos australianos.

Aunque cabe aclarar que estos casos son previos al actual auge de la IA generativa, actúan como un recordatorio de los riesgos de la inteligencia artificial. Esto no quiere decir que debemos prevenir el uso de esta tecnología. Más allá de que sea imposible a estas alturas, el tiempo y el dinero que esta solución puede ahorrar indudablemente crearán incentivos para hacer frente a los problemas del pasado y el futuro.

Lo anterior requiere que la IA tenga un diseño adecuado, sea transparente y esté debidamente regulada siendo consistente con las leyes de los derechos humanos. De lo contrario, puede cometer toda clase de errores. Y cuando lo haga, ¿quién se hará responsable? ¿Cómo se lucha legalmente contra una inteligencia artificial?

Hay que crear garantías para los humanos antes implementar de forma masiva la inteligencia artificial en los flujos de trabajo del derecho y muchos otros sectores.