NOTICIAS

Quinto Circuito v. IA: quién ganará

Manuel Quilichini, presidente del Colegio de Abogados y Abogadas de Puerto Rico (CAAPR), conversó con Microjuris sobre la importancia del tema en la profesión legal.

Nota de la editora: ¿quieres estar al día con lo que sucede en los tribunales de Puerto Rico? Te invitamos a registrarte en nuestro boletín.

Por Daniel Rivera Vargas

Los tribunales están adoptando medidas cada vez más rigurosas en relación con la Inteligencia Artificial (IA, por sus siglas en inglés). No obstante, es crucial tener en cuenta que la realidad es que esta tecnología ya está ampliamente disponible y se puede utilizar actualmente sin infringir normas éticas estatales o federales, según señaló Manuel Quilichini, presidente del Colegio de Abogados y Abogadas de Puerto Rico (CAAPR).

El más reciente desarrollo destacado en relación con los tribunales y sus medidas frente a la Inteligencia Artificial (IA) surgió en el Tribunal de Apelaciones para el Quinto Circuito, que atiende estados como Texas, Luisiana y Mississippi.

Esta instancia propone una modificación a su regla 32.3 y su formulario 5, exigiendo a los profesionales del derecho que certifiquen no haber utilizado Inteligencia Artificial generativa en la redacción de un recurso legal o, en caso contrario, que hayan empleado dichos programas pero que la información haya sido revisada por un ser humano.

«En respuesta a la idiotez del caso de Mata vs Avianca, algunos jueces han sido proactivos para establecer la regla como mencionas», dijo Quilichini, quien ha presidido comisiones de tecnología en organizaciones como el Colegio de Abogados y Abogadas de Puerto Rico.

En esa instancia, ciertos abogados redactaron un recurso utilizando Inteligencia Artificial sin someterlo a una revisión de su contenido. El resultado fue un documento legal plagado de citas legales falsas, lo que llevó a que se les impusiera una sanción de $5,000 a dichos abogados.

No obstante, este caso no constituyó un incidente aislado; recientemente, surgió una situación similar en el caso People v. Zachariah C. Crabill, 23PDJ067 (22 de noviembre de 2023), en el cual el abogado Crabill fue suspendido por un año. Estos eventos fueron recordados por Quilichini.

El también catedrático adjunto de la Escuela de Derecho de la Universidad de Puerto Rico (UPR) manifestó que el Quinto Circuito se une a la corriente establecida por otros tribunales de forma similar.

Explicó que sabe de jueces en al menos tres estados, como Texas e Illinois, donde han dado estos pasos.

Estas medidas anti AI, como los programas ChatGPT, Harvey.AI o Google Bard, no solo representan un problema sino que además son innecesarias, sostuvo Quilichini.

Puntualizó que ya varios buscadores de Internet, incluyendo herramientas que usa la comunidad jurídica, tienen integrados equipos de Inteligencia Artificial generativa. Asimismo, existen bufetes que también lo tienen en sus fuentes de datos, según explicó.

«Cada vez que tu usas Spotify, Amazon, cualquier aplicación electrónica ya tiene Inteligencia Artificial. Netflix te recomienda películas, es un remedio bien extremo decir que no se puede usar la Inteligencia Artificial», sostuvo el profesor. «En realidad es un absurdo el prohibir la tecnología, es como decir no puedes usar redes sociales el problema es de las alucinaciones».

Explicó que las alucinaciones es una falla de AI que todavía no tiene explicación clara.

«Cuando le pides algo a la Inteligencia Artificial generativa a veces te miente. A veces te da información incorrecta, eso es lo que en el argot de la industria se llaman alucinaciones. Todavía no sabemos por qué te las da, pero entendemos que el sistema tiene acceso a tanta información, tanto falsa como correcta, que ella no sabe distinguir cuál es cuál. Se ha hablado de que la Inteligencia Artificial generativa busca complacerte, como un nene que sale a buscarte algo sin escuchar lo que tú querías», indicó.

Para el abogado no se deben descartar porque son de utilidad en algunos -no todos- los aspectos de la profesión jurídica.

«Estas plataformas son increíblemente poderosas y tienen muchos usos en el ámbito legal, como la redacción de formularios de divorcio, solicitudes de descubrimiento, sugerencias de errores en documentos y preguntas anticipadas en argumentos orales. Sin embargo, la redacción de escritos legales no es uno de ellos», sostuvo.

Aseguró que no hacen falta más restricciones que las que exigen los cánones de ética.

Por ejemplo, explicó que tanto la regla 9 federal como la local exigen que cuando un abogado o abogada firme un documento está certificando que la información en el recurso es correcta. Por lo que, al firmar una moción preparada con AI con información falsa, el letrado o letrada se exponen a una sanción ética.

Igualmente, en Puerto Rico firmar un documento preparado por AI sin corroboración del abogado o abogada implicaría infracciones a los cánones 18 de competencia y el 35 de sinceridad y honradez, sostuvo el catedrático de Derecho, quien ha trabajado en los recientes esfuerzos de enmendar las reglas éticas locales.

«Otra cuestión es la confiabilidad o el sesgo. Si bien los abogados juran apartar sus prejuicios, sesgos y creencias personales para cumplir fielmente con la ley y representar a sus clientes, la Inteligencia Artificial generativa es el producto de la programación diseñada por seres humanos que no han jurado tal compromiso. Por lo tanto, estos sistemas no tienen lealtad hacia ningún cliente, el estado de derecho ni las leyes y la Constitución de los Estados Unidos (o, como se mencionó anteriormente, la verdad). Al no tener ningún sentido de deber, honor o justicia, estos programas actúan según el código informático en lugar de convicciones, basándose en la programación en lugar de principios», agregó Quilichini.

Lo crucial es que el abogado o abogada que firme el recurso debe corroborar su autenticidad. Similar a lo que pasa en un bufete donde un asociado prepara un escrito, pero es firmado por el abogado o abogada del caso, pues ese letrado tiene la obligación ética de corroborar que ese documento este correcto.

«No hace sentido prohibir una tecnología naciente, hay que poner linderos», agregó el abogado, quien comentó que hay jueces en países como Colombia y Gran Bretaña que han usado y elogiado esta tecnología.

«Para mí se cae de la mata que todo lo que radiquemos debemos verificar que sea correcto, pero que lo reafirmen no está mal. Sin embargo, estaría mal que prohibieran el uso de la tecnología en el futuro», dijo.