Recientemente, dos abogados fueron víctimas del uso inapropiado de la herramienta ChatGPT, cuando incurrieron en graves errores al incluir una investigación jurídica ficticia en un documento presentado ante el tribunal de Manhattan.
Los abogados Steven A. Schwartz y Peter LoDuca incluyeron en una demanda contra una aerolínea referencia inventada por el chatbot con inteligencia artificial.
«Dos abogados que trabajaban juntos tienen que radicar una moción. Entonces, estos dos abogados decidieron utilizar ChatGPT para preparar una moción«, comenzó explicando Manuel Quilichini, presidente del Colegio de Abogados y Abogadas de Puerto Rico (CAAPR), a quien entrevistamos sobre en el caso de Mata v. Avianca, donde unos abogados usaron ChatGPT para hacer investigación legal.
«El hecho de que no los hayan desaforado a ambos y solo les hayan impuesto una sanción de $5,000 demuestra que el juez es compasivo y se apiadó de ellos», agregó como parte de su análisis.
Todos los casos en el documento legal eran falsos, dijo. «Ellos descasaron en el programa y no cotejaron las citas».
ChatGPT es un modelo de lenguaje desarrollado por OpenAI. Es un sistema de inteligencia artificial que utiliza el aprendizaje automático para generar respuestas en lenguaje natural a partir de una entrada de texto.
Sin embargo, esta herramienta no tiene conocimiento del mundo real más allá de lo que se le ha proporcionado durante su entrenamiento. Incluso, sus respuestas se basan únicamente en patrones encontrados en los datos con los que ha sido entrenado.
«El Tribunal federal en Illinois y el Tribunal federal en Texas, por ejemplo, han establecido un «standing order» para el uso del ChatGPT. Esta orden establece que si un abogado o abogada usa ChatGPT tiene que decir que fue lo que suministró del ChatGPT para corroborarlo «.
Violaciones a la Regla 11 federal
Quilichini, agregó, que los abogados violaron la Regla 11 del Código de Procedimiento Civil Federal en los Estados Unidos, la cual establece las normas y requisitos para la presentación de demandas, peticiones o escritos en un tribunal federal.
«En Puerto Rico esto incurría una violación a la Regla 9. Si esto hubiera ocurrido en Puerto Rico, hubiera sido sancionado igualmente, así como en cualquier estado».
«Los abogados tienen que entender que no importa la tecnología que usen, ellos son responsables por lo que pongan en un papel», agregó.
Vivo ejemplo con un «law clerk»
El licenciando ejemplificó que muchos profesionales del derecho que ejercen en un bufete tienen como apoyo a un «law clerk», asistente jurídico.
La tarea principal de este profesional es brindar apoyo en investigaciones legales, análisis de casos y redacción de documentos legales. Típicamente quienes ejercen este rol son abogados o abogadas recién graduados o estudiantes de derecho con experiencia y conocimientos en el campo legal.
Para Quilichini resultaría ilógico que un profesional del derecho no coteje el trabajo asignado a un «law clerk». «Aun cuando me lo traiga un asociado o mi socio. Como yo voy a firmar, yo tengo que asegurarme que lo que dice ahí es cierto».
Ante esto, el CAAPR se ha mantenido ofreciendo talleres de ética en el uso de herramientas como ChatGPT.
«En la escuela de derecho ya se dieron cuenta que no pueden descansar en esta herramienta y en la práctica las personas le han cogido miedo».


