Cada vez son más las escuelas de derecho estadounidenses que desarrollan políticas sobre el uso de inteligencia artificial.
La Escuela de Derecho de la Universidad de Arizona publicó un recuento sobre las políticas que están integrando las escuelas de derecho para reglamentar el uso de la inteligencia artificial en trabajos e, incluso, solicitudes de admisión.
Veamos.
Fordham University School of Law
Este memorándum describe la obligación con la integridad académica como un aspecto de la responsabilidad profesional y destaca algunas políticas importantes con respecto a exámenes finales y trabajos.
La institución requerirá, entre otras cosas, que certifiques tu adhesión al siguiente código de honor para cada examen:
«Al enviar este examen, certifico que no he consultado, colaborado ni compartido información con nadie, ni he utilizado materiales no autorizados, incluyendo cualquier herramienta de inteligencia artificial o aprendizaje automático durante este examen».
Georgia State University College of Law
Se trata de un Código de Honor. Plantea que «un estudiante puede ser acusado de violar este Código si actúa de una manera no cubierta directamente por este Código, mostrando un desprecio intencional por los estándares éticos de la profesión legal o los valores fundamentales de la comunidad de la Facultad de Derecho de Georgia State. Ejemplos de este tipo de conducta incluyen, pero no se limitan a:
(1) No indicar claramente al instructor que el trabajo escrito se presentó después de la fecha límite anunciada para tales presentaciones;
(2) Fabricar referencias o citas en cualquier trabajo escrito presentado para obtener crédito;
(3) Participar en colaboración prohibida en trabajos del curso;
(4) Utilizar modelos y aplicaciones de inteligencia artificial («IA»), incluyendo pero no limitado a aprendizaje automático, aprendizaje profundo, redes neuronales, procesamiento del lenguaje natural o cualquier modelo o aplicación de lenguaje predictivo, para completar una tarea o evaluación a menos que el uso de la IA esté específicamente permitido por el instructor del curso. Los sistemas de investigación legal, programas de procesamiento de texto y sus herramientas estándar (por ejemplo, corrección ortográfica, gramática y verificación de plagio) o verificadores de citas automáticos, es decir, procesos de máquinas que no crean contenido pero revisan el contenido creado por el estudiante en busca de errores u omisiones comunes, no se consideran IA ni herramientas de IA a menos que el instructor lo indique expresamente de manera consistente con la Sección 3.2″.
Mitchell Hamline School of Law
El Conducta Estudiantil establece que»Plagio» significa el acto de usar palabras e ideas que no son propias y presentarlas como propias sin la debida atribución o crédito. El uso de las palabras o ideas de otra persona o de un generador de contenido de inteligencia artificial debe documentarse adecuadamente, ya sea utilizado en cita directa o en resumen o parafraseo. El plagio incluye, pero no se limita a, presentar el trabajo de otra persona o de un generador de contenido como propio, ya sea intencional o no».
Harvard Law School
La institución desarrolló una «Declaración de la Escuela de Derecho de Harvard sobre el Uso de Modelos de Lenguaje de IA Grande (como ChatGPT, Google Bard y CoCounsel de CastText) en Trabajos Académicos, incluyendo Exámenes».
«La Sección V notifica que los estudiantes que violen las expectativas de la Escuela con respecto a la honestidad académica en exámenes, trabajos o cualquier otro trabajo estarán sujetos a medidas disciplinarias».
«De acuerdo con estas políticas, el uso de modelos de lenguaje de IA grande (como ChatGPT), en la preparación o escritura de trabajos académicos para cursos, incluyendo trabajos y reacciones, o en la preparación o escritura de exámenes está prohibido a menos que sea identificado expresamente por escrito por el instructor como un recurso apropiado para el trabajo académico o examen en el curso del instructor. Los instructores que permitan el uso de salidas generadas por IA pueden exigir a los estudiantes que revelen las salidas generadas por IA en las que se basaron, y mostrar exactamente cómo y dónde. Si no está identificado expresamente por escrito por el instructor, cualquier uso de modelos de lenguaje de IA grande se considerará deshonestidad académica y no será el trabajo propio del estudiante, estando sujeto a medidas disciplinarias de acuerdo con los procedimientos de la Junta Administrativa de la Escuela de Derecho y la Declaración de la Junta Administrativa sobre Sanciones por Deshonestidad Académica», añaden.
University of California Berkeley School of Law
Berkeley parece ser la primera escuela de derecho en adoptar una política formal sobre cómo usar la inteligencia artificial generativa como ChatGPT por parte de los estudiantes.
Plantean que «puede utilizarse para realizar investigaciones de manera similar a los motores de búsqueda como Google, para corrección de gramática y para otras funciones relacionadas con la finalización de una tarea. El software no puede usarse para componer ninguna parte de la tarea presentada«.
Sin embargo, la universidad aclaró que «no puede usarse con ningún propósito en ninguna situación de examen». Tampoco «puede emplearse para un uso que constituiría plagio si la fuente de la IA generativa fuera un autor humano u organizacional».
Por su parte, los y las docentes tienen la facultad de apartarse de la regla predeterminada, siempre que lo hagan por escrito y con aviso apropiado.
University of California, Irvine School of Law
La universidad tiene un Código de Honor Académico. Plantea que las violaciones al Código pueden incluir, pero no se limitan a, los siguientes actos del estudiante o actos que un estudiante razonablemente debería esperar que beneficiarían al estudiante o ayudarían a otro estudiante a cometer una violación:
[…]
Uso no autorizado de herramientas electrónicas o de software: Uso no autorizado de cualquier herramienta electrónica o de software, incluyendo, pero no limitado a, herramientas basadas en inteligencia artificial.
University of Washington School of Law
La universidad atendió la herramienta a través del Código de Honor de la Escuela de Derecho. Se plantea que la mala conducta académica incluye, entre otras cosas, «hacer trampa». Esto incluye, pero no se limita a:
- El uso de asistencia no autorizada en cuestionarios, pruebas o exámenes, o la finalización de asignaciones;
- La adquisición, uso o distribución de materiales inéditos creados por otro estudiante sin el permiso expreso de los autores originales;
- Utilizar fuentes en línea, como manuales de soluciones o interfaces de inteligencia artificial, sin el permiso del instructor, para completar tareas, exámenes, pruebas o cuestionarios; o
d. Solicitar, contratar o alentar de alguna manera a alguien a que tome un curso, examen, prueba o complete tareas en nombre de un estudiante.»
Washburn University School of Law
La universidad atendió la herramienta a través del Código de Honor y Procedimientos para Estudiantes de Derecho.
Plantean, provisionalmente que:
- Los estudiantes no deben usar la producción de la IA generativa para ningún trabajo del curso con calificación o actividad co-curricular, a menos que sea aprobado por el instructor o asesor académico (Facultad).
- Los miembros de la Facultad pueden desarrollar términos y condiciones más específicos para el uso de la IA generativa en sus cursos o las actividades co-curriculares que supervisan. Pueden permitir, por ejemplo, que los estudiantes utilicen herramientas de IA generativa para trabajos del curso con o sin calificación, pero solo bajo ciertas condiciones, divulgaciones o supervisión.
- También se puede requerir o aconsejar a los estudiantes evitar o mitigar el riesgo de usos perjudiciales o ilegales, como generar resultados sesgados o discriminatorios, constituir infracciones de privacidad, riesgo de plagio o violar restricciones de licencia.
- La Facultad también puede elegir permitir el uso de algunas herramientas de IA generativa pero no otras.
- Cuando exista cualquier incertidumbre con respecto a los usos permitidos de las herramientas de IA generativa para trabajos relacionados con la escuela, los estudiantes deben consultar con el miembro apropiado de la Facultad antes de participar en la actividad.
- La falta de conocimiento o desprecio imprudente de esta política por parte de un estudiante puede considerarse como impropiedad académica y desencadenar una investigación del código de honor.
- Si un o una estudiante de derecho comete impropiedades académicas que no se descubren hasta después de la graduación, la graduación del estudiante no evitará el enjuiciamiento por esas impropiedades. Si, como resultado de la imposición de sanciones, el estudiante ya no cumple con los requisitos para la graduación, se retirará el título de derecho del estudiante, así como cualquier certificación ante las autoridades de la barra.»
Admisiones en las escuelas de derecho
University of Michigan School of Law estableció que quienes soliciten una admisión en su Escuela de Derecho «no deben utilizar ChatGPT ni otras herramientas de inteligencia artificial como parte de su proceso de redacción. Sin embargo, los solicitantes pueden pedir asistencia básica de revisión y retroalimentación general a asesores pre-legales, mentores, amigos u otros».
Arizona State University College of Law anunció que los y las solicitantes a sus programas de grado pueden utilizar inteligencia artificial generativa en la preparación de sus solicitudes y certificar que la información que envían es precisa, a partir de agosto de 2023.


