- Necesidad urgente de una Ley Marco de Inteligencia Artificial que regule sector público y privado con transparencia y debido proceso algorítmico.
- Crear una entidad reguladora especializada con facultades auditivas y de fiscalización sobre sistemas de IA gubernamentales.
- Exigir supervisión humana, verificación y responsabilidad profesional por el uso de herramientas generativas en la práctica jurídica.
- Implementar normas procesales uniformes sobre evidencia, admisibilidad y manejo de materiales generados por IA.
- Desarrollar políticas públicas y asesorías para mitigar impacto laboral, desigualdades y dependencia tecnológica externa.
Las opiniones expresadas en este artículo son únicamente del(a) autor(a) y no reflejan las opiniones y creencias de Microjuris o sus afiliados.
Por el Lcdo. Rolando Emmanuelli Jiménez
La conversación jurídica sobre la inteligencia artificial (IA) en Puerto Rico avanza, pero lo hace de manera fragmentada. Ha surgido interés académico, preocupaciones éticas y algunas intervenciones judiciales y legislativas, pero todavía carecemos de un marco coherente que oriente cómo esta tecnología debe integrarse al sistema jurídico en general. El resultado es una discusión incompleta que no atiende la magnitud del fenómeno tecnológico que ya redefine el ejercicio de la profesión y que cambiará radicalmente el ordenamiento social, político y económico.
En una columna que publiqué en febrero de 2023 en Microjuris, “La inteligencia artificial y la profesión jurídica en Puerto Rico”, advertí que la IA alteraría profundamente la práctica legal y obligaría a la profesión a adquirir nuevas competencias para evitar caer en negligencias profesionales o errores éticos. En ese texto adelanté que la falta de política institucional, formación tecnológica y supervisión judicial colocaría a la profesión en una posición vulnerable. Hoy, los desarrollos recientes demuestran que esa advertencia era necesaria.
Además, en mi artículo publicado en La Perla del Sur en 2023, titulado “¿Su empleo no está en riesgo? Dé un vistazo a la Inteligencia Artificial”, advertí que la narrativa pública tiende a minimizar los efectos reales de la automatización sobre la fuerza laboral. Allí señalé que la IA está desplazando tareas cognitivas y profesionales a un ritmo que supera la capacidad de readiestramiento del mercado laboral, transformando industrias completas y profundizando desigualdades económicas. Ese análisis resaltó que la disrupción tecnológica no es un riesgo futuro, sino un fenómeno presente que requiere acción inmediata y marcos institucionales capaces de proteger a los trabajadores ante un entorno productivo que evoluciona más rápido que nuestro derecho. Esta realidad refuerza la urgencia de que Puerto Rico adopte políticas públicas claras y precisas para enfrentar los impactos sociales, económicos y jurídicos de la inteligencia artificial.
Los tribunales ya han enfrentado incidentes donde abogados presentaron escritos con citas y referencias inexistentes —“referencias fantasmas”— producto del uso no verificado de herramientas de inteligencia artificial. Microjuris documentó uno de estos casos en el artículo “La responsabilidad profesional ante el uso de inteligencia artificial” (Alfonso Martínez Piovanetti, 26 de agosto de 2025), donde se explica cómo el tribunal evaluó la conducta profesional del abogado y enfatizó que la IA no exime al abogado de su deber de verificar, investigar y supervisar la información que presenta. Ese análisis demuestra que el uso irreflexivo de herramientas generativas puede constituir violaciones éticas y procesales, y confirma que la supervisión humana no es opcional, sino indispensable para preservar la integridad del proceso judicial.
La discusión ética en Estados Unidos también ha avanzado. En 2024, la American Bar Association publicó la Opinión Formal 512, “Responsibilities of Lawyers Using Generative Artificial Intelligence”, donde aclara que el uso de IA generativa está sujeto a los deberes tradicionales de la profesión: competencia tecnológica bajo la Model Rule 1.1, verificación independiente y rigurosa del contenido generado, supervisión humana constante, atención a riesgos de sesgos y errores, y protección de la confidencialidad conforme a la Model Rule 1.6. La opinión también recuerda que los abogados deben ser transparentes con sus clientes sobre los costos y limitaciones del uso de IA. Aunque no es vinculante en Puerto Rico, esta opinión ya influye en el estándar profesional que se espera de nuestra judicatura y de la comunidad jurídica al manejar tecnologías emergentes.
A nivel institucional, uno de los desarrollos más relevantes ocurrió en la Universidad de Puerto Rico. En marzo de 2025, la Junta de Gobierno de la Universidad de Puerto Rico aprobó la Certificación Núm. 66 (2024-2025), la primera política integral sobre el uso de inteligencia artificial en la principal institución pública de educación superior del país. Esta certificación establece un marco ético, reglas claras de divulgación, salvaguardas de privacidad y prohibiciones sobre el uso de IA para sustituir la autoría intelectual o el juicio académico. Es un precedente relevante: ante la falta de legislación general, instituciones educativas empiezan a llenar el vacío normativo.
Un esfuerzo legislativo relevante en esta materia fue el P. del S. 68, aprobado por el Senado en 2025 pero no por la Cámara de Representantes, que proponía crear la Ley de Inteligencia Artificial del Gobierno de Puerto Rico. El proyecto establecía un marco administrativo para regular exclusivamente el uso de IA en la Rama Ejecutiva, mediante la creación del Oficial de Inteligencia Artificial del Gobierno adscrito a PRITS, encargado de desarrollar la política pública gubernamental sobre IA y de establecer procedimientos uniformes para los sistemas automatizados de toma de decisiones utilizados por las agencias. Además, creaba un Comité Asesor de IA compuesto por entidades gubernamentales y expertos del interés público, imponía a las agencias la obligación de inventariar y auditar periódicamente sus sistemas automatizados, exigía salvaguardas de no discriminación, precisión, seguridad y trazabilidad, y prohibía que las agencias adoptaran o adquirieran sistemas de IA sin cumplir con estas normas. El proyecto también contemplaba transparencia mediante la publicación de inventarios de IA y la presentación de informes periódicos a la Asamblea Legislativa.
Aunque el P. del S. 68 constituye un paso inicial significativo, su alcance es limitado y no satisface la magnitud de las necesidades que enfrenta Puerto Rico ante la acelerada expansión de la inteligencia artificial. Su regulación se circunscribe exclusivamente a la Rama Ejecutiva, dejando fuera al sector privado, a la práctica jurídica, a la judicatura y a la ciudadanía, que son precisamente los ámbitos donde la IA generativa tiene mayor impacto ético, laboral y socioeconómico. El proyecto no establece un marco general de derechos para las personas sujetas a decisiones automatizadas, no atiende la responsabilidad civil por daños causados por algoritmos, no contempla normas procesales para evidencia generada por IA, ni avanza una política pública laboral para mitigar desplazamientos masivos derivados de la automatización. Tampoco crea una autoridad independiente con facultades regulatorias amplias, sino un oficial administrativo subordinado al Ejecutivo. A la luz de estos vacíos, el P. del S. 68 representa apenas un punto de partida: una estructura interna de gobernanza tecnológica útil, pero insuficiente para enfrentar los desafíos constitucionales, éticos, económicos y sociales que la IA impone al país. Puerto Rico necesita una verdadera Ley Marco de Inteligencia Artificial que reconozca la profundidad del fenómeno y provea protecciones integrales al pueblo.
Otra medida aprobada por el Senado tan reciente como el 12 de noviembre de 2025, es el P del S. 769, que propone la creación de un Instituto de Inteligencia Artificial con personalidad jurídica propia, concebido para posicionar a Puerto Rico como un eje regional y mundial en el desarrollo, investigación y aplicación ética de tecnologías de IA. Según su informe, la iniciativa busca consolidar esfuerzos para que la inteligencia artificial funcione como motor de crecimiento económico, modernización gubernamental y eficiencia en servicios esenciales, promoviendo a la vez transparencia, rendición de cuentas y políticas de datos abiertos. El Instituto estaría localizado en Engine-4 Foundation en Bayamón y operaría en colaboración con el Departamento de Desarrollo Económico y Comercio, la Universidad de Puerto Rico, el Fideicomiso para Ciencia, Tecnología e Investigación y Invest Puerto Rico, con el fin de impulsar innovación y competitividad económica mediante un uso responsable de la IA.
Aunque valiosa como punto de partida, esta iniciativa tampoco constituye una respuesta integral al desafío regulatorio que plantea la IA. Sus limitaciones son evidentes: se trata únicamente de una medida de promoción e investigación comercial e industrial. No crea derechos, obligaciones ni salvaguardas sustantivas; no establece mecanismos de fiscalización, transparencia o debido proceso algorítmico; no atiende la responsabilidad civil o administrativa causada por sistemas automatizados; y no articula una política pública económica o laboral ante la posible dislocación del mercado de trabajo. En esencia, solo ve a la IA como una oportunidad de negocios. Como ocurrió con el P. del S. 68, la medida refleja un interés legislativo significativo, pero insuficiente para atender la profundidad constitucional, económica, ética y social del fenómeno de la IA en Puerto Rico.
Un elemento crítico de este vacío regulatorio es que, aunque en junio de 2025 el gobierno federal de los Estados Unidos aprobó el “Americas AI Action Plan”, esa acción ejecutiva se limita a orientar políticas del Poder Ejecutivo, no constituye una ley general, y no impone obligaciones de cumplimiento universal para empresas privadas, profesionales o ciudadanos. En consecuencia, sigue sin existir una regulación federal abarcadora que norme el desarrollo y uso de la inteligencia artificial en el ámbito privado, profesional o civil.
Las razones estructurales de ese vacío regulatorio son evidentes: el ecosistema tecnológico dominante está controlado por corporaciones privadas con gran capacidad de innovación y recursos, lo que genera resistencia a regulaciones que puedan percibirse como obstáculo competitivo. Además, la polarización política y la complejidad técnica de cualquier proyecto legislativo sobre IA dificultan la aprobación de una ley marco que combine innovación, derechos civiles, seguridad y supervisión. Esta inacción normativo-federal deja un espacio de incertidumbre, que ya algunas entidades estatales han empezado a llenar mediante regulación sectorial, pero que en su mayoría sigue desatendido. Para Puerto Rico, esta ausencia estructural —aun en presencia de iniciativas ejecutivas en EE. UU.— representa una oportunidad y una responsabilidad: desarrollar un marco normativo propio, adaptado a nuestra realidad jurídica, institucional y social, sin depender de la espera indefinida por una regulación federal integral que probablemente nunca llegue.
Finalmente, Puerto Rico necesita una conversación propia sobre inteligencia artificial que no se limite a adoptar modelos regulatorios extranjeros sin atender nuestra realidad política, económica y social. La regulación local debe considerar nuestra posición geopolítica como territorio no soberano, la dependencia tecnológica de corporaciones foráneas, las desigualdades estructurales que ya afectan a nuestra población y los riesgos particulares de operar infraestructuras críticas —energía, telecomunicaciones, salud, educación— sin control pleno sobre la tecnología que las sostiene.
Esta conversación implica formular preguntas que van mucho más allá del ámbito estrictamente jurídico: ¿cómo mitigaremos el desempleo derivado de la automatización acelerada? ¿Qué estrategias fiscales y económicas permitirán generar ingresos suficientes para sostener a las poblaciones desplazadas por la IA? ¿Debe Puerto Rico explorar un ingreso básico universal o algún modelo híbrido de seguridad económica para trabajadores en transición? ¿Qué políticas adoptaremos para evitar que la IA profundice la desigualdad educativa y económica? ¿Cómo protegeremos los datos personales frente a tecnologías desarrolladas y controladas fuera de nuestra jurisdicción? ¿Qué límites constitucionales deben imponerse al uso gubernamental de sistemas algorítmicos en decisiones que afectan derechos fundamentales? ¿Cómo prevenimos que la automatización agrave sesgos raciales, de género o de clase ya presentes en nuestras instituciones? Y, aún más importante, ¿qué capacidades de desarrollo tecnológico propio debe construir Puerto Rico para reducir su dependencia y garantizar autonomía en un mundo gobernado por algoritmos? Estas preguntas son ineludibles si aspiramos a una política de IA que responda a nuestras circunstancias y proteja a nuestro pueblo.
En este contexto, los bufetes de abogados y abogadas deben asumir un rol protagónico y vanguardista estableciendo sus propias políticas internas sobre el uso de IA que puedan proyectarse y extenderse a otros ámbitos de acción social. Así como la UPR ha adoptado reglas claras para asegurar integridad y transparencia, los despachos jurídicos deben diseñar protocolos que regulen el uso de herramientas generativas, establezcan parámetros de verificación, definan qué usos son permitidos o prohibidos y aseguren la protección de datos confidenciales. La ausencia de tales políticas expone a los bufetes a riesgos significativos de responsabilidad civil, sanciones éticas y pérdida de confianza institucional. Adoptar políticas internas no solo protege al despacho y a sus clientes, sino que además envía un mensaje de liderazgo profesional: la abogacía debe predicar con el ejemplo en el uso responsable de nuevas tecnologías.
La inteligencia artificial ya está integrada a la práctica jurídica y a las estructuras esenciales de nuestra vida social. Lo que falta no es capacidad técnica, sino voluntad institucional para encauzarla, supervisarla y controlarla de forma democrática y transparente. Si la profesión jurídica no asume este liderazgo, serán la tecnología —y las corporaciones que la diseñan— las que definan los límites éticos, operacionales y constitucionales de nuestra sociedad. En un país donde la automatización puede profundizar la desigualdad, desplazar trabajadores, ampliar brechas de acceso a la justicia, comprometer datos sensibles y reproducir sesgos algorítmicos sin supervisión, la inacción no es una opción.
Para atender este panorama, Puerto Rico debe avanzar en cinco direcciones esenciales.
Primero, adoptar una Ley Marco de Inteligencia Artificial que establezca, para el sector público y el privado, principios de transparencia, auditabilidad, debido proceso algorítmico y supervisión humana obligatoria.
Segundo, crear una entidad reguladora especializada con facultades para auditar sistemas utilizados por el gobierno y asegurar su cumplimiento legal y constitucional.
Tercero, constituir un grupo asesor para hacer recomendaciones sobre los cambios estructurales que serán necesarios para paliar los impactos negativos de la IA en la economía y en todos los procesos sociales.
Cuarto, establecer normas procesales uniformes sobre evidencia, admisibilidad, divulgación y manejo de herramientas generativas.
Quinto, ampliar las reglas de ética para incorporar explícitamente estos desarrollos normativos como deberes de todas las profesiones y oficios.
La abogacía puertorriqueña enfrenta, quizás por primera vez en su historia moderna, una responsabilidad transformadora: construir el marco jurídico que proteja a nuestro pueblo frente a los riesgos socioeconómicos de la IA, garantice derechos fundamentales ante decisiones automatizadas y afirme nuestra capacidad colectiva para regular tecnologías externas que operan sobre infraestructuras que no controlamos plenamente. Si no actuamos ahora, otros —ajenos a nuestra realidad, a nuestras instituciones y a nuestras vulnerabilidades— determinarán las reglas del juego. Por eso, la profesión jurídica debe liderar con visión, rigor ético y sentido de país esta transición tecnológica que ya definirá el futuro de Puerto Rico.
Las columnas deben enviarse a mad@corp.microjuris.com y deben ser de 600-800 palabras.



