Hacete socio para acceder a este contenido

Para continuar, hacete socio de Caras y Caretas. Si ya formas parte de la comunidad, inicia sesión.

ASOCIARME
Sociedad Inteligencia Artificial | regulación |

Un paso firme... pero ¿suficiente?

Uruguay frente a la ola de la Inteligencia Artificial: ¿regulación a tiempo o carrera contra el reloj?

La pregunta ya no es si la Inteligencia Artificial debe ser regulada, sino cómo y cuándo. Y en ese escenario, Uruguay se encuentra ante una oportunidad histórica para decidir de qué lado de la historia quiere estar.

Suscribite

Caras y Caretas Diario

En tu email todos los días

La Inteligencia Artificial (IA), se desarrolla cada vez más rápido y esta transformando por completo nuestra sociedad, sobre todo con el auge de la IA generativa que en el 2022 entraba por completo en el panorama global con la presentación y puesta en marcha del ChatGPT, un modelo de lenguaje especializado desarrollado por la compañía norteamericana OpenAI. Esta visión futurista de las capacidades sin límites de la IA ya es cada vez más palpable en nuestro día a día.

Su rápida implementación también plantea grandes desafíos en términos de fiabilidad de la información, protección de los derechos básicos y accesibilidad. Es responsabilidad de la comunidad internacional mantener el equilibrio en nuestras sociedades y diseñar una IA que respete los valores universales.

La tercera Cumbre de Inteligencia Artificial celebrada en París en febrero de 2025 dejó en claro que el debate global ya no gira en torno a la existencia o no de regulaciones, sino al tipo de gobernanza que se necesita frente al crecimiento exponencial de la IA generativa. Países como Francia, India y la Unión Europea apuestan a un enfoque ético, mientras que potencias como Estados Unidos insisten en liberar el desarrollo sin ataduras. En medio de esta tensión, Uruguay intenta trazar su propio camino.

Panorama global en términos de regulación

En la Unión Europea, la Ley de Inteligencia Artificial aprobada en 2024 establece un sistema de clasificación basado en el riesgo. Los sistemas de riesgo inaceptable, como aquellos diseñados para manipular el comportamiento humano o facilitar la vigilancia masiva, están prohibidos. Las aplicaciones de alto riesgo, como el reconocimiento facial en lugares públicos o los sistemas utilizados en sectores críticos, deben cumplir estrictos requisitos de seguridad y transparencia. Por otro lado, los sistemas de riesgo limitado o mínimo tienen obligaciones menores, centradas en la transparencia y la supervisión voluntaria. España, además, ha complementado esta normativa con la creación de la Agencia Española de Supervisión de la IA (AESIA) y la imposición de requisitos específicos para la identificación de contenido generado con IA.

En América Latina, varios países han comenzado a desarrollar regulaciones inspiradas en el modelo europeo. Brasil promulgó la Ley 2238/2023, que establece un marco basado en la evaluación de riesgos y define responsabilidades para quienes desarrollan y utilizan IA. En Perú, la Ley N°31814 promueve el uso ético y transparente de la IA, mientras que Chile se encuentra en proceso de elaborar una legislación con principios similares. México ha impulsado varias iniciativas legislativas, incluyendo la propuesta de creación de un Consejo Mexicano de Ética para la IA y la Robótica.

Estados Unidos no cuenta con una ley federal específica para regular la inteligencia artificial, pero ha adoptado enfoques sectoriales y guías éticas. En 2022, presentó la Ley de Responsabilidad Algorítmica, con el objetivo de evaluar los impactos de los sistemas automatizados en los derechos civiles y la privacidad.

En el Reino Unido, el gobierno ha optado por un enfoque más flexible, promoviendo la innovación a través de su Estrategia Nacional de IA, sin imponer regulaciones estrictas a nivel centralizado.

Por otro lado, China ha implementado regulaciones que buscan alinear el desarrollo de la IA con los valores del país. Exige que el contenido generado por IA esté claramente identificado y prohíbe aquellos usos que atenten contra la seguridad nacional o puedan afectar el control gubernamental sobre la información.

Un paso firme… pero ¿suficiente?

En noviembre de 2024, nuestro país aprobó la nueva Estrategia Nacional de Inteligencia Artificial hasta 2030, liderada por la Agencia de Gobierno Electrónico y Sociedad de la Información y del Conocimiento (Agesic). Este documento establece una hoja de ruta para promover el uso ético, sostenible y regulado de la IA, con foco en tres ejes: gobernanza, desarrollo de capacidades y sostenibilidad.

Uruguay también ha reforzado su marco legal sobre protección de datos personales y se integró activamente a las recomendaciones de la UNESCO, la OCDE y el Consejo de Europa sobre ética en IA. Se crearon sandboxes regulatorios para experimentar bajo supervisión y un Observatorio de IA para monitorear su impacto.

Sin embargo, como advierten especialistas y referentes del sector, estos avances no bastan. Falta una legislación específica que defina responsabilidades claras, riesgos aceptables y límites éticos. La IA está entrando en sectores tan sensibles como la salud, la educación, la seguridad y la justicia, y aún no existen mecanismos de control obligatorio, auditorías independientes ni un organismo que supervise su aplicación efectiva.

Hoy por hoy, Uruguay carece de una ley marco que aborde la IA como fenómeno transversal. La regulación actual está fragmentada en normativas sectoriales, lo que genera vacíos legales. Por ejemplo, ¿quién responde si una decisión automatizada afecta negativamente a una persona? ¿Qué protección tienen los datos utilizados para entrenar modelos de IA? ¿Cómo se garantiza la equidad en sistemas que aprenden de datos potencialmente sesgados?

Una legislación robusta permitiría establecer categorías de riesgo, exigir evaluaciones de impacto ético y técnico, y garantizar derechos como la explicación de decisiones automatizadas. También evitaría usos peligrosos como la vigilancia masiva o la manipulación electoral a través de contenido falso generado por IA.

Por otro lado, la automatización que promete la IA genera también incertidumbre en el mercado laboral. Profesiones como el periodismo, la medicina o la abogacía están en plena transformación. La regulación debe ir de la mano de políticas públicas que acompañen esta transición, protegiendo a los trabajadores, fomentando la reconversión profesional y evitando que la brecha digital se convierta en una brecha social insalvable.

Asimismo, es urgente normar el uso de la IA en la generación de contenidos. El dilema entre creatividad y derechos de autor ya está sobre la mesa. Sin reglas claras, los modelos de IA pueden replicar obras de artistas sin reconocer su autoría ni generar mecanismos de compensación.

¿Estamos a tiempo?

Uruguay tiene la oportunidad de liderar en América Latina una agenda de inteligencia artificial centrada en los derechos humanos, la inclusión y la transparencia. Pero para eso necesita ir más allá de las estrategias y sumarse al grupo de países que ya cuentan con leyes específicas.

Fomentar la alfabetización digital desde la educación, abrir espacios de consulta ciudadana y exigir estándares éticos al sector privado son pasos clave si queremos que la IA sea una herramienta al servicio del bien común y no un riesgo fuera de control.

La pregunta que queda es: ¿nos adelantamos al futuro o dejamos que nos atropelle?

Dejá tu comentario

Forma parte de los que luchamos por la libertad de información.

Hacete socio de Caras y Caretas y ayudanos a seguir mostrando lo que nadie te muestra.

HACETE SOCIO