in

“La IA nos va a permitir acelerar los tiempos de acceso a la justicia”: Ariel Agramont analiza el desafío legal de la inteligencia artificial

Compartir en

A medida que la inteligencia artificial (IA) se expande con rapidez vertiginosa en casi todos los ámbitos de la vida cotidiana, la necesidad de una regulación que equilibre la innovación tecnológica con la protección de la privacidad, los derechos humanos y la seguridad jurídica se convierte en un desafío urgente. Desde los aspectos éticos y la confiabilidad de los modelos entrenados con datos globales, hasta la compleja realidad de las jurisdicciones internacionales y los contratos privados en el ciberespacio, el debate en torno a la IA va mucho más allá de las fronteras tecnológicas: involucra a legisladores, juristas, empresarios y usuarios por igual.

En esta entrevista, Ariel Agramont, experto en derecho e inteligencia artificial, aborda la intersección entre la normativa legal, la práctica jurídica y el desarrollo acelerado de la IA, así como la transferencia transnacional de datos, las limitaciones de las leyes locales frente a las corporaciones globales, la adaptación de la enseñanza del derecho a las herramientas digitales y la aparición de nuevos roles profesionales, como el ingeniero de instrucciones legales (Legal Prompting Engineer). Este capítulo de Reflexiones Artificiales: El Podcast ofrece una mirada valiosa y multidisciplinaria a las tensiones, oportunidades y desafíos que plantea la regulación de la inteligencia artificial en el mundo actual.



Sebastián Mejía: Quiero comenzar preguntándote cómo se debe estructurar un poco el marco legal para regular el tema de la inteligencia artificial que está creciendo tanto a nivel tecnológico.

Ariel Agramont: Bueno, la inteligencia artificial detona una nueva sociedad, que es la sociedad de la información, comunicación y del conocimiento, que es su base. Pero a partir de la exposición de la guía a la sociedad, hace años atrás, pues nosotros configuramos una nueva sociedad, que es la sociedad de la inteligencia artificial y del machine learning. ¿Cómo podemos encarar esta nueva sociedad, que además es muy vertiginosa? Ninguna regulación va a poder estar a la par de todos los cambios que están ocurriendo. En todo caso, lo que se está intentando hacer en las regulaciones es enfocar la parte ética, la parte algorítmica, incluso las limitaciones que se pueden dar en el campo de la privacidad y la protección de los derechos humanos.

SMH: Precisamente el tema de los datos de personales en tema de la privacidad es algo muy importante de tocar en el tema de la inteligencia artificial, teniendo en cuenta que, por ejemplo, la manera en que se entrenan esos modelos es tomando la información disponible en Internet y precisamente los modelos, por ejemplo, como ChatGPT se entrenan con base a las respuestas de los mismos usuarios. ¿Cómo se puede precisamente proteger la privacidad de aquellos usuarios que utilizan esas plataformas? ¿Puede haber algún tipo de regulación para protegerlos en este sentido?

AA: Definitivamente, las leyes de protección de datos personales están siendo actualizadas, son eficaces a la luz de la inteligencia artificial. Pero vamos al hecho de que las personas firman contratos privados con empresas que ni siquiera son necesariamente locales. Estamos en Colombia y contratamos a CharacterAI, por ejemplo, para poder dialogar con una IA. CharacterAI no necesariamente va a tener su base en Colombia. Entonces, vamos a estar haciendo un contrato internacional, un contrato privado internacional, donde rigen las normas de la autonomía y de la voluntad. En consecuencia, cada persona va a ceder, digamos, voluntariamente todo su derecho a la privacidad, su derecho a la protección de datos personales, a la empresa y a la jurisdicción en la que esta empresa se encuentra.

Esa es un poco la realidad de cómo las cosas ocurren. Más allá de las regulaciones que puedan existir en México, en Colombia, en Perú, en cada uno de los países, por supuesto, esto está abundante. Distinto es el tratamiento cuando se trata de una empresa local. que va a recolectar estos datos, los va a procesar, los va a entrenar en la IA y luego va a ofrecer los servicios. De cierto modo, hasta estarían en cierta desventaja, porque las regulaciones locales suelen ser muy exigentes.

SMH: Precisamente, ¿qué desafíos enfrenta el tema de la legislación, el tema de las leyes, al intentar crear regulaciones hacia la inteligencia artificial? o hacia este tipo de contratos donde se rigen las leyes del país de origen, es decir, ¿hay alguna manera de que, por ejemplo, el Senado de Colombia, el Senado de Bolivia o el Senado de algún país latinoamericano, pueda legislar sobre qué información se le entrega de manera voluntaria hacia las empresas extranjeras de proveedores de esos servicios tecnológicos?

AA: Sí, es un desafío que todos los países tienen pendientes, porque los países en los que no tienen base estas empresas y que transfieren datos personales de sus nacionales y ciudadanos con dirección a Estados Unidos, a Europa o al país que sea. Entonces, esta regulación internacional de la transferencia de datos personales a nivel transnacional, es un desafío legal muy complejo, porque nos enfrentamos a la posibilidad de que estas empresas puedan cumplir regulaciones locales, por ejemplo, de protección al consumidor usuario, y que en caso de que no lo hicieran, entonces ya serían posibles las sanciones.

Fíjese usted lo que ha pasado este año en el caso de la red X, anteriormente llamada Twitter en Brasil, donde los jueces han ordenado la suspensión de esta red. Ha estado por mucho tiempo, ha sido una coyuntura internacional, muchos usuarios se han visto perjudicados, pero al mismo tiempo el país ha querido imponer su normativa extraterritorialmente, pero son desafíos legales que deberán asumir los asambleas legislativas, los congresos y los senados.

SMH: Digamos a nivel internacional ¿debería existir alguna especie de digamos de una agencia que regule este tipo de cosas, por ejemplo, en agencias, así como existen agencias que regulan el tema del internet a nivel global, debería existir alguna especie de agencia o de estándar mundial que precisamente regule o estandarice el tema de la inteligencia artificial?

AA: Sí, cómo no, la Internet Society y otro tipo de instituciones, digamos, no necesariamente gubernamentales, están trabajando en este apoyo, este acompañamiento al desarrollo de la inteligencia artificial. Sin embargo, también hay que razonar en cómo las empresas también están razonando. Es desde un punto de vista de innovación, la medida en la que la ley, la norma, que ustedes saben, es una regla de conducta al final, la norma jurídica es una regla de conducta, y lo que buscamos es limitar, establecer conductas de las personas naturales o jurídicas. Ahora, cuando nosotros vamos con el derecho, vamos con la norma, tratamos de enfocar una regulación y de poner los límite. Ahí tenemos que tener ciertos cuidados porque en el razonamiento de una empresa de innovación, esto podría coartar su capacidad de desarrollar con alguna libertad la innovación tecnológica que está planteada.

Entonces, en ese dilema que se va presentando, hay que ir encontrando los equilibrios necesarios, los frenos, los contrapesos, para que no solamente los gobiernos, sino también los organismos internacionales, desde las mismas Naciones Unidas, la UNCITRAL que también tiene mucha historia en estos temas del comercio electrónico, del derecho informático, puedan ir acompañando el desarrollo de la inteligencia artificial.

SMH: Y ahora si hablamos del tema de la inteligencia artificial aplicada al derecho, por ejemplo, ¿qué tan fiable es utilizar herramientas de inteligencia artificial generativa como por ejemplo ChatGPT para redactar documentos legales para redactar contratos? Pongo un ejemplo: en Colombia un juez emitió una sentencia utilizando inteligencias artificiales y fue evidente el uso de digamos de estas herramientas, lo que desató una polémica y empezó a crear sentencias por parte de la Corte Suprema para regular, para gestionar, cuál puede ser el uso que realmente se dé de la inteligencia artificial a nivel legal, pero qué tan fiable es utilizar esta inteligencia artificial para redactar documentos legales, tanto contratos y documentos privados como documentos públicos como sentencias.

AA: De momento podría decirte que es dinámico, no es la misma respuesta de hace seis meses o de hace un año que la que tenemos hoy en día. En estos momentos elegir un modelo, un LLM en este caso del ChatGPT, en la versión o1-preview, por ejemplo, que es el que tiene razonamiento humano, nos va a entregar resultados de documentos legales mucho más precisos, más certeros, que utilizar el GPT 3.5 o el 4, incluso el 4o. Entonces, depende cómo el abogado, cómo el funcionario judicial esté utilizando la inteligencia artificial. Los dos problemas más importantes, entonces, al momento de utilizar un LLM general como el ChatGPT, va a ser definitivamente la precisión, y esto obviamente va a retornar la confiabilidad que podemos tener sobre el resultado que nos llegue.

SMH: Mencionabas que precisamente depende de cómo el abogado utiliza la inteligencia artificial. ¿será posible que la inteligencia artificial en algún punto llegue a reemplazar de manera parcial o total el trabajo de un abogado? ¿O siempre será un complemento utilizado por los abogados y pues no podrá reemplazarlos en ese sentido?

AA: Sí, de hecho las últimas noticias ya tienen la tendencia de reemplazar a la función jurídica en algunos aspectos. Por ejemplo, el producto que ha sacado Luminance para la gestión de contratos, en el que dos agentes de IA entrenados para negociar y realizar contratos, pues dialogan entre sí. Usted contrata a su IA para negociar su contrato y yo contrato a mi IA para negociar el contrato y entre ambas IAs empiezan a negociar, renegociar, utilizar el contrato hasta que llega un punto en el que nos lo entregan y para que lo aprobemos o lo desaprobemos simplemente. Entonces, eso ya es un indicio de que las IAs van a ir reemplazando algunos de los trabajos actuales de los abogados, tradicionales le diremos, ¿no? Como puede ser esto de la negociación, la de tener contratos. Entonces, los despachos legales cada vez más se van a ir convirtiendo en empresas de LegalTech, prácticamente. De hecho, ya están incorporando en sus departamentos internos. funciones como áreas de innovación legal, pero al mismo tiempo potenciando su capacidad de información.

SMH: ¿Cómo se puede asegurar que esos modelos de inteligencia artificial que de pronto tienen contratos o pues ya en algún caso pues mucho más extremo redacten sentencias o ayuden a redactar sentencias para jueces? ¿Cómo se puede asegurar que esos modelos estén siempre al tanto de toda la legislación de un país? Porque un país tiene su constitución política, tiene sus leyes y pues las leyes por lo general se aprueban periódicamente. ¿Cómo se puede garantizar que ese modelo de inteligencia artificial siempre esté actualizado en ese sentido?

AA: Bueno, ahí hay técnicas que se deben incorporar para la actualización de los modelos. Tenga en cuenta que hay dos tipos de modelos para aplicarlos en el campo. Modelos generales, que en este caso va a ser el ChatGPT, Claude de Anthropic, Llama de Meta o Gemini de Google. Esos son modelos generales que no están entrenados específicamente para entender e interpretar la legislación y la jurisprudencia de un país determinado, sino de un modo general, no especializado.

Por otra parte, estos últimos años están surgiendo los LLMs especializados en el campo legal. Ese es el caso de Luminance, de Harvey, que también está potenciado por OpenAI. Entonces, estos modelos especializados que están trabajando empresas como Thomson Reuters, entre otros, Vilex, son modelos que sí van a poder comprender con mejor capacidad de razonamiento lógico la interpretación de la ley y la jurisprudencia. Por tanto, hacer una aplicación más certera, más confiable de lo que sería la redacción de una sentencia o la revisión de una sentencia y su consistencia con la parte legal. En todo caso, en todo momento, tal como está en estos momentos la incorporación de la IA en el campo legal, siempre se va a requerir de un abogado, especialistas en el campo que puedan hacer una revisión de ese resultado que te va a entregar. ¿Todo esto para qué? Pues para fomentar un mayor acceso a la justicia, en la medida en la que la inteligencia artificial se implemente, especialmente en los países donde la justicia y los procesos judiciales no avanzan de una manera vergonzosa. La implementación de la inteligencia artificial nos va a permitir acelerar los tiempos de acceso a la justicia.

SMH: Como dices, uno de los principales temas que se deben tener en cuenta es precisamente que los seres humanos revisen esos contenidos. Ahora pregunto, desde un punto de vista legal, pues, ¿cómo se puede identificar qué contenidos fueron generados por inteligencias artificiales? No solamente en el tema legal, sino pues en muchos otros ámbitos, por ejemplo, en el tema periodístico. ¿Cómo se puede verificar o cómo se puede, digamos, corroborar que este tipo de contenidos sean generados de manera humana o de manera artificial? Y si debería haber algún tipo de obligación para precisamente etiquetar los contenidos que se generan por medio de modelos de inteligencia artificial.

AA: Sí, hay una tendencia hacia incluso desarrollar herramientas que puedan detectar si un determinado artículo periodístico, vamos a suponer, o incluso jurídico ha sido generado por ella o no. Sin embargo, en la medida en la que lleguemos al super alineamiento, que al parecer va a ser entre 2026 y 2027, es decir, el momento en el que la IA razone y esté en un nivel de razonamiento mayor al ser humano. Es muy difícil que estas herramientas puedan hacer un trabajo digamos efectivo. Incluso hoy en día, cuando ya ves cómo trabaja el modelo o uno previo de con razonamiento humano de OpenAI, ya es muy difícil determinar que si ha sido o no ha sido generado.

Sí, en el lado ético, por supuesto, está que las personas puedan referir que ese contenido ha sido generado por la IA, pero eso tampoco les podría, en alguna medida, desligar de responsabilidad, porque cuando uno publica algo en un medio de prensa o publica su blog, realmente es uno el responsable por esos contenidos que va publicando. Normativa que pueda viajar en ese sentido, reitero, son temas de propiedad intelectual finalmente. Justo esta semana, la anterior semana, si no me equivoco, salió una sentencia muy importante en Estados Unidos, en la que precisamente se hablaba sobre los derechos de autor del resultado que entrega la guía, a partir del prompt que uno le ponga al modelo. Ese resultado entonces no estaría protegido directamente para la empresa, no serían los derechos de autor otorgados a OpenAI, sino en todo caso a la persona que ha generado el fondo. Entonces, por ahí está circundando en estos momentos este tema.

SMH: Continuando en el tema de la ética, ¿cómo se pueden evitar los resultados sesgados o con ciertas discriminaciones en el tema de la inteligencia artificial? Porque entiendo que las inteligencias artificiales son creadas con base a una base de conocimientos precisamente, y pues en esta base en algunos casos hay ciertos sesgos, y eso por ejemplo fue polémica cuando recién salió Bard, o ahora Gemini, que tenía unos sesgos un poco raciales, un poco de género también. Entonces, pues, ¿cómo se puede evitar que los documentos que genere esta inteligencia artificial, sobre todo en el ámbito legal, pues se vean sesgados por estos modelos de inteligencia puntualmente?

AA: Definitivamente hay que utilizar las técnicas del mejoramiento del resultado y la eficiencia de cualquier LLM. Y eso se conoce hoy en día como el Prompting Engineering, es decir, la ingeniería de instrucciones, y en el campo legal más precisamente el Legal Prompt. Entonces, cómo utilizar las técnicas adecuadas, la cadena de pensamiento, un few shot, un wide shot, priming, es decir, cómo manejar, cómo dialogar con la guía a través de un prompt efectivo. Cuando hablamos de prompt, estamos hablando de una instrucción, de una, incluso un impulso emocional que le vas a dar para que haga su trabajo correctamente. Entonces, todo esto del arte del prompt, son técnicas correctas que uno tiene que aplicar para tener un resultado menos alucinado, menos sesgado, y que de alguna manera, pues, tenga mayor precisión, ¿no? Entonces, sí, la ingeniería de instrucciones en el campo legal, y en cualquier campo, en realidad, es parte de nuestro día a día. En la medida en la que sepamos conducir el auto, pues vamos a llegar a nuestro destino. Imagínense, si una persona no sabe conducir y se pone ahí frente al volante, se va a chocar. El auto no va a hacer su trabajo, porque finalmente la IA en este momento es un medio, no es un fin en sí mismo, es una herramienta que hay que aprender a manejar.

Para eso, he desarrollado un curso que es justamente el curso de Legal Prompting Engineering, que lo tengo en Udemy, que lo pueden buscar así como Máster en Legal Prompting y pues ahí los que quieran aprender estas técnicas.

“Ninguna regulación va a poder estar a la par de todos los cambios que están ocurriendo con la IA”

Ariel Agramont, abogado experto en Inteligencia Artificial

SMH: Buenísimo ese curso. Y precisamente la siguiente pregunta que le iba a hacer es sobre el tema del Legal Prompting Engineering y es, ¿cómo ves esa evolución en la disciplina del Legal Prompting Engineering en la formación de abogados? ¿Las universidades están adaptando ya a explicarles esas herramientas a las futuras generaciones de los abogados?

AA: Quizás tendríamos que dividir entre lo que es el mundo anglosajón, digamos Estados Unidos, Inglaterra, los países de esta habla, y lo que sería América Latina. Porque el origen de esta innovación no está precisamente aquí. Esto ha ocurrido primero y está pasando a una velocidad muy vertiginosa en Estados Unidos y estos países, que en contraparte, digamos, en América Latina no es igual. Entonces, las universidades no necesariamente están formando en prompting. Definitivamente están más bien dejando que los estudiantes, por su cuenta, utilicen la IA y hasta en cierto caso negándola, negando el uso de la IA en formación jurídica. Entonces al mar de algunas universidades que ya estén comprendiendo que la formación jurídica va a cambiar, ya tenemos IAs que están enseñando inglés de forma así como estamos conversando a muchos estudiantes en el mundo a través de aplicaciones que en tiempo real te permiten conversar con una IA y aprender inglés. Y son IAs bastante pacientes, bastante, digamos, adecuadas y personalizadas para tu capacidad de aprendizaje.

Nada impide que en los próximos años tengamos ya profesores de IA que estén enseñando a las universidades de hecho y que lo hagan con una paciencia, una tranquilidad y una, digamos, precisión aún mayor que un profesor en la antigüedad. Entonces, estas cosas van a ir ocurriendo. Y si en medio de eso quieres tú aprender a dialogar con la IA, tienes que enseñarles prompting. Lo que ahora existe, está de moda y es una forma de razonar. No es, ahora, ojo, que aprender prompting no es aprender a programar, porque esa es otra tendencia también que está ocurriendo. Los abogados dicen, los abogados tienen que aprender a programar. Yo particularmente, como programador, además que soy, no comparto esa idea porque la programación es realmente otro campo. Pero el prompting es una intersección, un punto medio entre saber programar, la lógica de programación, y seguir siendo abogado. No es precisamente programación.

SMH: Dices que las inteligencias artificiales pueden en algún punto llegar a integrarse dentro de las academias y ser una especie de profesores. ¿Cómo se enfrentan precisamente esas herramientas de inteligencia artificial que como dices tienen más paciencia y pues se les puede preguntar mucho más que un profesor? ¿Cómo compiten en contra de los profesores que llevan muchos años de trayectoria muchos años de experiencia en el tema del derecho? No solamente en la parte académica, sino en la parte también práctica. ¿Cómo compiten ellos contra las inteligencias artificiales?

AA: Bueno yo le voy a dar el ejemplo conmigo mismo: yo soy abogado desde hace 25 años aproximadamente y al mismo tiempo programo también programas informáticos en ese tiempo. Entonces me pregunto, ¿qué desafío tengo hacia adelante? Hacia adelante el desafío es escribir, escribir, escribir, poner mi razonamiento, mi pensamiento por escrito y entrenar a una IA con todo eso. La medida en que la IA, una IA mía, es decir, un avatar legal de mi personalidad jurídica como abogado, programador, puede estar incorporada en una IA, pues esa va a ser la que me va a representar, va a informar, va a enseñar. Y yo voy a tener que alimentar esa IA con mis conocimientos y mis ideas.
Si tenemos un abogado que tiene más de 40, 50 años y ha escrito como 10, 20, 30 libros, entonces es un buen momento para que ese abogado contacte a un especialista en prompting en LegalTech para que lo podamos programar, lo podamos incorporar en una IA y esa IA ya pueda alquilarla él bajo suscripción o bajo cualquier modelo de negocio que se pueda implementar. Ese es el futuro de la formación jurídica. No podemos pensar que la formación jurídica nos va a quedar inalterada. Y esto no solamente va a pasar en el campo legal. Ya está ocurriendo. en todos los campos, profesores y ya que van a estar 24 horas a tu disposición ante los que tengas y entrenados con información. El abogado tiene esa ventaja, que ha escrito libros, ha escrito textos, tiene muchas conferencias, entonces todo eso debería poder ser entrenado.

SMH: Estaríamos hablando de que las inteligencias artificiales son un poco un complemento creado precisamente por los abogados. ¿Y cuáles son esas habilidades que necesitarán los abogados precisamente para seguir trabajando con las inteligencias artificiales?

AA: Bueno, no sé si un complemento, o sea, quiero ser optimista y pensar que los abogados podríamos tener una oportunidad de negocio todavía, de generación económica y de trabajo, a partir de crear nuestras propias IAs con nuestra información, para que las universidades puedan tomar eso y pues contratarnos. Sin embargo, a la par, vamos a tener IAs generales que van a estar haciendo lo mismo, quizás con mucha más información, ¿no? Y eso sí podría desplazar en algún momento, como está pasando ahora, los profesores de inglés, así totalmente desplazados por una guía que habla todos los idiomas que quieras y que trabaja 24 horas. En cuanto a tu pregunta, ¿cómo podríamos como abogados, construir o dialogar en esto, pues una vez más, aprendiendo prompting? Eso es lo que hoy en día hay que aprender, prompting. A partir del prompting pueden abrirse otras expectativas de conocimiento, pueden ir por el entrenamiento de guías especializados, pero eso ya es ingeniería pura, de pronto no es lo que vamos a buscar.

SMH: Digamos, si estos abogados se vuelven a la escuela, ¿cuál es la responsabilidad legal de los entrenadores de estos nuevos modelos? Más que los desarrolladores, los entrenadores, ¿qué responsabilidad legal tendrían ellos frente a errores, fallos o, digamos, imprecisiones que en materia legal creen estas inteligencias artificiales en sus resultados?

AA: Son disclaimers directamente, disclaimers de que no dejan de ser IAs, la misma que podría tener un fabricante de cualquier tipo de software. Usted sabe que la seguridad no existe en un 100% no la seguridad informática no existe así. Decir es un 100% sería una mentira, creer algo así. Todas las empresas serias te van a decir bueno si vamos a ofrecer tal 99.9% de seguridad informática pero hay un siempre un 0,01% que es la brecha de seguridad, y lo hemos visto hace unos meses atrás cuando los sistemas de Microsoft han colapsado, empresas como avianca y otras han colapsado sus vuelos y muchas otras entidades financieras. Entonces, hablar de una seguridad 100% de ofrecer seguridad va a ser muy difícil. Ahora, partiendo de eso, ¿qué otras responsabilidades más se podrían generar?

Bueno, la responsabilidad tiene que venir de la mano de un equilibrio del contrato de prestación de servicios que se va a ofrecer. Pensemos por ejemplo en el caso que ha ocurrido hace un par de días atrás de CharacterAI, que un joven ha empezado a dialogar con la IA como en la película Her y pues se ha enamorado y luego se ha suicidado, se murió. Entonces, ¿qué responsabilidad tiene la empresa a partir del fallecimiento de nuestros usuarios al parecer a consecuencia de esta relación que han hablado con una IA? Ese tipo de problemas son debates que tienen que ir de la mano de la jurisdicción donde esa empresa esté trabajando.

El sistema jurídico anglosajón es muy distinto al sistema jurídico que nosotros manejamos de origen romanista. Aquí tenemos una visión más conservadora de las cosas, una visión de primero la ley y después vamos a desarrollar la defensa legal, vamos a aplicar los derechos. Pero para que se aplique una ley a veces tardan años. Y en esos años ya han pasado muchas otras cosas.

Entonces ahí hay un punto muy importante de dónde está esa empresa para la responsabilidad que quieres generarle. Porque en todo caso, como docente de derecho voy a preferir crear una IA fuera del país, es decir, basada en Estados Unidos, que crearon ahí a base de Colombia, porque la ley colombiana va a ser muy restrictiva, ¿cierto? En cambio, la ley americana me va a dar más libertad. Un poco poniendo las cosas muy fríamente, es lo que va a pasar, y es más, ya está pasando.

Muchos empresarios prefieren basarse en Estados Unidos que en sus propios países. Por lo conservador de sus leyes, por lo poco amigables que son con la innovación y con las muchas sanciones que también te pueden tomar.

SMH: ¿Qué tanto le faltaría a los países en América Latina? Pongo ejemplo Colombia, pongo ejemplo Bolivia, para adaptarse precisamente a esos desafíos de la innovación que trae consigo la inteligencia artificial, para ponerse un poco al ritmo de los países anglosajones.

AA: Bueno, usted sabe que Colombia, Bolivia, Perú y Ecuador forman parte de la Comunidad Andina. La Comunidad Andina es una especie de Unión Europea, es derecho comunitario. El camino más veloz para poder regular la IA definitivamente es a través de una decisión de la Comunidad. Estos cuatro países compartimos una misma ley de propiedad intelectual, o sea, una misma normativa comunitaria andina, el 486 y la 351, de derechos de autor, y esa regulación está estandarizada.

Los cuatro países razonamos del mismo modo a nivel de derechos de autor. Es decir, el software es un derecho de autor en Colombia, en Perú, en Bolivia y en Ecuador. Entonces, si nosotros impulsamos el desarrollo de la IA, a través de la comunidad andina, creo que sería un muy buen paso para todos los países. En lugar de hacer un esfuerzo local, hacer un esfuerzo regional, subregional, sería bastante positivo.

SMH: Pregunto, por ejemplo, ¿qué antecedentes existen en la comunidad andina sobre regulación precisamente en materia tecnológica?

AA: Bueno, la principal vendría a ser la 351, que regula todo lo que son las regulaciones jurídicas del software, esa es la base. Y cuando hablamos de inteligencia artificial, estamos hablando de eso.
Entonces, creo que esa sería la piedra angular. Después ha habido otras regulaciones en protección de datos también, en telecomunicaciones, en banca. Entonces también hay que pensar en que los mecanismos de creación normativa, la generación normativa a partir de la comunidad, creo que es mucho más factible, más veloz que pasar por los parlamentos. Al ser supranacional, su emisión tiene un componente, una velocidad diferente.


La era de la inteligencia artificial reclama un constante equilibrio entre el impulso creador de la innovación y la necesidad de salvaguardar derechos, valores y principios jurídicos. Comprender esta realidad, con sus matices éticos, técnicos y legales, resulta fundamental para anticipar el futuro del campo legal, las dinámicas internacionales y la forma en que las personas interactúan con las nuevas herramientas tecnológicas.

Vea más capítulos de Reflexiones Artificiales: El Podcast en SMH Podcast

¿Te gustó esta noticia?

Noticia de Sebastián Mejía

Periodista con más de cuatro años de trayectoria. Fundador y director de SMH 360 y el Sistema de Medios Hispanoamericanos.
Apasionado por la IA, la tecnología y los viajes.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

Disney Channel Dice Adiós a la TV Abierta en España y Brasil en 2025

Selena Gomez Anuncia su Compromiso con el Productor Benny Blanco