Uruguay cuenta con una sólida formación académica y desde hace décadas se investiga en el área de lo que hoy se conoce como inteligencia artificial (IA). En este contexto, la masificación de esta tecnología trae consigo oportunidades, pero también ciertos riesgos éticos y educativos, según dijo a La Mañana el ingeniero y docente de la Facultad de Ingeniería (Udelar), Marcelo Fiori. “Se necesita un sistema que promueva el uso ético y responsable de la IA”, remarcó el experto.
¿Cómo surgió y en qué consiste el Khipu (Encuentro Latinoamericano de IA)?
Hay dos ingredientes fundamentales en la concepción de Khipu. Por un lado, el antecedente africano Deep Learning Indaba, que es una iniciativa muy similar que comenzó en 2017. Por otro lado, todos los compañeros latinoamericanos que realizaron doctorados en el tema y tienen contacto directo con los principales referentes en el mundo, tanto en la academia como en la industria. Por ejemplo, algunos de los uruguayos responsables detrás de la creación de Khipu trabajan en DeepMind o en Google, en puestos importantes. Estoy pensando en Pablo Sprechmann y Mauricio Delbracio, respectivamente.
Estos dos ingredientes se combinaron y surgió la idea de hacer Khipu. Estaba el antecedente exitoso en África y la certeza de que al organizar algo así en Latinoamérica contaríamos con la presencia de varios referentes a nivel mundial. En el grupo inicial de responsables había fundamentalmente uruguayos, brasileros y argentinos, y se decidió organizar la primera edición en Montevideo, en 2019, que fue un éxito absoluto. Federico Lecumberry fue el referente del grupo de organización local que conformamos varios investigadores.
El evento tuvo una estructura particular, combinando exposiciones más tradicionales, al estilo conferencia, con tutoriales y talleres. Fue muy bien recibido tanto como evento para investigadores consagrados como para estudiantes en formación. La lista de speakers incluyó figuras como Yoshua Bengio o Jeff Dean, entre otros investigadores de primer nivel.
La siguiente edición presencial, en 2023, también fue en Montevideo, y en 2025 se hizo en Santiago de Chile.
¿En qué punto diría que se encuentra hoy el desarrollo de la IA en Uruguay?
El término IA tiene varias décadas, pero se puso muy de moda en los últimos años. En Uruguay se investiga en esta área desde hace décadas también, bajo distintos nombres como reconocimiento de patrones y aprendizaje automático. En Facultad de Ingeniería (Udelar) tenemos una maestría en Ciencia de Datos y Aprendizaje Automático, donde ingresan decenas de estudiantes por año, tenemos un Centro Interdisciplinario en Ciencia de Datos y Aprendizaje Automático (Cicada) donde realizamos trabajo interdisciplinario, y tenemos varios doctores que hacen investigación de primer nivel, fundamentalmente en la Udelar, pero también con algunos referentes en un par de universidades privadas.
El talento y la formación de los profesionales uruguayos (ingenieros, matemáticos) es bien reconocido. Esto se ve, por ejemplo, cuando van a universidades de Europa o Estados Unidos, y no tienen nada que envidiar a la formación de cualquier otro lado. Luego, varios de estos compañeros retornan al país después de hacer sus doctorados, y otros tantos los realizan en Uruguay. Esto hace que tengamos una base importante de recursos humanos con formación de primer nivel, haciendo investigación en el país.
Es cierto que muchos de los avances en los últimos dos años necesitan un poder de cómputo (típicamente GPU) que está al alcance solamente de las grandes compañías, ni siquiera de universidades de Estados Unidos. Sin embargo, creo que el papel de la academia, en particular en Uruguay, debe ser otro.
¿A qué se refiere?
Me refiero a que la academia no debería intentar competir en la carrera por entrenar modelos cada vez más grandes, algo que hoy está fuera del alcance incluso de muchas universidades con mucho más presupuesto que el nuestro. El rol tiene que ser otro: generar conocimiento fundamental, entender las fortalezas y limitaciones de las herramientas, formar profesionales con mirada crítica y desarrollar aplicaciones relevantes para el país y la región, algo que las grandes empresas no van a hacer. Y, por otro lado, promover un uso ético y responsable de la IA, tanto por parte de estos profesionales como de la población en general.
¿Qué iniciativas de IA se están realizando en el país?
Las iniciativas que te mencionaba como Cicada, la maestría en Ciencia de Datos y Aprendizaje Automático, doctorados y decenas de proyectos de investigación financiados por la ANII (Agencia Nacional de Investigación e Innovación) o CSIC (Comisión Sectorial de Investigación Científica-Udelar), forman la base de la pata más académica de las iniciativas. Por ejemplo, hay muchos proyectos de aplicación de estas técnicas en la medicina, desde distintas perspectivas. Existen también varias empresas que se especializan en aplicaciones de IA para diferentes rubros y que trabajan bien. Las que tengo en mente fueron formadas por egresados del sistema académico mencionado antes.
¿Por ejemplo?
Por ejemplo, Tryolabs, Marvik, Pento, por mencionar algunas.
¿Cómo se ubica Uruguay en esta área en relación con el resto de la región?
Creo que Uruguay está, junto con un par de países más, en el primer escalón a nivel regional. Por algo Khipu se realizó dos veces en Montevideo.
¿Qué oportunidades trae consigo la IA para un país como el nuestro?
Una de las ventajas de nuestro país es que su tamaño lo hace un buen laboratorio de iniciativas. Lo vimos con el Plan Ceibal en su momento, y creo que esto puede ser cierto también para llevar estas nuevas iniciativas a niveles generales, ya sea en el sistema productivo, en el sistema de salud, en la educación, entre otros.
Por otro lado, ¿qué riesgos cree que podría implicar el desarrollo de la IA?
Muchísimos. Algunos los estamos viendo ya mismo en las redes sociales, por ejemplo, la dificultad para identificar la veracidad de la información que se comparte. A principios de enero, el CEO de una de las empresas más importantes de Latinoamérica republicó una imagen falsa, creada con IA. También hemos visto la alteración de imágenes o videos de otras personas sin permisos, así como el uso militar de estas herramientas, en un contexto de guerras e invasiones condenables.
Se está viendo el uso de grandes modelos de lenguaje como ChatGPT de forma excesiva, por ejemplo, como reemplazo de profesionales o como asistentes en la educación. Recientemente se realizó un estudio donde pedían a estudiantes que usaran como fuentes de información Wikipedia, un buscador y ChatGPT, y mostró que hay diferencias significativas de comprensión. Entonces, si los estudiantes comienzan a usar ChatGPT como asistente principal, seguramente se vea afectado el nivel general de formación.
¿Qué rol debería jugar la universidad pública en la formación de la IA?
Lo viene jugando hace décadas, principalmente en la formación de grado en ingeniería, matemática, estadística, y de posgrado en varios niveles, que son la base de un sistema científico sólido y reconocido regional e internacionalmente. Este conjunto de primer nivel necesita una inversión más fuerte de recursos para poder escalar (en cantidad, no en calidad que ya posee).
Por otro lado, los riesgos señalados antes y muchos otros no descritos en ese punto, necesitan un sistema que promueva el uso ético y responsable de la IA. En ese sentido, la universidad tiene un rol importante, que ya está jugando.
De la misma manera se expresa la Declaración de Montevideo sobre Inteligencia Artificial y su impacto en América Latina, elaborada en el marco de Khipu 2023.
TE PUEDE INTERESAR:




















































