Hace 26 años comenzó a trabajar en aprendizaje automático, por lo que siguió de cerca todo el proceso que atravesó la inteligencia artificial (IA) en Uruguay. Actualmente es investigador y docente grado 4 de la Facultad de Ingeniería (Udelar). En entrevista con La Mañana, Federico Lecumberry remarcó que la IA avanza en el país con una sólida base académica y existen proyectos en diversas áreas como el campo, la salud y la energía. Por otro lado, señaló cuáles son los peligros que conlleva su desarrollo, que requiere mayor conciencia y regulación.
¿En qué etapa diría que se encuentra el desarrollo de la IA en Uruguay?
Para responder eso hay que plantearse qué es la IA, que es algo difícil de definir. Son métodos de aprendizaje profundo, es decir, que están basados en redes neuronales artificiales. Hay avances importantes y varias oportunidades para que los profesionales y los estudiantes se formen en el área, pero hay un desafío en dar un salto de masificación. También hay diversas empresas que están desarrollando aplicaciones para el mundo, lo que las hace competir de una forma interesante, dado que dentro de Uruguay sería imposible llegar a esa cantidad de gente. En resumen, es un desarrollo que está basado en profesionales con muy buena formación que se da en las distintas universidades, y a partir de eso tienen habilidades para desarrollar soluciones o aplicaciones que tienen impacto de nivel medio o avanzado. Uruguay no está mal parado respecto a otros países de la región, porque también tiene una industria de software muy madura; si bien la IA no es solamente software o programación, hay un nivel de madurez en la comunidad que permite el desarrollo y una industria que tiene experiencia en ofrecer productos y servicios hacia la región y el mundo entero.
¿Qué proyectos de IA se están trabajando a nivel local?
Hay algunas empresas que están desarrollando productos generales, como chatbots o “agentes” que ayudan de forma similar al ChatGPT, donde vos interactuás como si estuvieras chateando con un humano. Después, hay áreas de aplicación que están relacionadas con lo que se llama visión artificial, donde también entra la toma de decisiones a partir de imágenes junto con IA. Y ahí surge el interés de aplicaciones locales. Es muy importante que en Uruguay tengamos la capacidad de formar gente que pueda atender las necesidades locales. Como con cualquier tecnología, lo que queremos es utilizarla adaptada a nuestros problemas.
¿Por ejemplo?
Por ejemplo, técnicas para mejorar la producción vegetal o la producción animal que tengan en cuenta el bienestar de los animales, o para la evaluación de la calidad de la tierra en la cual se va a producir, o el uso de esas herramientas para salud animal o salud humana. También se utilizan para la detección de anomalías. Ahí hay un ejemplo interesante en UTE, que desarrolló toda un área para detectar fraudes en el consumo eléctrico. Estos sistemas ayudan a procesar una enorme cantidad de datos para detectar patrones, en este caso, de irregularidad, y generar una alerta para que luego algún humano pueda hacerse cargo. Lo mismo puede suceder con enfermedades o con estudios clínicos. El rango de aplicaciones es enorme.
¿Cómo ha visto la evolución de la IA en los últimos años? ¿Le sorprende la rapidez de los avances?
Hace 26 años que empecé en el área de aprendizaje automático, así que de alguna forma he visto todo este proceso. Lo que sí puedo decir es que ha sido sorprendente cómo ha pasado de ser una tecnología que estaba muy acotada, a que de la noche a la mañana todo el mundo empezara a hablar de IA, porque una de las cosas que ChatGPT logró fue poner a disposición de cualquier persona que tuviera conexión a internet y una computadora o un teléfono, un “agente de IA” que le responde como si fuera un humano. Ese fue el quiebre y es lo que permite que todo el mundo hoy esté al tanto de la IA. También toda la comunidad académica y científica ha tenido un desarrollo en las últimas décadas donde hay muchas posibilidades de acceder a código para implementar este tipo de aplicaciones, entonces, es accesible, a partir de conocimientos fundamentales y básicos, desarrollar una aplicación de este tipo.
¿Qué riesgos genera actualmente el uso de la IA?
Los riesgos están presentes y hay que conocerlos, hay que saber los peligros que puede tener este tipo de tecnología. Algunos riesgos son conocidos y otros no, y eso genera muchas oportunidades de estudios que se están haciendo para diseñar sistemas que sean suficientemente robustos para que los riesgos se mitiguen o no existan. Un riesgo muy presente son los sesgos, o sea, estos sistemas aprenden a partir de datos, por lo tanto, si esos datos tienen un sesgo, eso va a ser “aprendido”. Por ejemplo, si tenemos un sistema que aprende a clasificar fotos de animales y nunca vio una cebra, cuando le presentemos una imagen de una cebra, va a cometer un error, nos va a decir que es un caballo u otro animal presente en los datos de entrenamiento. Los sesgos son algo muy importante a tener en cuenta en el momento del entrenamiento, donde el sistema aprende a tomar decisiones y a dar una respuesta, y no queremos que sean amplificados por un agente de IA.
¿Cree que hay conciencia suficiente sobre estos problemas que menciona?
Hay muchos académicos, gente de la industria, del gobierno y de distintas organizaciones civiles y organizaciones sin fin de lucro que han denunciado esto. En nuestros cursos de aprendizaje automático tenemos clases donde junto con los estudiantes trabajamos estos problemas éticos, estos problemas de sesgos, de privacidad de los datos. En la mayoría de los países hay estructuras que defienden y protegen a los usuarios. Hoy hay cierta conciencia de muchos creadores de contenido, que cuando ponen su contenido en internet agregan un aviso diciendo que sus productos, ya sean cuadros, obras de texto o lo que compartan, no pueden ser usados para entrenamiento de sistemas de IA, porque esa apropiación de la propiedad intelectual por estas empresas que tienen la capacidad de entrenar o de acceder a productos, crea desigualdades. Actualmente los datos son una fuente de riqueza. ¿Por qué? Porque con esos datos se pueden entrenar sistemas que hagan recomendaciones para ofrecernos la compra de un producto, o mirar una película, o elegir una canción. Entonces, les estamos mostrando qué cosas nos gustan para que después nos puedan vender cosas más ajustadas a nosotros y eso tiene sus riesgos y desigualdades. Ninguna tecnología es neutra, y depende de cómo es utilizada. Debemos ser conscientes de que esto no se puede desarrollar así nomás, tiene que ir de la mano de políticas de desarrollo, y ahí tienen que entrar los Estados.
¿Qué lectura hace de las regulaciones que se han hecho en la materia?
Chile tiene una política de desarrollo de IA muy interesante, Brasil tiene otra muy fuerte también. En Uruguay hay una Estrategia Nacional de Inteligencia Artificial. Los promotores de estos grandes desarrollos de los sistemas de IA son las grandes empresas transnacionales: Google, Meta, Amazon, Microsoft. ¿Cómo podemos hacerle frente a eso? Ahí entran los Estados, para balancear, porque son los que definen las reglas de intercambio. Por ejemplo, no dejamos entrar autos que no tengan cierto nivel de seguridad, entonces, ¿por qué vamos a dejar entrar productos de IA que no garanticen ciertos niveles de seguridad o de actuación frente a riesgos? Nosotros como país debemos hacer respetar nuestra soberanía en nuestros datos, en nuestra cultura, y no tener las mismas respuestas dadas por un sistema de IA entrenado con cosas del mundo. Queremos que estos sistemas respeten nuestra cultura, nuestras tradiciones, y para eso necesitamos desarrollar capacidades locales para analizarlos o, mejor aún, entrenar nuestros propios modelos.