Fariello es licenciada en Matemáticas por la Universidad de la República y doctora en Ecología, Biodiversidad y Evolución de la Universidad Paul Sabatier de Toulouse, Francia. Ha liderado proyectos de inteligencia artificial (IA), temática que abordó en diálogo con La Mañana. Si bien destacó el avance que ha tenido en nuestro país en áreas como la academia y la industria, alertó sobre los riesgos éticos y la necesidad de educar a la ciudadanía en su uso responsable, poniendo especial atención en medir sus impactos.
¿Cómo describiría el estado actual del desarrollo de la IA en Uruguay?
Depende mucho del sector sobre el que hablemos. Tanto en la academia como en la industria hay personas que están investigando y trabajando a la vanguardia en problemas muy específicos. Si bien no tenemos los medios como para entrenar modelos gigantes de lenguaje o todo el poder de cómputo que nos gustaría, eso no quita que no se pueda trabajar en resolver problemas de menor escala, pero que igual demandan recursos humanos muy formados.
¿Qué tipo de proyectos se están llevando adelante en Uruguay en la materia?
Desde Uruguay se está trabajando en proyectos para grandes industrias fuera del país para empresas que no están basadas aquí, ya sea relacionados a la cosmética con probadores de maquillaje, etiquetadores de ropa automáticos a partir de una imagen, detectores de incendios forestales a partir de imágenes, así como en la academia con traductores español-guaraní, iniciativas relacionadas con el agro desde imágenes a genómica, en salud y muchos más. Las técnicas que se aplican son muy diversas con mucho desarrollo local, así como el tipo de datos en los que se basan estos proyectos. Los ejemplos más conocidos son imágenes o textos, pero también datos ómicos –genómica, transcriptómica, entre otros–.
¿Qué lectura hace de la evolución que ha tenido la IA en los últimos años?
La IA se viene desarrollando a un ritmo muy acelerado en los últimos 15 años; desde que explotaron las redes neuronales profundas, se crearon o pusieron a disposición grandes bases de datos y el hardware. En los últimos años, gracias a los chats basados en grandes modelos de lenguaje o los creadores de imágenes a partir de texto, se democratizó su uso y no quedó restringido solamente a unos pocos que además tuvieran mucho conocimiento.
¿Cuáles cree que son las oportunidades principales que puede brindar la IA en un país como el nuestro?
La IA ayuda a mejorar muchos procesos y a hacer más eficientes muchos trabajos. Para que eso sea aplicable en el país hay que tener datos disponibles, no solo recolectarlos, sino que estén estructurados y sean accesibles, ya sea para proponer y entrenar desde cero algoritmos o para reentrenar algoritmos disponibles, de manera que se adapten a nuestras necesidades. Para aprovechar al máximo las oportunidades se precisa además capital humano que sea capaz de proponer o evaluar nuevas tecnologías y adaptarlas y poder de cómputo.
¿Qué opinión le merece el caso del científico Geoffrey Hinton, ganador del Nobel de Física, que renunció a Google para denunciar los peligros de la IA?
La IA presenta muchos desafíos, sobre todo éticos. Se precisa que hablen personas a las que la gente escuche con atención, sin irse al extremo del alarmismo. Es difícil poder hablar libremente trabajando en empresas líderes en la industria.
¿Qué riesgos puede haber en el uso y el desarrollo de la IA? ¿Hacen falta mayores controles o regulaciones en ese aspecto?
Uno de los grandes problemas que tienen los modelos entrenados a partir de datos es que propagan o incluso acentúan los sesgos que presentan. Es así que si hay minorías que no están representadas en los datos, los algoritmos no estarán bien entrenados para tenerlas en cuenta. Regular para mitigar estos sesgos no parece realista. Por otro lado, como estos modelos se basan en datos, si bien es difícil de controlar, se puede regular para decir en qué tipo de datos pueden entrenarse y cómo manejar la propiedad intelectual. Pero es complejo llegar a un equilibrio entre regular y no sobrerregular de manera que luego no se pueda usar ningún dato, aunque la finalidad del algoritmo sea mejorar el bienestar social. Más allá de la regulación, es central la educación de la ciudadanía y crear conciencia sobre a qué nos exponemos cuando utilizamos estos algoritmos, desde privacidad a sesgos en sus respuestas.
¿Hacia dónde cree que se encamina la IA en los próximos años? ¿Es posible imaginar ese futuro?
Es difícil hacer futurología, hace cinco años no me hubiera imaginado la potencia a la que llegarían los chats basados en IA. Incluso cuando salió chatGPT no me imaginaba que iba a mejorar tan rápido, por lo tanto, es difícil saber hacia dónde va. Si hablamos de la Inteligencia Artificial General o de que las computadoras nos dominen, creo que estamos muy lejos.
Le preguntaba por los riesgos en el uso de la IA. ¿Dónde se debe poner el foco?
Además de regular, hay que estar muy atentos a medir los impactos que el uso de la IA tiene en la sociedad. Es una tecnología que nos simplifica mucho la vida en algunas cosas, pero también es fácil apoyarse en ella y dejar de pensar. ¿Qué pasa si cada vez pensamos menos? ¿Qué impacto tiene en nuestro desarrollo o deterioro cognitivo? Las consecuencias a largo plazo no las conocemos porque todavía no las podemos medir. Esperemos que cuando podamos hacerlo no sea demasiado tarde.
Señalaba la importancia de la educación de la ciudadanía en esta área. ¿Cuáles son las recomendaciones en ese sentido? ¿Se podría pensar en implementar la enseñanza de IA en el sistema educativo, por ejemplo?
Ceibal ya está trabajando en la enseñanza del pensamiento computacional y de IA. El año pasado publicaron un libro sobre este tema, específico para enseñanza en la escuela, sobre qué es la IA, que recomiendo ampliamente para todos. Además de contener una parte teórica, contiene una parte práctica que nos obliga a reflexionar sobre cómo funcionan estos sistemas y qué hacen y qué no hacen. También hay un curso disponible para la ciudadanía, pero el que está diseñado para usar en el aula es mi preferido.
Mencionó también el impacto que la IA podría tener en el desarrollo por “pensar menos”. ¿Es una señal de alarma el uso que le dan los estudiantes a la IA? ¿Debería regularse en los ámbitos educativos?
Va más allá del ámbito de los estudiantes. Si pensamos en hacer cuentas mentales, por ejemplo, los abuelos probablemente hagan cuentas más rápido que sus nietos. Esto se debe a que no siempre había una calculadora cerca. Hoy en día es mucho más rápido agarrar el celular que ponernos a pensar. Y si vamos manejando, ya no pensamos el camino, le preguntamos al teléfono. Todas estas acciones que ejercitan (o ejercitaban) al cerebro de manera diaria y lo desafiaban, se van dejando de lado. En el ámbito educativo es más difícil aún. Cuando resumimos un texto, reflexionamos sobre qué es lo importante y qué no, vamos haciendo todo un trabajo que nos ayuda a entender y aprender. Por lo tanto, como proceso, no es lo mismo leer el resumen que hacerlo. Cuando elaboramos algo, también, hay todo un proceso que hace nuestro cerebro y toda una reflexión que, si le pedimos a alguna herramienta de IA que lo haga por nosotros, ese proceso no se está dando. Hasta donde yo he visto hay muy pocos estudios científicos que intenten cuantificar el impacto que tiene. Sobre qué se debe hacer, cómo se debe enseñar y si se debe regular o no, es una gran discusión que no es fácil de resolver. Probablemente debamos llegar a un equilibrio donde no podemos negar que existen, pero hay momentos en los que sí se pueden usar y otros en los que no, dependiendo del objetivo de aprendizaje o del trabajo que tengamos que hacer.