Con más de 10 años de experiencia, el periodista Juan Pablo de Marco se ha enfocado en la investigación de los avances tecnológicos, entre los que se destacan la inteligencia artificial (IA), la transformación digital en Uruguay y los desafíos del mundo laboral frente a la automatización. Entrevistado por La Mañana, el especialista profundizó en los cambios más disruptivos que trajo la IA y los que vendrán a futuro, y explicó la importancia de su regulación luego de situaciones límite como el suicidio de un adolescente cuyo apoyo emocional era el ChatGPT.
¿Cuáles han sido los cambios más disruptivos que ha traído la IA en los últimos años?
Me parece que lo más disruptivo ha sido la capacidad que hoy tienen las máquinas de generar texto de una manera mucho más rápida que lo que puede hacer un ser humano: texto plausible, con diferentes problemas, con alucinaciones (respuestas falsas, inexactas o inventadas), con sesgos y demás, pero al fin y al cabo es una poderosa herramienta. A fines del año pasado se incorporaron los llamados modelos razonadores, eso hace que las máquinas antes de dar las respuestas puedan pensar o analizar técnicamente de manera lógica, aunque hay gente que cuestiona si es razonar o no, pero marcaron un quiebre en la capacidad de dar mejores respuestas, con menos alucinaciones. Después, hay que destacar todo lo que está sucediendo con los modelos de generación de imagen y de video, que en el último año ha sido el verdadero desarrollo exponencial, sobre todo en el último mes, con el modelo que sacó Google, “Nano Banana”. Lo que va a generar es una aceleración en la creación de contenido, o sea, vamos a ver muchísimo más contenido en Internet por la facilidad que tiene crear cosas con IA.
Por otro lado, ¿qué preocupaciones genera esta aceleración? ¿Qué efectos se puede esperar que tenga la IA en el empleo en un futuro?
Va a tener un impacto real y, en cierta medida, ya lo tiene en algunos rubros. En Uruguay ya hay empresas que están compitiendo en Latinoamérica y también en Estados Unidos, que crean clones de audio para atender ciertas llamadas. Por ejemplo, hay una que se dedica a cobrar multas, allí las personas dialogan con un avatar digital y eso obviamente elimina el puesto de trabajo del call center tradicional. O sea, va a tener un impacto en ciertos rubros. Estoy seguro de que de aquí a un año –y este es mi único vaticinio con respecto a este tema, porque considero que nadie sabe qué es lo que va a terminar pasando con todo esto– te va a parecer normal dialogar con un servicio de atención al cliente con IA. Hoy te puede llegar a asustar, te va a dar un poco de desconfianza, pero en el futuro va a ser muy normal. Y eso va a tener un impacto laboral, sí, pero a vos también te va a ahorrar mucho trabajo, y las personas que se dedicaban a atender el call center capaz que tienen que dedicarse a otra tarea.
Creo que hay que reformular cierta cuestión de la educación, de la forma en que se aprende y se adquieren conocimientos, capaz que hay que adquirir conocimientos utilizando IA y poniéndola como copiloto. Ahí hay un desafío. Yo lo que digo es: usemos la IA no solo para ahorrar tiempo, sino para potenciar, para hacer un trabajo de mejor calidad. A veces nos dejamos engañar un poco por eso, pensamos que la IA hace todo sola, y en realidad deberíamos poner más el foco en cómo hacer un trabajo de calidad.
Especialistas consultados por La Mañana han advertido que muchas veces la IA es utilizada por estudiantes para realizar tareas y no tener que razonar. ¿Eso no genera un riesgo?
Sí, lo veo como un riesgo, pero considero que hoy los estudiantes aprenden bajo el paradigma de memorizar: el docente da determinado tema, el alumno lo tiene que aprender y en el examen se tiene que acordar de qué fue lo que aprendió, no es tanto volcar los conocimientos de otra forma. Esto lo que nos propone son textos absolutamente personalizables, casi no se puede detectar que fueron escritos con IA, entonces, la IA existe, no nos podemos enojar con la herramienta, sino que tenemos que repensar la forma en la que se enseña. Capaz que hay que generar proyectos mucho más constructivos para aprender ciertos temas utilizando estas herramientas. Por ejemplo, se me ocurre que podríamos aprender la historia de José Pedro Varela, qué es lo que hizo por la educación, creando un podcast con IA, viendo de qué forma la IA puede aprender todo eso, cómo se puede crear un podcast audiovisual. La educación está “hackeada” con este tema, pero es una forma también de ver cómo se tiene que repensar.
¿Es necesario regular la IA? ¿Es posible generar controles?
Acá en Uruguay no hay una legislación específica, hay otras legislaciones que pueden aplicarse en cierta medida. Hay apuestas legislativas particularmente para regular deepfakes. Sé que Gabriel Gurméndez (diputado colorado) tuvo una iniciativa para esto, sobre todo para penalizar los deepfakes con desnudos, que ya han tenido alguna repercusión en España, por ejemplo, a nivel de adolescentes. Tenemos una ley de ciberdelitos que en cierta manera podría contemplarse, pero me parece que hay que ser un poco más específicos. A nivel internacional, en Estados Unidos no se prioriza mucho la regulación. Sí en Europa; de hecho, muchas de las funciones que se lanzan en Estados Unidos de herramientas de IA, como el asistente de voz de ChatGPT, al tiempo se lanzan en la Unión Europea, porque tienen un reglamento muchísimo más estricto. Yo creo que se debería equilibrar, en determinadas cosas sí hay que ponerse de acuerdo, y también hay que contemplar que a las empresas de IA no les importa demasiado la seguridad. O sea, les importa la seguridad cuando pasa algo, pero no en el diseño de las herramientas. Para darte un ejemplo muy concreto, ninguna de estas herramientas tenía control parental. ChatGPT no tiene control parental, y lleva tres años de vida. Todas las redes sociales sí lo tienen, pero ChatGPT no. Hace pocas semanas, ChatGPT anunció que va a incluir control parental. La pregunta es, ¿por qué no lo incluyeron al principio? Recién ahora van a tomar medidas específicas sobre cómo se va a tratar el tema del suicidio, y fue porque un adolescente de 16 años en Estados Unidos decidió quitarse la vida y están enfrentando una demanda. No lo contemplaron en el diseño. O sea, todas las empresas de Silicon Valley lanzan sus productos y después se preocupan por la seguridad.
En materia de ciberseguridad, ¿se podría decir que la IA representa un riesgo, por ejemplo, al brindar la posibilidad de generar código malicioso o de robustecer los ataques?
La IA produce texto de manera muchísimo más fácil, en diferentes idiomas, sin faltas de ortografía, de forma casi perfecta, entonces, un atacante en Rusia podría generar un texto absolutamente entendible para un uruguayo de un modo que no podría haberlo creado hace tres años. Eso marca un diferencial. A mí se me ocurrió crear una web junto a Santiago Ingold, experto en ciberseguridad: nocaigas.uy. Es una especie de biblioteca de casos de phishing en Uruguay, y si una persona tiene la duda de si recibió un caso de phishing, puede recurrir a esta web para ver si realmente es un ataque o no, porque se torna tan imperceptible por momentos, que uno empieza a dudar. De hecho, han caído en ciberestafas personas que se dedican al mundo de la ciberseguridad. Las estafas en Uruguay se multiplicaron por 10 en la última década, es una locura la cantidad, y creo que va a seguir creciendo. Además, es el ataque más sencillo y económico de hacer para los ciberatacantes.