La inteligencia artificial (IA) se ha convertido en un arma de doble filo en el área de la ciberseguridad. Mientras que se utiliza para detectar y responder más rápido ante ataques, los ciberdelincuentes la aprovechan para lanzar ofensivas más peligrosas. Así lo explicó a La Mañana la especialista Marcela Mercapidez, quien ha liderado proyectos de innovación tecnológica y seguridad de la información en instituciones como el MEF, Ceibal, ANII y Antel. “La IA puede amplificar las capacidades de quienes ya tienen intenciones maliciosas”, advirtió la experta.
¿Qué análisis hace del impacto que ha tenido la IA en la ciberseguridad?
Usualmente me preguntan si la IA contribuye de manera negativa o positiva en términos de la ciberseguridad, y no hay una única forma de analizar si la IA favorece más a la ofensiva o a la defensa en ciberseguridad. Existe sin duda un potencial negativo, estas tecnologías pueden dotar a la ciberdelincuencia de una capacidad ofensiva más rápida, escalable y de menor costo, ampliando el número de actores con acceso a herramientas avanzadas. La IA facilita el reconocimiento de vulnerabilidades, la ingeniería inversa y el desarrollo de exploits, reduciendo las barreras de entrada para individuos con bajo nivel técnico o presupuestos limitados. Además, potencia la creación de campañas de ataque más sofisticadas, como el phishing y el fraude dirigido, elevando su eficacia. Otro desafío es que la IA puede dificultar la atribución de los ataques, al dejar menos huellas técnicas y evidencias que permitan rastrear con precisión a los responsables.
Al mismo tiempo, la IA abre un potencial positivo en la defensa cibernética. Estas tecnologías pueden acelerar la protección de entornos digitales, mejorar la aplicación de parches y reducir la efectividad de herramientas ofensivas poco sofisticadas. Entre sus aportes más destacados se encuentra la capacidad de refactorizar grandes volúmenes de código, facilitar la adopción de estándares de seguridad, agilizar actualizaciones y parches, así como reforzar las pruebas de seguridad mediante redteam automatizado. En el plano táctico, la IA permite responder más rápido con ingeniería inversa defensiva y diseñar sistemas capaces de limitar la velocidad y escala de los ataques. No obstante, un desafío clave será garantizar la fiabilidad de las defensas para evitar que errores o configuraciones inadecuadas se transformen en vulnerabilidades adicionales.
En definitiva, el saldo entre riesgos y beneficios de la IA en ciberseguridad dependerá en gran medida de cómo sea adoptada. El rumbo estará condicionado por las decisiones de la industria, los desarrolladores, los proveedores de servicios, los consumidores e incluso los gobiernos. Serán ellos quienes definan si la IA se convierte en un factor que potencia la capacidad ofensiva de los atacantes, o en una herramienta que refuerce la resiliencia y la protección de los entornos digitales.
¿Hoy cualquier persona que tenga acceso a herramientas de IA puede convertirse en ciberdelincuente?
No necesariamente. Si bien la IA ha reducido las barreras de entrada al ofrecer herramientas más accesibles para tareas como generar código malicioso, crear campañas de phishing más persuasivas o automatizar ciertas fases de un ataque, no convierte automáticamente a cualquier usuario en ciberdelincuente. La realidad es que la IA puede amplificar las capacidades de quienes ya tienen intenciones maliciosas, facilitando que actores con poco conocimiento técnico intenten operaciones que antes requerían mayor experiencia. Sin embargo, el ciberdelito sigue implicando motivación, planificación y, en muchos casos, coordinación con otras actividades ilegales como venta de datos, fraude financiero, extorsión. Es decir, la IA abarata y acelera ciertos pasos, pero no reemplaza por completo el ecosistema criminal ni la necesidad de conocimientos básicos de cómo operar en la clandestinidad digital.
¿Qué tan conscientes son las empresas uruguayas de esta situación?
En Uruguay existe un nivel de conciencia creciente, pero todavía desparejo. Los sectores más maduros y regulados –como el financiero, las telecomunicaciones y el gobierno– ya están teniendo mayor contacto con estas temáticas. Por un lado, a través de productos del mercado que incorporan IA para potenciar la protección y la detección de amenazas; y por otro, al comenzar a visualizar la IA como una nueva superficie de exposición, lo que impulsa la creación de políticas de uso y gestión específicas.
Sin embargo, aún hay muchas empresas que no comprenden plenamente el impacto de esta tecnología ni el nivel creciente de amenazas. Un ejemplo frecuente que encontramos es la protección de endpoints, los dispositivos que interactúan directamente con la red o con aplicaciones, como computadoras de escritorio, laptops, servidores, teléfonos móviles y tablets. No es lo mismo contar con un antivirus tradicional que con un EDR (Endpoint Detection & Response) de última generación, que podríamos describir como un “antivirus con esteroides”, capaz de detectar, responder y proteger de manera mucho más efectiva frente a ataques modernos.
¿Qué recomendaciones les daría para fortalecer sus sistemas de ciberseguridad?
Es difícil formular recomendaciones genéricas sin contexto. La mejor recomendación es que partan de un diagnóstico de riesgo que identifique activos críticos, amenazas relevantes y el apetito de riesgo de la organización, y a partir de ahí diseñar controles proporcionales y priorizados.
¿Usted recomienda el uso de la IA para combatir el cibercrimen? ¿Qué ventajas presenta?
Sí, absolutamente. La IA ya es un aliado indispensable en la ciberseguridad moderna. Hoy los atacantes operan a gran velocidad, de manera automatizada y a escala global, por lo que defenderse sin IA es como entrar a un partido en desventaja. Las principales ventajas de estas herramientas son la velocidad y escala, la automatización de la defensa, la mejora en la detección avanzada y el fortalecimiento del red teaming y simulaciones. La clave está en usar la IA como complemento: no reemplaza al criterio humano, pero multiplica la capacidad de defensa y permite responder al mismo nivel de automatización con el que ya operan los atacantes.
Herramientas como GhostGPT o WormGPT muestran el lado oscuro del desarrollo de modelos de lenguaje. ¿Debería existir regulación sobre el uso de IA en ciberseguridad?
Sin duda. Modelos como GhostGPT o WormGPT son ejemplos de cómo la IA puede ser desviada hacia fines maliciosos, poniendo capacidades avanzadas al alcance de actores con bajo nivel técnico. Esto abre la puerta a campañas de fraude, ingeniería social y generación de malware a gran escala. La regulación es necesaria, no para frenar la innovación, sino para establecer límites claros en el uso, la comercialización y la distribución de estas tecnologías. Ahora bien, no podemos esperar que una ley detenga por completo el uso delictivo, los ciberdelincuentes siempre buscarán explotar cualquier recurso disponible. Lo que sí puede lograrse es reducir la velocidad y la escala de esa amenaza, evitando que herramientas legítimas terminen fácilmente en manos criminales y dificultando su proliferación masiva.
¿Qué papel deberían jugar los Estados en este escenario?
El papel de los Estados debe partir de definir marcos regulatorios claros y coordinarlos a nivel internacional, ya que las amenazas cibernéticas rara vez son locales y requieren una perspectiva global. No alcanza con normas nacionales aisladas, es necesario trabajar en esquemas de cooperación que aseguren coherencia y efectividad frente a un delito transnacional. Al mismo tiempo, los Estados deben fomentar la protección de las infraestructuras críticas, combinando regulación con incentivos que impulsen a empresas y operadores a elevar sus niveles de seguridad. Otro rol clave está en garantizar el acceso responsable a estas tecnologías. Eso implica apoyar a la industria local, estimular el desarrollo de capacidades nacionales, promover la inversión en investigación y asegurar la formación del talento humano que se necesita para enfrentar los desafíos de la era de la IA en ciberseguridad.