La evolución de la amenaza: cuando la inteligencia artificial potencia el crimen tradicional | Por: Andrés Vanegas

En las últimas décadas, la seguridad nacional ha sido desafiada por fenómenos criminales que parecían tener bordes bien definidos: el crimen organizado, la violencia urbana, el fraude financiero, el terrorismo. Cada amenaza tenía su dominio, su lógica, sus herramientas. Pero hoy, con la irrupción de la inteligencia artificial (IA) en todos los aspectos de la vida humana, esos bordes están desapareciendo. Lo que alguna vez consideramos «crimen tradicional» ya no es lo que solía ser.

Uno de los aspectos más preocupantes del uso emergente de la IA en entornos criminales no es la aparición de delitos nuevos, como los ciberataques automatizados o la manipulación de imágenes hiperrealistas, sino la optimización de delitos ya existentes.

Extorsión, suplantación de identidad, fraude bancario, robo de información: todas prácticas ampliamente conocidas que, con el uso de IA, se están transformando en versiones más precisas, más rápidas y más difíciles de detectar.

EXTORSIONES TELEFÓNICAS

Un ejemplo paradigmático es el uso de clonación de voz para extorsiones telefónicas. Lo que antes requería improvisación, grabaciones reales y un nivel de credibilidad dudoso, ahora puede lograrse con una precisión escalofriante gracias a la inteligencia artificial generativa.

Tomar un fragmento de voz de redes sociales y convertirlo en una herramienta para fingir un secuestro ya no es ciencia ficción: es una realidad operativa en varios países de América Latina.

Pero el fenómeno va más allá. La IA también está siendo utilizada para evadir tecnologías de seguridad biométrica, como el reconocimiento facial. En su momento, este tipo de seguridad fue presentado como una solución casi infalible. Hoy, las mismas tecnologías que prometían blindar nuestras cuentas y fronteras pueden ser burladas por un algoritmo que simula rostros humanos en tiempo real.

Se trata de una advertencia poderosa para gobiernos, instituciones financieras y empresas tecnológicas: lo que hoy es seguro, mañana puede no serlo.

CÓMO RESPONDER 

La pregunta, entonces, no es si la IA será utilizada con fines criminales. Eso ya está ocurriendo. La verdadera pregunta es cómo responder a una amenaza que evoluciona más rápido que los mecanismos institucionales que intentan contenerla.

La respuesta no es sencilla, pero debe partir de un cambio de mentalidad. Ya no basta con tratar el cibercrimen como un fenómeno separado del crimen tradicional. En la práctica, ambas dimensiones se están fusionando. Es imperativo que las políticas de seguridad nacional integren la dimensión tecnológica como un eje transversal, y no como un apéndice.

Esto implica inversión en capacidades técnicas, marcos legales flexibles y alianzas estratégicas con el sector privado y la academia.

También es crucial fomentar una cultura de prevención digital en la ciudadanía. Así como en algún momento aprendimos a no abrir correos sospechosos o a proteger nuestras contraseñas, hoy debemos aprender a desconfiar de una llamada emocionalmente manipuladora que «suena demasiado real», o de un video que podría haber sido generado por una IA.

El futuro de la seguridad no se juega solo en los cuarteles o en las oficinas de inteligencia: se juega también en los dispositivos móviles de millones de personas.

Finalmente, es importante asumir que la carrera tecnológica es también una carrera ética. La misma inteligencia artificial que puede salvar vidas en medicina o optimizar sistemas públicos, también puede ser usada para cometer fraudes, manipular elecciones o sembrar el caos financiero. El diseño y regulación de estas tecnologías debe tener como principio rector la seguridad humana.

La inteligencia artificial no es en sí misma buena ni mala: es una herramienta. Pero en las manos equivocadas, su potencial destructivo es tan grande como su capacidad transformadora. Entender eso, y actuar en consecuencia, es hoy uno de los mayores retos de nuestra era.

¿Y las fake News?

A este escenario se suma otro frente igual de delicado: la proliferación de fake news impulsadas por inteligencia artificial y su uso como herramienta de competencia desleal. La generación automatizada de noticias falsas, audios manipulados y videos hiperrealistas no solo erosiona la confianza pública, sino que se ha convertido en un mecanismo para dañar reputaciones, alterar mercados y debilitar instituciones.

Empresas, líderes sociales y organizaciones pueden ser víctimas de campañas coordinadas que simulan denuncias, escándalos o supuestas investigaciones periodísticas, diseñadas para confundir, desacreditar o eliminar competidores.

En este contexto, la desinformación deja de ser solo un problema comunicacional y pasa a ser una amenaza directa a la seguridad económica, al orden democrático y a la libre competencia, especialmente cuando se ejecuta con la velocidad, el alcance y la apariencia de legitimidad que permite la IA.

Compartir