2025-12-10

OBSERVATORIO DE LA UNIVERSIDAD AUSTRAL

El cibercrimen avanza con utilización de la Inteligencia Artificial

El Observatorio de Cibercrimen y Evidencia Digital en Investigaciones Criminales de la Universidad Austral (OCEDIC) advirtió sobre el uso de Inteligencia Artificial para generar deepfakes y ciberestafas, cuyas víctimas suelen ser empresas o corporaciones empresariales.

Se trata de contenido multimedia sintético generado por Inteligencia Artificial (IA) que se encuentra disponible a través de aplicaciones como FaceApp o Deep Face Lab, entre otras. La ciberdelincuencia en la Argentina trepó a niveles alarmantes: en solo los tres primeros meses de este año, se registraron 262 ataques informáticos alcanzando así uno de los rangos más altos [63%] en América Latina, según el reporte mundial de la plataforma de biometría BioCatch .

Lee también: El clima en Bariloche: cuenta regresiva para que vuelva el calor

El sitio refleja que la tecnología deepfake puede producir un video o audio falso de una persona, que se percibe como verdadero, expresando algo que en realidad nunca dijo. Estas falsificaciones generan, sistemáticamente, amenazas de fraudes en línea, cuyas víctimas suelen ser las corporaciones empresariales.

En el marco de la presentación del libro "Ciberfraudes: Criptoactivos y Blockchain" que forma parte de una colección de materiales sobre el tema a cargo de la fiscal Daniela Dupuy, directora de OCEDIC, se profundizó acerca de esta modalidad que impacta a nivel internacional, debido a la transnacionalidad de la comisión de estas conductas delictivas, cuyos autores pueden operar desde cualquier parte del mundo.

"Los resultados de un estudio reciente mostraron que la amenaza más significativa de la IA ofensiva es su capacidad para mejorar algunos de los ataques de ingeniería social, como por ejemplo utilizar deepfakes para clonar la voz de directores ejecutivos o la imagen de ciudadanos respetables", explicó Dupuy.

Las amenazas evolucionan al ritmo de la tecnología. La digitalización de pagos, el empleo intensivo de móviles y el incremento del comercio electrónico conformaron un ambiente propicio para nuevas formas de extorsiones. También, la velocidad de estas transacciones y su volumen dejaron obsoletos muchos sistemas tradicionales de seguridad.

Ese horizonte se enturbió más con el surgimiento de nuevos procesos capaces de generar ataques automatizados, apropiación de dispositivos (device takeover), deepfakes, computación cuántica y riesgos de terceros.

"La inteligencia artificial (IA) es un procesamiento cognitivo, es nuestra mente, nuestro razonar. Se anticipa a algo. No necesita que esté el error humano sobre la mesa. Es capaz de prevenirlo", remarca Pablo Poza, asociado de Together Business Consulting. Sin embargo, la IA es un arma de doble filo ya que puede emplearse para defraudar a una empresa, un usuario o a un gobierno.

Te puede interesar