InicioTecnologíaDeepfakes y suplantación de identidad: el nuevo desafío tecnológico y legal en...

Deepfakes y suplantación de identidad: el nuevo desafío tecnológico y legal en Argentina

La inteligencia artificial generativa facilita la creación de contenido audiovisual falso, impulsando nuevas modalidades de fraude digital. Expertos analizan el impacto en el país y los desafíos en detección y regulación.

Durante más de dos décadas, la regla era simple: lo que se veía o escuchaba se consideraba real. Un video era evidencia, una voz confirmaba una identidad. Sin embargo, ese paradigma comienza a cambiar con el avance de la inteligencia artificial (IA) generativa. Crear audios y videos falsos altamente convincentes ya no es una capacidad reservada a especialistas, sino una herramienta accesible y de bajo costo.

En este contexto, los deepfakes dejaron de ser una curiosidad tecnológica para convertirse en la base de un nuevo modelo de fraude digital. La IA redujo drásticamente las barreras de entrada para producir engaños, profesionalizando la suplantación de identidad dentro de mercados ilícitos.

Un ejemplo reciente ocurrió en 2025, cuando circuló en YouTube una transmisión falsa que utilizaba un avatar generado con IA para suplantar al CEO de Nvidia, Jensen Huang. La presentación, que imitaba un evento de la conferencia GPU Technology Conference, invitaba a invertir en criptomonedas y alcanzó a miles de usuarios bajo una apariencia de legitimidad.

En Argentina, donde la digitalización avanzó con fuerza en servicios financieros, comercio electrónico y comunicaciones, el impacto es significativo. No se trata solo de un aumento de estafas, sino de una redefinición del riesgo digital. En los últimos meses, se multiplicaron los casos que utilizan audios generados con IA o mensajes privados para solicitar transferencias urgentes, movimientos bancarios o información sensible. A esto se suman estafas vinculadas a falsas promociones, descuentos o alquileres turísticos en redes sociales y plataformas digitales, demostrando cómo estas herramientas amplifican esquemas de fraude ya existentes.

Si el contenido audiovisual deja de ser garantía de autenticidad, muchos sistemas de seguridad diseñados en las últimas dos décadas quedan bajo revisión. Validaciones remotas, autorizaciones basadas en reconocimiento de voz o video, y pruebas digitales parten de una premisa que ahora puede ser cuestionada tecnológicamente.

Frente a este escenario, emergen dos grandes desafíos. El primero es tecnológico: así como la IA potencia herramientas de suplantación, también permite desarrollar sistemas de detección cada vez más sofisticados. La carrera hacia 2026 no será solo la expansión del deepfake, sino la velocidad con la que evolucionen los mecanismos para identificar contenido manipulado y autenticar identidades digitales de manera robusta.

El segundo desafío es normativo. Argentina, como gran parte de la región, aún no cuenta con un marco regulatorio específico que contemple la suplantación de identidad mediante IA con la complejidad actual. Si bien existen figuras legales vinculadas al fraude o a la falsificación, el fenómeno actual suma escalabilidad, automatización y anonimato en niveles inéditos. Se vuelve necesario avanzar en estándares técnicos compartidos, protocolos de validación más exigentes y marcos normativos que acompañen la evolución tecnológica sin frenar la innovación.

Es probable que 2026 marque un punto de inflexión, ya que la IA seguirá ampliando sus capacidades y presencia en todos los sectores. Si bien esta tecnología es clave para el crecimiento y la innovación, también redefine la naturaleza de los riesgos. Entender que el deepfake no es solo una amenaza aislada, sino parte de una nueva economía de la suplantación, es el primer paso para construir marcos tecnológicos y regulatorios a la altura del desafío.

Más noticias
Noticias Relacionadas