Visión financiera/Georgina Howard
@guerrerochipres
En Gran Bretaña, el CEO de una empresa de energía alemana recibe la llamada del supuesto director ejecutivo y le solicita el pago urgente de 220 mil euros a un proveedor en Hungría; así lo hace.
Tarde descubre el engaño. Fue víctima de un deepfake de audio en uno de los casos registrados hace dos años y con los cuales ya se advertía de los riesgos de la incursión delictiva en la Inteligencia Artificial.
Estas herramientas ya son causa de preocupación para empresas, autoridades y expertos cibernéticos, por su enorme potencial para difundir y hacer creíbles falsas aseveraciones.
En el Consejo Ciudadano de la Ciudad de México ubicamos riesgo de incremento en delitos como el robo de identidad o el fraude con el uso de la IA. Los reportes en ambos casos han presentado aumentos de 218 y 17 por ciento, respectivamente, en entre los periodos enero-octubre de 2022 y este año.
La tecnología puede ser empleada para engañar y provocar afectaciones patrimoniales y daños reputacionales principalmente en un contexto político electoral.
El riesgo incrementa ante la facilidad y bajo costo en el acceso a estas herramientas, a través de las cuales se puede reproducir la voz de cualquier persona en unos pocos minutos.
Ausencia o debilidad en la cultura de prevención digital favorecen la difusión de este tipo de mensajes, donde los ejemplos empiezan a ser más frecuentes.
La semana pasada circuló en redes sociales un audio en el cual supuestamente el Jefe de Gobierno de la Ciudad de México, Martí Batres, buscaba influir en el proceso de selección del aspirante de Morena a candidato a sucederle en 2024.
Sin corroborar la autenticidad, pronto se tomó como noticia y se viralizó. Antes ya había ocurrido con Clara Brugada, la exalcaldesa de Iztapalapa y una de las participantes más avanzadas en la elección morenista.
Desde hace dos años ya se alertaba sobre los avances de la IA y la capacidad para crear voces sintéticas de cualquier persona, a lo cual ahora podemos añadir la incapacidad, voluntaria e involuntaria, para comprobar la veracidad con la intención de provocar descrédito o influir en la toma de ciertas decisiones incluidas las de carácter político.
Puede ser muy complejo detectar un deepfake, pues los resultados de la IA son cada vez más realistas. Sin embargo, hay una regla: si el mensaje resulta ilógico para el contexto donde es empleado o es poco creíble que la persona aludida lo pronuncie, debe ser verificado.
Tomar conciencia de las posibilidades de suplantar la identidad de una persona nos llevará a plantearnos la pregunta central: ¿es tu voz?