ÚltimasNoticias Colombia

Economía y Finanzas

La inteligencia artificial ya se usa para estafar en Colombia: cómo no caer en la trampa

Fuente: El Tiempo - Tecnosfera
La inteligencia artificial ya se usa para estafar en Colombia: cómo no caer en la trampa
Imagen: El Tiempo - Tecnosfera Ver artículo original

Los delincuentes clonan voces, crean videos falsos y generan mensajes personalizados en WhatsApp usando inteligencia artificial. Estos fraudes son más creíbles que nunca porque la tecnología imita acentos, pausas y emociones, además de usar información de redes sociales. La mejor defensa sigue siendo simple: desconfiar de la urgencia, verificar antes de transferir y nunca actuar bajo presión.

La inteligencia artificial ya no es cosa del futuro. Hace poco tiempo la asociábamos con robots o máquinas que realizaban tareas automáticamente. Hoy, en realidad, es mucho más cercana: permite a los computadores encontrar patrones en montañas de información y crear contenido nuevo que parece genuino, ya sea texto, imágenes, audios o videos. El problema es que esa misma herramienta está en manos de estafadores, y no hablamos de ficción. En Colombia ya hay casos reales de personas que han perdido dinero por llamadas con voces clonadas, videos manipulados o mensajes tan convincentes que parecen auténticos. La tecnología que antes estaba confinada a laboratorios ahora está al alcance de cualquiera con conexión a internet.

Uno de los engaños que crece más rápido es la clonación de voz. Con apenas unos segundos de audio, que pueden sacarse de un video en redes sociales, una nota de voz o una llamada grabada, los delincuentes fabrican una réplica casi perfecta de la voz de alguien. El guión siempre es urgente y angustioso: un supuesto accidente, una detención, un robo de celular. La IA no solo copia el sonido de la voz; también imita las pausas naturales, los acentos y hasta las emociones. Cuando se combina con información sacada de redes sociales, donde la gente comparte viajes, familias y lugares que frecuenta, el engaño se vuelve casi impenetrable. Los estafadores también usan deepfakes, que son videos manipulados digitalmente para reemplazar rostros o modificar voces. Ahora es posible crear un video falso en el que un "jefe" pide un pago urgente, un funcionario da instrucciones o una figura pública promociona una inversión falsa. Aunque a veces hay detalles que revelan la manipulación, como movimientos faciales extraños o labios desincronizados con el audio, el usuario promedio no siempre los nota, especialmente cuando está bajo presión.

En Colombia, WhatsApp sigue siendo el canal favorito de estafadores, pero con un giro: los mensajes ya no llegan llenos de errores de ortografía. La IA genera textos personalizados y coherentes analizando información pública de las víctimas. El mensaje puede ser: "Hola, Carlos, vimos que hiciste una compra reciente. Necesitamos confirmar el pago antes del envío". El nombre correcto, el contexto adecuado y el timing perfecto hacen que baje la guardia. Algunos fraudes combinan varias técnicas: primero llega un mensaje, después una llamada con voz clonada y, finalmente, un enlace falso para completar el pago.

Lo peligroso de estas estafas es que atacan la confianza. Pasamos años aprendiendo a desconfiar de correos mal escritos o números desconocidos, pero ahora el fraude puede sonar perfecto, verse real y estar impecablemente redactado. Además, la IA permite automatizar ataques: un estafador puede enviar miles de mensajes personalizados en minutos. Si solo un pequeño porcentaje de las personas cae, el negocio es rentable.

Para protegerse, hay medidas simples pero efectivas. Desconfíe de la urgencia emocional: la mayoría de fraudes juega con el miedo o la prisa. Si algo exige que actúe "ya mismo", deténgase. Si recibe una llamada sospechosa de un familiar, cuelgue y llame directamente al número que ya tenía guardado. Acuerde con su familia una palabra clave de emergencia que solo ustedes sepan. No comparta audios ni videos innecesarios en redes sociales porque más material disponible significa más fácil entrenar un modelo de clonación de voz. Active verificación en dos pasos en WhatsApp, correo y redes sociales. Ninguna entidad seria le pedirá que comparta códigos de verificación. Si ve un video de alguien famoso recomendando una inversión, confirme la información en medios oficiales.

Si ya fue víctima, actúe rápido. Contacte de inmediato a su banco para bloquear transferencias, reporte el número en WhatsApp, denuncie ante la Policía Nacional en el Centro Cibernético Policial y cambie sus contraseñas. La inteligencia artificial no es el enemigo; es una herramienta potente para educación, salud y productividad. El problema es su uso malintencionado. En un mundo donde la voz puede falsificarse y el video manipularse, la mejor defensa sigue siendo la misma: pensar antes de reaccionar, verificar antes de transferir y nunca actuar bajo presión.

Fuente original: El Tiempo - Tecnosfera

Noticias relacionadas