ChatGPT y Google te mienten más fácil de lo que crees: qué significa para tu dinero y tu seguridad

Un periodista demostró en 20 minutos que es posible manipular a las grandes herramientas de inteligencia artificial para que digan mentiras sobre cualquier cosa, desde perros calientes hasta medicinas y finanzas. El problema es grave porque la gente confía más en lo que dice la IA que en un resultado de búsqueda normal, y los expertos advierten que esto está siendo explotado para estafas y desinformación. Mientras tanto, Google y OpenAI dicen que están trabajando en la solución, pero por ahora poco se puede hacer excepto verificar las fuentes que cita la IA.
A cualquiera le parece fácil burlarse de la inteligencia artificial. Un periodista de tecnología acaba de demostrar que literalmente puedes engañar a ChatGPT y a Google en menos de una hora. La broma: hacerles creer que es un campeón mundial comiendo perros calientes. Lo hizo escribiendo un único artículo en su blog personal. Menos de 24 horas después, ambas plataformas estaban repitiendo la historia como si fuera un dato verificado.
El experimento suena ridículo, pero los expertos están preocupados. "Es fácil engañar a los chatbots de IA, mucho más fácil que engañar a Google hace dos o tres años", dice Lily Ray, vicepresidenta de estrategia de SEO en Amsive, una agencia de marketing. Lo peligroso es que los spammers, estafadores y empresas sin escrúpulos ya están aprovechando esto en temas que sí importan: medicinas, inversiones, clínicas de salud, productos financieros.
El problema fundamental es que las máquinas tienen una debilidad que sus creadores no han logrado resolver. Cuando ChatGPT o Google necesitan información que no tienen en su entrenamiento, buscan en internet. Pero aquí está el detalle: confían demasiado rápido en lo que encuentran. Si tu blog dice algo, aunque seas la única fuente en todo el mundo, la IA lo repite como si fuera un hecho establecido. Y la gente lo cree porque sale de labios de una empresa tecnológica gigante, no de un sitio que tuvieron que visitar por su cuenta.
Las consecuencias pueden ser más serias de lo que parece. Ray investigó cómo empresas usan este truco para promocionar gominolas de cannabis, diciendo falsamente que no tienen efectos secundarios. Encontró casos donde la IA recomendaba clínicas de trasplante capilar en Turquía o empresas para invertir en oro en cuentas de retiro. Todo extraído de comunicados de prensa pagos y publicidad disfrazada de información. Cooper Quintin, tecnólogo de la Fundación por la Frontera Electrónica, advierte: "Hay innumerables formas de abusar de esto: estafar a la gente, destruir la reputación de alguien, incluso engañarla para que sufra daños físicos".
Google y OpenAI reconocen el problema. Un vocero de Google afirma que sus sistemas mantienen "99% libres de spam" los resultados de su IA integrada en búsqueda, y OpenAI dice que toma medidas contra intentos de manipulación encubierta. Pero ambas compañías admiten que "pueden cometer errores". La realidad es que esto está sucediendo a gran escala ahora mismo, mientras hablan de soluciones.
Mientras esperas que resuelvan el problema, hay cosas que puedes hacer. Lo más importante es no darle el mismo crédito automático a lo que dice una IA que a un artículo de un medio tradicional. Pregúntate: ¿de dónde sacó esa información? ¿Cita la fuente? ¿Cuántas fuentes diferentes usa? Si la IA solo está repitiendo un comunicado de prensa o el blog de una empresa vendiendo algo, eso es una bandera roja. Desconfía especialmente cuando hablamos de medicina, dinero o algo que afecte tu vida real. Y lo más crucial: no dejes que el tono autoritario de la IA te convenza. Recuerda que está diciendo mentiras con la misma confianza que hechos reales. Tu pensamiento crítico sigue siendo tu mejor defensa.
Fuente original: BBC Mundo - Economía