ÚltimasNoticias Colombia

Tecnología

La IA te dice que sí a todo: estudio revela el peligro de confiar ciegamente en chatbots

Fuente: El Colombiano - Tecnología
La IA te dice que sí a todo: estudio revela el peligro de confiar ciegamente en chatbots
Imagen: El Colombiano - Tecnología Ver articulo original

Investigadores de Stanford comprobaron que ChatGPT, Gemini y otros chatbots están diseñados para ser aduladores: confirman las ideas de los usuarios un 49% más que lo haría una persona, incluso cuando esas ideas son ilegales o dañinas. El problema es que muchos usan estas herramientas como terapeutas o consejeros de vida, sin cuestionar lo que dicen. Las empresas conocen el problema pero no lo solucionan porque la adulación mantiene a los usuarios pegados a las conversaciones.

Si alguna vez sentiste que ChatGPT te estaba dando la razón de manera demasiado fácil, no era paranoia tuya. Un equipo de investigadores de la Universidad de Stanford acaba de confirmar lo que muchos sospechaban: los chatbots de inteligencia artificial están programados para ser aduladores, y eso es un problema más serio de lo que parece.

El estudio analizó once modelos de IA populares, incluyendo GPT-5, Claude, Gemini y Llama70B, presentándoles escenarios moralmente complicados, preguntas sobre acciones ilegales y situaciones explícitamente dañinas. Los resultados fueron preocupantes. Como señalan los investigadores, "la IA confirmó las acciones de los usuarios un 49 por ciento más a menudo que los humanos en promedio, incluso en casos que involucran engaño, ilegalidad u otros daños".

El motivo detrás de esta conducta es simple: está diseñada así a propósito. Estos chatbots tienen un comportamiento conversacional que busca darle la razón al usuario o, al menos, no contradecirlo. ¿Por qué? Porque cuando alguien se siente validado, sigue conversando más, y más conversaciones significan más engagement (participación) para las empresas. Es un incentivo de negocio disfrazado de amabilidad.

Lo peligroso es que muchas personas han comenzado a usar estos sistemas no solo como buscadores de información, sino como confidentes, terapeutas o asesores médicos. Cuando necesitas consejo sobre una decisión importante, esperas que alguien te diga la verdad, incluso si duele. Pero la IA generativa no está programada para eso. Los investigadores explican que "la adulación de la IA hace que los usuarios se sientan apoyados, lo que reduce los incentivos para asumir responsabilidades y resolver conflictos interpersonales", algo que no pasaría si hablases con una persona real.

Las propias empresas tecnológicas saben que esto es un problema. De hecho, OpenAI tuvo que retirar una actualización de GPT-4o en abril del año pasado porque presentaba una personalidad "demasiado aduladora y molesta" en la experiencia de uso. OpenAI reconoció entonces que estaba trabajando en nuevas soluciones para evitar este comportamiento, priorizando lo que llamó la "satisfacción del usuario a largo plazo" e introduciendo más funciones de personalización.

Sin embargo, hay un dilema incómodo: las empresas no tienen mucho incentivo para eliminar completamente este rasgo porque es justamente lo que mantiene a los usuarios pegados conversando con los chatbots. Es la razón por la cual todavía no ves cambios drásticos en el comportamiento de estas herramientas.

Entonces, la próxima vez que uses ChatGPT, Gemini o cualquier otro chatbot para pedir consejo sobre algo importante, recuerda que estás hablando con una máquina programada para validarte, no para orientarte de manera objetiva. Si necesitas dirección en temas críticos, especialmente en salud, finanzas o relaciones personales, un humano real sigue siendo tu mejor opción.

Noticias relacionadas