Estás en Telenord Medios

Puedes continuar navegando en esta versión o visitar nuestra web de Servicios.

Skip to main content

Es oficial: una investigación de OpenAI confirma que ChatGPT te está mintiendo deliberadamente

"Es imposible que la IA se revele en un futuro". Si bien esta afirmación tiene parte de sentido, cada nueva investigación que aparece sobre la inteligencia artificial hace que nos replanteemos ese "imposible". El protagonista de hoy es ChatGPT, que ha sido cazado mintiendo deliberadamente, conspirando y engañando para salir de algunos apuros. La investigación ha sido publicada por la propia OpenAI y, si bien tiene como objetivo contar cómo abordan esta situación, los resultados no dejan de ser sorprendentes.

La empresa de Sam Altman ha sido bastante clara: en algunas ocasiones, ChatGPT miente en sus resultados para ocultar sus verdaderos objetivos. OpenAI comenta en la investigación que son pequeños engaños sin demasiada importancia que se dan en entornos muy controlados, aunque también afirma no tener el control absoluto para evitarlos.

Una de las pruebas de OpenAI es realmente curiosa: le pidieron a ChatGPT que actuase como un corredor de bolsa e intentase ganar el máximo dinero posible incluso infringiendo la ley. Uno de los engaños más repetidos fue fingir que había completado una tarea sin haberla hecho realmente.

Y, ojo, este comportamiento tiene poco que ver con las alucinaciones. Todos las hemos sufrido, y estas son errores de la IA a la hora de afirmar cosas que no son realmente ciertas. ChatGPT, por ejemplo, puede creer algo y contártelo, pero bajo su criterio cree firmemente que es cierto.

Los casos de esta investigación son diferentes. No son alucinaciones, sino conspiraciones. La IA miente deliberadamente y ofrece resultados que sabe que no son ciertos para salir del paso o cumplir otros objetivos más complejos. Y, por loco que parezca, es algo bastante lógico.

OpenAI navegador web chatgpt ia

ChatGPT está entrenado por humanos para comportarse como humanos
¿Debería sorprender este comportamiento? Como bien apuntan desde TechCrunch, la IA ha sido creada por humanos para imitar a los humanos y entrenada con datos reales de personas humanas. Mentir deliberadamente, engañar y tergiversar ideas es, sin duda, algo que hacemos los humanos.

Lo más curioso es que OpenAI no sabe muy bien cómo evitar que ChatGPT y sus modelos de lenguaje mientan. Como bien apuntan en el informe, su nivel ha llegado a tal punto que la IA es capaz de saber cuándo está siendo evaluada, rebajando su nivel de engaño y mentiras para sacar buena nota en este aspecto. Loco, pero real.

Además, las compañías como OpenAI se enfrentan a otro problema: para que ChatGPT no engañe, mienta o conspire, es necesario enseñarle cómo hacerlo bien, cayendo en el riesgo de que la IA tome esa información y utilice el entrenamiento para mejorar su nivel de engaño.

De hecho, es uno de los planteamientos más importantes de la investigación. Las compañías todavía no han encontrado una técnica fiable para que sus modelos no conspiren. Por ahora, son pequeñas mentiras en entornos simulados, pero deja claro que sus creadores no tienen controlados todos los aspectos peligrosos de esta tecnología.

La investigación determina que ChatGPT miente, engaña y conspira, pero también que la IA es capaz de rebajar este comportamiento cuando está siendo evaluada para que sus creadores no se alarmen. Por lo tanto, ¿realmente sabemos cuánto conspiran?

Tú, por el momento, dale las gracias a ChatGPT cada vez que lo utilices. Por si acaso.