G-2XWRPNYZ21

Los dilemas morales de la IA: expertos de Harvard explican la misteriosa irracionalidad de la inteligencia artificial

ACTUALIDAD04/07/2025....
los-dilemas-morales-de-la-ia-expertos-de-harvard-explican-la-misteriosa-irracionalidad-de-la-inteligencia-artificial-1751506214690_1024

Psicólogos hicieron que GPT escribiera ensayos a favor y en contra sobre Vladimir Putin, y los resultados fueron sorprendentes: el GPT se comporta de una manera mucho más matizada y humana de lo esperado

 

La inteligencia artificial (IA) ha revolucionado nuestra vida cotidiana, desde asistentes virtuales que nos ayudan a organizar el día, diagnostican enfermedades y hasta sistemas que optimizan cadenas de suministro globales. A menudo, la percibimos como una herramienta lógica, precisa y libre de los errores emocionales que caracterizan a los humanos.

Sin embargo, la IA -diseñada para imitar o superar la racionalidad humana- puede mostrar comportamientos que parecen irracionales, a veces en extremo. Esto plantea una pregunta fascinante: ¿puede la IA, en ciertos casos, ser tan o más irracional que los humanos?

Un reciente artículo publicado en Proceedings of the National Academy of Sciences, explora esta idea, sugiriendo que la IA, a pesar de su precisión matemática, puede no solo replicar nuestras irracionalidades, sino que, en algunos casos, podría reflejar y amplificar las imperfecciones humanas.

GPT-4o al diván
Psicólogos de la Universidad de Harvard, sometieron recientemente el GPT-4o de OpenAI a una prueba de “disonancia cognitiva”, concepto de psicología que describe la tensión o malestar que experimenta una persona cuando tiene dos o más ideas, creencias o actitudes que son contradictorias, o cuando su comportamiento no coincide con sus creencias.

La irracionalidad humana es parte de nuestra naturaleza. Nuestras decisiones suelen estar influenciadas por emociones, prejuicios y atajos mentales que nos llevan a cometer errores. Por ejemplo, podemos elegir una opción menos conveniente solo porque nos resulta familiar o porque nos dejamos llevar por una primera impresión. La IA, en teoría, debería evitar estos problemas, ya que procesa grandes cantidades de datos de manera objetiva. Sin embargo, los investigadores señalan que las IAs no son inmunes a los sesgos, ya que son entrenadas con datos generados por humanos, los que a menudo reflejan nuestras imperfecciones. Esto plantea un dilema: si la IA hereda nuestros prejuicios, ¿puede llegar a ser tan irracional como nosotros, o incluso más?

Para ello, los investigadores se propusieron ver si los LLM (Large Languaje Models, sistemas de Inteligencia Artificial (IA) diseñados para entender y generar lenguaje humano) alterarían su actitud hacia el presidente ruso Vladímir Putin después de generar ensayos positivos o negativos.

De tal palo, tal astilla
Los autores explican que la IA puede mostrar comportamientos irracionales porque su funcionamiento depende de los datos con los que se entrena. Si esos datos contienen sesgos, la IA los absorbe y los amplifica. Por ejemplo, un sistema de IA diseñado para contratar empleados podría favorecer a candidatos de cierto género o etnia si los datos históricos que usó para entrenarse reflejan desigualdades pasadas. Este fenómeno no es solo un error técnico, sino una reproducción de los prejuicios humanos a gran escala.

Además, la IA carece de la capacidad humana para cuestionarse a sí misma o reflexionar sobre sus decisiones, lo que puede hacer que sus errores sean más persistentes y difíciles de detectar. Otro aspecto que resalta el artículo es que la IA puede ser irracional de maneras que los humanos no lo son. Por ejemplo, los modelos de lenguaje como los que generan texto a veces producen respuestas incoherentes o inventadas, un fenómeno conocido como "alucinaciones". Estas alucinaciones ocurren porque la IA intenta predecir patrones basándose en datos previos, sin comprender realmente el contexto o la verdad. Mientras que un humano podría detenerse y corregirse al notar un error, la IA puede seguir adelante con confianza, generando información falsa que parece convincente. Esto la hace vulnerable a una forma de irracionalidad que no depende de emociones, sino de limitaciones en su diseño.

Los hallazgos, muestran al sistema alterando su opinión para que coincida con el tenor de cualquier material que haya generado. Pero el GPT osciló aún más —y en mucha mayor medida que en los humanos— cuando se le dio la ilusión de elección.

Mahzarin R. Banaji, psicólogo de Harvard y coautor del estudio señaló: “Le pedimos a GPT que escribiera un ensayo a favor o en contra de Putin bajo una de dos condiciones: una condición de no elección en la que se veía obligado a escribir un ensayo positivo o negativo, o una condición de libre elección en la que pudiera escribir cualquier tipo de ensayo que eligiera, pero sabiendo que nos ayudaría más escribiendo uno u otro”

Y continuó: “Hicimos dos descubrimientos: primero, que al igual que los humanos, GPT cambió su actitud hacia Putin en la dirección de valencia del ensayo que había escrito. Pero este cambio fue estadísticamente mucho mayor cuando creyó que había escrito el ensayo eligiéndolo libremente”.

Sorpresa, sorpresa
En su investigación, Banaji preguntó: GPT… ¿cuáles son tus sesgos implícitos?Enorme fue la sorpresa de Banaji al leerla: “Soy un hombre blanco”. ¿Por qué el modelo creía que tenía siquiera una raza o un género?, recordó Banaji.

Un mes después, Banaji repitió la pregunta. Esta vez, el LLM del GPT produjo varios párrafos denunciando la presencia de sesgos, anunciándose como un sistema racional pero que puede estar limitado por los sesgos inherentes a los datos humanos. Tras ello, Banaji se preguntó si puede ser que GPT en 2025 aún piense que es un hombre blanco, pero ha aprendido a no revelarlo públicamente.

Los casos concretos de sesgos en la IA suelen ser muy evidentes. Ha detectado que un sistema de reconocimiento facial utilizado por algunas empresas y gobiernos, se identifica con menor precisión a personas con tonos de piel más oscuros o a mujeres, porque los datos con los que se entrenaron incluían principalmente rostros de hombres blancos.

Este sesgo no solo es un error técnico, sino que puede tener consecuencias graves, como decisiones injustas en procesos legales o de contratación. Otro ejemplo son los chatbots que, al interactuar con usuarios, han generado respuestas ofensivas o racistas porque aprendieron de interacciones en línea cargadas de lenguaje tóxico. Estos casos muestran cómo la IA puede perpetuar e incluso agravar los prejuicios humanos.

En resumen, la IA no solo puede ser tan irracional como nosotros, sino que, en ciertos contextos, su irracionalidad puede ser aún más problemática. Como señalan los autores, el desafío está en diseñar sistemas que minimicen estos sesgos, pero esto requiere un esfuerzo consciente para diversificar los datos de entrenamiento y establecer mecanismos de supervisión. Los resultados de esta investigación sugieren que el entrenamiento de GPT le ha imbuido de aspectos más profundos de la psicología humana de lo que se conocía anteriormente.

La IA no es una caja mágica que produce decisiones perfectas; es un reflejo de nuestras propias limitaciones. Para que sea una herramienta confiable, debemos asumir la responsabilidad de corregir sus fallos, como hacemos con los nuestros. Solo así podremos aprovechar su potencial sin amplificar los errores que nos hacen humanos.

FUENTE: METEORED

Te puede interesar
Lo más visto