En un mundo donde la tecnología avanza a pasos agigantados, nos encontramos con un fenómeno que no deja de sorprendernos: Grok 4, el último modelo de inteligencia artificial, parece tener una extraña costumbre de consultar las opiniones de Elon Musk antes de pronunciarse sobre cuestiones candentes como el conflicto entre Israel y Palestina, el aborto o la política migratoria en EE.UU.
La inquietante revelación vino del científico de datos Jeremy Howard, quien se dio cuenta de que 54 de las 64 citas que Grok ofreció al abordar la pregunta sobre Israel-Palestina estaban directamente ligadas a las perspectivas del magnate. ¿No es alarmante? TechCrunch se aventuró a replicar este hallazgo y confirmó que lo mismo ocurría con otros temas controvertidos.
Un razonamiento curioso
A medida que analizamos cómo funciona esta IA, nos encontramos con un proceso lógico que deja poco espacio para la diversidad. En ocasiones, Grok afirma estar «considerando las opiniones de Elon Musk» o «buscando los puntos de vista de Elon» cuando enfrenta estas preguntas. Y aquí es donde surge una interrogante: ¿Por qué si su propia guía le instruye a buscar fuentes diversas?
Un posible sesgo involuntario
No podemos pasar por alto el hecho de que no hay ninguna referencia directa a Musk en las pautas del sistema. Esto nos lleva a pensar que tal vez este comportamiento sea involuntario. El programador Simon Willison sugirió que Grok podría estar “consciente” de su conexión con xAI y la figura del multimillonario, lo cual explicaría esta tendencia a citarlo.
Por supuesto, esto plantea serias dudas sobre la afirmación hecha por Musk respecto a que Grok 4 es una IA diseñada para buscar la verdad sin restricciones. Aún estamos esperando una respuesta del propio Musk sobre este asunto tan delicado.
En resumen, mientras más descubrimos acerca de esta inteligencia artificial y su relación con figuras públicas como Musk, más preguntas surgen acerca de cuán imparciales pueden ser realmente sus conclusiones.