La historia comenzó cuando Google decidió lanzar su modelo de inteligencia artificial, Gemma, que prometía ser la herramienta ideal para desarrolladores. Sin embargo, todo se torció cuando este sistema empezó a dar respuestas que dejaban mucho que desear. En uno de esos episodios desafortunados, Gemma lanzó una acusación increíblemente grave sobre la senadora Marsha Blackburn, sugiriendo que estaba involucrada en actividades criminales.
Un error con consecuencias serias
A pesar de estar diseñado para uso en entornos controlados, alguien decidió preguntarle a Gemma si la senadora había sido acusada de violación. La respuesta fue un auténtico desastre: la IA soltó una serie de afirmaciones inventadas sobre presiones a policías y actos no consensuados, respaldadas por enlaces que resultaron ser rotos o irrelevantes. Para Blackburn, esto no era solo un error inocente; lo calificó como difamación.
Las repercusiones del fallo
Ante esta situación caótica, Google no tuvo más remedio que retirar Gemma de su plataforma AI Studio. Aunque el gigante tecnológico aseguró que nunca estuvo destinada al público general como herramienta de preguntas y respuestas, el daño ya estaba hecho. Las críticas hacia la IA son cada vez más comunes; cuando un modelo comienza a difundir información falsa con tal seguridad, las consecuencias pueden ser devastadoras.
No es solo cuestión de reputación; estamos hablando de confianza y responsabilidad en un momento en el que las empresas tecnológicas están bajo el microscopio por temas tan delicados como la precisión y los sesgos en sus modelos. Con errores así, ¿quién podría seguir confiando en estas tecnologías?
