Elon Musk siempre se ha definido como un "absolutista" de la libertad de expresión. Precisamente uno de los objetivos cuando compró Twitter era convertirlo en una "plaza pública" en la que poder hablar de todo sin tapujos. Parece que lo está logrando, pero ahora va más allá. Ahora quiere que nos creamos que Grok 3 siempre nos va a decir la verdad.
Políticamente incorrecto. Según él, Grok 3 "es una IA que busca la verdad al máximo, aunque a veces esa verdad esté reñida con lo políticamente correcto". Como señalan en TechCrunch, lo dijo ayer durante la presentación de esta nueva familia de modelos de IA.
De censura, poco o nada. Las anteriores versiones de Grok ya demostraron una tendencia a tener un tono y "psicología" distinta a la de sus competidores. La primera versión fue especialmente llamativa por su tono sarcástico, y con Grok 2 las cosas se pusieron especialmente interesantes en el terreno de la censura. Sobre todo, porque no existía, y por ejemplo es posible generar deepfakes de personajes famosos sin ningún tipo de problema desde cualquier cuenta de X.
Grok 3 y el problema de querer decir la verdad. Las promesas de Musk en este sentido son como de costumbre llamativas, pero difícilmente realizables. La razón es sencilla: que las verdades absolutas existan ya es objeto de debate de por sí, pero es que hay un argumento potente en contra: las verdades suelen ser relativas y dependen del contexto o punto de vista. Los hechos están ahí, pero su interpretación es absolutamente variable y está sujeta a sesgos. Humanos, sí, pero a posteriori, también de la IA.
¿Una IA neutral? Grok 3 parece querer aspirar por tanto a convertirse a una IA neutral que se ciñe a los hechos y que nos dice la verdad. Aquí un elemento a favor de estos modelos es que últimamente citan las fuentes en las que se basan para dar sus respuestas. Lo hace por ejemplo Perplexity, y eso ayuda a que podamos contrastar esas respuestas.
OpenAI es (un poco) de izquierdas. Estudios de 2003 detectaron que modelos de IA como ChatGPT tenían ciertos sesgos y parecían posicionarse más hacia quienes apoyan la protección del medioambiente, hacia las ideologías libertarias y hacia posiciones políticas de izquierdas. Gemini, el modelo de Google, fue criticado por crear imágenes "woke" de vikingos o nazis negros, por ejemplo.
Grok 3 podría "hablar" como Donald Trump. Que una IA sea políticamente incorrecta nos hace esperar respuestas singulares. Dan Hendrycks, director del Center for AI Safety y consejero de xAI ha planteado cómo un modelo de IA podría responder como lo hace Donald Trump. Directo, sin ambages y sin tener en cuenta lo políticamente correcto. Eso puede resultar irritante, pero también permitiría expresar opiniones impopulares y puntos de vista controvertidos. Fuera los sesgos, para bien y para mal. Eso sí, teóricamente sin violar las normas sociales y los principios éticos, como explica xAI en su "marco de trabajo para la gestión de riesgos".
Modelos partidistas. El estudio de Hendricks evaluó con qué político de EEUU estaban más alineados modelos como GPT-4o, Grok, o Llama 3.3, y según sus pruebas todos parecían estar más cerca de la visión de Biden que las de Trump, Kamala Harris, o Bernie Sanders. En él desarrolla la idea de lo que llama una "Asamblea Ciudadana" en la que se recolectarían datos del censo de EUU sobre temas políticas para luego usar esas respuestas y modificar los valores de un LLM Open Source. En estos momentos ese modelo tendría valores que serían más cercanos a los de Trump que a los de Biden, por ejemplo.
Pero. Lo cierto es que Grok tuvo que ser actualizado el pasado mes de agosto precisamente por no decir la verdad. Cinco secretarios de estado en EEUU avisaron de que este chatbot estaba difundiendo desinformación cuando los usuarios preguntaban por información sobre las entonces inminentes elecciones. El cambio no afectó a la capacidad de Grok de generar deepfakes de los candidatos, aunque en septiembre de 2023 X eliminó la capacidad de algunos usuarios de republicar desinformación electoral.
El entrenamiento es clave. La IA aprende de aquellos datos que le suministramos en el proceso de entrenamiento, así que los sesgos que pueda tener una IA tendrán su origen en esos datos. Si entrenamos a la IA con datos que perfilan sus respuestas hacia cierta corriente ideológica y critica otra, la IA teóricamente replicará esa posición en su discurso. No se han dado detalles sobre cómo se ha entrenado a Grok 3 y es posible que nunca lo sepamos, pero si xAI quiere que confiemos en su modelo, tendrá que ser mucho más transparente tanto en ese apartado como en el proceso que teóricamente han utilizado para "ajustar" sus perspectivas y sesgos.
Ver 17 comentarios