¿Por qué Google nos oculta el pensamiento de su IA?


Llevo más de 18 años escribiendo sobre tecnología y, si algo he aprendido, es que a los desarrolladores no les gusta que les cambien las reglas del juego a mitad de la partida. Imagínate la escena: llevas tu coche al taller, el mecánico te dice que ya está arreglado pero se niega en rotundo a explicarte qué pieza ha cambiado o por qué fallaba. Simplemente te da las llaves y una palmadita en la espalda diciendo «confía en mí». Pues bien, algo muy parecido es lo que acaba de hacer Google con Gemini 2.5 Pro, su modelo de inteligencia artificial más avanzado, y la comunidad de desarrolladores está, con toda la razón, con el ceño fruncido.

Hace poco, Google decidió de la noche a la mañana eliminar el acceso a los «tokens de razonamiento» brutos de Gemini. Este cambio, que puede sonar muy técnico, es en realidad un portazo en las narices a la transparencia de la IA. La medida ha desatado una oleada de críticas y ha puesto sobre la mesa un debate fundamental sobre el futuro de estas tecnologías. ¿Realmente queremos IAs que funcionen como cajas negras?



La transparencia perdida: el valor de «ver pensar» a la IA

Para entender el revuelo, primero hay que saber qué es eso del «razonamiento» de una IA. Pensemos en ello como cuando en el colegio el profesor de matemáticas te pedía que mostraras los pasos para llegar a la solución de un problema. No bastaba con la respuesta correcta; el proceso, el «cómo has llegado hasta ahí», era igual o más importante. En el mundo de los modelos de lenguaje grandes (LLM), a este proceso se le conoce como Cadena de Pensamiento o Chain of Thought (CoT).

Hasta ahora, una de las grandes ventajas de Gemini sobre sus competidores era que permitía a los desarrolladores ver esa «chuleta» interna del modelo. Podían observar, paso a paso, cómo la IA interpretaba una petición, qué plan trazaba, cómo escribía un borrador de código y cómo se autocorregía antes de dar la respuesta final.

=> Recibir por Whatsapp las noticias destacadas

¿Y para qué sirve esto? Principalmente, para depurar el código. Cuando la IA se equivoca o da un resultado inesperado, poder ver su proceso de razonamiento es como tener un mapa del tesoro que te lleva directamente al origen del error. Sin él, los programadores se quedan a ciegas, intentando adivinar por qué ha fallado el sistema en un bucle frustrante de prueba y error. Como decía un usuario en los foros de Google, es una «regresión masiva» que te obliga a «depurar a ciegas».

Pero no solo sirve para corregir fallos. Esta transparencia es vital para afinar las instrucciones que le damos a la IA y para crear los llamados flujos de trabajo agénticos, donde la IA debe ejecutar una serie de tareas complejas de forma autónoma. Ver su razonamiento ayuda a guiarla y a optimizar su comportamiento.

La perspectiva de Google: ¿una simple mejora estética?

Ante el aluvión de quejas, Google no tardó en responder. Logan Kilpatrick, uno de los responsables de producto en Google DeepMind, salió a la palestra para calmar los ánimos. Según él, el cambio es «puramente cosmético» y no afecta al rendimiento interno del modelo. La idea, explicaba, era ofrecer una experiencia de usuario más limpia en la aplicación de Gemini para el gran público, ya que, seamos sinceros, muy poca gente se para a leer esos largos procesos de razonamiento.

Para los desarrolladores, la nueva versión con un resumen del pensamiento era, según Google, un primer paso para poder acceder a estos datos a través de la API de Gemini de forma programática, algo que antes no era posible. Kilpatrick reconoció el valor de los razonamientos brutos y dejó la puerta abierta a explorar un «modo desarrollador» que los reactive en el futuro.

En mi opinión, es una explicación que se queda a medio gas. Si bien es cierto que para el usuario medio una parrafada de «pensamientos» de la IA puede ser abrumadora, eliminarla por completo para quienes construyen sobre tu tecnología es una decisión, como poco, miope. Demuestra una desconexión preocupante entre la empresa y la comunidad que impulsa su ecosistema.

El debate de fondo: ¿realmente «piensan» las IAs como nosotros?

Aquí es donde la conversación se pone realmente interesante. Hay expertos, como el profesor Subbarao Kambhampati de la Universidad Estatal de Arizona, que ponen en duda que debamos tomarnos tan en serio esos «pensamientos» de la IA. En un estudio reciente, argumenta que humanizar esos tokens intermedios puede ser peligroso y engañoso.

Según su investigación, los modelos a menudo divagan por caminos incomprensibles. Se ha demostrado que una IA puede ser entrenada con razonamientos falsos y aun así llegar a la respuesta correcta, porque lo que se verifica al final es el resultado, no el proceso. Kambhampati llega a decir que una explicación cínica de por qué OpenAI y ahora Google ocultan estos procesos es porque «¡se darían cuenta de lo incoherentes que son!».

Es como un profesor que, para resolver un problema nuevo, hace un montón de garabatos, tachones y pruebas fallidas en un papel, pero luego presenta a sus alumnos una explicación limpia y ordenada. El resumen que ahora ofrece Gemini sería esa explicación pulida, mientras que los razonamientos brutos eran los garabatos. ¿Qué es más útil? Depende de para quién.

La muralla competitiva: el verdadero motivo oculto

Más allá del debate filosófico, hay una razón mucho más terrenal y estratégica para este movimiento: la competencia. Esos razonamientos brutos, ese «cómo lo hace» la IA, son datos de un valor incalculable. Un competidor podría usar esas trazas para entrenar a un modelo más pequeño y barato para que imite las capacidades del potente Gemini, un proceso conocido como destilación.

Al ocultar su «salsa secreta», Google levanta una muralla para proteger su propiedad intelectual. Es un movimiento defensivo en una industria increíblemente competitiva y costosa. Este giro hacia la opacidad, iniciado por OpenAI y ahora seguido por Google, crea una oportunidad de oro para las alternativas de código abierto como DeepSeek-R1 o QwQ-32B, que sí ofrecen esa transparencia tan demandada.

El futuro de la IA: una balanza entre confianza y rendimiento

Lo que está claro es que esta decisión nos sitúa en una encrucijada. Como empresas y usuarios, tendremos que elegir cada vez más entre dos caminos: el de los modelos más potentes del mercado, que funcionan como cajas negras opacas, o el de los modelos más transparentes, que nos dan un mayor control y confianza, aunque quizás no alcancen las mismas cotas de rendimiento.

¿Qué prefieres tú? ¿Confiarías una tarea crítica de tu negocio a una IA sin poder auditar su lógica? La necesidad de observabilidad en la IA no hará más que crecer a medida que estos sistemas se vuelvan más autónomos y complejos. Este «apagón» de Gemini no es un simple cambio de interfaz; es un aviso para navegantes sobre el tipo de relación que las grandes tecnológicas quieren que tengamos con la inteligencia artificial. Y, personalmente, creo que un futuro con más luz y menos sombras siempre será una mejor apuesta.

Fuente: Link