Entrevista
Karen Hao: "La Inteligencia Artificial de uso general es insostenible en todos los sentidos"
La periodista e ingeniera Karen Hao ha dedicado seis años a documentar el auge de OpenAI, la empresa del popular ChatGPT, y de su fundador. El libro El imperio de la IA. Sam Altman y su carrera por dominar el mundo (Península, 2025) es la crónica de un desengaño.

Madrid-
Es necesario hablar en profundidad de OpenAI, la muy opaca compañía responsable de ChatGPT en todas sus versiones. Justo ahora que los tribunales de EEUU tienen que dirimir la responsabilidad de la inteligencia artificial generativa que alimenta ese chatbot en el suicidio de un joven, hablamos con Karen Hao, periodista e ingeniera, y quizá la persona que mejor conoce cómo son realmente tanto OpenAI y como su fundador.
El volumen, de unas 600 páginas, recoge datos de más de 300 entrevistas y varios años de investigación. En él, la autora narra la evolución de la IA a través de la historia de una de sus principales empresas y, a la vez, describe con precisión cómo funciona realmente el mundo de los milmillonarios de Silicon Valley, en donde solo un puñado de hombres está imponiendo sus ideas -algunas utópicas, otras francamente peligrosas- sin apenas normas o regulaciones.
Mientras tanto, esta carrera por conseguir una IA que sirva para todo va consumiendo recursos, precarizando la vida de seres humanos y lugares tan alejados de la utopía tecnológica como Chile o Kenia. Y quienes son considerados gurúes, como Sam Altman, se revelan como persuasivos vendedores de un insostenible capitalismo tecnológico. Ellos son los dueños y señores del 'imperio de la IA'.
Quisiera preguntarle, en primer lugar, si como mujer extrabajadora en Silicon Valley se ha sentido sola o infrarrepresentada alguna vez. Lo digo porque prácticamente todos los personajes con poder que nombra en su libro son hombres...
Cuando yo trabajaba en la industria tecnológica sí que me sentía muy sola como mujer. Pero en el periodismo, como el 50% de los periodistas son mujeres, no me he sentido sola en absoluto. También hay que decir que mucha de la gente que hace trabajo de contabilidad de la industria de la IA son mujeres. De hecho, me pasé casi todo el tiempo hablando con mujeres para realizar este trabajo. En todo caso, nunca se me ocurrió pensar el hecho de que yo soy una mujer haciendo este trabajo durante tantos años, no era algo relevante para mí al estar con la gente a la que yo consideraba colegas o compañeros de trabajo, los que estaban en un espacio similar al mío hablando sobre temas parecidos.
La franja demográfica que controla la investigación de la IA es una gotita minúscula dentro del cubo de la gran diversidad que existe en el mundo
¿No sería la IA diferente si en su concepción hubiesen más mujeres?
Eso sí, estoy totalmente de acuerdo, y no sólo más mujeres sino más diversidad en general. El problema no es que la inteligencia artificial sea un campo dominado por los hombres, sino que también está dominado por EEUU, concretamente por San Francisco, y más concretamente por la clase rica.
¿Cómo de despegados de la realidad están estos milmillonarios de Silicon Valley, como Sam Altman, fundador de Open IA y a quién dedicas este libro?
Yo diría que la franja demográfica que controla la investigación de la IA es una gotita minúscula dentro del cubo de la gran diversidad que existe en el mundo. Eso es una gran parte del desafío al que nos enfrentamos hoy con la IA. Altman ha dicho que lleva sin ir a un supermercado una década o más. Tiene a otras personas que hacen su compra, que le hacen sus tareas las domésticas diarias, etc. Los multimillonarios están muy desapegados de la realidad y están viviendo en el entorno más rico del país más rico. Pero a medida que te vas alejando de San Francisco y de sus vidas, más ves ese desapego de la realidad. Creo que eso es uno de los desafíos centrales. Ellos están intentando construir una tecnología que es como de talla única, que se supone que tiene que funcionar para todo el mundo, mientras que ellos existen solamente dentro de esa pequeña burbuja, viviendo una vida que en realidad es accesible para un 0,0001% de la población.
Su libro habla del imperio de la IA porque, según usted, este sector se comporta como tal: conquista nuevos territorios y explota sus recursos escasos, como el agua o la energía, mientras precariza la mano de obra. En su opinión, ¿no se parece también a una secta, en tanto que promete mientras oprime?
Es que yo creo que los imperios, en su origen, son como sectas. Creo que la construcción de un imperio se apoya al final sobre una idea de religión, quizá porque este tipo de sistemas requieren creencias muy fervientes. Si te fijas en la historia, por ejemplo, la manera en la que los imperios occidentales iban expandiendo un poco la cristiandad alrededor del mundo es similar: ese fervor tan intenso, ese sistema de creencias tan intenso... Tucker Carlson, de Fox News, hizo una entrevista con Sam Altman hace dos meses y él también apuntaba hacia esa idea de que es una religión, de que es una especie de culto.
Lo que a mí me incomoda de la IA comparada con las religiones es que en éstas, al menos, hay reglas, hay una Biblia que todo el mundo puede acceder, todo el mundo puede leerla y entender los principios de esa religión. En la IA general no existe un equivalente: el sistema de creencias de estas personas es opaco para todos los demás.
Las cuentas no salen: OpenAI se ha comprometido a gastar 1,4 billones de dólares y sus ingresos están en los 28.000 millones de dólares anuales
Es cierto que no sabemos nada acerca de lo que hacen las inteligencias artificiales generales, son cajas negras. ¿Cree posible que los poderes públicos, como por ejemplo la Unión Europea, puede obligar a estas compañías a ser transparentes o, al menos, a alcanzar unos mínimos de cumplimiento de las normativas que nos protegen como ciudadanos?
Creo que eso es lo que los gobiernos deberían hacer, deberían exigir transparencia a estas empresas. Sin embargo, no tengo claro que esa transparencia consista en que publiquen su propia Biblia acerca de cuáles son sus valores, porque pienso que eso también perpetúa la idea de que existe ese modelo de talla única que puede ser utilizado por todo el mundo, es decir: una sola Biblia que vale para el mundo entero. Desde luego, en donde sí pienso que tienen que tener más transparencia los grandes modelos de IA es acerca de qué datos se utilizan para entrenar sus modelos, qué propiedad intelectual utilizan, dónde localizan sus centros de datos, cuánta agua y recursos consumen. ¿Cuántas ventajas fiscales obtienen? ¿Y qué IA está detrás de cada aplicación? Porque cuando una va al médico, por ejemplo, si el médico usa una IA, una no sabe si la aplicación que usa trabaja con OpenAI. Si es así, una no puede saber a dónde van tus datos, si éstos se acumulan directamente en OpenAI. Esto también es un grado de transparencia que necesitamos.
¿Es sostenible la inteligencia artificial de propósito general, como OpenIA?
Es absolutamente insostenible en todos los sentidos de esa palabra. No es sostenible como negocio, las cuentas no salen. OpenAI se ha comprometido a gastar 1,4 billones de dólares y sus ingresos están en los 28.000 millones de dólares anuales. No es sostenible tampoco medioambientalmente. Están intentando escalar sus modelos hasta hacerlos diez veces más poderosos cada año, imagina los recursos que van a necesitar. Un poder de supercomputación multiplicado por diez anualmente requiere, al menos, diez veces más la cantidad de de energía y de agua, y podría elevar diez veces más la cantidad de emisiones de gases nocivos. Creo que hay que subrayar que realmente no necesitamos estos recursos para poder desarrollar la IA, porque la IA es una categoría que engloba muchas tecnologías diferentes. Y, específicamente, Silicon Valley ha tomado el camino de desarrollar la IA de una manera más ineficaz a nivel de coste y a nivel medioambiental. Pero en realidad existen maneras mucho más eficaces a nivel de coste y de medioambiente para desarrollar estas tecnologías. Creo que deberíamos promover modelos especializados y localizados, una multitud de ellos alrededor del mundo, según el contexto en el que operen. Es decir, IAs especializadas alimentadas con datos relevantes para obtener resultados útiles.
La idea de que va a existir una tecnología que pueda hacer absolutamente todo para cualquiera es algo que no va a existir
¿Se refiere a desarrollar modelos más pequeños, pero con una finalidad clara, a diferencia de las IA generativas de uso general que 'sirven para todo'?
Sí, totalmente cierto. Pero no es lo que estamos viendo, sino el intento de crear "la máquina de todo". La idea de que va a existir una tecnología que pueda hacer absolutamente todo para cualquiera, obviamente, es algo que no va a existir. Por tanto, deberíamos dejar de intentar utilizar todos los recursos del mundo para construir una cosa que no va a ocurrir nunca. Y deberíamos, en su lugar, ser eficaces con nuestros recursos para poder construir sistemas de IA especializados, específicos para cada área, para llevar a cabo tareas que son computacionales por naturaleza y donde estos sistemas de computación avanzados tienen sentido. Por ejemplo, existe la ONG Climate Change AI, que es sin ánimo de lucro, que está intentando catalogar todos los problemas para los que la IA puede ayudar con soluciones para mitigar el cambio climático. Todos estos sistemas de IA son modelos especializados. Algunos pueden entrenarse utilizando un ordenador potente, pero no necesitan un superordenador. La predicción climática puede, además, optimizar las cadenas de suministro, el transporte, los requisitos energéticos para los edificios. Estos son objetivos que sabemos que los sistemas de IA pueden llegar a conseguir y acelerar. Entonces, ¿por qué no nos enfocamos en construir ese tipo de sistema?
Es decir, entrenar ese sistema de IA con propósito concreto con los datos necesarios, no cebar un monstruo cibernético con los todo el contenido de internet...
Exactamente. Puedes entrenarlo con unos grupos de datos seleccionados y limpios que tienen el propósito de hacer exactamente lo que se espera que el modelo haga. Si el modelo está diseñado para predecir la estructura proteínica de una secuencia de aminoácidos, entonces solo lo entrenas con datos relevantes para esa finalidad. Y si la IA tiene que detectar cáncer en un escáner, pues solamente lo entrenas para ese propósito. Y esa noción tan extraña de que tenemos que entrenarlo con todo internet... pues realmente no creo que estemos llegando a alguna utilidad avanzada con ese enfoque.
En los argumentos para desarrollar potentes IA generativas siempre destaca la competencia con China, que además es un argumento muy seductor para la Administración de Trump. Es como si EEUU se estuviese preparando para una especie de guerra: hay que ser más grande, más rápido. ¿Qué opinión tiene al respecto? ¿Estamos en una carrera armamentística?
Los investigadores de la IA colaboran a través de las fronteras, entre EEUU y China también. Creo que hay como un 12% de artículos académicos de la IA que son producto de esa colaboración
Hace poco salió una newsletter muy interesante de Kevin Xu, que escribe Interconnected. Era un miembro de la Casa Blanca en la época de Obama y habla sobre geopolítica y la IA. Y dice que la metáfora de la carrera armamentística es totalmente inadecuada, o al menos es poco precisa, porque él describe lo que está pasando como "coopetición", en el que hay un grado de competición pero también de colaboración oportunista. Es una carrera de negocios diferentes que están compitiendo en un mercado, y algunas de esas empresas son americanas, otras son chinas. De este modo, los investigadores de la IA colaboran a través de las fronteras, entre Estados Unidos y China también, para avanzar en sus sistemas de la IA. Creo que hay como un 12% de artículos académicos de la IA que son producto de esa colaboración. Otra parte de la dinámica consiste en que se toman prestadas ideas los unos de los otros a través de las fronteras, aunque no haya una colaboración formal. Por ejemplo, las empresas chinas, al principio tomaban prestadas muchas ideas de Lama, el código abierto de Meta. Y ahora estamos viendo que está pasando exactamente al revés, empresas estadounidenses que toman prestadas ideas de los modelos chinos de código abierto, como DeepSeek. Esa narrativa de carrera armamentística simplemente no es verdad. Lo que ese escenario nos ha mostrado en los últimos diez años es que desde Silicon Valley se afirmaba que si no se regula su industria en EEUU y China la regula, entonces Estados Unidos va a superar a China de largo cuando llegue el momento de avanzar en la IA y esto va a tener un efecto liberador alrededor del mundo. En cambio, ha pasado exactamente lo opuesto. Ahora Silicon Valley está utilizando modelos de código abierto chinos. Y las tecnologías de Silicon Valley están teniendo un efecto antiliberal en el mundo [a causa del oligopolio digital]. Así que ni la narrativa es cierta, ni ha tenido resultados positivos.

Comentarios de nuestros socias/os
¿Quieres comentar?Para ver los comentarios de nuestros socias y socios, primero tienes que iniciar sesión o registrarte.