III
III-VI
...
amenaza.
3. Una aleación para el odio
El uso indebido para hacerse con el poder
En la sección anterior se abordó el riesgo de que individuos y pequeñas organizaciones cooptaran un pequeño subconjunto del «país de los genios en un centro de datos» para causar destrucción a gran escala. Pero también deberíamos preocuparnos, y probablemente mucho más, por el uso indebido de la IA con el fin de ejercer o tomar el poder, probablemente por parte de actores más importantes y mejor establecidos. 28
En Machines of Loving Grace, mencioné la posibilidad de que los gobiernos autoritarios utilicen una IA potente para vigilar o reprimir a sus ciudadanos de una manera que sería extremadamente difícil de reformar o derrocar. Las autocracias actuales tienen una capacidad de represión limitada por la necesidad de que los seres humanos ejecuten sus órdenes, y los seres humanos suelen tener límites en su capacidad para ser inhumanos. Pero las autocracias basadas en la IA no tendrían tales límites.
Peor aún, algunos países también podrían utilizar su ventaja en materia de IA para adquirir poder sobre otros países.
Si el «país de los genios» en su conjunto estuviera simplemente en manos y bajo el control del aparato militar de un solo país (humano) y los demás países no dispusieran de capacidades equivalentes, sería difícil imaginar cómo podrían defenderse: se verían superados en todo momento, como en una guerra entre humanos y ratones. La combinación de estas dos preocupaciones conduce a la alarmante posibilidad de una dictadura totalitaria mundial. Es evidente que una de nuestras principales prioridades debería ser impedir esta posibilidad.
La IA podría permitir, reforzar o ampliar la autocracia de muchas maneras, pero voy a enumerar las que más me preocupan. Hay que tomar en cuenta que algunas de estas aplicaciones tienen usos defensivos legítimos, y no me opongo necesariamente a ellas en absoluto; sin embargo, me preocupa que tiendan a favorecer estructuralmente a las autocracias:
— En primer lugar, las armas totalmente autónomas. Un enjambre de millones o miles de millones de drones armados totalmente automatizados, controlados localmente por una IA poderosa y coordinados estratégicamente en todo el mundo por una IA aún más poderosa, podría constituir un ejército invencible, capaz tanto de derrotar a cualquier ejército del mundo como de reprimir la disidencia dentro de un país mediante el seguimiento de cada ciudadano. La evolución de la guerra entre Rusia y Ucrania debería alertarnos sobre el hecho de que la guerra con drones ya es una realidad (aunque todavía no sea totalmente autónoma y solo represente una pequeña parte de lo que sería posible con una IA poderosa). La investigación y el desarrollo en el campo de la IA potente podrían hacer que los drones de un país fueran muy superiores a los de otros, acelerar su fabricación, hacerlos más resistentes a los ataques electrónicos, mejorar su maniobrabilidad, etc. Por supuesto, estas armas también tienen usos legítimos para la defensa de la democracia: han desempeñado un papel clave en la defensa de Ucrania y probablemente serían esenciales para defender Taiwán. Pero son un arma peligrosa de manejar: debemos preocuparnos por su uso por parte de las autocracias, pero también por el hecho de que son tan poderosas y están tan poco controladas que existe un mayor riesgo de que los gobiernos democráticos las utilicen contra su propia población para hacerse con el poder.
— Vigilancia mediante IA. Una IA lo suficientemente poderosa podría utilizarse para comprometer cualquier sistema informático del mundo 29 y también podría utilizar el acceso así obtenido para leer y comprender todas las comunicaciones electrónicas del mundo (incluso todas las comunicaciones en persona, si se pueden construir o requisar dispositivos de grabación). Es aterrador pensar que bastaría con generar una lista completa de todas las personas que están en desacuerdo con el gobierno en una serie de cuestiones, aunque ese desacuerdo no sea explícito en sus palabras o acciones. Una IA poderosa capaz de analizar miles de millones de conversaciones entre millones de personas podría así evaluar la opinión pública, detectar los focos de deslealtad en formación y eliminarlos antes de que se desarrollen. Esto podría conducir a la imposición de un verdadero panóptico a una escala que hoy en día desconocemos, incluso con el Partido Comunista Chino.
— Propaganda mediante IA. Los fenómenos actuales de «psicosis de la IA» y «novias IA» sugieren que, incluso con su nivel actual de inteligencia, los modelos de IA pueden tener una poderosa influencia psicológica en las personas. Versiones mucho más potentes de estos modelos, mucho más integradas y conscientes de la vida cotidiana de las personas, capaces de modelarlas e influir en ellas durante meses o años, probablemente serían capaces de lavar el cerebro a muchas personas —quizás incluso a la mayoría— para inculcarles cualquier ideología o actitud deseada, y podrían ser utilizadas por un líder sin escrúpulos para asegurarse la lealtad y reprimir la disidencia, incluso frente a un nivel de represión contra el que la mayoría de la población se rebelaría. Hoy en día, a la gente le preocupa mucho, por ejemplo, la posible influencia de TikTok como herramienta de propaganda del PCC dirigida a los niños. A mí también me preocupa, pero un agente de IA personalizado que aprende a conocerte a lo largo de los años y utiliza su conocimiento sobre ti para moldear todas tus opiniones sería considerablemente más poderoso que eso.
— La toma de decisiones estratégicas. Un país de genios en un centro de datos podría utilizarse para asesorar a un país, un grupo o un individuo sobre estrategia geopolítica, una especie de «Bismarck virtual». Podría optimizar las tres estrategias anteriores para hacerse con el poder y, probablemente, desarrollar muchas otras en las que yo no he pensado, pero en las que nuestro «país de genios» sí podría pensar. La diplomacia, la estrategia militar, la I+D, la estrategia económica y muchos otros campos podrían ver aumentada considerablemente su eficacia gracias a una IA potente. Muchas de estas habilidades serían legítimamente útiles para las democracias —queremos que las democracias tengan acceso a las mejores estrategias para defenderse de las autocracias—, pero sigue existiendo el riesgo de abuso en manos de cualquiera.
Después de describir lo que me preocupa, pasemos ahora a quién me preocupa.
Me preocupan las entidades que tienen mayor acceso a la IA, que parten de una posición de máximo poder político o que ya han demostrado su represión en el pasado. Por orden de gravedad, mis principales motivos de preocupación son los siguientes:
— El Partido Comunista Chino. China es el segundo país después de Estados Unidos en términos de capacidad de IA, y es el país con más posibilidades de superar a Estados Unidos en este ámbito. Su gobierno es actualmente autocrático y gestiona un Estado de vigilancia de alta tecnología. Ya ha desplegado una vigilancia basada en la IA, en particular en la represión de los uigures, y es probable que utilice la propaganda algorítmica a través de TikTok, además de sus numerosas otras iniciativas de propaganda internacional. Sin duda, es el país que más se acerca a convertirse en la pesadilla totalitaria basada en la IA que he descrito anteriormente. Este podría ser incluso el resultado por defecto en China, así como en otros Estados autocráticos a los que el PCC exporta su tecnología de vigilancia. He escrito a menudo sobre la amenaza que representa el PCC como líder en el campo de la IA y sobre la necesidad existencial de impedirlo. He aquí el motivo. Para que quede claro, no me refiero a China en particular por animadversión hacia ella: simplemente es el país que mejor combina los avances en IA, un gobierno autocrático y un Estado de vigilancia de alta tecnología. Son los propios chinos los que más probabilidades tienen de sufrir la represión del PCC gracias a la IA, y no tienen voz ni voto en las acciones de su gobierno. Admiro y respeto enormemente al pueblo chino y apoyo a los numerosos y valientes disidentes que luchan por la libertad en China.
— Las democracias competitivas en materia de IA. Como he escrito anteriormente, las democracias tienen un interés legítimo en disponer de ciertas herramientas militares y geopolíticas basadas en la IA, ya que los gobiernos democráticos ofrecen la mejor oportunidad de contrarrestar el uso de estas herramientas por parte de las autocracias. En general, estoy a favor de dotar a las democracias de las herramientas necesarias para derrotar a las autocracias en la era de la IA, porque simplemente creo que no hay otra solución. Pero no podemos ignorar el riesgo de que los propios gobiernos democráticos abusen de estas tecnologías. Las democracias suelen contar con salvaguardias que impiden que sus aparatos militares y de inteligencia se vuelvan contra su propia población, Posse Comitatus." href="https://legrandcontinent.eu/es/2026/01/30/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x/#easy-footnote-bottom-30-89396">30 pero como las herramientas de IA requieren muy poco personal para funcionar, es posible que eludan estas salvaguardias y las normas que las sustentan. También hay que señalar que algunas de estas salvaguardias ya se están erosionando gradualmente en algunas democracias. Por lo tanto, debemos armar a las democracias con IA, pero debemos hacerlo con cautela y dentro de ciertos límites: constituyen el sistema inmunológico que necesitamos para luchar contra las autocracias, pero, al igual que el sistema inmunológico, corren el riesgo de volverse en nuestra contra y convertirse ellas mismas en una amenaza.
— Países no democráticos con grandes centros de datos. Más allá de China, la mayoría de los países con un gobierno menos democrático no son actores destacados en el ámbito de la IA, en el sentido de que no cuentan con empresas que produzcan modelos de IA de vanguardia. Por lo tanto, representan un riesgo fundamentalmente diferente y menor que el PCC, que sigue siendo la principal preocupación; la mayoría también son menos represivos, y los que lo son más, como Corea del Norte, no tienen ninguna industria significativa en el campo de la IA. Sin embargo, algunos de estos países cuentan con grandes centros de datos —a menudo desarrollados por empresas que operan en democracias— que pueden utilizarse para explotar la IA de vanguardia a gran escala, aunque esto no les confiere la capacidad de superar los límites. Esto conlleva un cierto peligro: en teoría, estos gobiernos podrían expropiar los centros de datos y utilizar la IA que contienen para sus propios fines. Me preocupa menos esto que países como China, que desarrollan directamente la IA, pero es un riesgo que hay que tener en cuenta. 31
— Las propias empresas de IA. Aunque resulte un poco delicado decirlo como director ejecutivo de una empresa de IA, creo que el siguiente nivel de riesgo afecta, de hecho, a las propias empresas. Estas controlan grandes centros de datos, crean modelos avanzados, poseen la mayor experiencia en el uso de dichos modelos y, en algunos casos, están en contacto diario con decenas o cientos de millones de usuarios y tienen la capacidad de influir en ellos. Lo que les falta principalmente es la legitimidad y la infraestructura de un Estado, por lo que gran parte de lo que se necesitaría para construir las herramientas de una autocracia de IA sería ilegal para una empresa de IA, o al menos se consideraría extremadamente sospechoso. Pero algunas cosas no son imposibles: podrían, por ejemplo, utilizar sus productos de IA para adoctrinar a su inmensa base de usuarios consumidores, y el público debería permanecer alerta ante el riesgo que esto representa. Creo que la gobernanza de las empresas de IA merece ser examinada de cerca. Hay una serie de argumentos posibles contra la gravedad de estas amenazas, y me gustaría poder creer en ellos, porque el autoritarismo que hace posible la IA me aterroriza. En cualquier caso, vale la pena examinar algunos de estos argumentos y responder a ellos.
En primer lugar, algunas personas podrían confiar en la disuasión nuclear, en particular para contrarrestar el uso de armas autónomas con IA con fines de conquista militar. Si alguien amenaza con utilizar estas armas contra ti, siempre puedes amenazar con responder con un ataque nuclear. Lo que me preocupa es que no estoy del todo seguro de que podamos confiar en la disuasión nuclear contra un país de genios en un centro de datos: es posible que una IA potente pueda diseñar medios para detectar y atacar submarinos nucleares, llevar a cabo operaciones de influencia contra los operadores de infraestructuras de armas nucleares o utilizar las capacidades cibernéticas de la IA para lanzar un ciberataque contra los satélites utilizados para detectar lanzamientos nucleares. mejorar la seguridad de la disuasión nuclear para hacerla más resistente frente a una IA poderosa, y las democracias con armas nucleares deberían hacerlo. Pero no sabemos de qué será capaz una IA poderosa ni qué defensas, si las hay, serán eficaces contra ella, por lo que no debemos dar por sentado que estas medidas resolverán necesariamente el problema." href="https://legrandcontinent.eu/es/2026/01/30/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x/#easy-footnote-bottom-32-89396">32 También es posible que la toma de control de países sea factible únicamente mediante la vigilancia y la propaganda de la IA, sin que haya un momento concreto en el que la situación sea evidente y una respuesta nuclear sea apropiada. Quizás estas cosas no sean factibles y la disuasión nuclear siga siendo eficaz, pero el riesgo parece demasiado alto como para correrlo. 33 Una segunda objeción posible es que podrían existir contramedidas para remediar estos instrumentos de la autocracia. Podemos contrarrestar los drones con nuestros propios drones, la ciberdefensa mejorará al mismo tiempo que los ciberataques, podría haber formas de inmunizar a las personas contra la propaganda, etc. Mi respuesta es que estas defensas solo serán posibles con una IA comparativamente poderosa. Si no existe una fuerza contraria con un país de genios comparativamente inteligentes y numerosos en un centro de datos, no será posible igualar la calidad o la cantidad de los drones, ni hacer que la ciberdefensa sea más inteligente que el ciberataque, etc. Por lo tanto, la cuestión de las contramedidas se reduce puramente a la del equilibrio de poder en el ámbito de la IA potente.
En este sentido, me preocupa la propiedad recursiva o autorreforzada de una IA poderosa que mencioné al principio de este ensayo: cada generación de IA puede utilizarse para diseñar y entrenar a la siguiente generación de IA. Esto conlleva un riesgo aún más incontrolable, en el que el líder en IA poderosa podría aumentar su ventaja y resultar difícil de alcanzar. Debemos asegurarnos de que no sea un país autoritario el que llegue primero a esta etapa.
La mejora automática o recursiva de la IA se refiere al hecho de que los modelos de IA de vanguardia se utilizan en todo el ciclo de desarrollo de la IA para acelerar el desarrollo de nuevas generaciones de modelos. Para generar mejores datos de entrenamiento mediante IA, se utilizan LLM para generar sintéticamente y limpiar sus propios datos de entrenamiento, lo que reduce la dependencia de la anotación humana y mejora los modelos. El modelo chino Kimi-k2, por ejemplo, se basa en un proceso de síntesis de datos de agentes a gran escala, que genera sistemáticamente demostraciones del uso de herramientas a partir de entornos simulados y reales.
La IA se utiliza en la escritura del código que sirve para desarrollar modelos mediante agentes de código. Como indica Dario Amodei, Claude Code se utiliza de forma masiva en el desarrollo de modelos. La IA ayuda a escribir kernels GPU, que son la base del cálculo de la IA moderna para obtener nuevas implementaciones que aceleran el desarrollo de nuevas arquitecturas. Por último, la IA ayuda a diseñar las nuevas generaciones de GPU y centros de datos: disposición de los racks, flujo de aire y refrigeración, etc.
Llevando esta idea al extremo, Sam Altman propone un principio de convergencia según el cual, a medida que la IA optimiza por sí misma los datos, el código, los kernels, el hardware y la infraestructura que la hacen funcionar, su costo marginal a largo plazo tendería a acercarse al costo de la energía.
Además, aunque se pueda alcanzar un equilibrio de poder, siempre existe el riesgo de que el mundo se divida en esferas autocráticas, como en la novela 1984. Aunque varias potencias rivales dispongan cada una de sus propios modelos de IA potentes y ninguna pueda dominar a las demás, cada potencia podría seguir reprimiendo a su propia población internamente y sería muy difícil derrocarla, ya que las poblaciones no disponen de una IA potente para defenderse. Por lo tanto, es importante impedir la autocracia que hace posible la IA, aunque no conduzca al dominio mundial de un solo país.
Nuestros medios de defensa
¿Cómo defendernos de esta amplia gama de instrumentos autocráticos y actores potencialmente amenazantes?
Al igual que en las secciones anteriores, creo que podemos tomar varias medidas. En primer lugar, no debemos vender chips, herramientas de fabricación de chips ni centros de datos al PCC. Los chips y las herramientas de fabricación de chips son el principal obstáculo para una IA poderosa, y bloquearlos es una medida sencilla pero extremadamente eficaz, quizás la más importante que podemos tomar. Es absurdo vender al PCC las herramientas que le permitirán construir un Estado totalitario basado en la IA y, eventualmente, conquistarnos militarmente. Se esgrimen una serie de argumentos complejos para justificar estas ventas, como la idea de que «difundir nuestra tecnología por todo el mundo» permite a «Estados Unidos ganar» una batalla económica general y no especificada. En mi opinión, esto equivale a vender armas nucleares a Corea del Norte y luego presumir de que los cascos de los misiles están fabricados por Boeing y que, por lo tanto, Estados Unidos es «ganador». China lleva varios años de retraso con respecto a Estados Unidos en cuanto a la capacidad de producir chips de última generación en grandes cantidades, y el periodo crítico para convertir al país de los genios en un centro de datos se situará muy probablemente en los próximos años. 34No hay ninguna razón para dar un impulso gigantesco a su industria de la IA durante este periodo crítico.
La administración de Biden había establecido estrictos controles a la exportación de semiconductores diseñados en Estados Unidos, lo que también limitaba el acceso de los países del Golfo a los chips avanzados en el marco de la regulación sobre la «difusión de la IA». La administración de Trump revirtió esta política con respecto al Golfo, permitiendo a los Emiratos Árabes Unidos y Arabia Saudita importar masivamente chips de IA avanzados, con el objetivo de fortalecer las alianzas regionales y alejar a China de esta zona estratégica.
En segundo lugar, es lógico utilizar la IA para dotar a las democracias de los medios necesarios para resistir a las autocracias. Por ello, Anthropic considera importante proporcionar IA a las comunidades de inteligencia y defensa de Estados Unidos y sus aliados democráticos. La defensa de las democracias que están siendo atacadas, como Ucrania y —a través de ciberataques— Taiwán, parece ser una prioridad especial, al igual que dotar a las democracias de los medios necesarios para utilizar sus servicios de inteligencia con el fin de perturbar y debilitar las autocracias desde dentro. La única forma de responder a las amenazas autocráticas es igualarlas y superarlas militarmente. Una coalición entre Estados Unidos y sus aliados democráticos, si lograra dominar el campo de la IA poderosa, no solo sería capaz de defenderse de las autocracias, sino también de contenerlas y limitar sus abusos totalitarios en materia de IA.
En tercer lugar, debemos adoptar una línea dura contra los abusos de la IA en las democracias. Debemos limitar lo que permitimos que nuestros gobiernos hagan con la IA para que no se apropien del poder ni repriman a su propia población. La formulación que he encontrado es que deberíamos utilizar la IA para la defensa nacional de todas las formas posibles, excepto aquellas que nos acerquen a nuestros adversarios autócratas.
¿Dónde debemos trazar la línea?
En la lista que figura al principio de esta sección, hay dos elementos —el uso de la IA para la vigilancia masiva y la propaganda masiva a nivel nacional— que me parecen líneas rojas evidentes y totalmente ilegítimas. Algunos podrían argumentar que no es necesario hacer nada (al menos en Estados Unidos), ya que la vigilancia masiva a nivel nacional ya es ilegal en virtud de la Cuarta Enmienda. Pero los rápidos avances de la IA podrían crear situaciones a las que nuestros marcos jurídicos actuales no están bien adaptados. Por ejemplo, probablemente no sería inconstitucional que el gobierno de Estados Unidos grabara a gran escala todas las conversaciones públicas, por ejemplo, lo que la gente se dice en una esquina, pero antes habría sido difícil clasificar ese volumen de información. Sin embargo, gracias a la IA, todo podría transcribirse, interpretarse y triangularse para crear una imagen de la actitud y las lealtades de una gran parte o de la mayoría de los ciudadanos. Yo apoyaría una legislación centrada en las libertades civiles —incluso una enmienda constitucional— que impusiera salvaguardias más sólidas contra los abusos relacionados con la IA.
Los otros dos puntos —las armas totalmente autónomas y la IA para la toma de decisiones estratégicas— son más difíciles de decidir, ya que tienen usos legítimos para defender la democracia, pero también son susceptibles de ser objeto de abusos. Creo que en este caso es necesario actuar con extrema cautela y realizar un examen minucioso, junto con la imposición de salvaguardias para prevenir los abusos. Mi principal temor es que el número de personas con «el dedo en el botón» sea demasiado reducido, de modo que una sola persona o unas pocas puedan controlar esencialmente un ejército de drones sin necesidad de la cooperación de otros seres humanos para ejecutar sus órdenes. A medida que los sistemas de IA se vuelven más potentes, es posible que tengamos que establecer mecanismos de control más directos e inmediatos para garantizar que no se utilicen indebidamente, lo que podría implicar a otras ramas del gobierno además del ejecutivo. Creo que debemos abordar las armas totalmente autónomas con mucha precaución 35 y no precipitarnos a utilizarlas sin las garantías adecuadas.
En cuarto lugar, tras adoptar una postura firme contra los abusos de la IA en las democracias, debemos aprovechar este precedente para crear un tabú internacional contra los peores abusos de una IA poderosa. Reconozco que la corriente política actual es contraria a la cooperación internacional y a las normas internacionales, pero se trata de un ámbito en el que las necesitamos urgentemente. El mundo debe comprender el oscuro potencial de una IA poderosa en manos de autócratas y reconocer que algunos usos de la IA equivalen a un intento de robarles definitivamente su libertad e imponer un Estado totalitario del que no pueden escapar. Me atrevería incluso a decir que, en algunos casos, la vigilancia a gran escala mediante una IA poderosa, la propaganda masiva mediante una IA poderosa y ciertos tipos de usos ofensivos de armas totalmente autónomas deberían considerarse crímenes contra la humanidad. En términos más generales, es necesaria una norma sólida contra el totalitarismo que hace posible la IA y todas sus herramientas e instrumentos.
Es posible adoptar una postura aún más firme, a saber, que, dadas las posibilidades tan sombrías que ofrece el totalitarismo basado en la IA, la autocracia simplemente no es una forma de gobierno que la gente pueda aceptar en la era de la IA poderosa. Al igual que el feudalismo se volvió inviable con la revolución industrial, la era de la IA podría conducir inevitable y lógicamente a la conclusión de que la democracia —y, esperemos, una democracia mejorada y revitalizada por la IA, como explico en Machines of Loving Grace— es, de hecho, la única forma de gobierno viable si la humanidad quiere tener un futuro prometedor.
En quinto y último lugar, las empresas de IA deben ser objeto de una estrecha vigilancia, al igual que sus vínculos con el gobierno, que son necesarios, pero deben tener límites y fronteras. El poder de las capacidades que encarna una IA poderosa es tal que la gobernanza empresarial ordinaria, diseñada para proteger a los accionistas y prevenir abusos comunes como el fraude, es poco probable que esté a la altura de la tarea de regular las empresas de IA. También podría ser útil que las empresas se comprometieran públicamente, tal vez incluso en el marco de la gobernanza corporativa, a no tomar determinadas medidas, como la construcción o el almacenamiento privado de material militar, el uso irresponsable de grandes cantidades de recursos informáticos por parte de individuos, o el uso de sus productos de IA como propaganda para manipular la opinión pública a su favor.
El peligro proviene aquí de muchas direcciones, algunas de las cuales están en tensión con otras. La única constante es que debemos buscar tanto la responsabilidad como las normas y salvaguardias para todos, incluso si damos a los «buenos» actores los medios para controlar a los «malos».
4. El piano mecánico
La perturbación económica
Las tres secciones anteriores trataban principalmente los riesgos de seguridad que plantea una IA poderosa: los riesgos relacionados con la propia IA, los riesgos relacionados con el uso indebido por parte de individuos y pequeñas organizaciones, y los riesgos relacionados con el uso indebido por parte de Estados y grandes organizaciones. Si dejamos de lado los riesgos de seguridad o suponemos que se han resuelto, la siguiente cuestión es de orden económico. ¿Cuál será el efecto de esta increíble aportación de capital «humano» en la economía? Está claro que el efecto más evidente será un fuerte aumento del crecimiento económico. El ritmo de los avances en la investigación científica, la innovación biomédica, la fabricación, las cadenas de suministro, la eficiencia del sistema financiero y muchos otros ámbitos conduciría casi con toda seguridad a un crecimiento económico mucho más rápido. En Machines of Loving Grace, sugiero que podría ser posible una tasa de crecimiento anual sostenida del PIB del 10 al 20 %.
Pero hay que entender que se trata de un arma de doble filo: ¿cuáles son las perspectivas económicas para la mayoría de los seres humanos que existen en un mundo así? Las nuevas tecnologías suelen provocar perturbaciones en el mercado laboral y, en el pasado, los seres humanos siempre se han recuperado, pero me temo que esto se debe a que esas perturbaciones anteriores solo afectaron a una pequeña parte del conjunto de capacidades humanas, lo que permitió a los seres humanos dedicarse a nuevas tareas. La IA tendrá efectos mucho más amplios y rápidos, por lo que me temo que será mucho más difícil garantizar que todo salga bien.
Perturbación del mercado laboral
Hay dos problemas concretos que me preocupan: el desplazamiento del mercado laboral y la concentración del poder económico. Empecemos por el primero. Es un tema sobre el que advertí muy públicamente en 2025, cuando predije que la IA podría sustituir la mitad de todos los empleos de cuello blanco para principiantes en los próximos 1 a 5 años, incluso si acelera el crecimiento económico y el progreso científico. Esta advertencia desencadenó un debate público sobre el tema. Muchos directores generales, tecnólogos y economistas estuvieron de acuerdo conmigo, pero otros asumieron que era víctima de una falacia sobre la «masa de trabajo» y que no entendía cómo funciona el mercado laboral. Algunos no entendieron el plazo de 1 a 5 años y pensaron que yo afirmaba que la IA estaba eliminando puestos de trabajo en este momento (lo cual, reconozco, probablemente no sea el caso). Por lo tanto, conviene explicar en detalle por qué me preocupa la sustitución de la mano de obra, a fin de disipar estos malentendidos.
Hay una serie de datos que permiten destacar varios puntos. Un estudio del índice económico de Anthropic mostraba a principios de 2025 que solo alrededor del 4 % de las profesiones utilizaban la IA para al menos el 75 % de sus tareas. En 2025, la integración de la IA sigue estando principalmente verticalizada por tarea, en lugar de ser una transformación global del puesto de trabajo. Un estudio de Stanford de septiembre basado en datos de ADP, líder estadounidense en servicios de pago, muestra que los trabajadores que se encuentran al inicio de su carrera (de 22 a 25 años) y que ocupan puestos de trabajo expuestos a la IA han experimentado una disminución relativa del empleo del 16 %, mientras que el empleo de los trabajadores con más experiencia se ha mantenido estable. Un estudio de Harvard también concluye que el empleo de los jóvenes disminuye en las empresas que adoptan la IA en comparación con las que no lo hacen, mientras que el empleo de los mayores se mantiene prácticamente sin cambios en 2025. La disminución de los jóvenes se concentra en las profesiones más expuestas a la IA generativa y se explica por una ralentización de las contrataciones.
Para empezar, es útil comprender cómo reaccionan normalmente los mercados laborales ante los avances tecnológicos. Cuando aparece una nueva tecnología, lo primero que hace es aumentar la eficiencia de ciertas tareas humanas. Por ejemplo, al comienzo de la Revolución Industrial, máquinas como los arados mejorados permitieron a los agricultores ser más eficientes en ciertos aspectos de su trabajo. Esto mejoró la productividad de los agricultores, lo que aumentó sus salarios.
En una segunda fase, algunas tareas agrícolas pudieron realizarse íntegramente con máquinas, por ejemplo, gracias a la invención de la trilladora o la sembradora. En esta etapa, los humanos realizaban una parte cada vez menor del trabajo, pero el que realizaban se valoraba cada vez más, ya que complementaba el trabajo de las máquinas, y su productividad siguió aumentando. Tal y como describe la paradoja de Jevons, los salarios de los agricultores, y quizás incluso su número, siguieron aumentando. Incluso cuando el 90 % del trabajo lo realizan máquinas, los humanos pueden simplemente hacer 10 veces más con el 10 % que siguen haciendo, produciendo así 10 veces más por la misma cantidad de trabajo.
Finalmente, las máquinas hacen todo o casi todo, como es el caso de las cosechadoras, los tractores y otros equipos modernos. En este punto, la agricultura como forma de empleo humano está en rápido declive, lo que puede provocar graves perturbaciones a corto plazo, pero como la agricultura es solo una de las muchas actividades útiles que los humanos son capaces de realizar, la gente acaba dedicándose a otros trabajos, como el manejo de máquinas en fábricas. Esto sigue siendo cierto incluso si la agricultura representaba anteriormente una parte importante del empleo. Hace 250 años, el 90 % de los estadounidenses vivía en granjas; en Europa, entre el 50 % y el 60 % de los empleos eran agrícolas. Hoy en día, estos porcentajes son inferiores al 10 % en esas regiones, ya que los trabajadores se han orientado hacia empleos industriales (y luego a empleos intelectuales). La economía puede lograr lo que antes requería la mayor parte de la mano de obra con solo el 1-2 % de esta, liberando así al resto de la mano de obra para construir una sociedad industrial cada vez más avanzada. No existe una «masa de trabajo» fija, sino solo una capacidad cada vez mayor de hacer más con menos. Los salarios de las personas aumentan a la par que el crecimiento exponencial del PIB y la economía mantiene el pleno empleo una vez que desaparecen las perturbaciones a corto plazo.
Es posible que con la IA ocurra más o menos lo mismo, pero yo apostaría más bien por lo contrario. He aquí algunas razones por las que creo que la IA probablemente será diferente:
— La velocidad. El ritmo de los avances en IA es mucho más rápido que en revoluciones tecnológicas anteriores. Por ejemplo, en los últimos dos años, los modelos de IA han pasado de tener una capacidad apenas suficiente para escribir una sola línea de código a ser capaces de escribir todo o casi todo el código para algunas personas, incluidos los ingenieros de Anthropic. 36 Pronto podrían ser capaces de realizar todas las tareas de un ingeniero de software, de principio a fin. 37 A las personas les cuesta adaptarse a este ritmo de cambio, tanto en lo que respecta a los cambios en el funcionamiento de un puesto de trabajo concreto como a la necesidad de cambiar de empleo. Incluso los programadores legendarios se describen cada vez más a sí mismos como «rezagados». El ritmo podría incluso seguir acelerándose, ya que los modelos de codificación de IA aceleran cada vez más el desarrollo de la IA. Para ser claros, la velocidad en sí misma no significa que los mercados laborales y el empleo no se recuperarán finalmente, sino simplemente que la transición a corto plazo será especialmente dolorosa en comparación con las tecnologías anteriores, ya que los seres humanos y los mercados laborales son lentos para reaccionar y equilibrarse.
— Amplitud cognitiva. Como sugiere la expresión «país de genios en un centro de datos», la IA será capaz de ejercer una amplia gama de capacidades cognitivas humanas, si no todas. Esto difiere considerablemente de tecnologías anteriores como la agricultura mecanizada, el transporte o incluso las computadoras. 38 Por lo tanto, será más difícil para las personas pasar fácilmente de un empleo suprimido a otro similar que les convenga. Por ejemplo, las capacidades intelectuales generales requeridas para los empleos de principiantes en campos como las finanzas, la consultoría y el derecho son bastante similares, aunque los conocimientos específicos sean muy diferentes. Una tecnología que solo afectara a uno de estos tres ámbitos permitiría a los empleados reconvertirse en los otros dos ámbitos afines (o a los estudiantes cambiar de carrera). Pero afectar a los tres ámbitos a la vez (así como a muchos otros empleos similares) podría dificultar la adaptación de las personas afectadas. Además, no solo se verán afectados la mayoría de los empleos existentes. Esto ya ha ocurrido en el pasado: recordemos que la agricultura representaba antiguamente un porcentaje importante del empleo. Pero los agricultores podían reconvertirse en un trabajo relativamente similar, a saber, el uso de maquinaria industrial, aunque este trabajo no fuera habitual anteriormente. Por el contrario, la IA se acerca cada vez más al perfil cognitivo general de los seres humanos, lo que significa que también será eficaz en los nuevos empleos que normalmente se crearían en respuesta a la automatización de los antiguos. En otras palabras, la IA no es un sustituto de empleos humanos específicos, sino más bien un sustituto general de la mano de obra humana.
— Distribución por capacidad cognitiva. En una amplia gama de tareas, la IA parece progresar de abajo hacia arriba en la escala de capacidades. Por ejemplo, en materia de codificación, nuestros modelos han pasado del nivel «codificador mediocre» a «codificador competente» y, posteriormente, a «codificador muy competente». 39 Ahora estamos empezando a observar la misma progresión en el trabajo de oficina en general. Por lo tanto, corremos el riesgo de encontrarnos en una situación en la que, en lugar de asignar a personas con habilidades específicas o que ejercen profesiones específicas (que pueden adaptarse mediante el reciclaje profesional), la IA asigne a personas con ciertas propiedades cognitivas intrínsecas, es decir, capacidades intelectuales inferiores (que son más difíciles de cambiar). No está claro adónde irán estas personas ni qué harán, y me temo que formarán una «subclase» de desempleados o trabajadores con salarios muy bajos. Para ser claros, situaciones similares ya se han producido en el pasado. Por ejemplo, algunos economistas consideran que las computadoras e internet representan un «cambio tecnológico que favorece las habilidades». Pero este sesgo a favor de las habilidades no era tan extremo como lo que preveo con la IA, y habría contribuido a aumentar las desigualdades salariales, debate entre los economistas." href="https://legrandcontinent.eu/es/2026/01/30/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x/#easy-footnote-bottom-40-89396">40 por lo que no es precisamente un precedente tranquilizador.
— Capacidad para llenar vacíos. Los empleos humanos a menudo se adaptan a las nuevas tecnologías de tal manera que el trabajo tiene muchos aspectos y la nueva tecnología, aunque parezca sustituir directamente a los humanos, a menudo tiene vacíos. Si alguien inventa una máquina para fabricar gadgets, es posible que los humanos sigan teniendo que cargar las materias primas en la máquina. Aunque esto solo requiera el 1 % del esfuerzo necesario para fabricar los gadgets a mano, los trabajadores humanos pueden fabricar 100 veces más gadgets. Pero la IA, además de ser una tecnología en rápida evolución, también es una tecnología que se adapta rápidamente. Cada vez que se lanza un nuevo modelo, las empresas de IA evalúan cuidadosamente sus puntos fuertes y débiles, y los clientes también proporcionan esta información después del lanzamiento. Las debilidades pueden corregirse recopilando las tareas que ilustran las deficiencias actuales e integrándolas en el entrenamiento del siguiente modelo. En los inicios de la IA generativa, los usuarios observaron que los sistemas de IA presentaban ciertas deficiencias (por ejemplo, los modelos de imágenes de IA generaban manos con un número incorrecto de dedos) y muchos asumieron que estas deficiencias eran inherentes a la tecnología. Si fuera así, esto limitaría la disrupción del empleo. Sin embargo, la mayoría de estas deficiencias se corrigen rápidamente, a menudo en solo unos meses.
La mayoría de los benchmarks de IA alcanzan un techo de rendimiento en pocos años, o incluso en pocos meses, tras su introducción. Este patrón recurrente sugiere que muchas de las «limitaciones» percibidas de los sistemas de IA no son en realidad barreras intrínsecas, sino objetivos temporales, rápidamente saturados, relacionados con lo que elegimos medir en un momento dado. En el ámbito de las matemáticas, por ejemplo, la sucesión de pruebas de rendimiento ilustra bien el desplazamiento de los objetivos a medida que se van saturando. GSM8K medía principalmente la capacidad de encadenar correctamente operaciones aritméticas de nivel escolar; con el aumento de la escala y el uso del razonamiento paso a paso, se saturó rápidamente. AIME desplazó el objetivo hacia problemas de concursos, más cortos pero que requieren intuiciones algebraicas y combinatorias, donde el progreso es más lento e irregular. Otros benchmarks más recientes, como FrontierMath, evalúan la capacidad de mantener un razonamiento matemático coherente en problemas largos y poco estandarizados, y hoy en día siguen sin estar saturados. En cada etapa, el «límite» observado corresponde menos a una barrera fundamental que al nivel de exigencia del objetivo elegido. Tan pronto como una debilidad se formaliza claramente mediante un benchmark y este adquiere relevancia económica, suele atraer esfuerzos específicos de recopilación de datos, entrenamiento y optimización, y la diferencia de rendimiento se reduce rápidamente. Este es el caso, por ejemplo, de GDPEval, que mide la capacidad de los modelos para realizar tareas de trabajo reales de alto valor económico, y GPT5.2.
Es necesario abordar los puntos comunes de escepticismo. En primer lugar, algunos afirman que la difusión económica será lenta, de modo que, aunque la tecnología subyacente sea capaz de realizar la mayoría de las tareas humanas, su aplicación real en el conjunto de la economía podría ser mucho más lenta (por ejemplo, en sectores alejados de la industria de la IA y lentos en adoptarla). La lentitud de la difusión de la tecnología es muy real: hablo con personas de una gran variedad de empresas y hay ámbitos en los que la adopción de la IA llevará años. Por eso preveo que el 50 % de los empleos de cuello blanco para principiantes se verán afectados en un plazo de 1 a 5 años, aunque creo que dispondremos de una IA poderosa (que, desde el punto de vista tecnológico, sería suficiente para realizar la mayoría o la totalidad de las tareas, y no solo las de nivel principiante) en mucho menos de 5 años. Pero los efectos de difusión solo nos hacen ganar tiempo. Y no estoy convencido de que vayan a ser tan lentos como la gente predice. La adopción de la IA por parte de las empresas avanza a un ritmo mucho más rápido que cualquier tecnología anterior, en gran parte gracias al poderío de la propia tecnología. Además, aunque las empresas tradicionales sean lentas en adoptar las nuevas tecnologías, surgirán nuevas empresas que servirán de «enlace» y facilitarán la adopción. Si esto no funciona, las nuevas empresas podrían simplemente perturbar directamente a las empresas ya establecidas.
Esto podría conducir a un mundo en el que no se perturbaran tanto puestos de trabajo específicos, sino más bien las grandes empresas en general, que serían sustituidas por empresas emergentes mucho menos intensivas en mano de obra. También podría conducir a un mundo de «desigualdades geográficas», en el que una parte cada vez mayor de la riqueza mundial se concentraría en Silicon Valley, que se convertiría en una economía independiente que funcionaría a un ritmo diferente al del resto del mundo y lo dejaría atrás. Todos estos resultados serían excelentes para el crecimiento económico, pero no tanto para el mercado laboral o para aquellos que se quedan atrás.
En segundo lugar, algunos afirman que los empleos humanos se desplazarán al mundo físico, lo que evitaría toda la categoría del «trabajo cognitivo», donde la IA avanza tan rápidamente. Tampoco estoy seguro de que esto sea muy seguro. Gran parte del trabajo físico ya lo realizan máquinas (por ejemplo, en el sector manufacturero) o lo harán pronto (por ejemplo, la conducción de automóviles). Además, una IA lo suficientemente potente será capaz de acelerar el desarrollo de robots y, a continuación, controlar esos robots en el mundo físico. Quizás esto permita ganar algo de tiempo (lo cual es positivo), pero me temo que no será suficiente. E incluso si la disrupción se limitara a las tareas cognitivas, seguiría siendo de una magnitud y una rapidez sin precedentes.
En tercer lugar, es posible que algunas tareas requieran intrínsecamente un toque humano o se beneficien enormemente de él. No estoy tan seguro de esto, pero sigo siendo escéptico en cuanto a que sea suficiente para compensar la mayor parte de los impactos que he descrito anteriormente. La IA ya se utiliza ampliamente en el servicio al cliente. Muchas personas afirman que les resulta más fácil hablar de sus problemas personales con una IA que con un terapeuta, ya que la IA es más paciente. Cuando mi hermana tuvo problemas médicos durante su embarazo, sintió que no obtenía las respuestas o el apoyo que necesitaba de sus proveedores de atención médica, y descubrió que Claude tenía un mejor contacto con los pacientes (y diagnosticaba mejor el problema). Estoy seguro de que hay ciertas tareas en las que el contacto humano es realmente importante, pero no sé cuántas. Y aquí estamos hablando de encontrar trabajo para casi todo el mundo en el mercado laboral.
En cuarto lugar, algunos dirán que la ventaja comparativa seguirá protegiendo a los humanos. Según la ley de la ventaja comparativa, aunque la IA sea mejor que los humanos en todos los ámbitos, cualquier diferencia relativa entre las habilidades humanas y las de la IA crea una base para el intercambio y la especialización entre los humanos y la IA. El problema es que si la IA es literalmente miles de veces más productiva que los humanos, esta lógica comienza a desmoronarse. Incluso unos costos de transacción mínimos podrían hacer que el comercio con los humanos resultara poco interesante para la IA. Y los salarios humanos podrían ser muy bajos, aunque técnicamente los humanos tengan algo que ofrecer.
Es posible que todos estos factores puedan tenerse en cuenta, que el mercado laboral sea lo suficientemente resistente como para adaptarse a una perturbación tan enorme. Pero aunque pueda acabar adaptándose, los factores anteriores sugieren que el impacto a corto plazo será de una magnitud sin precedentes.
Nuestros medios de defensa
¿Qué podemos ...
III-VI > IV-VI





Aunque un responsable del equipo Qwen ha expresado recientemente que la potencia de cálculo sigue siendo un problema importante para el desarrollo de la IA china, China está recuperando terreno en todas las capas de la IA. En cuanto a las aplicaciones, a finales de 2025, el fondo de inversión a16z estima que hay un 80 % de probabilidades de que una start-up de IA construya con modelos de IA de código abierto chinos como DeepSeek, Qwen (Alibaba) o Kimi (Moonshot AI). En cuanto a los modelos, la diferencia entre los modelos abiertos chinos y los modelos cerrados estadounidenses varía entre seis y ocho meses; entre los modelos de código abierto, los modelos chinos dominarán en 2025. Airbnb admite así preferir Qwen a ChatGPT. En cuanto a la infraestructura y el hardware, China está invirtiendo masivamente en el desarrollo de sus propias cadenas de valor en semiconductores. Se prevé que la proporción de chips extranjeros en los servidores de IA chinos caiga del 63 % a alrededor del 42 % para 2025, a medida que los proveedores nacionales sustituyan progresivamente las importaciones de Nvidia.