V
V-VI
...
país.
Nuestros medios de defensa
¿Cómo defendernos de esta amplia gama de instrumentos autocráticos y actores potencialmente amenazantes?
Al igual que en las secciones anteriores, creo que podemos tomar varias medidas. En primer lugar, no debemos vender chips, herramientas de fabricación de chips ni centros de datos al PCC. Los chips y las herramientas de fabricación de chips son el principal obstáculo para una IA poderosa, y bloquearlos es una medida sencilla pero extremadamente eficaz, quizás la más importante que podemos tomar. Es absurdo vender al PCC las herramientas que le permitirán construir un Estado totalitario basado en la IA y, eventualmente, conquistarnos militarmente. Se esgrimen una serie de argumentos complejos para justificar estas ventas, como la idea de que «difundir nuestra tecnología por todo el mundo» permite a «Estados Unidos ganar» una batalla económica general y no especificada. En mi opinión, esto equivale a vender armas nucleares a Corea del Norte y luego presumir de que los cascos de los misiles están fabricados por Boeing y que, por lo tanto, Estados Unidos es «ganador». China lleva varios años de retraso con respecto a Estados Unidos en cuanto a la capacidad de producir chips de última generación en grandes cantidades, y el periodo crítico para convertir al país de los genios en un centro de datos se situará muy probablemente en los próximos años. 34No hay ninguna razón para dar un impulso gigantesco a su industria de la IA durante este periodo crítico.
En segundo lugar, es lógico utilizar la IA para dotar a las democracias de los medios necesarios para resistir a las autocracias. Por ello, Anthropic considera importante proporcionar IA a las comunidades de inteligencia y defensa de Estados Unidos y sus aliados democráticos. La defensa de las democracias que están siendo atacadas, como Ucrania y —a través de ciberataques— Taiwán, parece ser una prioridad especial, al igual que dotar a las democracias de los medios necesarios para utilizar sus servicios de inteligencia con el fin de perturbar y debilitar las autocracias desde dentro. La única forma de responder a las amenazas autocráticas es igualarlas y superarlas militarmente. Una coalición entre Estados Unidos y sus aliados democráticos, si lograra dominar el campo de la IA poderosa, no solo sería capaz de defenderse de las autocracias, sino también de contenerlas y limitar sus abusos totalitarios en materia de IA.
En tercer lugar, debemos adoptar una línea dura contra los abusos de la IA en las democracias. Debemos limitar lo que permitimos que nuestros gobiernos hagan con la IA para que no se apropien del poder ni repriman a su propia población. La formulación que he encontrado es que deberíamos utilizar la IA para la defensa nacional de todas las formas posibles, excepto aquellas que nos acerquen a nuestros adversarios autócratas.
¿Dónde debemos trazar la línea?
En la lista que figura al principio de esta sección, hay dos elementos —el uso de la IA para la vigilancia masiva y la propaganda masiva a nivel nacional— que me parecen líneas rojas evidentes y totalmente ilegítimas. Algunos podrían argumentar que no es necesario hacer nada (al menos en Estados Unidos), ya que la vigilancia masiva a nivel nacional ya es ilegal en virtud de la Cuarta Enmienda. Pero los rápidos avances de la IA podrían crear situaciones a las que nuestros marcos jurídicos actuales no están bien adaptados. Por ejemplo, probablemente no sería inconstitucional que el gobierno de Estados Unidos grabara a gran escala todas las conversaciones públicas, por ejemplo, lo que la gente se dice en una esquina, pero antes habría sido difícil clasificar ese volumen de información. Sin embargo, gracias a la IA, todo podría transcribirse, interpretarse y triangularse para crear una imagen de la actitud y las lealtades de una gran parte o de la mayoría de los ciudadanos. Yo apoyaría una legislación centrada en las libertades civiles —incluso una enmienda constitucional— que impusiera salvaguardias más sólidas contra los abusos relacionados con la IA.
Los otros dos puntos —las armas totalmente autónomas y la IA para la toma de decisiones estratégicas— son más difíciles de decidir, ya que tienen usos legítimos para defender la democracia, pero también son susceptibles de ser objeto de abusos. Creo que en este caso es necesario actuar con extrema cautela y realizar un examen minucioso, junto con la imposición de salvaguardias para prevenir los abusos. Mi principal temor es que el número de personas con «el dedo en el botón» sea demasiado reducido, de modo que una sola persona o unas pocas puedan controlar esencialmente un ejército de drones sin necesidad de la cooperación de otros seres humanos para ejecutar sus órdenes. A medida que los sistemas de IA se vuelven más potentes, es posible que tengamos que establecer mecanismos de control más directos e inmediatos para garantizar que no se utilicen indebidamente, lo que podría implicar a otras ramas del gobierno además del ejecutivo. Creo que debemos abordar las armas totalmente autónomas con mucha precaución 35 y no precipitarnos a utilizarlas sin las garantías adecuadas.
En cuarto lugar, tras adoptar una postura firme contra los abusos de la IA en las democracias, debemos aprovechar este precedente para crear un tabú internacional contra los peores abusos de una IA poderosa. Reconozco que la corriente política actual es contraria a la cooperación internacional y a las normas internacionales, pero se trata de un ámbito en el que las necesitamos urgentemente. El mundo debe comprender el oscuro potencial de una IA poderosa en manos de autócratas y reconocer que algunos usos de la IA equivalen a un intento de robarles definitivamente su libertad e imponer un Estado totalitario del que no pueden escapar. Me atrevería incluso a decir que, en algunos casos, la vigilancia a gran escala mediante una IA poderosa, la propaganda masiva mediante una IA poderosa y ciertos tipos de usos ofensivos de armas totalmente autónomas deberían considerarse crímenes contra la humanidad. En términos más generales, es necesaria una norma sólida contra el totalitarismo que hace posible la IA y todas sus herramientas e instrumentos.
Es posible adoptar una postura aún más firme, a saber, que, dadas las posibilidades tan sombrías que ofrece el totalitarismo basado en la IA, la autocracia simplemente no es una forma de gobierno que la gente pueda aceptar en la era de la IA poderosa. Al igual que el feudalismo se volvió inviable con la revolución industrial, la era de la IA podría conducir inevitable y lógicamente a la conclusión de que la democracia —y, esperemos, una democracia mejorada y revitalizada por la IA, como explico en Machines of Loving Grace— es, de hecho, la única forma de gobierno viable si la humanidad quiere tener un futuro prometedor.
En quinto y último lugar, las empresas de IA deben ser objeto de una estrecha vigilancia, al igual que sus vínculos con el gobierno, que son necesarios, pero deben tener límites y fronteras. El poder de las capacidades que encarna una IA poderosa es tal que la gobernanza empresarial ordinaria, diseñada para proteger a los accionistas y prevenir abusos comunes como el fraude, es poco probable que esté a la altura de la tarea de regular las empresas de IA. También podría ser útil que las empresas se comprometieran públicamente, tal vez incluso en el marco de la gobernanza corporativa, a no tomar determinadas medidas, como la construcción o el almacenamiento privado de material militar, el uso irresponsable de grandes cantidades de recursos informáticos por parte de individuos, o el uso de sus productos de IA como propaganda para manipular la opinión pública a su favor.
El peligro proviene aquí de muchas direcciones, algunas de las cuales están en tensión con otras. La única constante es que debemos buscar tanto la responsabilidad como las normas y salvaguardias para todos, incluso si damos a los «buenos» actores los medios para controlar a los «malos».
4. El piano mecánico
La perturbación económica
Las tres secciones anteriores trataban principalmente los riesgos de seguridad que plantea una IA poderosa: los riesgos relacionados con la propia IA, los riesgos relacionados con el uso indebido por parte de individuos y pequeñas organizaciones, y los riesgos relacionados con el uso indebido por parte de Estados y grandes organizaciones. Si dejamos de lado los riesgos de seguridad o suponemos que se han resuelto, la siguiente cuestión es de orden económico. ¿Cuál será el efecto de esta increíble aportación de capital «humano» en la economía? Está claro que el efecto más evidente será un fuerte aumento del crecimiento económico. El ritmo de los avances en la investigación científica, la innovación biomédica, la fabricación, las cadenas de suministro, la eficiencia del sistema financiero y muchos otros ámbitos conduciría casi con toda seguridad a un crecimiento económico mucho más rápido. En Machines of Loving Grace, sugiero que podría ser posible una tasa de crecimiento anual sostenida del PIB del 10 al 20 %.
Pero hay que entender que se trata de un arma de doble filo: ¿cuáles son las perspectivas económicas para la mayoría de los seres humanos que existen en un mundo así? Las nuevas tecnologías suelen provocar perturbaciones en el mercado laboral y, en el pasado, los seres humanos siempre se han recuperado, pero me temo que esto se debe a que esas perturbaciones anteriores solo afectaron a una pequeña parte del conjunto de capacidades humanas, lo que permitió a los seres humanos dedicarse a nuevas tareas. La IA tendrá efectos mucho más amplios y rápidos, por lo que me temo que será mucho más difícil garantizar que todo salga bien.
Perturbación del mercado laboral
Hay dos problemas concretos que me preocupan: el desplazamiento del mercado laboral y la concentración del poder económico. Empecemos por el primero. Es un tema sobre el que advertí muy públicamente en 2025, cuando predije que la IA podría sustituir la mitad de todos los empleos de cuello blanco para principiantes en los próximos 1 a 5 años, incluso si acelera el crecimiento económico y el progreso científico. Esta advertencia desencadenó un debate público sobre el tema. Muchos directores generales, tecnólogos y economistas estuvieron de acuerdo conmigo, pero otros asumieron que era víctima de una falacia sobre la «masa de trabajo» y que no entendía cómo funciona el mercado laboral. Algunos no entendieron el plazo de 1 a 5 años y pensaron que yo afirmaba que la IA estaba eliminando puestos de trabajo en este momento (lo cual, reconozco, probablemente no sea el caso). Por lo tanto, conviene explicar en detalle por qué me preocupa la sustitución de la mano de obra, a fin de disipar estos malentendidos.
Hay una serie de datos que permiten destacar varios puntos. Un estudio del índice económico de Anthropic mostraba a principios de 2025 que solo alrededor del 4 % de las profesiones utilizaban la IA para al menos el 75 % de sus tareas. En 2025, la integración de la IA sigue estando principalmente verticalizada por tarea, en lugar de ser una transformación global del puesto de trabajo. Un estudio de Stanford de septiembre basado en datos de ADP, líder estadounidense en servicios de pago, muestra que los trabajadores que se encuentran al inicio de su carrera (de 22 a 25 años) y que ocupan puestos de trabajo expuestos a la IA han experimentado una disminución relativa del empleo del 16 %, mientras que el empleo de los trabajadores con más experiencia se ha mantenido estable. Un estudio de Harvard también concluye que el empleo de los jóvenes disminuye en las empresas que adoptan la IA en comparación con las que no lo hacen, mientras que el empleo de los mayores se mantiene prácticamente sin cambios en 2025. La disminución de los jóvenes se concentra en las profesiones más expuestas a la IA generativa y se explica por una ralentización de las contrataciones.
Para empezar, es útil comprender cómo reaccionan normalmente los mercados laborales ante los avances tecnológicos. Cuando aparece una nueva tecnología, lo primero que hace es aumentar la eficiencia de ciertas tareas humanas. Por ejemplo, al comienzo de la Revolución Industrial, máquinas como los arados mejorados permitieron a los agricultores ser más eficientes en ciertos aspectos de su trabajo. Esto mejoró la productividad de los agricultores, lo que aumentó sus salarios.
En una segunda fase, algunas tareas agrícolas pudieron realizarse íntegramente con máquinas, por ejemplo, gracias a la invención de la trilladora o la sembradora. En esta etapa, los humanos realizaban una parte cada vez menor del trabajo, pero el que realizaban se valoraba cada vez más, ya que complementaba el trabajo de las máquinas, y su productividad siguió aumentando. Tal y como describe la paradoja de Jevons, los salarios de los agricultores, y quizás incluso su número, siguieron aumentando. Incluso cuando el 90 % del trabajo lo realizan máquinas, los humanos pueden simplemente hacer 10 veces más con el 10 % que siguen haciendo, produciendo así 10 veces más por la misma cantidad de trabajo.
Finalmente, las máquinas hacen todo o casi todo, como es el caso de las cosechadoras, los tractores y otros equipos modernos. En este punto, la agricultura como forma de empleo humano está en rápido declive, lo que puede provocar graves perturbaciones a corto plazo, pero como la agricultura es solo una de las muchas actividades útiles que los humanos son capaces de realizar, la gente acaba dedicándose a otros trabajos, como el manejo de máquinas en fábricas. Esto sigue siendo cierto incluso si la agricultura representaba anteriormente una parte importante del empleo. Hace 250 años, el 90 % de los estadounidenses vivía en granjas; en Europa, entre el 50 % y el 60 % de los empleos eran agrícolas. Hoy en día, estos porcentajes son inferiores al 10 % en esas regiones, ya que los trabajadores se han orientado hacia empleos industriales (y luego a empleos intelectuales). La economía puede lograr lo que antes requería la mayor parte de la mano de obra con solo el 1-2 % de esta, liberando así al resto de la mano de obra para construir una sociedad industrial cada vez más avanzada. No existe una «masa de trabajo» fija, sino solo una capacidad cada vez mayor de hacer más con menos. Los salarios de las personas aumentan a la par que el crecimiento exponencial del PIB y la economía mantiene el pleno empleo una vez que desaparecen las perturbaciones a corto plazo.
Es posible que con la IA ocurra más o menos lo mismo, pero yo apostaría más bien por lo contrario. He aquí algunas razones por las que creo que la IA probablemente será diferente:
— La velocidad. El ritmo de los avances en IA es mucho más rápido que en revoluciones tecnológicas anteriores. Por ejemplo, en los últimos dos años, los modelos de IA han pasado de tener una capacidad apenas suficiente para escribir una sola línea de código a ser capaces de escribir todo o casi todo el código para algunas personas, incluidos los ingenieros de Anthropic. 36 Pronto podrían ser capaces de realizar todas las tareas de un ingeniero de software, de principio a fin. 37 A las personas les cuesta adaptarse a este ritmo de cambio, tanto en lo que respecta a los cambios en el funcionamiento de un puesto de trabajo concreto como a la necesidad de cambiar de empleo. Incluso los programadores legendarios se describen cada vez más a sí mismos como «rezagados». El ritmo podría incluso seguir acelerándose, ya que los modelos de codificación de IA aceleran cada vez más el desarrollo de la IA. Para ser claros, la velocidad en sí misma no significa que los mercados laborales y el empleo no se recuperarán finalmente, sino simplemente que la transición a corto plazo será especialmente dolorosa en comparación con las tecnologías anteriores, ya que los seres humanos y los mercados laborales son lentos para reaccionar y equilibrarse.
— Amplitud cognitiva. Como sugiere la expresión «país de genios en un centro de datos», la IA será capaz de ejercer una amplia gama de capacidades cognitivas humanas, si no todas. Esto difiere considerablemente de tecnologías anteriores como la agricultura mecanizada, el transporte o incluso las computadoras. 38 Por lo tanto, será más difícil para las personas pasar fácilmente de un empleo suprimido a otro similar que les convenga. Por ejemplo, las capacidades intelectuales generales requeridas para los empleos de principiantes en campos como las finanzas, la consultoría y el derecho son bastante similares, aunque los conocimientos específicos sean muy diferentes. Una tecnología que solo afectara a uno de estos tres ámbitos permitiría a los empleados reconvertirse en los otros dos ámbitos afines (o a los estudiantes cambiar de carrera). Pero afectar a los tres ámbitos a la vez (así como a muchos otros empleos similares) podría dificultar la adaptación de las personas afectadas. Además, no solo se verán afectados la mayoría de los empleos existentes. Esto ya ha ocurrido en el pasado: recordemos que la agricultura representaba antiguamente un porcentaje importante del empleo. Pero los agricultores podían reconvertirse en un trabajo relativamente similar, a saber, el uso de maquinaria industrial, aunque este trabajo no fuera habitual anteriormente. Por el contrario, la IA se acerca cada vez más al perfil cognitivo general de los seres humanos, lo que significa que también será eficaz en los nuevos empleos que normalmente se crearían en respuesta a la automatización de los antiguos. En otras palabras, la IA no es un sustituto de empleos humanos específicos, sino más bien un sustituto general de la mano de obra humana.
— Distribución por capacidad cognitiva. En una amplia gama de tareas, la IA parece progresar de abajo hacia arriba en la escala de capacidades. Por ejemplo, en materia de codificación, nuestros modelos han pasado del nivel «codificador mediocre» a «codificador competente» y, posteriormente, a «codificador muy competente». 39 Ahora estamos empezando a observar la misma progresión en el trabajo de oficina en general. Por lo tanto, corremos el riesgo de encontrarnos en una situación en la que, en lugar de asignar a personas con habilidades específicas o que ejercen profesiones específicas (que pueden adaptarse mediante el reciclaje profesional), la IA asigne a personas con ciertas propiedades cognitivas intrínsecas, es decir, capacidades intelectuales inferiores (que son más difíciles de cambiar). No está claro adónde irán estas personas ni qué harán, y me temo que formarán una «subclase» de desempleados o trabajadores con salarios muy bajos. Para ser claros, situaciones similares ya se han producido en el pasado. Por ejemplo, algunos economistas consideran que las computadoras e internet representan un «cambio tecnológico que favorece las habilidades». Pero este sesgo a favor de las habilidades no era tan extremo como lo que preveo con la IA, y habría contribuido a aumentar las desigualdades salariales, debate entre los economistas." href="https://legrandcontinent.eu/es/2026/01/30/la-ia-presenta-un-riesgo-existencial-la-advertencia-de-dario-amodei-texto-completo-comentado-x/#easy-footnote-bottom-40-89396">40 por lo que no es precisamente un precedente tranquilizador.
— Capacidad para llenar vacíos. Los empleos humanos a menudo se adaptan a las nuevas tecnologías de tal manera que el trabajo tiene muchos aspectos y la nueva tecnología, aunque parezca sustituir directamente a los humanos, a menudo tiene vacíos. Si alguien inventa una máquina para fabricar gadgets, es posible que los humanos sigan teniendo que cargar las materias primas en la máquina. Aunque esto solo requiera el 1 % del esfuerzo necesario para fabricar los gadgets a mano, los trabajadores humanos pueden fabricar 100 veces más gadgets. Pero la IA, además de ser una tecnología en rápida evolución, también es una tecnología que se adapta rápidamente. Cada vez que se lanza un nuevo modelo, las empresas de IA evalúan cuidadosamente sus puntos fuertes y débiles, y los clientes también proporcionan esta información después del lanzamiento. Las debilidades pueden corregirse recopilando las tareas que ilustran las deficiencias actuales e integrándolas en el entrenamiento del siguiente modelo. En los inicios de la IA generativa, los usuarios observaron que los sistemas de IA presentaban ciertas deficiencias (por ejemplo, los modelos de imágenes de IA generaban manos con un número incorrecto de dedos) y muchos asumieron que estas deficiencias eran inherentes a la tecnología. Si fuera así, esto limitaría la disrupción del empleo. Sin embargo, la mayoría de estas deficiencias se corrigen rápidamente, a menudo en solo unos meses.
La mayoría de los benchmarks de IA alcanzan un techo de rendimiento en pocos años, o incluso en pocos meses, tras su introducción. Este patrón recurrente sugiere que muchas de las «limitaciones» percibidas de los sistemas de IA no son en realidad barreras intrínsecas, sino objetivos temporales, rápidamente saturados, relacionados con lo que elegimos medir en un momento dado. En el ámbito de las matemáticas, por ejemplo, la sucesión de pruebas de rendimiento ilustra bien el desplazamiento de los objetivos a medida que se van saturando. GSM8K medía principalmente la capacidad de encadenar correctamente operaciones aritméticas de nivel escolar; con el aumento de la escala y el uso del razonamiento paso a paso, se saturó rápidamente. AIME desplazó el objetivo hacia problemas de concursos, más cortos pero que requieren intuiciones algebraicas y combinatorias, donde el progreso es más lento e irregular. Otros benchmarks más recientes, como FrontierMath, evalúan la capacidad de mantener un razonamiento matemático coherente en problemas largos y poco estandarizados, y hoy en día siguen sin estar saturados. En cada etapa, el «límite» observado corresponde menos a una barrera fundamental que al nivel de exigencia del objetivo elegido. Tan pronto como una debilidad se formaliza claramente mediante un benchmark y este adquiere relevancia económica, suele atraer esfuerzos específicos de recopilación de datos, entrenamiento y optimización, y la diferencia de rendimiento se reduce rápidamente. Este es el caso, por ejemplo, de GDPEval, que mide la capacidad de los modelos para realizar tareas de trabajo reales de alto valor económico, y GPT5.2.
Es necesario abordar los puntos comunes de escepticismo. En primer lugar, algunos afirman que la difusión económica será lenta, de modo que, aunque la tecnología subyacente sea capaz de realizar la mayoría de las tareas humanas, su aplicación real en el conjunto de la economía podría ser mucho más lenta (por ejemplo, en sectores alejados de la industria de la IA y lentos en adoptarla). La lentitud de la difusión de la tecnología es muy real: hablo con personas de una gran variedad de empresas y hay ámbitos en los que la adopción de la IA llevará años. Por eso preveo que el 50 % de los empleos de cuello blanco para principiantes se verán afectados en un plazo de 1 a 5 años, aunque creo que dispondremos de una IA poderosa (que, desde el punto de vista tecnológico, sería suficiente para realizar la mayoría o la totalidad de las tareas, y no solo las de nivel principiante) en mucho menos de 5 años. Pero los efectos de difusión solo nos hacen ganar tiempo. Y no estoy convencido de que vayan a ser tan lentos como la gente predice. La adopción de la IA por parte de las empresas avanza a un ritmo mucho más rápido que cualquier tecnología anterior, en gran parte gracias al poderío de la propia tecnología. Además, aunque las empresas tradicionales sean lentas en adoptar las nuevas tecnologías, surgirán nuevas empresas que servirán de «enlace» y facilitarán la adopción. Si esto no funciona, las nuevas empresas podrían simplemente perturbar directamente a las empresas ya establecidas.
Esto podría conducir a un mundo en el que no se perturbaran tanto puestos de trabajo específicos, sino más bien las grandes empresas en general, que serían sustituidas por empresas emergentes mucho menos intensivas en mano de obra. También podría conducir a un mundo de «desigualdades geográficas», en el que una parte cada vez mayor de la riqueza mundial se concentraría en Silicon Valley, que se convertiría en una economía independiente que funcionaría a un ritmo diferente al del resto del mundo y lo dejaría atrás. Todos estos resultados serían excelentes para el crecimiento económico, pero no tanto para el mercado laboral o para aquellos que se quedan atrás.
En segundo lugar, algunos afirman que los empleos humanos se desplazarán al mundo físico, lo que evitaría toda la categoría del «trabajo cognitivo», donde la IA avanza tan rápidamente. Tampoco estoy seguro de que esto sea muy seguro. Gran parte del trabajo físico ya lo realizan máquinas (por ejemplo, en el sector manufacturero) o lo harán pronto (por ejemplo, la conducción de automóviles). Además, una IA lo suficientemente potente será capaz de acelerar el desarrollo de robots y, a continuación, controlar esos robots en el mundo físico. Quizás esto permita ganar algo de tiempo (lo cual es positivo), pero me temo que no será suficiente. E incluso si la disrupción se limitara a las tareas cognitivas, seguiría siendo de una magnitud y una rapidez sin precedentes.
En tercer lugar, es posible que algunas tareas requieran intrínsecamente un toque humano o se beneficien enormemente de él. No estoy tan seguro de esto, pero sigo siendo escéptico en cuanto a que sea suficiente para compensar la mayor parte de los impactos que he descrito anteriormente. La IA ya se utiliza ampliamente en el servicio al cliente. Muchas personas afirman que les resulta más fácil hablar de sus problemas personales con una IA que con un terapeuta, ya que la IA es más paciente. Cuando mi hermana tuvo problemas médicos durante su embarazo, sintió que no obtenía las respuestas o el apoyo que necesitaba de sus proveedores de atención médica, y descubrió que Claude tenía un mejor contacto con los pacientes (y diagnosticaba mejor el problema). Estoy seguro de que hay ciertas tareas en las que el contacto humano es realmente importante, pero no sé cuántas. Y aquí estamos hablando de encontrar trabajo para casi todo el mundo en el mercado laboral.
En cuarto lugar, algunos dirán que la ventaja comparativa seguirá protegiendo a los humanos. Según la ley de la ventaja comparativa, aunque la IA sea mejor que los humanos en todos los ámbitos, cualquier diferencia relativa entre las habilidades humanas y las de la IA crea una base para el intercambio y la especialización entre los humanos y la IA. El problema es que si la IA es literalmente miles de veces más productiva que los humanos, esta lógica comienza a desmoronarse. Incluso unos costos de transacción mínimos podrían hacer que el comercio con los humanos resultara poco interesante para la IA. Y los salarios humanos podrían ser muy bajos, aunque técnicamente los humanos tengan algo que ofrecer.
Es posible que todos estos factores puedan tenerse en cuenta, que el mercado laboral sea lo suficientemente resistente como para adaptarse a una perturbación tan enorme. Pero aunque pueda acabar adaptándose, los factores anteriores sugieren que el impacto a corto plazo será de una magnitud sin precedentes.
Nuestros medios de defensa
¿Qué podemos hacer ante este problema? Tengo varias sugerencias, algunas de las cuales ya están siendo implementadas por Anthropic.
Lo primero que hay que hacer es simplemente obtener datos precisos en tiempo real sobre lo que está sucediendo en materia de destrucción de empleo. Cuando se produce un cambio económico muy rápido, es difícil obtener datos fiables sobre lo que está sucediendo y, sin datos fiables, es difícil diseñar políticas eficaces. Por ejemplo, los datos gubernamentales carecen actualmente de datos granulares y de alta frecuencia sobre la adopción de la IA en las empresas y las industrias. Durante el último año, Anthropic ha estado recopilando y publicando un índice económico que muestra el uso de nuestros modelos casi en tiempo real, desglosado por industria, tarea, ubicación e incluso por elementos como si una tarea está automatizada o se realiza de forma colaborativa. También contamos con un consejo asesor económico que nos ayuda a interpretar estos datos y a anticipar el futuro.
En segundo lugar, las empresas de IA pueden elegir cómo trabajar con las empresas. La propia ineficiencia de las empresas tradicionales significa que su implementación de la IA puede depender en gran medida del camino que se elija, y existe cierto margen de maniobra para elegir un camino mejor. Las empresas suelen tener la opción de «reducir costos» (hacer lo mismo con menos personal) o «innovar» (hacer más con el mismo número de personas). El mercado producirá inevitablemente ambas cosas a largo plazo, y cualquier empresa de IA competitiva tendrá que satisfacer ambas necesidades, pero tal vez sea posible orientar a las empresas hacia la innovación cuando sea posible, lo que nos ahorraría tiempo. Anthropic está reflexionando activamente sobre esta cuestión.
En tercer lugar, las empresas deben pensar en cómo cuidar a sus empleados. A corto plazo, ser creativo a la hora de reasignar a los empleados dentro de las empresas puede ser una forma prometedora de evitar despidos. A largo plazo, en un mundo en el que la riqueza total es enorme y muchas empresas ven aumentar considerablemente su valor gracias al aumento de la productividad y la concentración del capital, podría ser posible remunerar a los empleados humanos incluso mucho después de que hayan dejado de aportar valor económico en el sentido tradicional del término. Anthropic está estudiando actualmente una serie de posibles vías para sus propios empleados, que compartiremos en un futuro próximo.
En cuarto lugar, las personas adineradas tienen la obligación de contribuir a la resolución de este problema. Me parece lamentable que muchas personas adineradas (especialmente en el sector tecnológico) hayan adoptado recientemente una actitud cínica y nihilista, considerando que la filantropía es inevitablemente fraudulenta o inútil. Tanto las iniciativas filantrópicas privadas, como la Fundación Gates, como los programas públicos, como el PEPFAR, han salvado decenas de millones de vidas en los países en desarrollo y han contribuido a crear oportunidades económicas en los países desarrollados. Todos los cofundadores de Anthropic se han comprometido a donar el 80 % de su fortuna, y los empleados de Anthropic se han comprometido individualmente a donar acciones de la empresa por valor de varios miles de millones al precio actual, donaciones que la empresa se ha comprometido a igualar.
En quinto lugar, aunque todas las medidas privadas mencionadas anteriormente pueden ser útiles, un problema macroeconómico de tal magnitud requerirá, en última instancia, la intervención de los poderes públicos. La respuesta política natural a un enorme pastel económico asociado a fuertes desigualdades (debidas a la falta de empleo o a empleos mal remunerados para muchos) es una fiscalidad progresiva. El impuesto podría ser general o dirigirse específicamente a las empresas de IA. Es evidente que el diseño de un impuesto es complejo y que hay muchas formas de equivocarse. No apoyo las políticas fiscales mal diseñadas. Creo que los niveles extremos de desigualdad previstos en este ensayo justifican una política fiscal más sólida por razones morales fundamentales, pero también puedo presentar un argumento pragmático a los multimillonarios de todo el mundo, a saber, que les conviene apoyar una buena versión de esta política: si no apoyan una buena versión, inevitablemente se encontrarán con una mala versión diseñada por la multitud.
En última instancia, considero que todas las intervenciones mencionadas anteriormente son formas de ganar tiempo. Con el tiempo, la IA será capaz de hacerlo todo, y debemos prepararnos para ello. Espero que, para entonces, podamos utilizar la propia IA para ayudarnos a reestructurar los mercados de una manera que satisfaga a todos, y que las intervenciones mencionadas anteriormente nos permitan atravesar el período de transición.
La concentración económica del poder
El problema de la concentración económica del poder es distinto del desplazamiento de puestos de trabajo o de la desigualdad económica en sí misma. En la sección 1 se abordó el riesgo de que la IA prive a la humanidad de su poder, y en la sección 3 se abordó el riesgo de que los gobiernos priven a los ciudadanos de su poder mediante la fuerza o la coacción.
Pero puede producirse otro tipo de privación de poder si existe tal concentración de riqueza que un pequeño grupo de personas controla efectivamente la política gubernamental gracias a su influencia, y los ciudadanos de a pie no tienen ninguna influencia porque carecen de poder económico. La democracia se basa, en última instancia, en la idea de que toda la población es necesaria para el funcionamiento de la economía. Si esa influencia económica desaparece, el contrato social implícito de la democracia podría dejar de funcionar. Otros ya han escrito sobre este tema, por lo que no necesito entrar en detalles aquí, pero comparto esta preocupación y me temo que ya está empezando a ocurrir.
Para que quede claro, no me opongo a que la gente gane mucho dinero. Existe un argumento sólido que sostiene que esto estimula el crecimiento económico en condiciones normales. Entiendo la preocupación por obstaculizar la innovación matando a la gallina de los huevos de oro que la genera. Pero en un escenario en el que el crecimiento del PIB es del 10 al 20 % anual y la IA está tomando rápidamente el control de la economía, mientras que individuos aislados poseen una parte apreciable del PIB, la innovación no es lo que debe preocuparnos. Lo que debe preocuparnos es un nivel de concentración de la riqueza que va a romper la sociedad.
El ejemplo más famoso de concentración extrema de riqueza en la historia de Estados Unidos es la Edad de Oro, y el industrial más rico de esa época fue John D. Rockefeller. La fortuna de Rockefeller representaba aproximadamente el 2 % del PIB estadounidense de la época. 41 Una proporción similar hoy en día representaría una fortuna de 600.000 millones de dólares, y la persona más rica del mundo en la actualidad (Elon Musk) ya supera esa cifra, con aproximadamente 700.000 millones de dólares. Por lo tanto, ya hemos alcanzado niveles de concentración de riqueza sin precedentes en la historia, incluso antes de que la IA haya tenido la mayor parte de su impacto económico. No creo que sea exagerado (si conseguimos un «país de genios») imaginar que las empresas de IA, las empresas de semiconductores y quizás las empresas de aplicaciones derivadas generen unos ingresos anuales de alrededor de 3 billones de dólares, 42 con un valor aproximado de 30 billones de dólares, y generen fortunas personales que se cuentan por billones. En ese mundo, los debates que mantenemos hoy en día sobre política fiscal simplemente dejarán de tener sentido, ya que nos encontraremos en una situación fundamentalmente diferente.
En este sentido, la combinación de esta concentración económica de la riqueza con el sistema político ya me preocupa. Los centros de datos de IA ya representan una parte importante del crecimiento económico estadounidense 43 y, por lo tanto, vinculan estrechamente los intereses financieros de las grandes empresas tecnológicas (que se centran cada vez más en la IA o las infraestructuras de IA) y los intereses políticos del gobierno, de una manera que puede generar incentivos perversos. Ya lo vemos en la reticencia de las empresas tecnológicas a criticar al gobierno estadounidense y en el apoyo de este a políticas antirreguladoras extremas en materia de IA.
Nuestros medios de defensa
¿Qué se puede hacer al respecto? En primer lugar, y lo más obvio, las empresas deberían simplemente optar por no participar. Anthropic siempre se ha esforzado por ser un hacedor de políticas y no un actor político, y por mantener sus opiniones auténticas independientemente de la administración. Nos hemos pronunciado a favor de una regulación razonable de la IA y de controles de exportación que redunden en el interés público, incluso cuando estos contradicen la política gubernamental. Muchas personas me han dicho que deberíamos dejar de hacerlo, que podría acarrearnos un trato desfavorable, pero desde que lo hacemos, hace un año, la valoración de Anthropic se ha multiplicado por más de seis, un aumento casi sin precedentes a nuestra escala comercial.
En segundo lugar, el sector de la IA necesita una relación más sana con el gobierno, basada en un compromiso político sustantivo más que en una alineación política. Nuestra decisión de comprometernos con el fondo más que con la forma se interpreta a veces como un error táctico o una incapacidad para «leer la sala», en lugar de como una decisión de principio, y esta interpretación me preocupa. En una democracia sana, las empresas deberían poder defender buenas políticas por su propio bien. En la misma línea, se está gestando una reacción negativa del público hacia la IA: podría ser una medida correctiva, pero actualmente carece de precisión. Se centra en gran medida en cuestiones que no constituyen realmente problemas (como el consumo de agua de los centros de datos) y propone soluciones (como la prohibición de los centros de datos o impuestos sobre el patrimonio mal diseñados) que no responderían a las verdaderas preocupaciones. La cuestión subyacente que merece nuestra atención es garantizar que el desarrollo de la IA siga siendo responsable con respecto al interés público, sin quedar capturado por una alianza política o comercial concreta, y parece importante centrar el debate público en este punto.
En tercer lugar, las intervenciones macroeconómicas que he descrito anteriormente en esta sección, junto con el resurgimiento de la filantropía privada, pueden contribuir a equilibrar la balanza económica, abordando tanto los problemas de pérdida de empleo como los de concentración del poder económico. Deberíamos inspirarnos en la historia de nuestro país: incluso en la edad de oro, industriales como Rockefeller y Carnegie se sentían muy en deuda con la sociedad en su conjunto, ya que consideraban que esta había contribuido enormemente a su éxito y que debían devolverle el favor. Este espíritu parece estar cada vez más ausente hoy en día, y creo que constituye una gran parte de la solución a este dilema económico. Quienes están a la vanguardia del auge económico de la IA deberían estar dispuestos a renunciar a su riqueza y poder.
5. Las profundas aguas del infinito
Efectos secundarios
Esta última sección agrupa todas las incógnitas, en particular las cosas que podrían salir mal debido a los avances positivos de la IA y a la aceleración general del progreso científico y tecnológico que ello conlleva. Supongamos que logramos eliminar todos los riesgos descritos hasta ahora y que empezamos a cosechar los frutos de la IA. Probablemente obtendremos «un siglo de avances científicos y económicos condensados en una década», lo que será extremadamente positivo para el mundo, pero entonces tendremos que hacer frente a los problemas derivados de este rápido progreso, y estos problemas podrían abrumarnos rápidamente. También podríamos encontrarnos con otros riesgos que surgen indirectamente como consecuencia de los avances de la IA y que son difíciles de prever.
Esta proyección de un siglo de avances científicos y económicos condensados en una década hace eco directamente de la ambición manifestada por la Misión Génesis, puesta en marcha por la administración estadounidense, que tiene como objetivo explícito transformar profundamente la forma en que se lleva a cabo la investigación científica en Estados Unidos. El objetivo declarado es duplicar la productividad científica nacional en la próxima década, en ámbitos estratégicos como la energía, las ciencias cuánticas, los materiales avanzados o la seguridad nacional. La Orden Ejecutiva que regula la misión establece una analogía explícita con el Proyecto Manhattan, presentando la IA como una palanca central en una carrera mundial por la dominación tecnológica.
Debido a la propia naturaleza de las incógnitas, es imposible elaborar una lista exhaustiva, pero voy a citar tres posibles preocupaciones a modo de ejemplos ilustrativos de lo que debemos tener en cuenta:
— Rápidos avances en biología. Si logramos un siglo de avances médicos en unos pocos años, es posible que aumentemos considerablemente la esperanza de vida humana, y es posible que también adquiramos capacidades radicales, como la capacidad de aumentar la inteligencia humana o de modificar radicalmente la biología humana. Se trataría de cambios importantes en lo que es posible, que se producirían muy rápidamente. Podrían ser positivos si se llevaran a cabo de manera responsable (lo cual espero, como explico en Machines of Loving Grace), pero siempre existe el riesgo de que salgan muy mal, por ejemplo, si los esfuerzos por hacer a los humanos más inteligentes también los hacen más inestables o ávidos de poder. También está la cuestión de las «descargas» o la «emulación cerebral completa», es decir, mentes humanas digitales instanciadas en software, que algún día podrían ayudar a la humanidad a trascender sus límites físicos, pero que también conllevan riesgos que me parecen preocupantes.
— La IA está cambiando la vida humana de forma malsana. Un mundo poblado por miles de millones de inteligencias mucho más inteligentes que los humanos en todos los ámbitos será un mundo muy extraño en el que vivir. Aunque la IA no busque activamente atacar a los humanos (sección 1) y no se utilice explícitamente con fines de opresión o control por parte de los Estados (sección 3), muchas cosas podrían salir mal, incluso sin llegar a ese extremo, a través de incentivos comerciales normales y transacciones nominalmente consensuadas. Vemos los primeros indicios de ello en las preocupaciones sobre la psicosis relacionada con la IA, el hecho de que la IA empuje a las personas al suicidio y las preocupaciones sobre las relaciones amorosas con la IA. Por ejemplo, ¿podrían las IA poderosas inventar una nueva religión y convertir a millones de personas a ella? ¿Podría la mayoría de la gente acabar «dependiendo» de alguna manera de las interacciones con la IA? ¿Podría la gente acabar siendo «manipulada» por sistemas de IA, en los que una IA supervisara básicamente cada uno de sus movimientos y les dijera exactamente qué hacer y qué decir en cada momento, lo que les permitiría llevar una vida «buena», pero una vida desprovista de libertad o del orgullo del logro? No sería difícil generar decenas de escenarios de este tipo si me sentara con el creador de Black Mirror e intentara imaginarlos. Creo que esto subraya la importancia de medidas como la mejora de la Constitución de Claude, más allá de lo necesario para prevenir los problemas mencionados en la sección 1. Parece esencial garantizar que los modelos de IA tengan realmente en cuenta los intereses a largo plazo de sus usuarios, de una manera que las personas reflexivas aprobarían, en lugar de una manera sutilmente distorsionada.
— El propósito de la humanidad. Este punto está relacionado con el anterior, pero no se trata tanto de las interacciones humanas específicas con los sistemas de IA como de la forma en que la vida humana cambia en general en un mundo con una IA poderosa. ¿Serán los humanos capaces de encontrar un propósito y un sentido a sus vidas en un mundo así? Creo que es una cuestión de actitud: como dije en Machines of Loving Grace, creo que el propósito de la humanidad no depende de ser el mejor del mundo en un campo, y que los humanos pueden encontrar un propósito incluso en períodos muy largos a través de historias y proyectos que les gustan. Simplemente tenemos que romper el vínculo entre la creación de valor económico, la autoestima y el sentido de la vida. Pero es una transición que debe realizar la sociedad, y siempre existe el riesgo de que no la gestionemos bien.
Mi esperanza, ante todos estos posibles problemas, es que en un mundo con una IA potente en la que confiamos para que no nos mate, que no sea una herramienta de un gobierno opresor y que realmente trabaje para nosotros, podamos utilizar la propia IA para anticipar y prevenir estos problemas. Pero eso no está garantizado: como todos los demás riesgos, es algo que debemos manejar con precaución.
La prueba de la humanidad
La lectura de este ensayo puede dar la impresión de que nos encontramos en una situación desalentadora.
A diferencia de Machines of Loving Grace, que me dio la sensación de dar forma y estructura a una música de incomparable belleza que resonaba en mi cabeza desde hacía años, este ensayo ha sido difícil y, en cierto modo, intimidante.
De hecho, hay muchas cosas realmente difíciles en esta situación. La IA supone una amenaza para la humanidad de múltiples maneras, y existe una tensión real entre los diferentes peligros, de modo que mitigar algunos de ellos puede agravar otros si no actuamos con extrema cautela.
Dedicar tiempo a construir cuidadosamente sistemas de IA para que no supongan una amenaza autónoma para la humanidad entra en conflicto con la necesidad de las naciones democráticas de mantenerse por delante de las naciones autoritarias y no estar sometidas a ellas. Pero, a su vez, las mismas herramientas basadas en la IA que son necesarias para luchar contra las autocracias pueden, si se llevan demasiado lejos, volverse en nuestra contra y crear una tiranía en nuestros propios países. El terrorismo alimentado por la IA podría matar a millones de personas mediante el uso indebido de la biología, pero una reacción exagerada a este riesgo podría llevarnos a un Estado autocrático y vigilado. Los efectos de la IA en la concentración del trabajo y la economía, además de ser problemas graves en sí mismos, podrían obligarnos a afrontar otros problemas en un contexto de ira pública y quizás incluso de disturbios civiles, en lugar de poder apelar a lo mejor de nuestra naturaleza. Sobre todo, el considerable número de riesgos, incluidos los desconocidos, y la necesidad de abordarlos todos al mismo tiempo, crean un desafío intimidante al que se enfrenta la humanidad.
Además, los últimos años deberían dejar claro que la idea de detener o incluso ralentizar considerablemente esta tecnología es fundamentalmente insostenible.
La fórmula para construir sistemas de IA potentes es increíblemente sencilla, hasta tal punto que casi se podría decir que surge espontáneamente de la combinación adecuada de datos y cálculos brutos. Probablemente, su creación era inevitable desde el momento en que la humanidad inventó el transistor, o incluso antes, cuando aprendimos a dominar el fuego. Si una empresa no la construye, otras lo harán casi con la misma rapidez. Si todas las empresas de los países democráticos detuvieran o ralentizaran el desarrollo, por acuerdo mutuo o por decreto regulatorio, los países autoritarios continuarían. Es así de simple. Dado el increíble valor económico y militar de esta tecnología, así como la ausencia de cualquier mecanismo de aplicación significativo, no veo cómo podríamos convencerlos de que se detengan.
Sin embargo, veo una vía para moderar ligeramente el desarrollo de la IA que sea compatible con una visión realista de la geopolítica.
Esta vía consiste en ralentizar durante unos años el avance de las autocracias hacia una IA potente, negándoles los ...
V-VI > VI-VI





La administración de Biden había establecido estrictos controles a la exportación de semiconductores diseñados en Estados Unidos, lo que también limitaba el acceso de los países del Golfo a los chips avanzados en el marco de la regulación sobre la «difusión de la IA». La administración de Trump revirtió esta política con respecto al Golfo, permitiendo a los Emiratos Árabes Unidos y Arabia Saudita importar masivamente chips de IA avanzados, con el objetivo de fortalecer las alianzas regionales y alejar a China de esta zona estratégica.