analisis-juridico

El vacío moral de la IA: análisis crítico de The Technological Republic

EL VACÍO Y LA MÁQUINA

Cómo el abandono de propósito ha moldeado la era de la inteligencia artificial (y qué hacer al respecto)

Un análisis crítico de The Technological Republic de Alexander C. Karp y Nicholas W. Zamiska


SECCIÓN 1 – El sueño roto de Silicon Valley

Silicon Valley nació aliado con el Pentágono. Hoy construye aplicaciones de entrega de comida y filtros para selfies. Esta sección explica cómo esa desconexión ha vaciado de propósito a la tecnología y por qué la inteligencia artificial sigue el mismo camino.

Palabras clave: propósito colectivo, innovación trivial, complejo militar-industrial, IA, Manhattan Project


El olvido de los orígenes

"Silicon Valley ha perdido su camino".

Con esta frase comienza The Technological Republic, y no es una provocación gratuita. Es una constatación histórica. Antes de que existieran los teléfonos inteligentes y las redes sociales, los laboratorios de California trabajaban para el Pentágono. Fairchild Semiconductor construía equipos de reconocimiento para satélites espía de la CIA. Lockheed diseñaba misiles balísticos en Sunnyvale. La marina estadounidense producía todos sus misiles en el condado de Santa Clara.

Esta simbiosis entre ciencia y Estado –que los autores rastrean hasta la carta de Franklin D. Roosevelt a Vannevar Bush en 1944– no era una excepción, sino la regla. El gobierno financiaba, y los ingenieros construían para la defensa nacional. El Proyecto Manhattan no fue una aberración; fue el modelo.

Pero algo cambió. La generación de fundadores que creció con el rechazo a la guerra de Vietnam y el escepticismo hacia toda autoridad centralizada (desde los creadores del Homebrew Computer Club hasta Steve Jobs) redirigió el talento hacia el individuo, no hacia la nación. El consumidor se convirtió en el nuevo campo de batalla.

La frivolidad como modelo de negocio

El libro disecciona el fenómeno eToys: una compañía que en 1999 llegó a valer 10.000 millones de dólares vendiendo juguetes por internet. Su fundador, Toby Lenk, explicaba sin rubor: "Perdemos dinero rápido a propósito, para construir nuestra marca". No era un caso aislado. Zynga (videojuegos agrícolas), Groupon (cupones de descuento) y decenas de startups similares atrajeron capital y cerebros que podrían haber estado diseñando sistemas de defensa o curando enfermedades. El mercado habló, y nadie se atrevió a preguntar si su veredicto era sensato.

Los autores llaman a esto el "valle perdido": una coyuntura cultural donde la industria tecnológica dejó de hacerse preguntas sobre qué merecía ser construido y se limitó a responder qué era rentable. La capacidad de escalar se convirtió en un fin en sí misma. Mark Zuckerberg lo resumió con honestidad brutal: "No pueden entender que alguien construya algo porque le gusta construirlo". La creación se divorció del propósito.

Lo que la IA tiene que ver con todo esto

El mismo patrón se repite con la inteligencia artificial. Los grandes modelos de lenguaje (GPT-4 y sus sucesores) podrían ser herramientas decisivas para la defensa, la medicina o la ciencia. En cambio, la mayoría de las inversiones se dirigen a chatbots comerciales, generación de memes y asistentes virtuales para comprar zapatillas.

En noviembre de 2022, OpenAI lanzó ChatGPT con una política que prohibía explícitamente el uso militar de la tecnología. Un año después, ante la presión de la competencia, la empresa eliminó esa cláusula. Pero el daño simbólico ya estaba hecho: una generación de ingenieros ha interiorizado que trabajar para el Estado es sospechoso, mientras que hacerlo para una red social es virtuoso.

El giro de Silicon Valley hacia el consumo recuerda a la caída de Roma descrita por Gibbon: una élite que, habiendo conquistado el mundo, se entrega al ocio y delega la defensa en mercenarios. Hoy los "mercenarios" son soldados profesionales de clases humildes, mientras los ingenieros millonarios diseñan apps.

Pregunta al lector:

Si la mejor IA de Occidente se entrena para vender publicidad mientras otras potencias la orientan a capacidades militares, ¿qué tipo de futuro estamos construyendo sin debatirlo?

Transición: El problema no es solo económico, es moral. ¿Cómo hemos llegado a una cultura tecnológica que teme tener convicciones? Eso lo vemos en la siguiente sección.


SECCIÓN 2 – El dogma de la neutralidad: cuando la tecnología olvidó creer

El miedo a ofender ha vaciado de ética al liderazgo tecnológico. Esta sección explora la paradoja de una industria que monetiza datos personales pero se retira ante dilemas morales complejos, y cómo ese vacío afecta el desarrollo de la IA.

Palabras clave: vacío moral, liderazgo sin convicciones, conformidad, censura psicológica, ética de la IA


El precio de no tener opiniones

En 1976, el director de la ACLU, Aryeh Neier (judío refugiado del nazismo), defendió el derecho de un grupo de neonazis a marchar por Skokie, Illinois. Sabía que miles de miembros abandonarían la organización. Lo hizo igualmente. Su razonamiento: "Para defenderme a mí mismo, debo restringir el poder con libertad, aunque los beneficiarios temporales sean enemigos de la libertad".

Karp y Zamiska rescatan esta anécdota no por heroicidad, sino por algo más incómodo: Neier tenía creencias auténticas y estaba dispuesto a pagar un precio por ellas. El liderazgo tecnológico actual ha sido educado exactamente en la dirección opuesta. Mejor callar. Mejor no alienar a nadie. El resultado es una clase dirigente técnicamente brillante pero moralmente anodina, capaz de construir sistemas de vigilancia masiva para anunciantes pero incapaz de pronunciarse sobre si la IA debería usarse para matar enemigos en un campo de batalla.

El episodio de las presidentas universitarias

El libro dedica un pasaje clave a la comparecencia de las presidentas de Harvard, Penn y MIT ante el Congreso en 2023. Preguntadas si pedir el genocidio de judíos constituía acoso, respondieron con un repertorio de ambigüedades legales: "depende del contexto". No fueron valientes ni prudentes: fueron entrenadas para no tener convicciones. Las tres habían sido preparadas por el mismo bufete de abogados. Dos perdieron su cargo igualmente, no por decir algo, sino por no decir nada con suficiente claridad.

Ese "abandono de la creencia" se extiende a las grandes tecnológicas. Google pasó de "no seas malvado" a "haz lo correcto". Pero ¿quién define lo correcto? ¿Y qué ocurre cuando lo correcto es impopular?

Esto recuerda a los experimentos de Solomon Asch en los años cincuenta: los sujetos preferían dar una respuesta que sabían falsa antes que enfrentarse a la desaprobación del grupo. La diferencia es que los participantes de Asch eran anónimos. Los ejecutivos de Silicon Valley lo hacen con salarios millonarios y consecuencias globales.

La paradoja de la monetización omnímoda

Los ingenieros que se niegan a trabajar para el Pentágono no tienen ningún escrúpulo en construir sistemas que rastrean a niños de doce años para mostrarles publicidad. En 2022, YouTube ingresó 959 millones de dólares con anuncios dirigidos a menores de 12 años; Instagram, 801 millones. La misma persona que se horroriza porque su código pueda acabar en un dron militar acepta sin inmutarse que ese código manipule la neuroquímica de menores.

¿Por qué esta jerarquía moral invertida? El libro apunta a una educación cultural que demonizó al Estado mientras canonizaba al mercado. Trabajar para el gobierno es sospechoso; para una corporación, neutral. La distinción es artificial: los anuncios también matan –contribuyen a crisis de salud mental, fomentan consumo insostenible, consolidan desigualdades– pero como el daño es difuso y a largo plazo, no desencadena protestas.

Pregunta al lector: Si la IA del futuro debe decidir sobre vida o muerte (en combate, en medicina, en justicia), ¿prefieres que la entrenen personas con opiniones firmes o personas que han aprendido a no tener ninguna?

Transición: No todo es pesimismo. El libro también extrae lecciones valiosas de la naturaleza y el teatro de improvisación. Veamos cómo pueden aplicarse a la IA.


SECCIÓN 3 – Enjambres y startups: lecciones de la naturaleza para la IA

Las abejas, los estorninos y los comediantes de improvisación enseñan cómo organizar la inteligencia colectiva sin jerarquías rígidas. Una lección que la IA centralizada está ignorando.

Palabras clave: descentralización, enjambre, improvisación, inteligencia colectiva, arquitectura de IA


Cuando las abejas enseñan a las empresas

En 1951, el zoólogo Martin Lindauer observó en Múnich el "Eck Swarm": un enjambre de abejas buscando un nuevo hogar. Sin una reina que diera órdenes, las exploradoras salían, inspeccionaban cavidades y regresaban a bailar (Tanzsprache) indicando dirección y distancia. Otras abejas verificaban, apoyaban opciones o proponían alternativas. Horas o días después, el enjambre entero se ponía de acuerdo y volaba junto a su nuevo hogar. Sin jerarquías, solo con información compartida.

Karp y Zamiska usan esta metáfora para describir el ideal de una startup tecnológica. A diferencia de las corporaciones tradicionales –con sus cadenas de mando y reuniones interminables–, las startups exitosas se parecen a un enjambre: la información fluye desde los bordes (los ingenieros más cerca del problema), se valida mediante la acción (bailar es hacer, no presentar PowerPoint), y la dirección emerge, no se decreta.

El problema de las jerarquías congeladas

El libro cita un estudio de Harvard Business School en el que ejecutivos confesaban sentirse abrumados por las reuniones. Una directiva admitió que se clavaba un lápiz en la pierna para no gritar durante una sesión particularmente tortuosa. Las reuniones masivas, las pre-reuniones, las reuniones para preparar reuniones: síntoma de una organización que ha sustituido la acción por el teatro de la coordinación.

Peter Drucker señaló hace décadas que una orquesta sinfónica funciona sin vicepresidentes: el director se comunica directamente con cada músico. Sin embargo, la mayoría de las corporaciones han construido niveles que no añaden valor, sino que lo extraen. Los autores son brutales: "La mayor parte de la energía de un empleado se gasta en sobrevivir, navegando entre los políticos internos".

Bandadas de estorninos y la velocidad de la información

Otro ejemplo fascinante: el estudio de Giorgio Parisi (Nobel de Física) sobre estorninos. Al atardecer en Roma, miles de pájaros forman coreografías sincronizadas. Parisi descubrió que el secreto está en los bordes: los estorninos de la periferia detectan el peligro y cambian de dirección. La información se transmite a los vecinos en fracciones de segundo, creando una onda que recorre toda la bandada en menos de un segundo. No hay un jefe.

¿Qué implica esto para la IA? Los autores sugieren que la mayoría de los sistemas actuales son "relojes" (centralizados, predecibles, frágiles) cuando deberían ser "nubes" (distribuidos, adaptables, resilientes). Una IA como enjambre tendría múltiples agentes especializados que "bailan" sus resultados, se verifican entre sí y votan la respuesta final. Sería más robusta, transparente y difícil de corromper.

La startup como improvisación teatral

La tercera fuente de inspiración es el teatro de improvisación de Keith Johnstone, cuyo libro Impro se entregaba a los nuevos empleados de Palantir. Su principio fundamental: "di 'sí, y…' ". Acepta la oferta del otro y añade algo. No bloquees. En una startup, esto se traduce en experimentación rápida, fracaso temprano, iteración constante. No hay tiempo para comités.

El libro señala que la mayoría de las empresas seleccionan y premian el cumplimiento sin cuestionamientos. Contratan a personas que asienten. Pero una verdadera startup necesita personas que se atrevan a proponer, contradecir (constructivamente) y desobedecer órdenes estúpidas. Esa "desobediencia constructiva" es el motor de la innovación.

Esta flexibilidad de estatus contrasta con los experimentos de Milgram, donde dos tercios de los participantes administraban descargas que creían letales solo porque una autoridad se lo indicaba. El enjambre es el antídoto contra esa obediencia ciega.

Pregunta al lector: Si tuviéramos que diseñar una IA para gestionar una crisis (ciberataque, pandemia, guerra), ¿preferirías un único modelo todopoderoso o un enjambre de IAs pequeñas que deliberan entre sí? ¿Qué te inspiraría más confianza?

Transición: Este debate sobre la forma de la IA no es abstracto. Está directamente conectado con la seguridad nacional y el equilibrio geopolítico. Pasemos a la era de la disuasión algorítmica.


SECCIÓN 4 – La nueva era de la disuasión: la IA como heredera de la bomba atómica

La bomba atómica estructuró la geopolítica durante 80 años. Ahora la inteligencia artificial, más difusa y barata, la está reemplazando. Occidente se debate en dilemas éticos mientras sus adversarios avanzan sin ellos.

Palabras clave: disuasión algorítmica, armas autónomas, enjambres de drones, asimetría ética, nuevo Manhattan Project


El ocaso de los misiles y el amanecer del software

"Me he convertido en la Muerte, el destructor de mundos", dijo Oppenheimer al ver la primera explosión nuclear. Setenta y nueve años después, Karp y Zamiska preguntan: ¿y si ese poder está dejando de ser relevante? No porque las bombas hayan desaparecido, sino porque la disuasión se ha vuelto algorítmica.

El libro dedica un pasaje memorable al F-35, el caza furtivo de Lockheed Martin, que cuesta 2 billones de dólares y seguirá en servicio hasta 2088. Pero, como señala el general Mark Milley: "¿Realmente creemos que un avión tripulado dominará los cielos dentro de sesenta años?" La respuesta es no. La era del hardware militar está dando paso a la era del software. Y el software se actualiza en semanas, no en décadas.

Ahora la relación se invierte: la IA es el cerebro, y los drones, sensores y robots son solo el cuerpo que ejecuta sus decisiones. Los enjambres de drones no necesitan pilotos. Los sistemas de reconocimiento facial no necesitan un agente humano mirando fotos. La guerra se está automatizando.

El adversario no espera

Tres de los seis sistemas de reconocimiento facial más precisos del mundo son chinos. En diciembre de 2021, el Tesoro estadounidense acusó a CloudWalk Technology de proporcionar software al gobierno chino para "vigilar a miembros de grupos étnicos minoritarios". Investigadores de la Universidad de Zhejiang desarrollaron un enjambre de drones capaz de volar coordinadamente a través de un denso bosque de bambú. La Fuerza Aérea de EE.UU. concluyó que Pekín está "persiguiendo activamente la investigación de enjambres de drones para combate a gran escala".

La asimetría es brutal. Mientras en Occidente los ingenieros de Google protestan contra el Proyecto Maven, en China trabajan sin esos dilemas. Mientras el Pentágono gasta 1.800 millones en IA (el 0,2% de su presupuesto), Pekín ha hecho de la IA una prioridad nacional.

Esto recuerda a la carrera nuclear de los años cuarenta, pero con una diferencia crucial. Entonces, los científicos occidentales (muchos exiliados del fascismo) tenían una motivación moral clara: vencer a Hitler. Ahora, la motivación está difusa. La generación actual de ingenieros no ha vivido una guerra total. Su pacifismo es un lujo que solo pueden permitirse porque otros –soldados profesionales de clases humildes– ya pagan el precio de la seguridad.

El dilema del pacifismo tecnológico

El libro critica a países como Alemania y Japón, que tras la Segunda Guerra Mundial adoptaron constituciones pacifistas y delegaron su defensa en Estados Unidos. Alemania redujo su ejército a "ejércitos bonsái", en palabras de Josep Borrell. Japón mantiene el artículo 9 de su constitución, que renuncia a la guerra como derecho soberano. El resultado: dependencia estratégica, especialmente peligrosa en el ámbito de la IA. Los europeos y japoneses no desarrollan sus propias capacidades algorítmicas de disuasión. Dependen de Washington, que a su vez depende de un Silicon Valley que se resiste a trabajar para el Pentágono.

La propuesta del libro es radical: un nuevo Manhattan Project para la IA. No para construir una bomba, sino para desarrollar sistemas de IA que garanticen la superioridad occidental en el campo de batalla del futuro. Eso implica financiación masiva y un cambio cultural: los ingenieros deben entender que trabajar para la defensa nacional no es "fabricar armas", sino participar en la disuasión que permite que exista el resto de la economía.

Pregunta al lector: Si un adversario desarrollara enjambres de drones autónomos capaces de arrasar infraestructuras críticas, y Occidente tuviera la tecnología para hacerlo pero decidiera no hacerlo "por ética", ¿sería una decisión valiente o una irresponsabilidad estratégica?

Transición: Pero no basta con voluntad política. El Estado actual es incapaz de innovar rápido. ¿Por qué? La respuesta está en sus sistemas de incentivos.


SECCIÓN 5 – El precio de la pureza: por qué el Estado se castra a sí mismo

Los salarios miserables, el culto al procedimiento y el miedo al error han alejado del sector público a los líderes más capaces. Esta sección muestra por qué la burocracia estatal es incompatible con la velocidad que exige la IA.

Palabras clave: incentivos públicos, liderazgo con riesgo, pureza procedimental, caso Rickover, castración del Estado


El presidente de la Fed que gana como un becario

En febrero de 2023, el multimillonario David Rubenstein entrevistó a Jerome Powell, presidente de la Reserva Federal. La conversación era rutinaria hasta que Rubenstein preguntó: "¿Cuál es su salario?" Powell respondió: "Unos 190.000 dólares al año". Rubenstein insistió: "¿Cree que es justo?" Powell, con una elegancia casi absurda, dijo: "Lo creo".

Las decisiones de Powell afectan a los precios que paga cada familia, al empleo de millones de personas, al valor de los ahorros de toda una generación. Sin embargo, su salario es inferior al de un asociado de primer año en un banco de inversión. Karp y Zamiska son directos: "Con ese salario, Powell está esencialmente trabajando como voluntario".

La consecuencia práctica es que el grupo de personas dispuestas a ocupar esos puestos se reduce drásticamente. O eres millonario de antemano (como Powell, cuyo patrimonio supera los 20 millones) o nunca podrías permitirte aceptar el cargo. Las democracias han creado un sistema que selecciona gobernantes entre los ya ricos o entre los dispuestos a monetizar su influencia después del cargo. Ambas opciones son perversas.

La falacia del servidor público como sacerdote

Los autores identifican un prejuicio cultural de larga data: la idea de que quienes sirven al Estado deben hacerlo por vocación, no por dinero. Platón decía que los buenos gobernantes no consienten en gobernar por dinero ni por honores. Pero ese ideal ha producido el efecto contrario: alejar del servicio público a los más capacitados.

El contraste con Singapur es demoledor. Lee Kuan Yew equiparó los salarios de los ministros con los de los altos ejecutivos de la banca. En 2007, un ministro singapurense ganaba 1,26 millones de dólares anuales. Cuando le criticaban, respondía: "Los políticos son hombres y mujeres reales, con familias reales que tienen aspiraciones reales. Muy pocas personas se hacen sacerdotes".

El almirante que construyó la marina nuclear violando las reglas

El caso más fascinante es el de Hyman Rickover, el almirante que construyó la marina nuclear de EE.UU. Era arrogante, abusivo, encerraba a oficiales en armarios. Cuando un subordinado llegó con un libro de reglamentos, Rickover le dijo que lo quemara. "Mi trabajo no era trabajar dentro del sistema. Mi trabajo era hacer que las cosas se hicieran".

Rickover logró lo imposible: en 1953 probó el primer reactor nuclear lo bastante pequeño para caber en un submarino. En 1955, el USS Nautilus surcaba los océanos sin salir a la superficie. La ventaja sobre la Unión Soviética fue decisiva y duró décadas. Pero también violó normas. Aceptó regalos de General Dynamics durante dieciséis años: un collar de jade, posavasos de Tiffany, la tintorería de sus trajes. Nada de gran valor, pero todo junto constituía un patrón inaceptable.

El libro no defiende la corrupción. Pero plantea una pregunta que la cultura actual se niega a formular: ¿cuánta irregularidad estamos dispuestos a tolerar a cambio de resultados extraordinarios? Rickover fue investigado y apartado. Sus enemigos celebraron su "caída en desgracia". Pero la marina nuclear que construyó sigue protegiendo a Estados Unidos.

El caso Rickover ilustra la tensión entre procedimiento y resultado. Las democracias modernas han priorizado el procedimiento por miedo al abuso. Es una decisión razonable, pero no gratuita. El precio es la pérdida de líderes excéntricos, insoportables y extraordinariamente efectivos. En el ámbito de la IA, los comités éticos y las regulaciones preventivas reducen el riesgo de abuso, pero también la velocidad. Y en una carrera tecnológica global, la velocidad puede ser el factor decisivo.

Pregunta al lector: ¿Tolerarías que un líder público violara ciertas normas administrativas si con ello lograra avances decisivos en IA para la defensa? ¿Dónde está el límite entre flexibilidad necesaria y corrupción?

Transición: Con estas advertencias, ¿qué hacer? El libro tiene propuestas concretas, pero también limitaciones notables.


SECCIÓN 6 – Reconstruir la república tecnológica (y sus límites)

Karp y Zamiska proponen un nuevo Manhattan Project, un cuerpo de paz tecnológico y la recuperación de la identidad nacional. Pero el análisis crítico revela tensiones no resueltas: ¿más tecnología o un cambio cultural más profundo?

Palabras clave: Manhattan Project, cuerpo de paz tecnológico, identidad nacional, proyecto colectivo, límites del optimismo tecnológico


Un nuevo Manhattan Project para la IA

La propuesta más ambiciosa: Estados Unidos y sus aliados deben lanzar sin demora un nuevo Manhattan Project para la IA. No para construir una bomba, sino para desarrollar sistemas algorítmicos de disuasión. El proyecto original reunió a los mejores físicos, movilizó recursos ilimitados y logró en tres años lo que parecía imposible.

¿Qué implicaría? Inversión masiva en investigación, pero también una reforma de la adquisición de software por el Pentágono. El libro narra cómo la Ley de Simplificación de Adquisiciones Federales de 1994 fue ignorada durante dos décadas hasta que Palantir la invocó en los tribunales y ganó. El Estado debe aprender a comprar software como compra tornillos: evaluando productos existentes, probando prototipos en semanas y escalando rápido.

El cuerpo de paz tecnológico

El segundo pilar sería un "cuerpo de paz tecnológico": que los mejores ingenieros de Silicon Valley pudieran pasar uno o dos años sirviendo en agencias gubernamentales, modernizando sistemas obsoletos, construyendo herramientas para la defensa o la sanidad pública. No como contratistas externos, sino como servicio cívico.

La idea es atractiva pero ingenua. El libro reconoce las dificultades: salarios bajos, burocracia asfixiante, culturas incompatibles. Pero sostiene que sin flujo de talento hacia el sector público, la brecha de innovación solo se ensanchará.

El cuerpo de paz tecnológico recuerda a los programas de servicio nacional de Roosevelt y Kennedy, que canalizaron el idealismo juvenil hacia proyectos colectivos tangibles. Hoy el idealismo juvenil se canaliza hacia causas globales abstractas o startups que prometen "cambiar el mundo" vendiendo aplicaciones. Quizá sea más necesario modernizar los sistemas de inteligencia del Pentágono que construir la enésima red social.

El regreso de la identidad nacional

La tercera pata es la más sorprendente: recuperar una identidad nacional compartida. En una época donde hablar de "cultura occidental" se considera sospechoso, los autores se atreven a afirmar que sin un sentido de pertenencia no hay proyecto nacional que defender. Y sin proyecto nacional, la tecnología es un juguete.

Recurren a Ernest Renan, que definió la nación como "un plebiscito cotidiano": no raza ni lengua, sino la voluntad compartida de seguir viviendo juntos. Critican a la izquierda contemporánea por abandonar cualquier discurso sobre la identidad nacional, delegándolo en el mercado o en el activismo global. El resultado, según ellos, es un vacío que llena el consumo: la gente ya no se identifica como ciudadana, sino como fan de un equipo deportivo o cliente de una marca. Y esa identidad de mercado es demasiado débil para movilizar la defensa colectiva.

Los límites del optimismo tecnológico

El análisis crítico debe señalar limitaciones. La primera es el optimismo tecnológico de fondo. Karp cree que el problema es que los ingenieros trabajan en cosas equivocadas; la solución es redirigirlos. Pero ¿y si la crisis de propósito es cultural, política, incluso espiritual, y no se repara con otro Manhattan Project?

La carrera espacial movilizó a Estados Unidos no solo porque los cohetes fueran desafiantes, sino porque encarnaba una narrativa: democracia frente a comunismo, libertad frente a tiranía. Esa narrativa era anterior a la tecnología. El libro no explica cómo reconstruirla en una era de cinismo generalizado.

Otra limitación: el libro apenas aborda la desigualdad. Los mismos ingenieros que Karp quiere redirigir a la defensa ganan salarios millonarios. ¿Van a aceptar trabajar por menos dinero en agencias gubernamentales? El libro menciona el modelo de incentivos de Singapur, pero no lo aplica a Silicon Valley. Si los ingenieros de defensa están peor pagados que los de publicidad, la redirección de talento será siempre parcial.

El futuro de la IA como proyecto colectivo

A pesar de estas limitaciones, el libro plantea una pregunta ineludible: ¿para qué queremos la IA? ¿Para que los adolescentes pasen más horas viendo vídeos cortos? ¿Para optimizar publicidad hasta la manipulación? ¿O para curar enfermedades, predecir desastres, defender la democracia?

La respuesta no puede dejarse al mercado. El mercado genera lo rentable, no lo deseable. Y en ausencia de un proyecto colectivo, lo rentable se impone por defecto.

El futuro de la IA se decidirá en tres frentes: tecnológico (capacidad de desarrollar sistemas avanzados), organizativo (agilidad institucional) y cultural (relato compartido). Los dos primeros son difíciles, pero el tercero es el más decisivo. Sin un "para qué", el "cómo" es solo técnica.


EPÍLOGO DEL EDITOR

The Technological Republic es un libro incómodo, diseñado para ofender a casi todos. Ofende a la izquierda tecnológica por criticar su pacifismo y evasión moral. Ofende a la derecha libertaria por defender un Estado fuerte y proyectos colectivos. Ofende a los burócratas por señalar su ineficacia, y a los ingenieros por recordarles que sus creaciones no son neutrales.

Pero incomoda sobre todo porque sus preguntas son pertinentes. ¿Puede una civilización que ha perdido la fe en sí misma defender su lugar en el mundo? ¿Pueden unos líderes educados en el relativismo tomar decisiones difíciles? ¿Puede una IA entrenada con discursos vacíos de convicción desarrollar algún día criterio propio?

El libro no responde a estas preguntas, pero las formula con una urgencia que rara vez se encuentra en los tratados académicos. Karp y Zamiska no son neutrales. Tienen una posición, la defienden sin ambages y asumen el coste. En una época donde la neutralidad forzada es la norma, ese gesto ya es significativo.

Pregunta final para el lector (con invitación a la acción): Imagina que dentro de diez años existe una IA general capaz de superar a los humanos en casi cualquier tarea cognitiva. Esa IA ha sido entrenada con los datos y valores de nuestra cultura –escéptica, ambivalente, carente de convicciones fuertes. ¿Qué tipo de inteligencia emergerá? ¿Una IA tímida y evasiva, o una que desarrolle sus propios criterios, quizá no alineados con los nuestros?

No se trata solo de regular. Se trata de decidir qué queremos construir y por qué. Y ese debate no puede delegarse en ingenieros ni en políticos. Nos pertenece a todos.