Por: Henry Pacheco
Los avances en inteligencia artificial despiertan fascinación, pero también suscitan preguntas sobre esta tecnología: ¿se está teniendo en cuenta lo esencial? En los años setenta, algunos informáticos hippies soñaron con máquinas que nos ayudaran a desarrollar nuestra inteligencia “natural” y nuestra forma de relacionarnos con el mundo.
Un fantasma recorre Estados Unidos: el fantasma del comunismo. Y esta vez es digital. “¿Podría funcionar un comunismo gestionado por inteligencia artificial?”,
Al inversor de riesgo Marc Andreessen le preocupa que China pueda estar preparándose para inventar una inteligencia artificial (IA) comunista. Incluso el agitador republicano Vivek Ramaswamy se ha animado a opinar sobre el tema y afirma en la red social X que la IA procomunista constituye una amenaza comparable a la de la covid-19.
Pero, en medio de este pánico generalizado, nadie sabe qué significa realmente una “IA comunista”. ¿Qué modelo podría seguir? ¿El chino, con plataformas similares a las de las grandes empresas estadounidenses pero sometidas a un control estatal estricto? ¿O más bien uno de tipo Estado social a la europea, con un desarrollo centralizado en manos de la administración pública?
La segunda opción presenta cierto atractivo, sobre todo viendo que la actual carrera por la inteligencia artificial tiende a priorizar rapidez frente a calidad. Una financiación pública de la IA generativa que viniese acompañada de una selección rigurosa de los datos y de una supervisión exigente podría incrementar tanto la calidad de las herramientas como los precios de facturación a las empresas, lo que garantizaría mejores retribuciones a los creadores de contenidos.
Aun así, el hecho mismo de intentar desarrollar una economía socializada de la inteligencia artificial, ¿no equivaldría a volver a rendirse a Silicon Valley? ¿Una IA “comunista” o “socialista” debería limitarse a decidir quién tiene y controla los datos o a modificar los modelos y las infraestructuras informáticas? ¿No podría conducir a transformaciones de más calado?
Dos ejemplos de la historia contemporánea sugieren una respuesta afirmativa a esta última pregunta. El primero se llama CyberSyn, la visionaria iniciativa del presidente chileno Salvador Allende. Dirigido por un carismático consultor británico, Stafford Beer, este proyecto tan ambicioso como efímero (1970-1973) pretendía inventar una manera más eficaz de gestionar la economía aprovechando los modestos recursos informáticos del país.
CyberSyn, a menudo apelado el “Internet socialista”, se apoyaba en la red chilena de télex para transmitir todos los datos referentes a la producción de las empresas nacionalizadas a un ordenador central ubicado en Santiago. Sin embargo, para evitar los escollos de la centralización soviética, el sistema introducía una especie de aprendizaje automático vanguardista con el fin de otorgar más poder a los asalariados.
Los técnicos del Gobierno visitaban las fábricas y trabajaban con los operarios para diseñar los procesos de producción y de gestión tal y como se aplicaban en el terreno. Esta valiosa información, a la que los directivos de las empresas capitalistas no podían acceder, se traducía luego en modelos operativos y después era sometida a supervisión mediante programas de estadística específicos. Los operarios-gestores podían así estar al corriente en tiempo real de los problemas que surgían.
En esencia, CyberSyn planteaba un sistema híbrido en el que la capacidad de cálculo de los ordenadores amplificaba la inteligencia humana. Transformar saberes implícitos en un conocimiento formal y concreto permitiría a los trabajadores —es decir, a la clase que acababa de ponerse al mando del país— actuar con seguridad y oportunamente sin importar su experiencia previa en materia de gestión o economía. ¿Podría algo de esto guiarnos en nuestra búsqueda de una IA socialista?
Para seguir explorando el sentido de esta idea singular debemos prestar atención a las aventuras de Warren Brodey, un psiquiatra devenido experto en cibernética que acabó haciéndose hippie y que ahora tiene 100 años.
A finales de los años sesenta, gracias al dinero de un socio rico, Brodey fundó en Boston un laboratorio experimental: el Environmental Ecology Lab (EEL). Unas estaciones de metro más allá, sus amigos Mavin Minsky y Seymour Papert del MIT —institución a la que estuvo ligado durante un tiempo— desarrollaban proyectos de IA que, según él, iban mal encaminados. Minsky y Papert partían del principio de que el razonamiento humano se guiaría por un conjunto de reglas y procesos algorítmicos y que bastaría con identificarlos y descifrarlos para equipar de “inteligencia artificial” a un ordenador.
A contracorriente, Brodey y sus cinco colaboradores pensaban que la inteligencia, lejos de estar encerrada en nuestros cerebros, nace de las interacciones con nuestro entorno. Sería pues una inteligencia ecológica. Las reglas y los mecanismos abstractos no tienen, por sí solos, ningún sentido; todo depende del contexto. Un ejemplo sencillo les servía para ilustrar esta teoría: la orden de desvestirse significa cosas totalmente distintas dependiendo de si viene de un médico, un amante o un desconocido con el que nos hemos topado en un callejón oscuro.
Instrumentos para pensar
Crear una inteligencia artificial capaz de comprender de forma autónoma estos matices sutiles les parecía una apuesta muy arriesgada. Además de modelizar los procesos mentales humanos, habría que pedir que los ordenadores dominaran una variedad infinita de conceptos, comportamientos y situaciones, así como la suma de sus correlaciones —es decir, que comprendieran integralmente el marco cultural de la civilización humana, solo para producir sentido.
En vez de agotarse persiguiendo este objetivo a todas luces imposible, el equipo de Brodey soñaba con poner los ordenadores y las tecnologías cibernéticas al servicio de los humanos para que estos pudieran no solo explorar sino también enriquecer su entorno y, ante todo, a sí mismos. Desde este punto de vista, las tecnologías de la información no serían tan solo herramientas para llevar a cabo tareas, sino también instrumentos para pensar el mundo e interactuar con él. Imaginad, por ejemplo, una ducha cibernética reactiva que charlara con vosotros sobre el cambio climático y la escasez de recursos hídricos, o un coche que os hablara del estado del sistema de transporte público durante vuestro trayecto. El laboratorio llegó a inventar un traje que al vestirse con él para bailar modificaba la música en tiempo real, poniendo así en evidencia los vínculos complejos entre sonido y movimiento.
El Environmental Ecology Lab iba claramente en contra de los postulados de la Escuela de Frankfurt y de su crítica de la razón instrumental: el capitalismo industrial y no la tecnología es el que priva a nuestro mundo de su dimensión ecológica y nos obliga a recurrir a la racionalidad instrumental que denuncian Theodor Adorno, Max Horkheimer y Herbert Marcuse. Para restaurar esta dimensión perdida, el laboratorio quiere que tomemos conciencia, con la ayuda de sensores y ordenadores, de las complejidades que se esconden tras los aspectos de nuestra existencia aparentemente banales.
Las originales ideas de Brodey dejaron una huella profunda, pero, paradójicamente, casi invisible en nuestra cultura digital. Durante su fugaz carrera en el MIT, Brodey apadrinó a un tal Nicholas Negroponte, el tecnoutópico de vanguardia cuyo trabajo en el MIT Media Lab sentó las bases de los parámetros del debate en torno a la revolución digital. Las filosofías de estos dos hombres, no obstante, diferían en todo.
Brodey pensaba que los aparatos cibernéticos de nueva generación tenían que destacar por su “reactividad”, una forma de facilitar el diálogo entre humanos y máquinas y de despertar nuestra conciencia ecológica. Brodey creía que los individuos aspiraban sinceramente a evolucionar y concebía el ordenador como un aliado en ese proyecto de transformación permanente. Su protegido Negroponte readaptó el concepto para que fuera más fácil de manejar: la principal función de las máquinas era comprender, predecir y satisfacer nuestras necesidades inmediatas. En definitiva, Negroponte aspiraba a diseñar máquinas originales y excéntricas, mientras que Brodey, convencido de que los entornos inteligentes —y la propia inteligencia— no podían existir sin las personas, aspiraba a crear humanos originales y excéntricos. Silicon Valley hizo suya la visión de Negroponte.
Otro aspecto diferenciaba a Brodey de sus colegas: mientras que para los informáticos de la época la IA era una herramienta para aumentar a los humanos —las máquinas ejecutan las tareas indeseables para estimular la productividad—, él apuntaba a mejorar a los humanos —un concepto que iba mucho más allá de la eficacia.
La diferencia entre estos dos paradigmas es sutil pero crucial. Aumentar es cuando utilizamos el GPS del teléfono móvil para orientarnos en un lugar desconocido: permite llegar antes y más fácilmente al destino. El aspecto beneficioso es efímero. Si nos quitaran esta ayuda tecnológica nos sentiríamos todavía más desamparados. Mejorar consiste en utilizar la tecnología para desarrollar competencias nuevas —en este caso, refinar el sentido innato de orientación recurriendo a técnicas avanzadas de memorización o aprendiendo a comprender las señales de la naturaleza.
En definitiva, la aumentación nos desprovee de ciertas capacidades en nombre de la eficacia, mientras que la mejora nos hace adquirir otras y enriquece nuestras interacciones con el mundo. De esta diferencia fundamental deriva la manera en que integramos la tecnología en nuestras vidas para transformarnos o bien en operadores pasivos o en artesanos creadores.
Brodey forjó sus convicciones cuando participaba como psiquiatra en un programa más o menos secreto de la Central Intelligence Agency (CIA) a principios de la década de 1960. La agencia estadounidense había tenido la brillante idea de enseñar ruso a un grupo de invidentes cuidadosamente elegidos para ponerlos luego a escuchar comunicaciones soviéticas interceptadas. Su hipótesis era que, al ser invidentes, sus otros sentidos estaban más agudizados que los de los analistas que sí podían ver. Después de varios años trabajando con estas personas para identificar los indicios externos e internos —calor corporal, tasa de humedad ambiente, calidad de la luz— que utilizaban para mejorar su percepción, Brodey descubrió que su aptitud para el perfeccionamiento de los sentidos era algo universalmente compartido.
Aunque este programa de mejora que nos concedía a todos una sensibilidad artística potencial resultaba decididamente poética, Brodey, incorregiblemente pragmático, consideraba que era imposible llevarlo a cabo sin la ayuda de los ordenadores. Cuando intentó trasladarlo al MIT para convertirlo en un campo de investigación oficial, se encontró con una feroz oposición, y no solo por parte de la élite conservadora de la IA. Otros leyeron en sus ideas oscuras connotaciones nazis: ¿no sugería acaso Brodey experimentar con humanos? Esta reacción le obligó a buscar mecenas privados.
La diferencia profunda que existía entre aumentar y mejorar al humano —y sus consecuencias en lo que respecta a la automatización— solo se desveló de forma evidente décadas después. Aumentar busca crear máquinas que piensan y sienten como nosotros, lo que conlleva el riesgo de que nuestras capacidades tengan fecha de caducidad. Las herramientas actuales basadas en la mal llamada IA generativa no pretenden solo “aumentar” el trabajo de los artistas y autores, sino que amenazan con reemplazarlo simple y llanamente. Por contra, las tecnologías inteligentes de Brodey no pretendían automatizar a la humanidad hasta convertirla en algo obsoleto ni estándar. Prometían en cambio enriquecer nuestros gustos y ampliar nuestras capacidades, es decir, ampliar la experiencia humana en vez de reducirla.
Este era un punto de vista valiente en el contexto de una época en la que la mayoría de los representantes de la contracultura veían la tecnología como una fuerza anónima y sin alma de la que había que desconfiar o, en el caso de las comunidades que buscaban un “retorno a la tierra”, como una herramienta de emancipación individual. Cuando, a mediados de la década de 1960, formula sus ideas, Brodey ve cómo su vida familiar y profesional se deteriora. un miembro respetado del establishment estadounidense, se ve cada vez más atraído hacia sus márgenes más vanguardistas. Como muchos otros dentro del movimiento hippie, no reconoce la legitimidad de la política, lo que le impide traducir sus teorías en reivindicaciones.
En la otra punta del mundo, un filósofo soviético llamado Evald Ilyenkov, nacido, como Brodey, en 1924, se hace preguntas muy parecidas, pero dentro del marco conceptual del “marxismo creativo”. Sus trabajos permiten comprender el concepto de mejora del ser humano en el pensamiento comunista y socialista.
Al igual que Brodey, Ilyenkov ha trabajado mucho con personas invidentes. En sus estudios, concluyó que las capacidades cognitivas y sensoriales dependen de la socialización y de las interacciones con la tecnología. Solo con que consiguiésemos hallar buenos entornos pedagógicos y tecnológicos, seríamos capaces de cultivar competencias que poseemos de manera latente. El comunismo, pues, al amparo del Estado, aspira a liberar las capacidades humanas durmientes para que cada individuo pueda desarrollar plenamente su potencial, independientemente de las barreras sociales o naturales.
Superado por la fascinación que sentían los burócratas soviéticos por la inteligencia artificial a la estadounidense, Ilyenkov propuso una crítica especialmente convincente de este modelo en un artículo de 1968 titulado “Ídolos e ideales”. Según él, concebir una inteligencia artificial se parecería a construir una fábrica enorme y ruinosa de arena artificial en medio del Sáhara. Incluso si funcionara a la perfección, sería absurdo no aprovechar en cambio los recursos naturales disponibles en abundancia más allá de sus muros.
Más de seis décadas después, la denuncia de Ilyenkov sigue estando totalmente vigente. Seguimos estancados en ese desierto defendiendo las ventajas de la fábrica, sin ser capaces de ver que nadie, aparte de los generales y arquitectos del orden económico, la necesita realmente. Brodey, por su parte, empleaba otra imagen, que tomó prestada de Marshall McLuhan: sus tecnologías ecológicas tenían la capacidad de sacudirnos, como un pez que repentinamente tomara conciencia de la existencia del agua. De la misma forma, va siendo hora de que alguien descubra a los obsesionados con la IA que están rodeados de un gigantesco yacimiento de inteligencia, humana, creativa, imprevisible y poética.
Sigue pendiente la gran pregunta: ¿podemos realmente mejorarnos si insistimos en manejar conceptos como la IA, que parece contradecir la idea misma del desarrollo humano?
La aspiración a construir una inteligencia artificial no solo ha devorado millones de dólares; a algunos también les ha pasado factura en el plano personal. Y la intransigencia de los jóvenes lobos que han dirigido su expansión —consiguiendo inversiones a toda costa y con una definición muy rígida de las fronteras de su disciplina— ha llevado a marginar a pensadores visionarios como Stafford Beer y Warren Brodey que nunca se sintieron a gusto con la etiqueta “inteligencia artificial”.
Estos dos hombres, que llegaron a conocerse poco antes del fallecimiento del primero en 2002, surgían de círculos diametralmente opuestos. Antiguo empresario, Beer era miembro del muy elitista Club Athenaum británico; Brodey creció en Toronto en una familia judía de clase media. Pero eso no les impedía compartir un mismo desprecio hacia la IA como disciplina científica y hacia el dogmatismo de sus defensores. Su padre espiritual era el mismo: Warren McCulloch, titán de la cibernética.
La cibernética nació justo después de la Segunda Guerra Mundial bajo los auspicios del matemático Norbert Wiener. Muchos investigadores, pioneros en sus respectivos campos (matemáticas, neurofisiología, ingeniería, biología, antropología…) se dieron cuenta de que se enfrentaban a un mismo problema: todos se topaban con procesos complejos y no lineales donde resultaba imposible distinguir causas y efectos: el efecto aparente de un determinado proceso natural o social podía a su vez estar relacionado simultáneamente con otro.
Articulada en torno a esta idea de causalidad mutua y de imbricación de fenómenos aparentemente independientes, la cibernética no era tanto una disciplina científica como una filosofía. Sus grandes pensadores no abandonaban su espacio de investigación inicial, sino que enriquecían sus análisis con una nueva perspectiva. El enfoque interdisciplinar permitía aprehender los procesos en marcha en las máquinas, los cerebros humanos y las sociedades mediante un mismo conjunto de conceptos.
Cuando, a mediados de la década de 1950, apareció la inteligencia artificial, esta se situaba como una emanación natural de la cibernética; en realidad, señalaba una regresión. La cibernética había querido encontrar inspiración en las máquinas para comprender mejor la inteligencia humana, no para reproducirla. Desacomplejada, la nueva disciplina de la IA se propuso abrir una nueva frontera fabricando máquinas capaces de “pensarnos”. El objetivo no era desvelar los misterios de la cognición humana, sino satisfacer las exigencias de su principal cliente: el ejército. La investigación pasó inmediatamente a verse dictada por los imperativos de la defensa, lo que iba a resultar determinante para su futura evolución.
Así fue como algunos de los proyectos inicialmente inspirados por la filosofía cibernética, como el intento de fabricar redes neuronales artificiales, fueron prestamente reorientados con fines militares. De repente, esas redes dejaron de buscar desentrañar las complejidades del pensamiento y empezaron a emplearse para analizar imágenes aéreas para localizar buques enemigos o petroleros. La ambiciosa búsqueda de una inteligencia artificial acabó por dotar de un barniz de prestigio científico a contratos militares banales.
En este contexto la interdisciplinariedad dejó de estar al orden del día. La IA estaba dominada por jóvenes y brillantes matemáticos o informáticos a los que la cibernética les parecía demasiado abstracta, demasiado filosófica y, ante todo, potencialmente subversiva. También hay que decir que, en el ínterin, Norbert Wiener había empezado a respaldar la lucha sindical y a criticar al ejército, lo que no sirvió precisamente para atraer la financiación del Pentágono.
Una política tecnológica post-IA
La inteligencia artificial que prometía “aumentar” a los operadores humanos y crear armas autónomas no sufría de este tipo de problemas de imagen. Fue, desde el principio, una disciplina científica aparte. Mientras las ciencias tradicionales tratan de entender el mundo, a veces con la ayuda de modelos, los pioneros de la IA decidieron construir modelos simplificados de un fenómeno del mundo real —la inteligencia—, para luego convencernos de que no había diferencias entre ambos. Como si los geógrafos idearan una nueva disciplina, el “territorio artificial”, e intentaran hacernos creer que con los avances tecnológicos pronto el mapa y el territorio pasarían a ser la misma cosa.
En muchos sentidos, la trayectoria –y la tragedia– de la inteligencia artificial durante la Guerra Fría se parece a la de las ciencias económicas, especialmente en Estados Unidos. La economía había sido allí un campo en ebullición, plural, que sintonizaba con las dinámicas del mundo real, consciente de que el poder y las instituciones influían en la producción y el crecimiento. Las prioridades de la Guerra Fría la convirtieron en una disciplina obsesionada con modelos abstractos —optimización, equilibrio, teoría de juegos…— cuya pertinencia en la vida real no importaba demasiado. Aunque algunas aplicaciones digitales, como la publicidad en línea o los servicios de vehículo de transporte con conductor (VTC), se apoyan en la actualidad en esos constructos matemáticos, la validez puntual de un enfoque parcial no basta para darla por buena. El caso es que la economía ortodoxa moderna tiene muy poco que ofrecer a la hora de solucionar problemas como la desigualdad o el cambio climático, salvo respuestas basadas en el mercado.
Este diagnóstico también sirve para la inteligencia artificial, que, aunque se describe como un logro tecnológico, a menudo no es más que un eufemismo para referirse al militarismo o al capitalismo. Sus voceros admiten la necesidad de instaurar unas reglas y controles mínimos; sin embargo, son incapaces de imaginar un futuro en el que nuestra concepción de la inteligencia no esté dominada por la IA. Desde el principio, la IA no ha sido tanto una ciencia —caracterizada por perseguir unos objetivos no predeterminados— como un híbrido de religión e ingeniería. Su destino final era la creación de un sistema informático universal capaz de llevar a cabo todo tipo de tareas sin haber sido entrenado específicamente para cumplirlas —una visión que ahora conocemos bajo el nombre de inteligencia artificial general (IAG).
Aquí interviene otro paralelismo con la economía: durante la Guerra Fría, la IAG fue pensada tal y como los economistas concebían el libre mercado, es decir, como una fuerza autónoma, autorregulada, a la que la humanidad no tiene más remedio que adaptarse. Por una parte, el pensamiento económico ha ocultado el papel que jugaron la violencia colonial, el patriarcado y el racismo en la expansión del capitalismo, como si este fuese una prolongación natural de las inclinaciones humanas “[por] traficar, a hacer trueques e intercambios de una cosa por otra”, según la famosa cita de Adam Smith. Por otra parte, el relato tradicional de los orígenes de la IA, aunque reconoce las aportaciones de la cibernética, de las matemáticas y de la lógica, no dice nada del contexto histórico o geopolítico. Como si la eugenesia y la frenología se consideraran sencillamente ramas de la genética y la biología sin mencionar su dimensión racista. No olvidemos, recalca Yarden Katz en su admirable ensayo Artificial Whiteness, que la inteligencia artificial nunca habría existido sin el militarismo, el corporativismo y el patriotismo exacerbado de la Guerra Fría.
¿Podrá un concepto tan pervertido ponerse algún día al servicio de aspiraciones progresistas? Abogar por una “inteligencia artificial comunista”, ¿no es tan vano como soñar con talleres clandestinos con rostro humano o placenteros instrumentos de tortura?
Las vivencias de Stafford Beer y de Warren Brodey sugieren que sería mejor renunciar a la fantasía de una inteligencia artificial socialista y centrarnos en definir una política tecnológica post-IA. En vez de intentar humanizar los productos que ya existen imaginando aplicaciones de izquierdas o inventando nuevos modelos de propiedad económica, deberíamos abrir a todos, sin importar la clase, la etnia ni el género, el acceso a las instituciones, infraestructuras y tecnologías que beneficien la autonomía creativa y nos permitan realizar plenamente nuestras capacidades. Es decir, tenemos que empezar la transición de humano aumentado a humano mejorado.
Esta política se apoyaría en los elementos del Estado del bienestar más alejados de la retórica conservadora del capitalismo: la educación y la cultura, las bibliotecas, las universidades y los medios de comunicación públicos. Abriría así el camino hacia una política educativa y cultural socialista, en vez de reforzar la economía liberal como hace el enfoque actual.
El propio Brodey comprendió bastante pronto que no podía existir una IA socialista sin socialismo. Ya a principios de los años 1970 admitió que el contexto de la Guerra Fría en Estados Unidos vaciaba de sentido su búsqueda de “mejora humana” y de “tecnología ecológica” —además se enorgullecía de rechazar el dinero del Pentágono, e incluso de instituciones como el MIT, para recalcar su oposición a la guerra de Vietnam.
Según Negroponte, Brodey nunca quiso saber nada de convertirse en profesor titular en el MIT. La comodidad no le interesaba. Prefería construirse una casa hecha de espuma e inflables en los bosques de New Hampshire. Un entorno “reactivo e inteligente” que le sentaba bien. Pero esto era ir demasiado lejos hasta para sus admiradores. “No todo el mundo quiere irse a vivir a un globo”, decía con ironía Negroponte en aquella época.
El pensamiento de Brodey estaba impregnado de utopismo. Tanto él como su colaborador más cercano, Avery Johnson, albergaban la esperanza de que la industria estadounidense adoptara su visión —productos reactivos e interactivos que cultivaran nuevos gustos e intereses en el usuario, en vez de limitarse a explotar sus deseos consumistas—. Pero las empresas optaron por la versión más conservadora de Negroponte, donde la interactividad permitía principalmente a las máquinas identificar nuestras ansiedades y hacernos comprar más.
En 1973, desencantado, Brodey se instaló en Noruega. Renació como maoísta, miembro activo del Partido Comunista de los Trabajadores, e incluso fue a China para entablar un diálogo con ingenieros sobre su concepto de “tecnologías reactivas”. Para alguien que estuvo implicado en proyectos del ejército, de la National Aeronautics and Space Administration (NASA) y de la CIA durante la Guerra Fría, este giro de guion no es en absoluto anodino.
Después de hablar largo y tendido con él durante estos últimos diez años en Noruega, donde todavía vive, Brodey sigue encarnando a la perfección el proyecto de evolución abierta que defendía en los años sesenta. Es evidente que la mejora humana ha funcionado en él. Lo que significa que también podría funcionar para todos los demás, a condición de que elijamos las tecnologías adecuadas y cultivemos una sana dosis de escepticismo hacia la inteligencia artificial, sea o no comunista.
