(Re)descubrí a Lem por casualidad, como se descubren las mejores cosas. Un tuit de Bratton que recuperaba este texto fundacional del '64, que me hacía eco del podcast de Jorge Carrión, Solaris, y que en Diciembre de 2019 Piscitelli nos hizo recuperar en la previa del curso de verano sobre la serie Westworld. Ahora con este texto en mano (o pantalla) quedé fascinado: no era sólo ciencia, era filosofía disfrazada de aventura espacial. Summa Technologiae puede considerarse un tratado futurológico que anticipaba debates que recién empezamos a tener en serio en el siglo XXI. Inteligencia artificial, realidad virtual, nanotecnología, bioingeniería, motores de búsqueda. Todo estaba ahí, escrito por un tipo en la Polonia comunista de los sesenta, sin acceso a internet (porque no existía), sin smartphones, sin nada de lo que hoy damos por sentado.
The most amazing book you have never heard of. Stanislaw Lem's Summa Technologiae from 1964https://t.co/WWWXepq7W2
— Benjamin Bratton (@bratton) December 6, 2025
Inteligencia como fenómeno cósmico era, para Lem, una de las grandes preguntas sin respuesta. ¿Es la inteligencia un accidente o una necesidad en el universo? Lem no se conformaba con la respuesta fácil del antropocentrismo: que somos especiales, únicos, la cumbre de la creación. Para él, la emergencia de la inteligencia era un problema estadístico. Si pensamos en el universo como un laboratorio gigantesco donde se prueban todas las combinaciones posibles de materia y energía, la inteligencia sería solo una de esas combinaciones que, eventualmente, tenía que aparecer. Pero acá viene el twist: Lem se preguntaba si esa inteligencia necesariamente tenía que parecerse a la nuestra. ¿Podría haber formas de conciencia tan radicalmente distintas que ni siquiera las reconoceríamos como tales? Esta pregunta, que hoy discutimos cuando hablamos de inteligencias artificiales no humanas, Lem la planteaba hace 60 años. Y lo hacía desde una posición filosóficamente incómoda: la de aceptar que quizás nunca podríamos reconocer o comunicarnos con otras formas de inteligencia, incluso si las tuviéramos enfrente.
Summa Technologiae puede considerarse un tratado futurológico que anticipaba debates que recién empezamos a tener en serio en el siglo XXI. Inteligencia artificial, realidad virtual, nanotecnología, bioingeniería, motores de búsqueda.
Artificial es una palabra que usamos con demasiada ligereza. Solemos oponer lo "natural" a lo "artificial" como si fueran categorías estancas, cuando en realidad son apenas convenciones lingüísticas. Lem dedicó gran parte de Summa Technologiae a desarmar esta distinción. Para él, la tecnología no era una "aberración" de la naturaleza sino su continuación por otros medios. La evolución biológica y la evolución técnica seguían las mismas lógicas: prueba y error, selección, adaptación, extinción. Lo único que cambiaba era la velocidad y el agente. Donde la naturaleza tardaba millones de años en "diseñar" un ojo, la tecnología podía crear un microscopio en décadas. Pero ambos procesos respondían a la misma pulsión homeostática: el intento de los sistemas vivos de mantener el equilibrio frente al caos entrópico del universo. La gran diferencia, decía Lem, era que la evolución biológica era ciega, mientras que la evolución técnica podía (en teoría) ser consciente y dirigida. Aunque, y esto es crucial, Lem también advertía que la tecnología tenía vida propia, que se desarrollaba según gradientes que nadie controlaba del todo. Era y es un proceso autoorganizado donde los humanos somos apenas un componente más.
Generó entonces un concepto fascinante que llamó "homeostasis" extendida. Básicamente, toda la historia de la civilización podía entenderse como un proceso cibernético de expansión del rango homeostático. Los organismos simples solo podían mantener su equilibrio interno en condiciones muy específicas. Los más complejos (como nosotros) desarrollaron mecanismos para independizarse parcialmente del ambiente: regulación de temperatura, sistemas inmunes, cerebros que planifican. La tecnología era el siguiente paso: herramientas que nos permitían sobrevivir en ambientes hostiles, acumular recursos, predecir amenazas. Pero Lem iba más allá: se preguntaba si eventualmente no llegaríamos a un punto donde pudiéramos regular no solo nuestro ambiente inmediato (el clima de una ciudad, digamos) sino fenómenos a escala planetaria o incluso estelar. ¿Qué pasaría, se preguntaba, si alguna vez pudiéramos controlar la fusión nuclear de las estrellas? ¿O diseñar ecosistemas completos desde cero? Estas preguntas, que en 1964 sonaban a ciencia ficción pura, hoy están en la agenda de la geoingeniería y la terraformación. Lem no estaba prediciendo el futuro: estaba identificando las lógicas profundas que rigen todo sistema complejo.
Este método que usaba Lem para pensar el futuro era peculiar. No trataba de adivinar qué inventos específicos iban a aparecer (aunque acertó en varios), sino de identificar qué tipos de problemas iban a surgir y qué tipos de soluciones eran estructuralmente posibles. Era más un ejercicio de lógica que de profecía. Por ejemplo, no predijo YouTube, pero sí anticipó que la información se volvería tan abundante que necesitaríamos sistemas automatizados para filtrarla y organizarla. Llamó a esto "ariadnología", en referencia al hilo de Ariadna del mito griego: la necesidad de tener guías que nos ayuden a no perdernos en el laberinto de datos. ¿Qué son los algoritmos de recomendación de Netflix, Spotify o Google sino ariadnología aplicada? Lem también entendía que toda solución tecnológica generaba nuevos problemas. La escritura resolvió el problema de la transmisión de conocimiento pero creó el problema de la alfabetización masiva. La imprenta democratizó el acceso a los libros pero generó sobrecarga informativa. Internet nos conectó globalmente pero nos fragmentó culturalmente. Lem no era pesimista ni optimista: era realista. Sabía que la tecnología no nos iba a salvar ni a condenar, simplemente nos iba a cambiar de maneras que no podíamos anticipar del todo.
Contenido y forma eran, para Lem, dos caras de la misma moneda evolutiva. La evolución biológica tenía una característica fascinante: primero creaba el "hardware" (el cuerpo, los órganos, los tejidos) y luego ese hardware condiciona qué tipo de "software" (comportamientos, instintos) podía correr. Los pájaros tienen alas, ergo vuelan. Pero la evolución técnica podía hacer algo más flexible: cambiar el hardware y el software simultáneamente, o incluso crear software sin hardware específico. Una app puede correr en millones de dispositivos distintos. Esta plasticidad era, para Lem, tanto una ventaja como un peligro. Ventaja porque nos permitía adaptarnos rapidísimo a nuevos contextos. Peligro porque podíamos crear tecnologías cuyas consecuencias no entendíamos. Lem ponía el ejemplo de las armas nucleares: habían sido diseñadas con un propósito específico (ganar la Segunda Guerra Mundial) pero habían generado un problema completamente nuevo (la posibilidad de extinción total de la humanidad). El contenido (destruir una ciudad enemiga) había desbordado la forma (una bomba) y había creado algo inédito: una especie capaz de suicidarse a escala planetaria. Para Lem, este desacople entre intención y consecuencia era el drama central de la condición tecnológica.
Analizando los límites del conocimiento, Lem llegaba a conclusiones incómodas. Una de sus tesis más provocadoras era que eventualmente la ciencia iba a toparse con barreras infranqueables, no por falta de ingenio sino por limitaciones estructurales. Había fenómenos que eran demasiado complejos para ser comprendidos por mentes como las nuestras. Lem usaba una analogía brillante: pedirle a un perro que entienda la mecánica cuántica. No es que el perro sea tonto; es que su cerebro no está cableado para procesar ese nivel de abstracción. ¿Qué nos hacía pensar que nosotros estábamos mejor equipados para entender el universo en toda su complejidad? De ahí que el autor propusiera que, tarde o temprano, íbamos a necesitar extender nuestras capacidades cognitivas. No solo con educación o libros, sino con tecnología que literalmente amplificara nuestra mente. Esto es lo que él llamaba "intelectrónica": la simbiosis entre cerebros biológicos y sistemas artificiales de procesamiento de información. Suena a cyberpunk, pero Lem lo estaba pensando en los sesenta, décadas antes de que existieran las interfaces cerebro-computadora o los implantes neurales de los que hoy habla Neuralink. Y lo pensaba no como un capricho transhumanista sino como una necesidad epistemológica: o aumentamos nuestras capacidades cognitivas, o nos quedamos estancados.
Las fantasmagorías de Lem tienen un nombre técnico en Summa: phantomática. Este es probablemente el concepto más salvaje y visionario del libro. Lem se preguntaba: ¿qué pasaría si pudiéramos crear realidades completamente sintéticas, indistinguibles de la "real"? No estaba hablando de películas o videojuegos (que ya existían en formas primitivas) sino de algo más radical: experiencias sensoriales totales, mundos simulados tan convincentes que vivirlos sería idéntico a vivir en el mundo físico. Lem distinguía entre "phantomática periférica" (engañar los sentidos desde afuera, como hace un cine 3D) y "phantomática central" (intervenir directamente el cerebro para generar experiencias). La primera era limitada; la segunda, potencialmente infinita. Si podés hackear el cerebro, podés crear cualquier experiencia: volar, ser inmortal, vivir mil vidas en una. Lem veía esto como inevitable: una vez que tuviéramos la tecnología, la usaríamos. Pero también veía los peligros: ¿qué pasaba con la realidad compartida si cada uno podía vivir en su propia simulación personalizada? ¿Qué sentido tenía el mundo material si podíamos crear mundos mentales infinitamente más placenteros? Estas preguntas, que hoy discutimos en relación a la realidad virtual, el metaverso y las interfaces cerebrales, Lem las planteaba hace seis décadas. Y no tenía respuestas reconfortantes.
Las preguntas importantes no son técnicas sino filosóficas: ¿qué queremos hacer con el poder que nos da la tecnología? ¿Cómo evitamos que nos destruya? ¿Podemos dirigir conscientemente nuestra evolución técnica o estamos condenados a ser arrastrados por ella?
Profecías cumplidas hay varias en Summa Technologiae. Lem anticipó los motores de búsqueda (su "ariadnología"), la realidad virtual (phantomática), la inteligencia artificial (intelectrónica), la nanotecnología (que llamaba "ingeniería molecular"), e incluso algo parecido a las redes sociales (habló de "redes de información" donde todos seríamos simultáneamente consumidores y productores de contenido). Pero lo más impresionante no es que haya acertado en tecnologías específicas sino que identificó correctamente las dinámicas subyacentes. Por ejemplo, previó que la información se convertiría en el recurso más valioso, mucho antes de que existieran Google o Facebook. Entendió que la automatización no sólo reemplazaría el trabajo manual sino también mental. Anticipó que los problemas éticos más graves vendrían no de la tecnología en sí sino de su uso desigual: unos tendrían acceso a mejoras cognitivas, otros no; unos podrían vivir en realidades sintéticas paradisíacas, otros quedarían atrapados en la miseria material. Lem no era utópico: sabía que la tecnología no distribuía sus beneficios equitativamente y que, de hecho, tendía a amplificar las desigualdades existentes. También sabía que no había vuelta atrás. Una vez que inventas algo, no lo podés desinventar. La pregunta no era si íbamos a desarrollar IA, realidad virtual o bioingeniería, sino cuándo y cómo.
Tecnológicas derivadas del presente confirman muchas de las intuiciones de Lem. Vivimos en un mundo donde los algoritmos toman decisiones que afectan nuestras vidas (a quién le dan crédito los bancos, qué noticias vemos, con quién nos emparejamos en apps de citas). Estamos desarrollando interfaces cerebro-computadora. Empezamos a editar genomas con CRISPR. La realidad virtual ya no es ciencia ficción. Todo esto estaba, de alguna manera, en Summa. Pero lo más inquietante es que también estamos viviendo los problemas que Lem anticipó. La sobrecarga informativa es real: hay demasiado contenido, demasiadas noticias, demasiadas opciones, y nuestros cerebros no están preparados para procesarlo. La desigualdad tecnológica es real: hay países con acceso a tecnologías de punta y países que apenas tienen conectividad básica. La dependencia de sistemas que no entendemos es real: ¿cuántos de nosotros sabemos cómo funciona el algoritmo de Instagram o el sistema operativo de nuestro teléfono? Lem tenía razón: la tecnología nos estaba haciendo más poderosos pero también más vulnerables. Y lo peor es que no había un "piloto" dirigiendo todo esto. La tecnología evoluciona según sus propias lógicas, como un río que fluye por donde la gravedad le indica, sin importarle qué ciudades inunda en el proceso.
Seguimos pensando la tecnología como algo opcional, reversible, controlable, cuando en realidad es constitutiva de lo que somos como especie. Lem entendió esto hace 60 años.
De la ficción a la realidad hay un solo paso cuando leés a Lem. Sus novelas (Solaris, Ciberíada, Congreso de Futurología) eran laboratorios conceptuales donde exploraba ideas que después desarrolla técnicamente en Summa. Pero Summa no es ficción: es filosofía de la tecnología hardcore, con referencias a cibernética, termodinámica, teoría de sistemas, biología evolutiva. Lem no era un diletante; había estudiado medicina, conocía la ciencia de su época y leía vorazmente todo lo que caía en sus manos. Su método era riguroso: partía de premisas científicas sólidas y las extrapola hasta sus consecuencias lógicas más extremas. Algunos lo acusaron de ser demasiado especulativo, pero con el tiempo se demostró que sus especulaciones estaban bien fundadas. El problema, en todo caso, no era que fuera demasiado imaginativo sino que la realidad resultó ser tan extraña como él había anticipado. Hoy, cuando discutimos si las IAs pueden ser conscientes, si debemos regular la edición genética, si la realidad virtual puede sustituir experiencias físicas, estamos teniendo exactamente las conversaciones que Lem propuso en 1964. Solo que ahora son urgentes, porque la tecnología ya está acá.
Lem sigue vigente no solo por sus aciertos sino por su método. Nos enseñó a pensar la tecnología no como una colección de gadgets sino como un proceso evolutivo con sus propias dinámicas. Nos mostró que las preguntas importantes no son técnicas sino filosóficas: ¿qué queremos hacer con el poder que nos da la tecnología? ¿Cómo evitamos que nos destruya? ¿Podemos dirigir conscientemente nuestra evolución técnica o estamos condenados a ser arrastrados por ella? Lem no tenía respuestas definitivas, pero tenía preguntas brillantes. Y en un mundo donde la tecnología avanza más rápido que nuestra capacidad de reflexionar sobre ella, las preguntas importan tanto como las respuestas. Summa Technologiae es un libro incómodo porque nos obliga a enfrentar nuestra propia precariedad: somos una especie muy poderosa pero muy poco sabia. Hemos desarrollado herramientas que pueden alterar el planeta y quizás el sistema solar, pero seguimos operando con cerebros diseñados para la sabana africana del Pleistoceno. Lem lo sabía, y su obra es un intento de darnos un mapa para navegar esa contradicción.
Leer Summa Technologiae hoy es una experiencia extraña. Por un lado, te das cuenta de que muchísimas de las "novedades" tecnológicas del siglo XXI ya estaban conceptualmente planteadas en 1964. Por otro lado, entendés que Lem no era un profeta sino simplemente alguien que se tomó en serio las implicaciones de lo que la ciencia ya sabía en su época. La diferencia entre Lem y nosotros no es que él viera el futuro; es que nosotros, teniendo el futuro encima, seguimos sin verlo claro. Seguimos pensando la tecnología como algo opcional, reversible, controlable, cuando en realidad es constitutiva de lo que somos como especie. Lem entendió esto hace 60 años. Nosotros recién estamos empezando a digerirlo. Y si bien son las mismas preguntas que nos hacemos hoy, el sentido de urgencia es notorio y no tenemos 60 años más para pensar las respuestas.