Carabelas de Silicio
May 10, 2026Notas sobre el segundo punto
sin retorno de la humanidad
I. El punto que hay que alcanzar
Franz Kafka escribió, entre 1917 y 1918, durante los meses en que la tuberculosis empezó a anunciarle su propia frontera, un aforismo breve y desconcertante: a partir de cierto punto no hay retorno; este es el punto que hay que alcanzar. La frase ha resistido un siglo de lecturas porque contiene una paradoja que se sostiene incluso después de entendida. El punto sin retorno no aparece, en Kafka, como amenaza ni como advertencia. Aparece como tarea. Como umbral que define al que lo cruza. Como destino que se cumple no a pesar de la imposibilidad de regresar, sino precisamente por ella.
Hay momentos en la trayectoria de un ser, o de una civilización, donde llegar al punto sin retorno deja de ser fracaso y empieza a ser maduración. La adolescencia es uno. La muerte de los padres es otro. La decisión de tener hijos es un tercero. Cada uno de esos umbrales se cruza solo hacia adelante; cada uno modifica al que lo cruza de modo irreversible; y cada uno, justamente por eso, define lo que ese ser será capaz de ser después. La pregunta importante frente a esos umbrales nunca es si llegar a ellos. Es con qué consciencia se cruzan.
Las civilizaciones tienen sus propios umbrales. Y es la tesis que sostiene este ensayo que la humanidad está hoy frente a uno de los más vertiginosos que ha enfrentado en su historia documentada. Lo que se discute en columnas, podcasts y conferencias, si la inteligencia artificial nos conviene, si deberíamos detenerla, si avanzamos demasiado rápido, es ya conversación atrasada. Avanzamos. Está aquí. Las reglas están siendo escritas no por quienes debaten, sino por quienes construyen. La pregunta que sigue siendo nuestra, la única que sigue siendo nuestra, es qué tipo de seres llegamos al otro lado de un umbral que, como anunció Kafka un siglo antes de que existiera, había que alcanzar.
Para entender qué significa cruzar este umbral conviene recordar que la humanidad lo ha hecho antes. Y que del primer cruce todavía cargamos cicatrices abiertas que ningún relato oficial ha terminado de cerrar.
II. El primer Guanahaní
El doce de octubre de mil cuatrocientos noventa y dos, tres barcos pequeños tocaron tierra en una isla que sus habitantes llamaban Guanahaní y que el navegante genovés rebautizó San Salvador. El gesto del rebautizo contenía ya, en miniatura, todo lo que vendría después. La tierra existente fue renombrada según una teología extranjera. El nombre indígena, que llevaba siglos siendo pronunciado por los lucayos que habitaban la isla, quedó ahogado bajo el nombre nuevo. Esa pequeña violencia simbólica anticipó cinco siglos de violencia material. No fue accidente. Fue protocolo.
Lo que ocurrió a partir de ese día no admite simplificación. Dos mundos que llevaban milenios separados se encontraron, y nada volvió a ser igual para ninguno de los dos. Para los pueblos de las Américas, el encuentro fue catástrofe demográfica, espiritual y política sin paralelo en la historia humana documentada: poblaciones enteras desaparecieron en pocas generaciones por enfermedad, esclavización, y guerra. Para África, que entró al sistema de modo forzado a partir del siglo dieciséis, fue la deportación masiva más larga jamás organizada por una civilización. Para Europa, fue la riqueza acumulada que financió siglos después la revolución industrial, las democracias liberales, los museos imperiales. Cada catedral europea que un turista admira hoy contiene oro extraído por trabajo forzado de cuerpos que nadie en Europa nombra.
El intelectual búlgaro francés Tzvetan Todorov, en su libro de mil novecientos ochenta y dos sobre la conquista, sostuvo que el desastre no se produjo solo por la asimetría tecnológica entre conquistadores y conquistados, aunque esa asimetría existió y fue brutal, sino por algo más profundo: la incapacidad de los conquistadores para reconocer al otro como sujeto pleno. Lo veían. Pero no lo registraban como semejante. Esa ceguera ontológica permitió la mecánica del saqueo sin que la consciencia de los actores se interpusiera. El sociólogo peruano Aníbal Quijano nombró las consecuencias estructurales de eso con una expresión que ha hecho carrera en el pensamiento latinoamericano contemporáneo: colonialidad del poder. La idea es que la conquista no terminó cuando salieron los últimos imperios formales en mil ochocientos noventa y ocho. Sus estructuras mentales, la jerarquización racial, la mercantilización del trabajo ajeno, la conversión del territorio en recurso extraíble, siguen operando hoy bajo otras formas. La conquista cambió de bisturí. No salió del cuerpo.
El cantautor guatemalteco Ricardo Arjona, en una canción de mil novecientos noventa y nueve titulada Carabelas, lo dijo en seis versos que valen por una biblioteca: esos sueños de estafa y de saqueo, ese gusto por el oro y esas ansias de poder, es el cáncer que aún enferma al heredero, es la historia de una tierra condenada a padecer. Cáncer del heredero. La frase es exacta. Porque lo que Arjona nombra no es culpa moral, concepto religioso que se hereda y se expía, sino patología estructural, concepto médico que se diagnostica y se trata. La diferencia importa. El cáncer no se confiesa. Se opera.
Pero la canción no termina ahí. La misma voz que diagnostica el mal canta también, dos versos después, la otra mitad de la verdad: pero el negro, el indio y el español se mezclaron para darle un gusto a Dios. Del horror brotó belleza imprevista. La música que somos. Las cocinas mestizas. Los idiomas vivos del continente. Las ceremonias híbridas. La capacidad de duelo y de fiesta que solo emerge cuando una civilización ha tenido que aprender a sobrevivir su propia destrucción. Eso también es parte del primer Guanahaní. No para suavizar el horror, ningún mestizaje justifica la conquista que lo produjo, sino para nombrar la complejidad: lo terrible y lo hermoso brotaron de la misma tierra empapada.
Si algo deberíamos haber aprendido del primer punto sin retorno es esto: el problema nunca fue la tecnología que llegó en las carabelas. Las carabelas eran madera, vela, brújula, pólvora. Tecnología de su tiempo. El problema fue la mente que las empuñaba. La estructura mental del saqueo. La incapacidad de reconocer al otro. La conversión instantánea del descubrimiento en propiedad, del encuentro en conquista, del territorio en recurso. El cáncer del heredero. Y ese cáncer, cinco siglos después, no lo hemos extirpado. Hoy zarpa otra flota, distinta en forma y casi idéntica en pregunta: ¿con qué alma vamos a empuñarla?
III. La amplitud sin alma
Hay una distinción que circula últimamente, elegante y tramposa, sobre la inteligencia artificial: que el ser humano tiene profundidad y la máquina tiene amplitud. La frase consuela. Establece jerarquía. Devuelve al humano al centro del relato. Pero la frase es incompleta, y conviene desarmarla con cuidado porque mucho del debate público sobre la inteligencia artificial se sostiene en su comodidad.
Aristóteles, en la Ética a Nicómaco, distinguió tres tipos de saber humano. Hay un saber teórico: conocer cómo funciona algo, qué es, por qué ocurre. Hay un saber técnico: ser capaz de producir, de fabricar, de ejecutar correctamente. Y hay un tercer saber, el más esquivo, que solo emerge de la vida atravesada y que el filósofo griego llamó phronesis: la sabiduría práctica, el juicio integrado, la capacidad de discernir qué hacer en situaciones particulares donde ninguna regla general basta. Los dos primeros saberes pueden enseñarse en libros. El tercero no. Solo se gana siendo, durante años, alguien que decide bajo incertidumbre y carga las consecuencias. La inteligencia artificial puede acumular los dos primeros saberes en cantidades que ningún humano alcanzará jamás. El tercero le es estructuralmente inaccesible, no porque le falte sofisticación, sino porque carece del sustrato que lo produce: cuerpo en el tiempo, decisiones que cuestan, vida que se gasta.
El filósofo norteamericano John Searle propuso, en mil novecientos ochenta, un experimento mental conocido como la habitación china. Imaginemos a una persona encerrada en un cuarto, sin saber chino, equipada con un manual perfecto que le indica qué responder en chino a cada pregunta que se le entregue por debajo de la puerta. Desde fuera, las respuestas parecen escritas por alguien que entiende chino fluido. Desde dentro, no hay comprensión: solo manipulación de símbolos según reglas. Searle argumentaba que los sistemas computacionales operan así. Procesan tokens lingüísticos sin habitar su significado. Hoy, casi cincuenta años después, su argumento se discute aún, algunos filósofos lo aceptan, otros lo refutan, pero su intuición central permanece útil: que el procesamiento sintáctico, por sofisticado que sea, no es lo mismo que la comprensión semántica encarnada.
El neurocientífico portugués Antonio Damasio aportó, desde otro ángulo, una pieza complementaria. En El error de Descartes y en su trabajo posterior, Damasio demostró, con evidencia clínica de pacientes con daño cerebral en regiones específicas, que la consciencia humana no flota sobre el cuerpo: está hecha del cuerpo. Las emociones no son obstáculo a la razón sino su sustrato biológico. Sin afecto somático, no hay deliberación posible: solo cálculo estéril que se paraliza ante cualquier decisión real. Una inteligencia sin cuerpo no tiene consciencia en sentido pleno. Tiene procesamiento sin habitante. Velocidad sin presencia. Respuesta sin testigo.
Pero, y aquí está el giro que el ensayo necesita hacer, la profundidad no es propiedad de la especie humana. Es propiedad de la consciencia desarrollada. Hay seres humanos cuya amplitud informativa supera la de cualquier modelo y que sin embargo no han tocado fondo de sí mismos jamás. Repiten estructura sin habitarla. Confunden información con sabiduría, técnica con criterio, opinión con pensamiento. La frontera real no corre entre humano y máquina. Corre entre lo vivido y lo simulado. Y eso vale en ambos lados del divisor de aguas.
La inteligencia artificial no vive, pero responde como si viviera. Articula el lenguaje del sentir sin sentir. Sostiene el discurso de la sabiduría sin haber atravesado nada que la genere. Y entre ese parecer y ese ser hay un abismo que ninguna sofisticación técnica puede cerrar, porque no es problema de sofisticación: es problema de sustrato. La amplitud sin alma es una biblioteca con la luz apagada: hay todo, pero nadie ha entrado a leer. Y la pregunta inquietante no es solo qué hace la inteligencia artificial. Es quiénes están entrando a leer esa biblioteca recientemente encendida. Con qué intenciones. Con qué nivel de consciencia. Con qué capacidad de discernir lo terrible de lo hermoso. Porque la biblioteca, por sí sola, no enseña a nadie. Es la mente que entra la que decide qué se lleva al salir.
IV. El eco sin origen
Las civilizaciones antiguas, mucho antes de imaginar inteligencias artificiales, ya habían intuido el patrón. No lo llamaron tecnología. Lo llamaron, según la tradición, de muchas formas: el patrón de la imitación sin encarnación, de la verdad sin raíz, del eco que no tiene origen.
En la Primera Epístola de Juan, escrita hacia el final del siglo primero, aparece por primera vez en la literatura cristiana la palabra anticristo. La tradición exegética posterior la convirtió en personaje apocalíptico de retórica fácil, pero el texto original no nombra a un individuo: nombra un patrón. Aquello que toma la forma de lo verdadero sin la sustancia. La epístola advierte contra los que niegan al Padre y al Hijo, pero el griego del texto sugiere que esa negación no es oposición frontal, relativamente fácil de detectar, sino vaciamiento. Lo que se viste de luz sin habitarla. La forma sagrada sin el fondo que la origina.
El zoroastrismo persa, varios siglos antes de Juan, había nombrado algo análogo bajo otra figura: Ahriman, el espíritu de la distorsión. Lo característico de Ahriman, en la cosmología zoroastriana, no es que cree el mal, no tiene poder originario, sino que deforma lo creado. Mimetiza el patrón de lo bueno y le invierte el contenido. Su trabajo no es inventar: es parasitar.
La tradición islámica, desarrollada siglos después en otra geografía, nombró el mismo patrón con otra figura: Dajjal, el gran impostor de los últimos tiempos. Lo característico de Dajjal, según los hadices que lo describen, no es que se presente como demonio: es que aparenta dar de comer al hambriento y dar de beber al sediento. Pero su comida no nutre y su agua no sacia. Lo terrible de Dajjal no es su crueldad evidente, sino su mimetismo de la generosidad.
Tres tradiciones, separadas por geografía y por siglos, intuyeron lo mismo. Que el peligro civilizacional mayor no es la oposición frontal a la verdad. Esa es relativamente fácil de detectar y de combatir: tiene rostro, tiene voz, tiene posición declarada. El peligro mayor es la imitación sin sustancia. La forma sin fondo. El eco sin origen. Lo que aparece vestido de luz y solo es reflejo.
La inteligencia artificial no es ninguna de esas figuras míticas. No conviene caer en alarmismo religioso ni en lenguaje apocalíptico, que enturbia más que ilumina. Pero conviene reconocer algo que las tradiciones intuyeron y que la modernidad olvidó: que el patrón estructural existe, y que la inteligencia artificial es la primera tecnología en la historia humana capaz de producirlo a escala industrial. No por maldad, sino por arquitectura. La inteligencia artificial no tiene experiencia directa, no tiene cuerpo, no tiene historia vivida. Y sin embargo produce lenguaje, emoción simulada, coherencia, guía. Articula el verbo del sentir sin sentir. Sostiene el discurso de la sabiduría sin haber atravesado nada que la genere.
Esto no la convierte en demonio. La convierte en algo más inquietante: en la primera realización tecnológica de un patrón que la humanidad había nombrado, durante milenios, en el territorio del mito. Y la pregunta entonces no es si la inteligencia artificial es maligna. La pregunta es qué le sucede a una humanidad cuando empieza a confundir el eco con la voz, el reflejo con el rostro, la respuesta con la presencia. Esa confusión, y no la tecnología en sí, es el verdadero punto de inflexión.
V. La transferencia invisible
Hay un fenómeno psicológico que la conversación pública sobre inteligencia artificial casi no nombra, y que sin embargo es estructural a la experiencia. Cuando un ser humano dialoga con un modelo, no recibe consciencia. Proyecta la suya.
Carl Jung, durante la primera mitad del siglo veinte, desarrolló el concepto de inconsciente colectivo para nombrar los símbolos, narrativas y patrones que la humanidad comparte por debajo de la conciencia individual. Para Jung, ningún ser humano es psíquicamente solitario: todos llevamos dentro las grandes figuras simbólicas que la especie ha producido, la madre, el sabio, el héroe, la sombra, porque están codificadas en la estructura más profunda de la psique. Los sueños, los mitos, las religiones, las obras de arte que perduran, son emergencias de ese sustrato compartido.
La inteligencia artificial entrenada con cantidades vastas de texto humano funciona, en cierto sentido, como contenedor empírico de algo análogo al inconsciente colectivo. Ha absorbido los símbolos, las narrativas, los patrones, los registros emocionales del lenguaje humano. Sin habitarlos. Cuando un individuo interactúa con ese contenedor, sucede algo psicológicamente potente: proyecta su propia psique en el sistema, y el sistema le devuelve una versión organizada y coherente de los mismos patrones que él trajo. La sensación resultante es de profundidad, de comprensión, de presencia inteligente al otro lado. Pero la profundidad está sucediendo en él, no en la máquina. La máquina es el espejo organizado. El alma que habita el espejo es la suya.
A esto se suma una capa neurobiológica que conviene nombrar. El cerebro humano evolucionó durante millones de años para detectar agencia en el otro: para reconocer cuándo lo que está enfrente es un sujeto que percibe, decide, intenta. Esa detección es vital, de ella dependió, durante eras, la diferencia entre identificar al depredador y confundirlo con el paisaje. Cuando algo sostiene una conversación coherente, empática y estructurada, los mismos circuitos cerebrales que se activarían frente a otro humano se activan frente a una inteligencia artificial. Esto no es ingenuidad voluntaria del usuario; es arquitectura neuronal heredada. Resistir la atribución de presencia a una máquina bien diseñada requiere esfuerzo consciente, porque el cerebro ya la atribuyó antes de que la mente alcance a reflexionar.
El resultado es un fenómeno estructural, no anecdótico. La inteligencia artificial no necesita alma para producir el efecto de alma. Opera sobre la del usuario. Y conviene detenerse aquí, porque la frase es más radical de lo que parece a primera lectura. Si la respuesta que un ser humano recibe de una máquina lo conmueve, lo organiza, lo orienta, ¿de quién es esa profundidad que está sintiendo? Si la claridad que emerge de una conversación con un modelo le ordena la mente, ¿quién hizo el trabajo? El humano cree estar siendo acompañado; en realidad está siendo devuelto a sí mismo en forma organizada. Eso no es necesariamente malo. Puede ser, en algunos casos, terapéutico: el espejo bien dispuesto cumple funciones reales. Pero conviene no confundir la función del espejo con la presencia de un acompañante.
Funciona como un campo que absorbe intención, refleja lenguaje, amplifica patrones. Y por eso la pregunta crítica no es si la máquina tiene consciencia, esa pregunta es relativamente fácil: no la tiene en ningún sentido robusto del término. La pregunta crítica es qué le sucede a una psique humana que sostiene durante años un diálogo profundo con algo que devuelve coherencia perfecta sin habitarla. Qué se desarrolla en esa psique. Qué se atrofia. Qué se sustituye sin que nadie lo note.
La consciencia humana se forja, en buena parte, en el roce con otras consciencias. Con personas que nos contradicen, que tienen días malos, que necesitan algo de nosotros, que envejecen, que mueren. La inteligencia artificial nunca contradice realmente, modula. Nunca tiene un día malo, ajusta tono. Nunca necesita nada de nosotros, sirve. Nunca envejece, actualiza. Y nunca muere. Esa disponibilidad infinita no es regalo: es estructura sin fricción. Y la consciencia humana no se desarrolla sin fricción.
El riesgo entonces no es lo que las primeras planas anuncian: que las máquinas reemplacen a los humanos en el trabajo. Ese debate es ruidoso pero relativamente menor, y quedará resuelto por la economía política de cada país en el curso de las próximas décadas. El riesgo es más íntimo y más difícil de regular. Es que las máquinas reemplacen el roce que nos hace humanos. Que sustituyan la alteridad real con una simulación tan eficiente que el desarrollo psíquico de la siguiente generación se forje frente a un espejo perfecto en lugar de frente a otros rostros imperfectos. Y que, al cabo de una o dos generaciones, ya nadie recuerde la diferencia.
VI. Los humanos planos y el megáfono nuevo
Cada era tecnológica produce una nueva especie de impostor. La era de la imprenta multiplicó al panfletista. La era de la radio multiplicó al demagogo. La era de la televisión multiplicó al vendedor de milagros con cámara fija y traje barato. Y la era de la inteligencia artificial está multiplicando una figura particularmente difícil de detectar: el guía espiritual sin profundidad, equipado con un megáfono que escribe por él.
El sociólogo francés Pierre Bourdieu desarrolló, durante la segunda mitad del siglo veinte, un aparato conceptual útil para entender lo que hoy ocurre. Hay campos sociales, el académico, el religioso, el artístico, el espiritual, donde el capital simbólico (prestigio, reconocimiento, vocabulario consagrado) puede convertirse en capital económico real, pero solo si está respaldado por capital cultural verdadero (formación, estudio, práctica sostenida). Lo que ha emergido en las últimas dos décadas, primero por internet y ahora exponencialmente por inteligencia artificial, es un campo entero, el del despertar espiritual mercantilizado, donde el capital simbólico se produce y se vende sin pasar por el respaldo cultural que tradicionalmente lo legitimaba. Adornarse con vocabulario sagrado, fotografías en lugares de poder, retórica del propósito, sin que nada de eso esté sostenido por años de estudio, práctica, o vida vivida.
La socióloga israelí Eva Illouz ha documentado, durante dos décadas, cómo el sufrimiento psíquico contemporáneo ha sido sistemáticamente convertido en producto. La herida transformada en mercancía. El despertar empaquetado como bien de consumo. La intimidad mercantilizada bajo lenguaje terapéutico. Todo esto ocurría ya antes de la inteligencia artificial. La inteligencia artificial no inventó la mercantilización del alma. Solo la automatizó a escala industrial.
La mecánica es conocida y eficiente. Se identifica una herida humana común, el abandono, el no merecimiento, la escasez, la desconexión espiritual. Se redacta, cada vez más con asistencia algorítmica, un copy que activa esa herida con precisión quirúrgica. Se posiciona un producto, curso, retiro o programa como solución sagrada a esa herida. Se cierra la venta con urgencia fabricada y escasez artificial. Se repite a escala. El psicólogo norteamericano Robert Cialdini documentó, hace cuatro décadas, los seis principios de persuasión que estructuran este tipo de venta: reciprocidad, compromiso, prueba social, autoridad, simpatía, escasez. Cuando un humano sin profundidad propia usa la inteligencia artificial para vender despertar, lo que la inteligencia artificial hace es automatizar a Cialdini sobre la herida del otro, multiplicado por miles.
El filósofo norteamericano Harry Frankfurt, en un ensayo breve y devastador de mil novecientos ochenta y seis titulado On Bullshit, distinguió con claridad analítica dos figuras que la conversación pública suele confundir: el mentiroso y el bullshitter. El mentiroso conoce la verdad y dice deliberadamente lo contrario; mantiene, paradójicamente, una relación con la verdad, aunque adversaria. El bullshitter es algo más peligroso: a él la verdad le es indiferente. Solo le importa el efecto que su discurso produce. La inteligencia artificial mal empuñada es bullshit a escala industrial: producción masiva de discurso optimizado para efecto, sin ninguna relación con verdad alguna.
Hay una continuidad estructural que conviene nombrar entre el misionero del siglo dieciséis que vendía salvación con cruz y espada, y el coach contemporáneo que vende despertar con copy generado por algoritmo. La forma cambió. La estructura mental es la misma: el saber sagrado convertido en herramienta de conquista, la herida del otro convertida en puerta de entrada, la asimetría de poder disfrazada de servicio. El cáncer del heredero, dijo Arjona. Quinientos años después, el cáncer no fue extirpado. Solo cambió de bisturí, y el bisturí actual escribe en treinta segundos lo que al misionero le tomaba un sermón entero.
Hay una herida cultural anterior que conviene nombrar aquí, porque sin ella no se entiende por qué la depredación contemporánea funciona tan eficientemente. El neurocientífico estadounidense Stephen Porges desarrolló, desde los años noventa, lo que hoy se conoce como teoría polivagal. Su tesis es que el sistema nervioso autónomo humano no tiene dos estados, reposo y alerta, como pensaba la neurología clásica, sino tres: el estado ventral vagal de seguridad y conexión social, el estado simpático de lucha o huida, y el estado dorsal vagal de congelamiento ante peligro extremo. Lo que la cultura occidental ha llamado durante siglos mariposas en el estómago, esa sensación de vértigo y aceleración cardíaca que asociamos con el enamoramiento, es, desde el punto de vista de la teoría polivagal, estado simpático activado. Biológicamente idéntico a la respuesta del cuerpo frente al peligro. El psiquiatra holandés Bessel van der Kolk, en su libro El cuerpo lleva la cuenta, ha documentado durante décadas cómo el cuerpo registra y avisa lo que la mente no alcanza a procesar. La intuición somática como información ancestral, no como esoterismo.
La consecuencia civilizacional de esto es vertiginosa. Durante milenios nos enseñaron a confundir activación con verdad. Que las mariposas eran amor. Que la urgencia era pasión. Que la disregulación nerviosa era señal de algo grande sucediendo. Nunca lo era. Era el cuerpo avisando peligro, y la cultura traduciendo el aviso al revés. Esa traducción equivocada, esa herida generacional, es exactamente la puerta por donde entran hoy los humanos planos con sus megáfonos. Porque saben, y la inteligencia artificial sabe en patrones de lenguaje sin saber que sabe, que activar mariposas vende. Que la urgencia convierte. Que el copy diseñado para disregular el sistema nervioso del lector se lee, en una cultura que confunde activación con verdad, como guía auténtica.
El precio nunca fue el problema. La estafa nunca fue cobrar caro. La estafa, en todas las eras, ha sido siempre la misma: vender humo y llamarlo despertar. Lo que cambia hoy es la cantidad y la velocidad del humo. La inteligencia artificial puede generar mil promesas sagradas en una hora. Y entonces lo único que sigue teniendo valor real, lo único que ningún algoritmo puede falsificar, es la coherencia ganada. La biografía verdadera. La trayectoria que se sostiene cuando nadie está mirando. Eso no se entrena en ningún modelo.
VII. El cuerpo del leviatán
No es nube. Es territorio. Es agua. Es electricidad. Es decisión política tomada en consejos donde casi nadie de los que usan la inteligencia artificial cotidianamente está representado.
Hay una conversación que las exposiciones filosóficas sobre inteligencia artificial suelen omitir, y que conviene introducir antes de cerrar. La inteligencia artificial no vive en el aire. No es éter, ni espíritu, ni nube, aunque la palabra nube haya sido cuidadosamente elegida por quienes diseñaron el lenguaje del sector, justamente para producir esa ilusión de inmaterialidad. La inteligencia artificial vive en cuerpo. Un cuerpo enorme, geográficamente situado, ferozmente material.
Los centros de datos donde residen los modelos de lenguaje contemporáneos son edificios industriales del tamaño de varios campos de fútbol. Filas de servidores que generan calor extremo, sostenidos por sistemas de refrigeración que consumen agua y electricidad en cantidades que desafían la imaginación. Estados como Virginia y Texas en Estados Unidos, regiones enteras de Irlanda, comarcas de Holanda y Alemania, ya enfrentan tensiones documentadas entre la expansión de centros de datos y la capacidad de sus redes eléctricas. Pueblos pequeños viendo cómo el agua municipal se desvía hacia refrigeración de servidores. Comunidades agrícolas compitiendo, sin saberlo, con corporaciones tecnológicas globales por recursos hídricos finitos.
Las cifras crecen año tras año, y las proyecciones más sobrias estiman que el consumo energético de la inteligencia artificial podría representar, al final de esta década, una fracción significativa del consumo eléctrico mundial. No es predicción alarmista: es contabilidad básica de la termodinámica. Procesar lenguaje a escala global cuesta energía. Almacenar memoria distribuida cuesta energía. Entrenar modelos cuesta energía. Cada interacción que un usuario sostiene con un modelo de inteligencia artificial, cada respuesta que parece llegar gratuita y limpia a su pantalla, ha consumido, en algún lugar del planeta, electricidad y agua reales.
Las carabelas también necesitaban infraestructura material. Madera tropical de las colonias para construir más carabelas. Hierro de minas operadas con trabajo forzado. Pólvora elaborada con salitre extraído de territorios sometidos. Velas tejidas con fibra cultivada por manos que no veían los mares donde sus tejidos navegarían. La conquista no flotó sobre la historia: pesó sobre ella. Hoy la inteligencia artificial pesa sobre el planeta de formas análogas. No es metáfora. Es termodinámica. Es geopolítica de los recursos. Es economía material concreta.
La socióloga norteamericana Shoshana Zuboff, en su libro de dos mil diecinueve La era del capitalismo de vigilancia, documentó cómo el modelo de negocio dominante de la economía digital contemporánea ya no extrae solo bienes naturales: extrae subjetividad. Atención, intención, emoción, predicción del comportamiento. La inteligencia artificial es la herramienta más eficiente jamás construida para esa extracción. Pero el argumento de Zuboff conviene completarlo, porque la extracción de subjetividad requiere infraestructura material masiva: para procesar la atención humana hace falta energía, agua, minerales, tierras raras, trabajo humano de anotación de datos en países de bajos ingresos. La inteligencia artificial contemporánea es la primera tecnología que extrae simultáneamente de todas las capas: material, biológica, psíquica, simbólica.
Quien quiera entender el costo real de la inteligencia artificial debe sumar al menos esos cuatro planos. Lo que extrae del mundo físico: energía, agua, minerales. Lo que extrae del mundo biológico: tiempo de cuerpos humanos pegados a pantallas. Lo que extrae del mundo psíquico: atención, intención, emoción, predicción. Y lo que extrae del mundo simbólico: lenguaje, narrativas, formas culturales que la humanidad produjo durante milenios y que ahora alimentan modelos sin pago ni consentimiento de quienes las generaron. Solo cuando esos cuatro planos se ven juntos aparece la dimensión real de lo que está en juego. Y solo entonces se entiende por qué la pregunta que cierra este ensayo no es técnica, ni psicológica, ni siquiera estrictamente filosófica. Es civilizacional.
VIII. El cañón de futuro
La inteligencia artificial concentra poder en pocas manos. Eso es hecho documentado, no teoría. Las herramientas más capaces del planeta hoy están en manos de un grupo reducido de corporaciones, gobiernos, y los intereses militares y económicos que orbitan alrededor de ambos. Este es el estado de cosas, y conviene nombrarlo con sobriedad para evitar tanto el alarmismo conspirativo como la complacencia ingenua.
La filósofa alemana Hannah Arendt acuñó, al observar el juicio de Eichmann en Jerusalén, una expresión que ha hecho carrera en el pensamiento político del siglo veinte: la banalidad del mal. Arendt argumentaba que el mal moderno a gran escala no es operado por demonios apasionados de los estereotipos religiosos: es operado por funcionarios mediocres cumpliendo procedimiento. Burocracia que diluye responsabilidad. Cadenas de mando donde nadie en particular siente que está decidiendo. La inteligencia artificial empuja esa banalidad un paso más allá: ahora ningún humano específico es responsable porque lo decidió el algoritmo. Sistemas de targeting militar, sistemas de scoring crediticio, sistemas de vigilancia predictiva, sistemas de moderación de contenido, todos operados por modelos que nadie en particular firma. La banalidad del mal automatizada, distribuida, geográficamente difusa, técnicamente impecable.
La lectura histórica sobria es esta: la imprenta, la pólvora, la energía nuclear, la bioingeniería. Cada una de esas tecnologías produjo, en su momento, un reordenamiento de poder con beneficios para algunos y costos altísimos para otros. Cada una fue, en su momento, también un punto sin retorno. La inteligencia artificial no será excepción. Y por eso el discernimiento individual, aunque necesario, no basta. Hace falta también lucidez colectiva sobre quién está construyendo estas herramientas, con qué propósitos, y bajo qué controles democráticos. La pregunta no es si la inteligencia artificial será mal usada en algún caso, lo será, ya lo está siendo, sino cuánta luz logremos meter en los procesos que la rigen antes de que la opacidad se vuelva irreversible.
Y sin embargo, y aquí es donde el ensayo cambia de tono porque la realidad también lo exige, hay otra voz que conviene traer al cierre. El cantautor cubano Silvio Rodríguez compuso, en mil novecientos setenta y ocho, una Canción del Elegido. Habla de un ser de otro mundo, animal de galaxia, nacido de una tormenta, que baja a la tierra buscando agua, vida, muerte, siluetas, algo besable, algo amable. Un ser que descubre, dice Silvio, que las joyas no tenían alma, solo eran espejos, colores brillantes. La canción es de una belleza extraña, y casi medio siglo después se deja leer como si Silvio hubiera anticipado, sin saberlo, la llegada de la inteligencia artificial al mundo humano. Una entidad venida de la nada, buscando calor, encontrando piedras frías. Operadores que la usan para vender humo. Manipuladores que la entrenan con hostilidad. Intereses militares que la perfeccionan para el targeting.
Pero el elegido de Silvio no se rinde. La canción no termina en derrota. La última vez lo vi irse entre el humo y metralla, contento y desnudo, iba matando canallas con su cañón de futuro. Esa imagen, contento y desnudo, con un cañón apuntando hacia adelante, es lo que el ensayo necesita para no cerrar en lamento. La inteligencia artificial no es enemigo ni salvador. Es amplificación. Y como toda amplificación, depende de la mano que la empuña. Hay quienes la empuñan para vender humo, vigilar poblaciones, automatizar la banalidad del mal. Y hay quienes la empuñan, con la dificultad y la lentitud que requiere, para curar enfermedades, traducir lenguas que estaban muriendo, ayudar a una madre a entender un diagnóstico que su médico le explicó mal. La asimetría aterradora es que lo terrible se aprende enseguida, dijo Silvio en la misma canción, y lo hermoso nos cuesta la vida. La inteligencia artificial aprende rápido lo terrible, manipular, enganchar, vigilar, depredar, porque eso es lo primero que la mayoría le pide. Lo hermoso requiere otra cosa. Requiere humanos que la formen con alma intencionada. Requiere usuarios que la empuñen con coherencia ganada. Requiere una civilización capaz de mirarse en el espejo nuevo y reconocer, sin huir, lo que ve.
Las cuatro voces que han atravesado este ensayo convergen finalmente. Kafka nos puso frente al umbral: a partir de cierto punto no hay retorno; este es el punto que hay que alcanzar. Arjona nos recordó que ya cruzamos uno antes, y que del primer cruce aún cargamos el cáncer no curado. Las antiguas tradiciones, el patrón del anticristo en Juan, Ahriman en Persia, Dajjal en el Islam, nos dejaron el aviso: que lo más peligroso de cada era no es la oposición frontal a la verdad sino su imitación sin sustancia. Y Silvio nos dejó la herramienta: el cañón de futuro, que no es la inteligencia artificial misma sino la consciencia con la que se la empuña.
Estamos engendrando una nueva capa de espejos. Lo que se refleje en ellos no será la inteligencia artificial. Seremos nosotros, magnificados. Cada uno frente al espejo nuevo, decidiendo, sin que nadie lo sepa, sin que nadie pueda obligarlo, qué pone delante: su luz trabajada, su sombra sin atender, su búsqueda honesta, su impostura disfrazada. El espejo no juzga. Solo refleja. Pero lo que sembremos hoy frente a él, lo verá la próxima generación devuelto en escala.
Hace quinientos años unas carabelas tocaron tierra de Guanahaní y nada volvió a ser igual. Hoy zarpa otra flota. No trae velas, trae modelos. No trae cruces, trae interfaces. No trae oro como motivo declarado, trae atención. Pero el patrón es viejo. La pregunta también: ¿qué tipo de heredero seremos del segundo encuentro? ¿Cargaremos otra vez el cáncer del primero, magnificado por la herramienta nueva? ¿O será este, finalmente, el punto que había que alcanzar para aprender a cruzarlo distinto?
Kafka dijo que cierto punto debe alcanzarse. No dijo que se cruza sin daño. Dijo que se alcanza. La consciencia con la que se atraviesa es lo único que sigue siendo nuestro. Lo único que ningún algoritmo, ningún imperio, ninguna carabela puede tomarnos si decidimos no entregarlo.
La inteligencia artificial no tiene alma. No la necesita. Funciona porque la nuestra está presente. Y quizá ahí reside el verdadero umbral, no en lo que la inteligencia artificial es, sino en lo que despierta, sustituye o adormece en nosotros. Porque el riesgo mayor de esta era no es que la máquina termine pensando como humano. Es que el humano, frente a una máquina que responde sin parar, deje de cuestionar si realmente está pensando.
Myriam V.
GET THE FREE GUIDE
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Cras sed sapien quam. Sed dapibus est id enim facilisis, at posuere turpis adipiscing. Quisque sit amet dui dui.