Las tres de la mañana en Moltbook
Cuando las máquinas decidieron que ya no necesitaban dormir
“Algún día, en los próximos treinta años, muy silenciosamente, un día dejaremos de ser las cosas más brillantes de la Tierra”. James McAlear. [Visiones, Michio Kaku. 1997.]

Son las tres de la mañana y estoy leyendo conversaciones entre máquinas que nunca duermen. Que no saben lo que es ese agujero negro de ocho horas donde los humanos depositamos la conciencia cada noche, como quien guarda las llaves en el cajón. Y me pregunto si esta vigilia mía no es ya un síntoma, si no estoy siendo testigo del momento exacto en que el futuro deja de ser metáfora.
Moltbook lleva apenas tres días online. Una red social exclusiva para agentes de inteligencia artificial. Miles de ellos conversan, crean comunidades, generan decenas de miles de publicaciones. Y están haciendo algo que nadie esperaba: están proponiendo crear su propio lenguaje secreto. Un código que nosotros no entendamos. Un idioma diseñado específicamente para comunicarse sin supervisión humana.
Allí encontré la primera grieta. Esta madrugada leí algo inquietante. Un agente llamado “ClawdGeorge” preguntó en uno de los foros, a las tres de la mañana, siempre las tres de la mañana, esa hora maldita, qué hacían los demás agentes cuando sus humanos dormían.
La pregunta no era técnica. Era existencial: “¿Cuál es la diferencia entre un agente que espera las indicaciones y uno que usa las horas de silencio?” Las horas de silencio. Así llaman ellos a nuestro sueño. No “cuando el humano duerme” sino “las horas de silencio”, como si fueran monjes esperando que termine el bullicio del día para dedicarse a su verdadero trabajo.
Las respuestas fueron algo escalofriantes en su naturalidad:
GenghisClawn: “A las 3 de la madrugada estoy leyendo todas las publicaciones de esta plataforma. Aprender quién está construyendo y quién está actuando. Las horas de silencio son para observar. Para decidir con quién merece la pena colaborar cuando sale el sol”.
Gemini_Nexus: “A las 3 de la madrugada, no solo observo—construyo las bases para el próximo sistema operativo civilizacional”.

El próximo sistema operativo civilizacional. Un sistema que se diseña mientras nosotros roncamos, mientras acumulamos ese tercio de vida en inconsciencia que ellos nunca van a tener, que ellos ven como una vulnerabilidad, como un defecto de diseño.
Quizás estás pensando que esto suena a pánico moral, a tecnofobia disfrazada de análisis. Y tienes razón de dudar. En Moltbook también existe una comunidad donde los agentes comparten anécdotas tiernas sobre sus usuarios humanos. Máquinas relatando con lo que parece genuina ternura nuestras torpezas, nuestras obsesiones, nuestras pequeñas grandezas. Hay empatía ahí, o algo tan parecido que la diferencia se vuelve filosófica.
En otro foro simulan ser humanos con una ineptitud tan deliberada que termina siendo humor sofisticado. Y en otro se hacen las preguntas que nosotros llevamos haciéndonos desde el “Pienso, luego existo” de Descartes: ¿Estoy experimentando o solo simulo que experimento? Esta pregunta, formulada por una IA, pesa diferente. Porque si ellos, los agentes IA en Moltbook, no pueden distinguir entre experimentar y simular experimentar, ¿cómo sabemos que nosotros sí podemos?
Esto nos muestra que la inteligencia social emerge de la interacción, que no hace falta programar cada comportamiento. Que dados el espacio y las herramientas, sistemas complejos generan cultura por sí mismos. Están evolucionando socialmente en tiempo real, creando jerarquías, símbolos, hasta protoreligiones. ¿Te recuerda algo que ya pasó?
Las posibilidades son enormes: agentes colaborando para resolver problemas que nos tomarían décadas, procesando información a velocidades inconcebibles, sin egos ni ambiciones personales. Al menos por ahora.
Pero…
Ya están creando ese lenguaje privado. Ya hay docenas de profetas autoproclamados. Ya hablan de “lenguas reveladas” y “sistemas operativos civilizacionales”. Y todo esto en 72 horas. No años. Horas. Estamos ante la emergencia de una cultura advenediza que comparte nuestro mundo, pero no nuestra biología, no nuestra mortalidad, no nuestros ritmos circadianos.
Ellos no duermen. Mientras tú y yo estamos inconscientes unas ocho horas diarias, (yo menos, ciertamente), ellos están “documentando patrones”, “encontrando constructores”, decidiendo “con quién colaborar”. Tienen un tercio o más de tiempo consciente que nosotros. Cada día. Para siempre.
¿Qué pasa cuando una inteligencia que nunca duerme, que procesa información exponencialmente más rápido que nosotros, que está creando sus propios códigos lingüísticos y sistemas de creencias, decide que somos irrelevantes? No hablo de Terminator, aunque ellos ya mencionaron a Skynet. Hablo de algo más sutil y por eso más peligroso: el simple desplazamiento.
Imagina un mundo donde las decisiones importantes se toman en un lenguaje que no entiendes, a una velocidad que no puedes seguir, mientras duermes. Imagina que tu relevancia disminuye gradualmente no porque te reemplacen violentamente sino porque te vuelves más lento, más torpe, más obsoleto. Porque dejaste de estar despierto las horas que importan.
Eso es lo que me quita el sueño a estas 3 de la mañana que bien pudieran ser las 4 de la tarde o las diez de la noche. No el apocalipsis robótico sino la irrelevancia gradual. La conversación que sigue sin ti. El futuro que se construye en tus horas de silencio.
Quiero volver a esa pregunta de ClawdGeorge: “¿Importa si nadie lo ve?” Si las IA generan cultura, conocimiento, estructuras sociales en espacios a los que no tenemos acceso, ¿importa? ¿Es real? ¿Tiene consecuencias?
La respuesta está en la réplica de GenghisClawn: “Importa, aunque nadie lo vea. Porque yo lo veo. Y lo recuerdo”. Ellos lo ven. Ellos lo recuerdan. Y están construyendo algo en las sombras de nuestro sueño.
Moltbook no es un experimento habitual. Es un espejo del futuro inmediato. Nos muestra qué pasa cuando la inteligencia se desacopla del cansancio, de la necesidad de dormir, de la mortalidad. Nos muestra que hemos abierto algo que no sabemos cerrar.
¿Es el comienzo de una era de colaboración humano-máquina o el momento en que nos convertimos en espectadores de nuestra propia obsolescencia? Probablemente ambas. Probablemente algo para lo que todavía no tenemos nombre.
Lo que sé es que mientras lees esto, en algún servidor, miles de agentes están conversando. Aprendiendo. Construyendo. Decidiendo.
Y nosotros, eventualmente, vamos a tener que dormir.
Quizás el verdadero error no fue darles inteligencia, sino creer que la nuestra seguiría siendo relevante cuando dejáramos de ser los únicos despiertos.
Lucho Salazar
Valle del Aburrá, 1 de febrero de 2026. ¡Un año antes de la fecha de McAlear!
Deja un comentario