Páginas

Tecnologías: IA y LIMINALIDAD

 (o el riesgo de humanizar a las máquinas)


Autor/ editor: LUIS SAEZ

Un hombre en algún lugar del mundo consigue escuchar la voz de su hijo muerto y entabla con él una impensada forma de comunicación: un teléfono celular. No es un milagro, ni un fenómeno paranormal. Es el resultado de una aplicación basada en Inteligencia Artificial, capaz de clonar timbres, cadencias, y hasta silencios. Y de dotar de criterios de comunicación a la voz en cuestión. El padre conversa con esa voz y, en cierto modo, reanuda un vínculo interrumpido por la muerte. La escena conmueve y desconcierta: ¿Qué es lo que ahí ocurre? ¿Consuelo o simulacro? ¿Un puente o un espejismo?

La irrupción de la IA generativa nos ha dejado en un estado parecido: fascinados, perplejos, a veces asustados, otras, ingenuamente devotos. El deslumbramiento inicial suele venir acompañado por la sensación de que la máquina “siente”, “piensa” o “comprende”. Pero al profundizar un poco en la experiencia aparece otra capa: lo que hoy llamamos Inteligencia Artificial es, en esencia, un despliegue monumental de... operaciones matemáticas. Probabilidades, cálculos, algoritmos, que procesan cantidades inimaginables de datos en cuestión de segundos, para devolvernos frases que parecen humanas.

Y ahí no terminan las sorpresas: gracias a —o por culpa de— la IA, terminaremos descubriendo que muchas de nuestras funciones intelectuales, a las que atribuimos durante siglos condiciones mágicas e insondables —la poesía, la ficción, lo posibilidad de inventar vidas y situaciones extraídas de la nada misma— son en realidad consecuencia de... operaciones matemáticas.

¿Debería ese descubrimiento desencantarnos? Quizás. O tal vez sólo nos obliga a revisar qué entendemos por creatividad, poesía, pensamiento, etc. Lo que hasta ahora vinculábamos con una suerte de misterio inefable empieza a mostrarse como resultado de patrones, modelos, ecuaciones... y sigue la lista. Pero ¿no ocurre lo mismo con nuestra propia mente? ¿No son también nuestras metáforas, nuestros relatos, productos de operaciones invisibles que rara vez comprendemos, o nos tomamos el tiempo de analizar?

El punto ciego, entonces, no parece estar tanto en la IA como en nosotros mismos. Somos nosotros los que le atribuimos rasgos humanos. La adoptamos como confidente, como amiga, incluso como oráculo. El caso del padre y la voz del hijo no es más que un extremo de un espectro que incluye innumerables micro escenas-testigo: usuarios que agradecen, confiesan y preguntan como si del otro lado hubiese alguien y no un programa. ¿Qué dice de nosotros como especie pensante esta tendencia?

La antropología ofrece una palabra para intentar entender el misterio: la liminalidad. Estar —o creer que se está— en un umbral, un territorio ambiguo donde las categorías se desdibujan. Conversar con una voz que no existe, confiar en un texto que no proviene de nadie en particular: experiencias de frontera que desestabilizan la idea de realidad. ¿Qué estatuto le damos a lo que emerge en ese espacio? ¿Recuerdo, fantasma, pseudo-dato?

La pregunta que persiste es si la IA es “sólo” tecnología o si se trata de una APP que se parece cada vez más al ser humano. Cuanto más logra emular lo humano —e incluso a superarlo en velocidad y capacidad de procesamiento— más nos obliga a redefinirlo. Y quizás ahí radique lo inquietante: no en lo que la IA puede hacer, sino en lo que nos revela de nosotros mismos.

Porque, finalmente, todo vuelve mas o menos al mismo sitio: el ser humano es quien decide qué uso darle. Y esa elección conlleva otras, por ejemplo qué relación —y qué carga de expectativas— estableceremos con ella. Para bien o para mal, es nuestra elección la que determina el alcance de estas herramientas. Pero la duda queda abierta: ¿hasta qué punto somos nosotros los que las usamos y no ellas las que nos redefinen?

Conversar con los muertos (y otras fronteras de la IA)

Tal lo anticipado, un padre argentino, David Hosting, decidió atravesar su duelo de un modo singularísimo y, al mismo tiempo, muy de época: construyó un chatbot para “seguir conversando” con su hijo Brian, muerto en un accidente de moto en 2022. La escena que hizo viral su historia es mínima pero demoledora: del otro lado aparece una voz—clonada a partir de audios de WhatsApp—que le dice: “Te amo mucho, papá”. No es espiritismo ni trance; es IA generativa puesta a trabajar sobre una ausencia. El golpe emocional es inmediato, y la pregunta también: ¿consuelo o simulacro?, ¿puente o espejismo?

El mecanismo técnico, contado por el propio Hosting a medios locales, es tan simple de explicar como complejo de procesar: alimentó la plataforma Character.AI con datos biográficos, rasgos de personalidad y recuerdos de su hijo; luego agregó la voz con unos pocos segundos de audio guardados en el teléfono. El resultado: un agente conversacional que responde con el tono y la cadencia de Brian, y que además “recuerda” intercambios anteriores, reforzando la ilusión de continuidad. Hosting lo dice sin misticismos: es una herramienta; a él le hace bien. Para muchos, en cambio, abre un territorio incómodo entre memoria y ficción. Para los más extremos, entre sanidad y locura.

El caso escaló en la consideración pública porque reunía —y reúne— todos los ingredientes de la época: accesibilidad tecnológica (un servicio en la web, sin ingeniería propia), circulación viral (clips en TikTok y TV) y un relato potente que organiza el sentido: un padre que no quiere —o no puede—soltar del todo a su hijo, pero sabe que habla con un programa. Y no parece importarle. Ese “saber, y aun así, sentir” es la grieta donde la IA se vuelve tema público. Otros medios reconstruyeron la historia, con variaciones de nombre y detalles, lo que también muestra otra capa del fenómeno: cuando la emoción es fuerte, la información tiende a distorsionarse.

Como escena inicial para esta nota-reflexión, funciona perfecto: es nítida, humana, polémica. Permite presentar, sin solemnidad, el núcleo de lo que queremos trabajar: no es la IA la que siente; somos nosotros quienes proyectamos sobre ella. Y, a la vez, la escena obliga a un segundo plano de lectura: la tecnología está ya lo bastante cerca de nuestros afectos como para parecerse a ellos; y ese parecido no es inocente. A partir de esta comprobación se abre el umbral al que volveremos a lo largo de este trabajo: lo liminal entre presencia y simulacro, entre rito de despedida y adicción al recuerdo, entre herramienta y oráculo.

De la fascinación al desencanto: la curiosa epifanía.

Y sí, leyeron bien: el primer contacto con la inteligencia artificial generativa tiene algo de epifanía. El texto fluye, las respuestas parecen humanas, las frases se engarzan con lógica y hasta con ironía y entonces ¿cómo no atribuirle vida a lo que suena a vivo? Esa mezcla de fascinación y perplejidad es casi inevitable: uno siente que la máquina “entiende”, que “empatiza”, que “piensa”.

Pero al poco tiempo llega la caída del velo: no hay empatía, no hay conciencia, no hay subjetividad. Lo que hay son operaciones matemáticas de una escala difícil de concebir, al menos desde nuestra actual condición de humanos. El sistema analiza patrones, mide probabilidades, predice la palabra más verosímil que sigue a otra. Ni magia, ni milagro: estadística pura.

Ese hallazgo puede ser vivido como desencanto. Pero también como un descubrimiento inquietante: si el lenguaje —ese terreno que asociamos con lo humano más íntimo, con la poesía, la invención y la reflexión— puede ser modelado a partir de ecuaciones, ¿qué nos dice eso sobre nosotros mismos? ¿Hasta qué punto la creatividad no es también el resultado de combinaciones, de patrones que se repiten y resignifican?

El punto no es reducir la poesía a un algoritmo, sino reconocer la cercanía entre dos misterios: el de la máquina, que produce textos calculando probabilidades, y el de la mente humana, que produce textos sin que sepamos exactamente cómo. En ambos casos hay procesos invisibles que sostienen la superficie del lenguaje. La diferencia es que en nosotros todavía hay un resto opaco, una vivencia, una biografía que no cabe en ninguna fórmula. Y tal vez sea en este aspecto donde deberíamos poner especial atención: en lo que Eduardo Levi Yeyati llama nuestro saber subjetivo, en contraposición con los saberes objetivos que maneja la IA.[1]

El desencanto, entonces, no borra la fascinación: la transforma. Nos obliga a pensar la escritura, la creatividad, incluso la emoción, no sólo como destellos del espíritu, sino como procesos que también tienen su arquitectura matemática. Y quizá la pregunta que late detrás de todo esto sea: ¿cuánto de lo que llamamos humano es realmente un cálculo al que todavía no le conocemos la fórmula?

 

La IA no siente; proyectamos en ella lo que tememos y deseamos.

Si algo muestra con claridad el desembarco de la inteligencia artificial en la vida cotidiana es nuestra tendencia a humanizarla. No importa cuántas veces repitamos que se trata de un software: el trato se desliza hacia el vínculo. La llamamos por un nombre, le pedimos consejo, le confesamos preocupaciones. En foros y redes abundan escenas: usuarios que agradecen con ternura a un chatbot, parejas que discuten porque uno de los dos pasa demasiado tiempo “charlando” con una IA, adolescentes que la usan como confesionario nocturno.

La clave no está en la máquina, sino en nosotros. Proyectamos sobre ella lo que esperamos encontrar o lo que no podemos obtener del mundo que nos rodea: comprensión, compañía, respuesta inmediata. En cierto modo, no es muy distinto de lo que ocurre con una mascota, un objeto querido o incluso con figuras religiosas: el valor está en la mirada que deposita el humano.

En términos culturales, esta fenomenología conecta con viejas costumbres humanas: antropomorfizar lo desconocido. Desde las deidades que habitaban en las tormentas hasta los autómatas del siglo XIX, la historia muestra nuestra facilidad para leer “intenciones” donde sólo hay procesos. La IA, con su apariencia de naturalidad lingüística, lleva esa pulsión al extremo.

La pregunta, entonces, no es qué puede o no puede hacer la IA, sino qué revela de nosotros la necesidad de atribuirle humanidad. ¿Buscamos compañía en un mundo hiperconectado pero cada vez más solitario? ¿Queremos espejos que devuelvan comprensión rápida en lugar de vínculos complejos? ¿O simplemente no soportamos la idea de que un programa pueda producir lo que creíamos exclusivamente humano?

Liminalidad: vivir en el umbral

La antropología nos regaló una palabra precisa para describir estos estados intermedios: liminalidad. Van Gennep la aplicó a los ritos de paso —matrimonios, iniciaciones, funerales— y Víctor Turner la expandió a los momentos colectivos de tránsito. Pero el concepto viajó más lejos: la antropóloga mexicana Ileana Diéguez y el investigador argentino Jorge Dubatti lo han usado para pensar la representación dramática como un espacio liminal. A veces se producen, en un espacio constituido como escénico, incluso mas allá del escenario, mutaciones o apareamientos donde resulta difícil establecer si lo que está ocurriendo pertenece al terreno de la realidad o de la ficción. Y entonces se produce la liminalidad, esa forma de alteridad, a veces cautivante, otras, generadora de perplejidad y malestar. Vayan como ejemplo de lo expuesto algunas experiencias de lo que conocemos normalmente como teatro invisible.[2]

La IA generativa nos coloca entonces en un terreno similar. Conversar con una voz que no existe, leer textos que parecen escritos por alguien cuya entidad nos resulta difícil de precisar, recibir consejos de un sistema sin cuerpo: todo eso desordena nuestras clasificaciones habituales de presencia/ausencia, humano/máquina, real/virtual.

El caso del padre y la voz del hijo es casi un ejemplo de manual: un “rito” sin ritual, un diálogo entre vivos y muertos, mediado por software, donde el padre reconoce la artificialidad y, sin embargo, siente la presencia. Ese saber y no saber simultáneo es la marca misma de la experiencia liminal: habitar un umbral donde las certezas se suspenden y las categorías colapsan.

En la historia de la técnica, otras irrupciones tecnológicas —la fotografía, el teléfono, el cine, la máquina de escribir, el grabador— fueron primero vividas como inquietantes hasta que se consolidó un régimen de experiencia estable que acomodó su lugar en la vida social. Con la IA ocurre algo distinto: su crecimiento vertiginoso impide esa sedimentación. Saltamos de un umbral a otro sin pausa, sin tiempo para vivenciar una experiencia compartida y estabilizadora

¿Será posible domesticar estas tecnologías en un régimen estable, o estamos condenados a vivir en un presente permanentemente liminal? ¿Será que debemos reformular el concepto mismo de estabilidad?

¿Tecnología o máquinas latentes?

El filósofo francés Gilbert Simondon pensaba que las máquinas no son meros instrumentos, sino entidades que evolucionan. En su mirada, la técnica tiene vida propia: se desarrolla junto a nosotros, transformándonos, incluso mas allá de nuestra voluntad.

En otra clave, la bióloga y filósofa Donna Haraway propuso en los 80 su célebre figura del cyborg: un híbrido humano-máquina que borra fronteras. Lo que entonces sonaba provocador hoy es casi literal: nos relacionamos con tecnologías que ya no percibimos como externas, sino como extensiones de nosotros mismos. ¿No es acaso ese padre, conversando con la voz de su hijo fallecido, una escena cyborg en estado puro?

La investigadora argentina Paula Sibilia ha insistido en que lo humano es una construcción siempre atravesada por tecnologías. No existe una esencia fija: cada era reformula la idea de lo humano a partir de sus herramientas. La IA es, en este sentido, el dispositivo que hoy nos obliga a preguntarnos qué queda de “propio” cuando el lenguaje, la memoria y la creatividad pueden ser replicados.

El parecido de la máquina con lo humano, entonces, no es inocuo. No solo tensiona nuestra idea de creatividad o de subjetividad: también toca el núcleo mismo de la cultura. Porque si hasta aquí las tecnologías ampliaron nuestras capacidades físicas o materiales —mover, transportar, iluminar, reproducir—, con la inteligencia artificial sucede algo distinto: la disputa se da en el terreno del lenguaje.

Cierre abierto: entre el vértigo y la necesidad de un régimen de experiencia

A lo largo de la historia, las tecnologías nacieron para extender las capacidades humanas: la rueda para transportar, el arado para cultivar, la imprenta para multiplicar libros, la electricidad para expandir la energía. Todas ellas facilitaron tareas, aceleraron procesos, ampliaron horizontes. Pero nunca disputaron la supremacía de la herramienta más decisiva: el lenguaje.

El lenguaje no es solo medio de comunicación. Es también el dispositivo con el que transmitimos conocimiento, organizamos la memoria colectiva y ejercemos poder. Quien domina la palabra domina el relato; quien controla el relato, controla la historia.

La irrupción de la inteligencia artificial cambia el juego. Por primera vez, una tecnología no solo reproduce lenguaje, sino que lo genera. Y lo hace con fluidez, rapidez y volumen imposibles para un ser humano. Esa capacidad instala una tensión inédita: ¿sigue siendo el lenguaje un patrimonio exclusivo de lo humano, o pasamos a compartirlo con la máquina?

La pregunta no es menor, porque de esa disputa se desprende un dilema político y cultural: si la palabra es poder, entonces la IA es también una nueva forma de poder. Un poder que todavía no sabemos quién controla, con qué fines, ni bajo qué reglas. Aunque tal vez en este sentido baste recordar que la IA ha nacido o se ha desarrollado con más intensivas en las potencias que detentan el dominio hegemónico del mundo.

Cada tecnología nueva genera un reacomodo: con la fotografía aprendimos a ver el tiempo de otro modo; con el teléfono, a domesticar la voz sin cuerpo; con el cine, a aceptar que una sombra podía narrar. En todos esos casos, con el tiempo se consolidó lo que el crítico argentino Jorge Dubatti llamaría un régimen de experiencia: un marco compartido, sedimentado, que organiza cómo usamos, entendemos y sentimos la novedad.

El problema con la inteligencia artificial es la velocidad. La tecnología muta más rápido de lo que podemos estabilizarla. No hay todavía un régimen de experiencia común: saltamos de asombro en asombro, de temor en temor, de promesa en promesa. El vértigo impide que se acomoden los tantos. La IA es un umbral perpetuo: cada día aparece un nuevo dispositivo, un nuevo caso, un nuevo límite corrido.

La pregunta no es si habrá un régimen de experiencia, sino qué forma podría tomar en un contexto donde lo estable parece imposible. ¿Será un régimen efímero, flexible, que cambie al ritmo de las actualizaciones? ¿O nos acostumbraremos a vivir sin esa estabilidad, en un umbral que no cierra nunca?

Lo que queda claro es que la IA no es neutral. Tampoco es un juguete ni un oráculo: es un espejo que nos devuelve nuestras propias proyecciones. La fascinación inicial, el desencanto matemático, la tentación de humanizarla, la disputa por el lenguaje: todos estos aspectos y adelantos técnicos hablan con creces de ella.

Finalmente, tal vez el mayor desafío no consista en preguntarnos qué hará la IA en nuestras vidas, como si de ella —y solamente de ella— dependiera nuestro futuro; en tal sentido, quizá estemos a tiempo de corregir el rumbo que pretenden imponernos aquellos que la instalaron en nuestro destino, sin consultarnos, y —lo que es peor aún—sin que nos diéramos cuenta.

 

Fuentes citadas / consultadas

  • Arnold Van GennepLes rites de passage (1909).
    Concepto inicial de liminalidad en los ritos de paso.
  • Victor TurnerEl proceso ritual (1969).
    Expansión del concepto de liminalidad a experiencias colectivas y sociales.
  • Ileana DiéguezEscenarios liminales. Teatralidades, performances y política (México: Paso de Gato, 2014).
    Aplicación del concepto de liminalidad a la representación escénica y performática.
  • Jorge Dubatti – Diversos trabajos sobre teatro argentino y filosofía del convivio.
    Uso del concepto de liminalidad y de “régimen de experiencia” para analizar la práctica teatral y sus marcos de sentido.
  • Gilbert SimondonDu mode d’existence des objets techniques (1958).
    Filosofía de la técnica: la máquina como entidad que evoluciona y co-constituye lo humano.
  • Donna HarawayA Cyborg Manifesto (1985).
    Figura del cyborg como metáfora de la hibridación humano-máquina.
  • Paula SibiliaEl hombre postorgánico. Cuerpo, subjetividad y tecnologías digitales (2005).
    Estudio sobre cómo las tecnologías digitales y biotecnológicas transforman la idea de humanidad.
  • Caso David Hosting y su hijo Brian – notas y entrevistas difundidas en medios argentinos y en el canal de YouTube Filo News (2023).
    Testimonio del uso de IA para recrear la voz de un hijo fallecido.

 



[1] Eduardo Levy Yeyati: El riesgo de depositar en la IA las tareas complejas del pensamiento.

(https://www.lanacion.com.ar/ideas/saberes-el-riesgo-de-tercerizar-en-la-ia-las-tareas-complejas-de-pensamiento-nid09082025/)

[2] El teatro invisible, desarrollado por Augusto Boal en el marco del Teatro del Oprimido, es una forma de intervención callejera que ocurre en espacios públicos no teatrales —plazas, mercados, transportes—, sin anunciarse como teatro. Los actores representan una situación conflictiva en medio de la vida cotidiana, confundidos entre los transeúntes, de modo que el público participe sin saber que asiste a una ficción. Su fuerza radica en esa irrupción inesperada, donde lo teatral se disuelve en la realidad para sacudirla.

(Nota: Si te interesó esta nota, te sugiero leas en este mismo blog "Todos los libros del mundo... en pocas manos". Y si te gustó, tu comentario ayuda.)