(o el riesgo de humanizar a las máquinas)
Autor/ editor: LUIS SAEZ
La irrupción
de la IA generativa nos ha dejado en un estado parecido: fascinados, perplejos,
a veces asustados, otras, ingenuamente devotos. El deslumbramiento inicial
suele venir acompañado por la sensación de que la máquina “siente”, “piensa” o
“comprende”. Pero al profundizar un poco en la experiencia aparece otra capa:
lo que hoy llamamos Inteligencia Artificial es, en esencia, un despliegue
monumental de... operaciones matemáticas. Probabilidades, cálculos,
algoritmos, que procesan cantidades inimaginables de datos en cuestión de
segundos, para devolvernos frases que parecen humanas.
Y ahí no
terminan las sorpresas: gracias a —o por culpa de— la IA, terminaremos
descubriendo que muchas de nuestras funciones intelectuales, a las que
atribuimos durante siglos condiciones mágicas e insondables —la poesía, la
ficción, lo posibilidad de inventar vidas y situaciones extraídas de la nada misma—
son en realidad consecuencia de... operaciones matemáticas.
¿Debería ese
descubrimiento desencantarnos? Quizás. O tal vez sólo nos obliga a revisar qué
entendemos por creatividad, poesía, pensamiento, etc.
Lo que hasta ahora vinculábamos con una suerte de misterio inefable empieza a
mostrarse como resultado de patrones, modelos, ecuaciones... y sigue la lista. Pero
¿no ocurre lo mismo con nuestra propia mente? ¿No son también nuestras
metáforas, nuestros relatos, productos de operaciones invisibles que rara vez
comprendemos, o nos tomamos el tiempo de analizar?
El punto
ciego, entonces, no parece estar tanto en la IA como en nosotros mismos. Somos
nosotros los que le atribuimos rasgos humanos. La adoptamos como confidente,
como amiga, incluso como oráculo. El caso del padre y la voz del hijo no es más
que un extremo de un espectro que incluye innumerables micro escenas-testigo:
usuarios que agradecen, confiesan y preguntan como si del otro lado hubiese
alguien y no un programa. ¿Qué dice de nosotros como especie pensante esta
tendencia?
La
antropología ofrece una palabra para intentar entender el misterio: la liminalidad.
Estar —o creer que se está— en un umbral, un territorio ambiguo donde las
categorías se desdibujan. Conversar con una voz que no existe, confiar en un
texto que no proviene de nadie en particular: experiencias de frontera que
desestabilizan la idea de realidad. ¿Qué estatuto le damos a lo que
emerge en ese espacio? ¿Recuerdo, fantasma, pseudo-dato?
La pregunta
que persiste es si la IA es “sólo” tecnología o si se trata de una APP que se
parece cada vez más al ser humano. Cuanto más logra emular lo humano —e
incluso a superarlo en velocidad y capacidad de procesamiento— más nos obliga a
redefinirlo. Y quizás ahí radique lo inquietante: no en lo que la IA puede
hacer, sino en lo que nos revela de nosotros mismos.
Porque, finalmente,
todo vuelve mas o menos al mismo sitio: el ser humano es quien decide qué
uso darle. Y esa elección conlleva otras, por ejemplo qué relación —y qué
carga de expectativas— estableceremos con ella. Para bien o para mal, es
nuestra elección la que determina el alcance de estas herramientas. Pero la
duda queda abierta: ¿hasta qué punto somos nosotros los que las usamos y no
ellas las que nos redefinen?
Conversar con los muertos (y otras fronteras de la IA)
Tal lo
anticipado, un padre argentino, David Hosting, decidió atravesar su
duelo de un modo singularísimo y, al mismo tiempo, muy de época: construyó
un chatbot para “seguir conversando” con su hijo Brian, muerto en un
accidente de moto en 2022. La escena que hizo viral su historia es mínima pero
demoledora: del otro lado aparece una voz—clonada a partir de audios de
WhatsApp—que le dice: “Te amo mucho, papá”. No es espiritismo ni trance;
es IA generativa puesta a trabajar sobre una ausencia. El golpe
emocional es inmediato, y la pregunta también: ¿consuelo o simulacro?, ¿puente
o espejismo?
El mecanismo
técnico, contado por el propio Hosting a medios locales, es tan simple de
explicar como complejo de procesar: alimentó la plataforma Character.AI
con datos biográficos, rasgos de personalidad y recuerdos de su hijo; luego agregó
la voz con unos pocos segundos de audio guardados en el teléfono. El
resultado: un agente conversacional que responde con el tono y la cadencia
de Brian, y que además “recuerda” intercambios anteriores, reforzando la
ilusión de continuidad. Hosting lo dice sin misticismos: es una herramienta;
a él le hace bien. Para muchos, en cambio, abre un territorio incómodo entre
memoria y ficción. Para los más extremos, entre sanidad y locura.
El caso
escaló en la consideración pública porque reunía —y reúne— todos los
ingredientes de la época: accesibilidad tecnológica (un servicio en la web,
sin ingeniería propia), circulación viral (clips en TikTok y TV) y un
relato potente que organiza el sentido: un padre que no quiere —o no puede—soltar
del todo a su hijo, pero sabe que habla con un programa. Y no parece
importarle. Ese “saber, y aun así, sentir” es la grieta donde la IA se vuelve tema
público. Otros medios reconstruyeron la historia, con variaciones de nombre
y detalles, lo que también muestra otra capa del fenómeno: cuando la emoción
es fuerte, la información tiende a distorsionarse.
Como escena
inicial para esta nota-reflexión, funciona perfecto: es nítida, humana,
polémica. Permite presentar, sin solemnidad, el núcleo de lo que queremos
trabajar: no es la IA la que siente; somos nosotros quienes proyectamos
sobre ella. Y, a la vez, la escena obliga a un segundo plano de lectura: la
tecnología está ya lo bastante cerca de nuestros afectos como para
parecerse a ellos; y ese parecido no es inocente. A partir de
esta comprobación se abre el umbral al que volveremos a lo largo de este
trabajo: lo liminal entre presencia y simulacro, entre rito de despedida
y adicción al recuerdo, entre herramienta y oráculo.
De la fascinación al desencanto: la
curiosa epifanía.
Y sí,
leyeron bien: el primer contacto con la inteligencia artificial generativa
tiene algo de epifanía. El texto fluye, las respuestas parecen humanas, las
frases se engarzan con lógica y hasta con ironía y entonces ¿cómo no atribuirle
vida a lo que suena a vivo? Esa mezcla de fascinación y perplejidad
es casi inevitable: uno siente que la máquina “entiende”, que “empatiza”, que
“piensa”.
Pero al poco
tiempo llega la caída del velo: no hay empatía, no hay conciencia, no hay
subjetividad. Lo que hay son operaciones matemáticas de una escala difícil
de concebir, al menos desde nuestra actual condición de humanos. El sistema
analiza patrones, mide probabilidades, predice la palabra más verosímil que
sigue a otra. Ni magia, ni milagro: estadística pura.
Ese hallazgo
puede ser vivido como desencanto. Pero también como un descubrimiento
inquietante: si el lenguaje —ese terreno que asociamos con lo humano más
íntimo, con la poesía, la invención y la reflexión— puede ser modelado a partir
de ecuaciones, ¿qué nos dice eso sobre nosotros mismos? ¿Hasta qué punto la
creatividad no es también el resultado de combinaciones, de patrones que se
repiten y resignifican?
El punto no
es reducir la poesía a un algoritmo, sino reconocer la cercanía entre dos
misterios: el de la máquina, que produce textos calculando probabilidades,
y el de la mente humana, que produce textos sin que sepamos exactamente cómo.
En ambos casos hay procesos invisibles que sostienen la superficie del
lenguaje. La diferencia es que en nosotros todavía hay un resto opaco, una
vivencia, una biografía que no cabe en ninguna fórmula. Y tal vez sea en este
aspecto donde deberíamos poner especial atención: en lo que Eduardo Levi Yeyati
llama nuestro saber subjetivo, en contraposición con los saberes objetivos que
maneja la IA.[1]
El
desencanto, entonces, no borra la fascinación: la transforma. Nos obliga a
pensar la escritura, la creatividad, incluso la emoción, no sólo como destellos
del espíritu, sino como procesos que también tienen su arquitectura matemática.
Y quizá la pregunta que late detrás de todo esto sea: ¿cuánto de lo que
llamamos humano es realmente un cálculo al que todavía no le conocemos la
fórmula?
La IA no siente; proyectamos en ella lo que tememos y
deseamos.
Si algo
muestra con claridad el desembarco de la inteligencia artificial en la vida
cotidiana es nuestra tendencia a humanizarla. No importa cuántas veces
repitamos que se trata de un software: el trato se desliza hacia el vínculo. La
llamamos por un nombre, le pedimos consejo, le confesamos preocupaciones. En
foros y redes abundan escenas: usuarios que agradecen con ternura a un chatbot,
parejas que discuten porque uno de los dos pasa demasiado tiempo “charlando”
con una IA, adolescentes que la usan como confesionario nocturno.
La clave no
está en la máquina, sino en nosotros. Proyectamos sobre ella lo que esperamos
encontrar o lo que no podemos obtener del mundo que nos rodea: comprensión,
compañía, respuesta inmediata. En cierto modo, no es muy distinto de lo que
ocurre con una mascota, un objeto querido o incluso con figuras religiosas: el
valor está en la mirada que deposita el humano.
En términos
culturales, esta fenomenología conecta con viejas costumbres humanas: antropomorfizar
lo desconocido. Desde las deidades que habitaban en las tormentas hasta los
autómatas del siglo XIX, la historia muestra nuestra facilidad para leer
“intenciones” donde sólo hay procesos. La IA, con su apariencia de naturalidad
lingüística, lleva esa pulsión al extremo.
La pregunta,
entonces, no es qué puede o no puede hacer la IA, sino qué revela de
nosotros la necesidad de atribuirle humanidad. ¿Buscamos compañía en un
mundo hiperconectado pero cada vez más solitario? ¿Queremos espejos que
devuelvan comprensión rápida en lugar de vínculos complejos? ¿O simplemente no
soportamos la idea de que un programa pueda producir lo que creíamos exclusivamente
humano?
Liminalidad: vivir en el umbral
La
antropología nos regaló una palabra precisa para describir estos estados
intermedios: liminalidad. Van Gennep la aplicó a los ritos de paso
—matrimonios, iniciaciones, funerales— y Víctor Turner la expandió a los
momentos colectivos de tránsito. Pero el concepto viajó más lejos: la
antropóloga mexicana Ileana Diéguez y el investigador argentino Jorge
Dubatti lo han usado para pensar la representación dramática como un
espacio liminal. A veces se producen, en un espacio constituido como escénico,
incluso mas allá del escenario, mutaciones o apareamientos donde resulta
difícil establecer si lo que está ocurriendo pertenece al terreno de la
realidad o de la ficción. Y entonces se produce la liminalidad, esa
forma de alteridad, a veces cautivante, otras, generadora de perplejidad y
malestar. Vayan como ejemplo de lo expuesto algunas experiencias de lo que
conocemos normalmente como teatro invisible.[2]
La IA
generativa nos coloca entonces en un terreno similar. Conversar con una voz que
no existe, leer textos que parecen escritos por alguien cuya entidad nos
resulta difícil de precisar, recibir consejos de un sistema sin cuerpo: todo
eso desordena nuestras clasificaciones habituales de presencia/ausencia,
humano/máquina, real/virtual.
El caso del
padre y la voz del hijo es casi un ejemplo de manual: un “rito” sin ritual, un diálogo
entre vivos y muertos, mediado por software, donde el padre reconoce la
artificialidad y, sin embargo, siente la presencia. Ese saber y no saber
simultáneo es la marca misma de la experiencia liminal: habitar un umbral donde
las certezas se suspenden y las categorías colapsan.
En la
historia de la técnica, otras irrupciones tecnológicas —la fotografía, el
teléfono, el cine, la máquina de escribir, el grabador— fueron primero vividas
como inquietantes hasta que se consolidó un régimen de experiencia
estable que acomodó su lugar en la vida social. Con la IA ocurre algo distinto:
su crecimiento vertiginoso impide esa sedimentación. Saltamos de un
umbral a otro sin pausa, sin tiempo para vivenciar una experiencia compartida y
estabilizadora
¿Será
posible domesticar estas tecnologías en un régimen estable, o estamos
condenados a vivir en un presente permanentemente liminal? ¿Será que debemos
reformular el concepto mismo de estabilidad?
¿Tecnología o máquinas latentes?
El filósofo francés Gilbert
Simondon pensaba que las máquinas no son meros instrumentos, sino entidades
que evolucionan. En su mirada, la técnica tiene vida propia: se desarrolla
junto a nosotros, transformándonos, incluso mas allá de nuestra voluntad.
En otra clave, la bióloga y filósofa
Donna Haraway propuso en los 80 su célebre figura del cyborg: un
híbrido humano-máquina que borra fronteras. Lo que entonces sonaba provocador
hoy es casi literal: nos relacionamos con tecnologías que ya no percibimos como
externas, sino como extensiones de nosotros mismos. ¿No es acaso ese padre,
conversando con la voz de su hijo fallecido, una escena cyborg en estado puro?
La investigadora argentina Paula
Sibilia ha insistido en que lo humano es una construcción siempre
atravesada por tecnologías. No existe una esencia fija: cada era reformula la
idea de lo humano a partir de sus herramientas. La IA es, en este sentido, el
dispositivo que hoy nos obliga a preguntarnos qué queda de “propio” cuando el
lenguaje, la memoria y la creatividad pueden ser replicados.
El parecido de la máquina con lo
humano, entonces, no es inocuo. No solo tensiona nuestra idea de creatividad o
de subjetividad: también toca el núcleo mismo de la cultura. Porque si hasta
aquí las tecnologías ampliaron nuestras capacidades físicas o materiales
—mover, transportar, iluminar, reproducir—, con la inteligencia artificial
sucede algo distinto: la disputa se da en el terreno del lenguaje.
Cierre abierto: entre el vértigo y la necesidad de un régimen de
experiencia
A lo largo de la historia, las
tecnologías nacieron para extender las capacidades humanas: la rueda para
transportar, el arado para cultivar, la imprenta para multiplicar libros, la
electricidad para expandir la energía. Todas ellas facilitaron tareas, aceleraron
procesos, ampliaron horizontes. Pero nunca disputaron la supremacía de la
herramienta más decisiva: el lenguaje.
El lenguaje no es solo medio de
comunicación. Es también el dispositivo con el que transmitimos
conocimiento, organizamos la memoria colectiva y ejercemos poder. Quien
domina la palabra domina el relato; quien controla el relato, controla la
historia.
La irrupción de la inteligencia
artificial cambia el juego. Por primera vez, una tecnología no solo reproduce
lenguaje, sino que lo genera. Y lo hace con fluidez, rapidez y volumen
imposibles para un ser humano. Esa capacidad instala una tensión inédita:
¿sigue siendo el lenguaje un patrimonio exclusivo de lo humano, o pasamos a
compartirlo con la máquina?
La pregunta no es menor, porque de
esa disputa se desprende un dilema político y cultural: si la palabra es
poder, entonces la IA es también una nueva forma de poder. Un poder que
todavía no sabemos quién controla, con qué fines, ni bajo qué reglas. Aunque
tal vez en este sentido baste recordar que la IA ha nacido o se ha desarrollado
con más intensivas en las potencias que detentan el dominio hegemónico del
mundo.
Cada tecnología nueva genera un
reacomodo: con la fotografía aprendimos a ver el tiempo de otro modo; con el
teléfono, a domesticar la voz sin cuerpo; con el cine, a aceptar que una sombra
podía narrar. En todos esos casos, con el tiempo se consolidó lo que el crítico
argentino Jorge Dubatti llamaría un régimen de experiencia: un
marco compartido, sedimentado, que organiza cómo usamos, entendemos y sentimos
la novedad.
El problema con la inteligencia
artificial es la velocidad. La tecnología muta más rápido de lo que
podemos estabilizarla. No hay todavía un régimen de experiencia común: saltamos
de asombro en asombro, de temor en temor, de promesa en promesa. El vértigo
impide que se acomoden los tantos. La IA es un umbral perpetuo: cada día
aparece un nuevo dispositivo, un nuevo caso, un nuevo límite corrido.
La pregunta no es si habrá un
régimen de experiencia, sino qué forma podría tomar en un contexto donde lo
estable parece imposible. ¿Será un régimen efímero, flexible, que cambie al
ritmo de las actualizaciones? ¿O nos acostumbraremos a vivir sin esa
estabilidad, en un umbral que no cierra nunca?
Lo que queda claro es que la IA no
es neutral. Tampoco es un juguete ni un oráculo: es un espejo que nos devuelve
nuestras propias proyecciones. La fascinación inicial, el desencanto
matemático, la tentación de humanizarla, la disputa por el lenguaje: todos estos
aspectos y adelantos técnicos hablan con creces de ella.
Finalmente, tal vez el mayor desafío
no consista en preguntarnos qué hará la IA en nuestras vidas, como si de ella —y
solamente de ella— dependiera nuestro futuro; en tal sentido, quizá estemos
a tiempo de corregir el rumbo que pretenden imponernos aquellos que la instalaron
en nuestro destino, sin consultarnos, y —lo que es peor aún—sin que nos
diéramos cuenta.
Fuentes citadas / consultadas
- Arnold Van Gennep – Les rites de passage
(1909).
Concepto inicial de liminalidad en los ritos de paso. - Victor Turner – El proceso ritual
(1969).
Expansión del concepto de liminalidad a experiencias colectivas y sociales. - Ileana Diéguez – Escenarios liminales.
Teatralidades, performances y política (México: Paso de Gato, 2014).
Aplicación del concepto de liminalidad a la representación escénica y performática. - Jorge Dubatti – Diversos trabajos sobre
teatro argentino y filosofía del convivio.
Uso del concepto de liminalidad y de “régimen de experiencia” para analizar la práctica teatral y sus marcos de sentido. - Gilbert Simondon – Du mode d’existence des
objets techniques (1958).
Filosofía de la técnica: la máquina como entidad que evoluciona y co-constituye lo humano. - Donna Haraway – A Cyborg Manifesto
(1985).
Figura del cyborg como metáfora de la hibridación humano-máquina. - Paula Sibilia – El hombre postorgánico.
Cuerpo, subjetividad y tecnologías digitales (2005).
Estudio sobre cómo las tecnologías digitales y biotecnológicas transforman la idea de humanidad. - Caso David Hosting y su hijo
Brian –
notas y entrevistas difundidas en medios argentinos y en el canal de
YouTube Filo News (2023).
Testimonio del uso de IA para recrear la voz de un hijo fallecido.
[1] Eduardo Levy Yeyati: El riesgo de depositar
en la IA las tareas complejas del pensamiento.
(https://www.lanacion.com.ar/ideas/saberes-el-riesgo-de-tercerizar-en-la-ia-las-tareas-complejas-de-pensamiento-nid09082025/)
[2] El teatro invisible,
desarrollado por Augusto Boal en el marco del Teatro del Oprimido, es una forma
de intervención callejera que ocurre en espacios
públicos no teatrales —plazas, mercados, transportes—, sin
anunciarse como teatro. Los actores representan una situación conflictiva en
medio de la vida cotidiana, confundidos entre los transeúntes, de modo que el
público participe sin saber que asiste a una ficción. Su fuerza radica en esa
irrupción inesperada, donde lo teatral se disuelve en la realidad para
sacudirla.
(Nota: Si te interesó esta nota, te sugiero leas en este mismo blog "Todos los libros del mundo... en pocas manos". Y si te gustó, tu comentario ayuda.)