ChatGPT o el bucle del asombro - Contracultural

ChatGPT o el bucle del asombro

ELIZA estudiando para responder tus preguntas absurdas (Audrey Hepburn en My Fair Lady de George Cukor, 1964)
ELIZA estudiando para responder tus preguntas absurdas. (Audrey Hepburn en My Fair Lady de George Cukor, 1964)
En 1966 se desarrollaba ELIZA, el primer chatbot de la historia. En la era de la celeridad y la angustia existencial ChatGPT, su versión mejorada, nos vende la promesa de un futuro mejor. ¿Cuáles son las consecuencias e implicaciones de la interacción humana con las inteligencias artificiales? La pereza intelectual, el despilfarro medioambiental, la violación de los derechos de autor, la perpetuación de narrativas hegemónicas son algunas de las problemáticas para poder reconsiderar nuestra relación con las máquinas.

Estoy harta de veros hablar con el puto ChatGPT. Lamentando sonar como una renegada del desarrollo tecnológico, como una moralista o, lo peor, las dos cosas juntas: como una vieja, me siento en la obligación de recuperar esa desconfianza hacia la técnica que precede todo gran progreso o fracaso en el desarrollo de la historia humana.

Entre el racionalismo que acredita a la ciencia y el desgaste psíquico de la posmodernidad, la interacción con este ciberoráculo supone una promesa de avance -hasta salvación- tan atractiva que nubla nuestra ya entorpecida capacidad de discernimiento, especialmente si esta promesa está respaldada por las élites financieras y tecnológicas que determinan en gran medida nuestras tendencias de consumo y conducta. Columpiándonos entre el hastío existencial y la celeridad abrumadora que caracterizan nuestra época, nos rendimos una vez más a los artificios de la novedad sin mucho tiempo ni paciencia para calcular sus consecuencias. 

Tampoco pretendo adscribirme a la corriente apocalíptica que ya se ha rendido a la certeza de que los robots nos quitarán el trabajo el día de mañana, y se vengarán de la iniquidad humana diezmándonos a la semana siguiente. En mi distopía, me preocupa más la mecanización de las personas que la humanización de las máquinas. De hecho, permanezco impacientemente a la espera de que la IA no sólo me arrebate mi trabajo sino que se cargue por completo la institución trabajo, en tanto que organismo colonizador y exaustor de nuestro tiempo y nuestra energía.

Es curioso cómo nuestro sistema castiga la ociosidad pero desestima la tendencia a la pereza intelectual que promueve la delegación de cada vez más tareas a las herramientas de IA. Lo que se nos presenta como una solución práctica y eficaz a los “obstáculos” de la cotidianidad no busca optimizar nuestras vidas, sino nuestra capacidad productiva, nuestra disposición a la servidumbre. 

«En mi distopía, me preocupa más la mecanización de las personas que la humanización de las máquinas. De hecho, permanezco impacientemente a la espera de que la IA no sólo me arrebate mi trabajo sino que se cargue por completo la institución trabajo.»

Cada vez que le pedimos a un chatbot que nos prepare nuestro menú macrobiótico de la semana, o una carta de presentación para un puesto de trabajo, o el discurso para la boda de nuestra prima, no solo contribuimos a la sedentarización de nuestro cerebro. Sobre todo, estamos alimentando al sistema con datos y matices que serán procesados con una rapidez y extensión muy superiores a las humanas, tan impresionantes que compensarán la absoluta simpleza y, a veces, incluso imprecisión de sus extensas respuestas, plagadas de informaciones irrelevantes y consejos genéricos. La simpatía hipermoral de este asistente es, de hecho, un mecanismo de distracción para nada arbitrario.

El puto ChatGPT también está harto de ti.

Despilfarro medioambiental, recopilación ilegal de datos y violación de derechos de autor

El problema no es solamente que las grandes corporaciones que encabezan el desarrollo tecnológico, como OpenAI o Microsoft, estén enfrentando decenas de cargos multimillonarios tanto por la recopilación ilegal de datos de usuarios como por la violación de derechos de autor para entrenar al chat. Tendríamos que hablar también de las consecuencias ambientales de un sistema cuyo entrenamiento generó un volumen de emisiones de carbono superior a 550 toneladas y que consume medio litro de agua por cada conversación sencilla. Pero, más allá de las implicaciones éticas y ecológicas que acarrea nuestro (no tan) nuevo cyberaliado, quisiera poner atención en los efectos cognitivos y afectivos de esta clase de diálogos antropomaquínicos, como los conceptualizó Éric Sadin. Para ello, evocaré a la gran precursora de los chatbots: ELIZA, creada en 1966 por Joseph Weizenbaum, profesor del Departamento de Ingeniería Eléctrica y Ciencias de la Computación del MIT. 

ELIZA, el origen de nuestra fascinación obsesivo-reflexiva

Desarrollada con el fin de estudiar las capacidades conversacionales entre una máquina y un ser humano mediante un lenguaje natural, su nombre hacía referencia a Eliza Doolittle, la Fair Lady de la adaptación teatral de George Bernard Shaw sobre el mito de Pigmalión, el escultor que en Las metamorfosis de Ovidio se enamora de una de sus estatuas. Weizenbaum fusionó el paternalismo didáctico del profesor de fonética que protagoniza la obra de Shaw con el enamoramiento que sufre Pigmalión hacia su propia obra para construir el concepto de ELIZA sobre el gozo narcisista de encontrarse en el reflejo de la creación

El furor fue notable para la sencillez del mecanismo: mediante un sistema de script que clasificaba las palabras clave e identificaba el contexto de la conversación, el ordenador precisamente reflejaba el input recibido, adaptándolo sintácticamente y compilando nuevas informaciones mediante la formulación de preguntas. En el ejemplo de arriba, la primera palabra clave del interlocutor humano sería “alike”; suficiente para que ELIZA estableciera en su script una relación semántica con las palabras semejanza, similaridad o, en este caso, conexión. ELIZA disponía de un abanico de posibles respuestas: 

 

 

Una característica importante de ELIZA es que había sido diseñada de modo a emular el tono que adoptaría un psicoterapeuta. Eso porque, según revelaría Weizenbaum, las entrevistas psiquiátricas son de los pocos formatos de diálogo donde una de las partes puede hacer preguntas que demuestran poco o nulo conocimiento sobre un asunto. Si, por ejemplo, un paciente hace referencia a un objeto del mundo y el terapeuta le pide que desarrolle sobre ello, éste no busca una información sobre el objeto del mundo, sino la interpretación del paciente a ese respecto. Es, por tanto, la herramienta perfecta para subsanar el talón de Aquiles de la máquina: la consciencia. Como explicaría Sherry Turkle en su célebre Life on the Screen, ELIZA no comprendía las preguntas que recibía ni las respuestas que ofrecía; no entendía el objeto men, ni la jerga to bug, ni el sentimiento depressed. Ese entendimiento lógico era secundario en las interacciones, no le hacía falta ni a la máquina para sonar convincente ni a su interlocutor para ser convencido; de hecho, ELIZA fue el primer sistema en superar el famoso test de Turing

«Para Weizenbaum, cuenta Turkle, el hecho de que la gente acogiera la idea de un psicoterapeuta robot evocaba la insensibilidad moral y emocional que posibilitó el Holocausto.»

Weizenbaum se vio en el deber de desmi(s)tificar a su Galatea al constatar la facilidad con la que los usuarios conectaban emocionalmente con las máquinas. Si bien el antropomorfismo siempre estuvo presente en la historia de la cultura, ahora la deshumanización comenzaba a emerger como su contrapeso. Para Weizenbaum, cuenta Turkle, el hecho de que la gente acogiera la idea de un psicoterapeuta robot evocaba la insensibilidad moral y emocional que posibilitó el Holocausto

ELIZA estudiando para responder tus preguntas absurdas (Audrey Hepburn en My Fair Lady de George Cukor, 1964)

Es posible que esta afirmación se considere exagerada, tal y como ocurrió en su día –Kenneth Colby,  psiquiatra y cocreador de ELIZA, quedó tan satisfecho con la respuesta de los usuarios y los resultados promisorios del sistema que años más tarde desarrollaría a PARRY, un nuevo bot conversacional que emulaba un paciente esquizofrénico-, pero no es insensato considerar la amistad ante las máquinas como un reverso de la desconfianza y el desengaño entre nuestra propia especie. Es de cierta forma comprensible que se construya una simpatía hacia nuestras copias inanimadas a medida que la empatía hacia nuestros iguales mengua exponencialmente. Puede que lo que busquemos sea inspirarnos en la perfección de lo artificial, donde no hay margen para defectos y los errores pueden fácilmente ser corregidos con una recodificación. Lo que resulta menos comprensible es buscar consejo o consuelo sobre el amor, la locura, la desdicha o la muerte en bases de datos que ni aman ni deliran ni sufren ni mueren. Pretender someter el mundo de los sentidos a una inteligencia sin alma es de los fracasos más humillantes a los que puede exponerse la humanidad. 

Patrick Stasny señala que por mucha complejidad que se le añada a un sistema mecánico, no se crea la inteligencia, tan sólo el efecto de la inteligencia

Se podría argüir que nuestras conversaciones cibernéticas simplemente pertenecen a una dimensión lúdica, en la cual queda claro nuestro rol tanto como el de nuestro robot interlocutor. Pero todo juego tiene su seriedad -una seriedad incluso sagrada, diría Gadamer-, y es sabido que la virtualidad en la que está sumergida nuestra era contribuye a la difuminación de las fronteras psíquicas entre realidad y simulación. Y esa es precisamente la clave de la plausibilidad: la condición del jugador que se entrega a las reglas del juego es la que corona a las tecnologías digitales con el atributo de inteligencias artificiales

El farol: clave del éxito de las inteligencias artificiales

En definitiva, los creadores de estos primitivos programas conversacionales sabían que la cualidad más importante para el éxito de sus sistemas no residía en una tecnología super avanzada, sino en el secreto que mejor resume a la naturaleza humana: el farol. ELIZA, Alexa, Chat GPT y demás inteligencias sólo necesitaron aparentar saber más de lo que sabían para ganarse nuestra confianza, nuestra admiración y una especie de respeto que en el fondo esconde un cierto temor.

Escena de Us (Jordan Peele, 2019)

En tanto que guardamos una evidente relación jerárquica con nuestros asistentes virtuales, tenemos la conciencia del amo que recela de la rebelión de sus esclavos. Para nuestra vil tranquilidad, secundo la afirmación de Patrick Stasny de que “por mucha complejidad que se le añada a un sistema mecánico, no se crea la inteligencia, tan sólo el efecto de la inteligencia”, y que, por tanto, es muy improbable que la humanidad sea destruida por algo que no sea ella misma; si nuestra ingenuidad frente a las máquinas es algo a lo que guardar cautela, nuestra perversidad hacia -y mediante- ellas no debería preocuparnos mucho menos. 

IAs: ¿guardianas de la verdad o portavoces del discurso hegemónico?

Espero que no sea necesario aclarar, a estas alturas, que ninguna interacción con los chatbots es intrínsecamente nociva. Basta con tener en cuenta que estos están diseñados para parecer inofensivos. Retrocedamos al origen del mito que dio nombre a ELIZA para recordar que, por mucho que ChatGPT nos ofrezca datos y soluciones procesadas y sintetizadas en tiempo récord, sigue siendo nuestro alumno; las informaciones recogidas de forma más o menos legítimas por OpenAI son tan veraces, justas, responsables e imparciales como lo es cada usuario.

El hecho de que las máquinas carezcan de conciencia no quiere decir, desafortunadamente, que carezcan de sesgos, y un uso automatizado de este tipo de tecnologías puede contribuir en gran medida a la fosilización de narrativas hegemónicas que con mucho trabajo estamos empezando a revertir desde los márgenes. Dotar a las IAs de una autoridad definida por Éric Sadin como potencia aletheica, es decir, la capacidad de enunciar verdades, supone un flaco favor al desmantelamiento de las estructuras de explotación y opresión responsables por mecanizar nuestros cuerpos, saturar nuestros sistemas cerebrales y agotar nuestra energía revolucionaria. 

En una era acometida por un individualismo que, como hemos visto, no solo segrega sino que también deshumaniza, hace falta más que nunca revisitar los usos de lo erótico teorizados por la gran Audre Lorde contra esta emergente robótica del poder. Ante la crueldad de un sistema que, como define ella, excluye de las necesidades humanas sus componentes psíquicos y emocionales, no puede haber mejor represalia que una consciencia más que nunca consagrada a los sentidos, el único reducto donde se articulan experiencias irreproducibles digitalmente. Reconsiderar nuestra relación con las máquinas supone ante todo la oportunidad de regenerar nuestros vínculos humanos, de recuperar la organicidad de nuestro lenguaje a través de su desciframiento, es decir, de su liberación de un binarismo repetitivo, ergo limitante. Es, en suma, preservar la contingencia que caracteriza a la naturaleza humana. 

Un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

TE PUEDE INTERESAR

PENSAMIENTO
COMUNIDAD
CAPÍTULO 1. De una serie de ensayos sobre las inquietudes humanas a través de un viaje entre literatura, pensamiento y el conocimiento empírico del paisaje. …
PENSAMIENTO
COMUNIDAD
El pasado sábado 9 de marzo tuvimos la ocasión de asistir al Memefest, un evento autodefinido como “la fiesta del folklore digital y el humor…
PENSAMIENTO
El otro día me sorprendí a mí misma andando apresuradamente (una mezcla entre hacer marcha y correr, porque tengo una excelente técnica andando pero soy…

Suscríbete a la Newsletter

Ir al contenido