Gustavo Dessal*
El nombre de Sam Altman no es tan conocido para los profanos en materia de tecnologías, como es el caso de Jeff Bezos, Elon Musk o Mark Zuckerberg. Sin embargo, este hombre, que comenzó sus estudios de Ciencias de la Computación en Stanford, pero que abandonó muy pronto su carrera para convertirse en emprendedor de numerosas compañías, es a sus 38 años el sujeto que ha abierto la Caja de Pandora al inventar algo que él mismo considera que posee un poder potencialmente destructivo como un arma nuclear.
En una conversación privada que tuvo lugar el pasado abril de este año en las oficinas de su empresa OpenAI, Altman le reveló al periodista Ross Andersen que junto con su equipo de ingenieros habían creado una modalidad de inteligencia artificial que nunca darían a conocer, y que llevaban varios días sin dormir bien dada la naturaleza de aquello de lo que podrían ser responsables. Sin embargo, los escrúpulos de conciencia fueron muy rápidamente superados. En noviembre, ese enorme poder ya estaba disponible, y se había apoderado de la imaginación de los especialistas y el público interesado en la cibernética como ningún otro invento tecnológico lo había logrado en los últimos años.
El temor se convirtió en la euforia hipomaníaca del triunfo. El ChatGPT, aquello de lo que se trataba, ya rodaba por el mundo, y Altman le hizo saber a Ross Andersen que no se arrepentía de haber soltado esa bomba. Al contrario, estaba convencido de que podría prestar enormes beneficios para la humanidad. En cierto modo tiene razón. Las tecnologías no son buenas o malas en su inmanencia, y el uso al que se destinen no depende en general de sus propios creadores. Aún así, con la Inteligencia Artificial aplicada a grandes lenguajes sucede algo muy especial, porque la posibilidad de que conquiste una autonomía propia (aquello en lo que consiste la IA denominada “Generativa”) es muy alta, prácticamente segura, y aunque eso no es equivalente a que actúe contra los seres humanos, tampoco es una simple fantasía distópica.
La compañía OpenAi fue fundada en 2015 por Altman, Elon Musk y otros notables investigadores que estaban dispuestos a crear una superinteligencia, un programa intelectualmente superior al de cualquier sujeto. Su intención era hacerlo además con todas las garantías de que fuese segura y beneficiosa para la humanidad en su conjunto.
Si entramos en la página web de OpenAI, encontraremos el siguiente texto de presentación (la traducción es mía): “OpenAi es una compañía de investigación no remunerada. Nuestro objetivo es hacer avanzar la inteligencia digital de manera que sea lo más beneficiosa para la humanidad en su conjunto, al no estar constreñida por necesidad alguna de generar un retorno financiero. Dado que nuestra investigación está libre de obligaciones financieras, podemos enfocarnos en un impacto humano positivo”.
En Matías 26,34 Jesús se dirige a San Pedro y afirma: “En verdad te digo que esta misma noche, antes de que el gallo cante, me negarás tres veces”. OpenAI no es precisamente Jesucristo, pero en esa presentación se niega tres veces toda vinculación a intereses económicos: “No remunerada”; “No constreñida por necesidad de generar un retorno financiero”; “Libre de obligaciones financieras”. Un texto de tres frases, cada una de las cuales contiene una negación.
Tanto Freud como Lacan nos enseñaron a desconfiar de la filantropía y el deseo de hacer el bien. Altman le asegura a su entrevistador que esa superinteligencia no supondría una retirada a un laboratorio de máximo secreto en el desierto de Nuevo México, en una clara alusión al Proyecto Manhattan dirigido por Oppenheimer. La transparencia como premisa ética fundamental. resulta un tanto chocante en esta época en la que el cine y excelentes documentales han dado a conocer al mundo lo que fue aquel proyecto, al haberse desclasificado el año pasado parte de los documentos secretos de la fabricación de la bomba. Claro que Altman no es un “destructor de mundos”.
Con asombrosa velocidad, el motor GPT4 (que da plena potencia al ChatGPT), ha realizado toda clase de proezas, desde la escritura de poemas, ensayos universitarios y superado con creces desafíos matemáticos. Pero lo que sin lugar a dudas es lo más asombroso, y revela la capacidad autónoma del invento, es que a medida que se puso a trabajar solo, dio un salto cualitativo. Comenzó a realizar tareas de programación, algo para lo que no había sido entrenado. En otros términos, Chat GPT4 es capaz de llevar a cabo acciones que nadie le ha ordenado. Eso no significa -al menos por ahora- que esta tecnología se revuelva contra nosotros y se convierta en un Leviatán que acabe con nuestra existencia.
Es muy tentador que nos dejemos llevar por la fantasía apocalíptica, que puede muy bien ser fuente de toda clase de creaciones artísticas, algunas de ellas de excelente calidad, pero no es exactamente esa la posición que al psicoanálisis le interesa. Como mínimo deberíamos realizar el intento de establecer qué clase de vínculo puede tener el psicoanálisis con la Inteligencia Artificial, más allá de que los psicoanalistas no dejemos de mostrar interés por algo que constituye un síntoma de la época, y no uno cualquiera, si tenemos en cuenta que se suma a alguna de las inflexiones decisivas de la historia de la cultura.
Tan solo nueve semanas después de su lanzamiento, ChatGPT tenía un número de usuarios mensuales estimado en 100 millones. Un éxito de semejante calibre que de inmediato atrajo a inversores americanos, chinos y de otros países que aportaron billones de dólares para entrar en la carrera computacional.
Altman habla como quien está poseído de alguna clase de revelación, lo cual no debe extrañarnos, puesto que entre la locura y la invención existe una alianza bien conocida desde los inicios de la ciencia, en especial la ciencia aplicada. Einstein tuvo una experiencia alucinatoria cuando escribió las fórmulas de la Teoría de la Relatividad Generalizada: vio a un hombrecillo (probablemente él mismo) cabalgando a lomos de un rayo de luz.
El joven Altman, el hombre más poderoso en materia de Inteligencia Artificial, admite no saber verdaderamente a lo que su criatura puede llevarnos, al menos para las personas comunes y corrientes. Lo único que sabe con absoluta rotundidad es que la cosa va hacia alguna parte, que no se convertirá en un humo pasajero, y donde sea que está yendo lo hace a una velocidad que se acerca a la aceleración supersónica. Encuentro aquí una distinción que considero necesario destacar desde el punto de vista clínico. El centro de gravedad de la certeza delirante posee un escaso contenido imaginario. Es “eso funciona”, la convicción de un acontecer milenarista sin un desarrollo narrativo que lo acompañe. De allí el sentimiento subjetivo de una perplejidad que convive con el freno que se ha establecido al desarrollo ficcional. Altman recorre el mundo danto conferencias, insistiendo en que la revolución de la Inteligencia Artificial va a producir “un nuevo tipo de sociedad”, aunque nadie sepa en qué va a consistir.
Ilya Sutskever, de 37 años, es el Director Científico de OpenAi, discípulo de Geoffrey Hinton, el profesor emérito de la Universidad de Toronto que es considerado el “padrino” de la Inteligencia Artificial. El doctor Hinton, que ocupaba un alto puesto en Alphabet, la compañía madre de Google, ha renunciado para poder hablar con mayor libertad sobre las incertidumbres y peligros de la Inteligencia Artificial. En su calidad de alumno aventajado de Geoffrey Hinton, Sutskever le explica al periodista Ross Andersen que la I.A. funciona de un modo semejante a la red neuronal de un cerebro humano. Existe una correlación fundamental entre las neurociencias y la Inteligencia Artificial, en la medida que su objeto es el lenguaje y su dominio absoluto. La red neuronal del cerebro trabaja por capas. La información que recibe de un estímulo externo es procesada en distintos estratos, que a su vez crean nuevas estructuras de conexiones lógicas. Un ser humano necesita muchos años para aprender cualquier cosa, desde su nacimiento hasta su madurez, en cambio una estructura de Inteligencia Artificial Generativa está programada para predecir de forma instantánea y coherente cuál es el significante que sigue en una cadena. El ser hablante requiere de un tiempo determinado para saber, por ejemplo, que en una frase como “Si hoy es lunes, mañana es…”, el significante correcto es “martes”. Si extendemos este ejemplo a estructuras de lenguaje de enorme extensión y complejidad, la predicción del significante se consigue mediante la acumulación de datos con tendencia hacia la infinitud, que se obtienen de los billones de páginas que se encuentran en Internet. El sistema no puede hacer una criba que separe lo verdadero de lo falso. En ciencias humanas, la interpretación juega un papel decisivo, y en ciencias físico-matemáticas también. Hay errores, desviaciones que responden a fallos de concepto que no son intencionados. Esto, de todas maneras, no es exactamente algo que cabe dentro del marco del psicoanálisis y su campo de intereses. Lo que nos concierne son, por una parte, las objeciones éticas y teóricas al modo en que se aborda el lenguaje humano desde una perspectiva algorítmica, por cuanto el psicoanálisis ha deducido de su praxis clínica que el funcionamiento del discurso en el que el ser hablante está cautivo, el discurso del que es sujeto, sigue una lógica diferente a la estructura neuronal. Esa lógica responde al modo en que lo simbólico, lo imaginario y lo real se anudan, y lo hacen conforme a un axioma que no es matematizable. Un axioma según el cual la relación sexual no puede escribirse en el inconsciente. Esa imposibilidad le confiere al lenguaje del que el ser hablante es sujeto, una particularidad que no puede ser replicada según los criterios de una superinteligencia artificial, cuyos beneficios no ponemos necesariamente en duda, pero cuyos efectos colaterales tampoco debemos desatender, habida cuenta de que sus propios inventores hacen un llamamiento a la prudencia.
Por lo tanto, queda para el psicoanálisis descartada la idea de que la I.A. pueda resolver el dolor de existir. Estamos de acuerdo en que grandes avances pueden esperarse, por ejemplo en materia de medicina. La medicina, a excepción de las técnicas quirúrgicas, no ha hecho grandes avances a lo largo de la historia moderna. La I.A. bien podría acelerar ese estancamiento. Los departamentos de I.A. aplicada que dependen de grandes universidades de medicina hablan sobre la posibilidad de predecir las enfermedades que vamos a padecer y de crear una gigantesca base de datos con el fin de actuar sobre la malignidad. Por ahora todo eso tiene el estatuto del pensamiento especulativo, puesto que aún suponiendo que muchas enfermedades futuras puedan aventurarse en el presente, ello no implica de manera inmediata que exista un conocimiento de cómo tratarlas. Un fenómeno que se manifiesta cada vez más es el enfrentamiento entre médicos e ingenieros. Lo que hasta hace unas décadas era una colaboración mutua denominada bioingeniería, se convierte hoy en una disputa de poder. Grandes empresas tecnológicas han tomado la determinación de erradicar la función del médico para depositarla en la I. A. como régimen que gobierne de forma absoluta el terreno de la salud y la enfermedad.
Desde que el célebre médico y anatomista francés Xavier Bichat definió la salud como “el silencio de los órganos” y distinguió entre la vida animal y la vida vegetativa, siendo la primera la que establece conexiones entre los animales con otros cuerpos, mientras la segunda se refiere a los mecanismos orgánicos automáticos, han pasado más de dos siglos. Su filosofía, conocida como “vitalismo”, sostenía que las leyes físicas de las cosas inanimadas y los organismos vivos es diferente.
El psicoanálisis ha hecho de la relación entre el cuerpo y el goce una piedra angular de su praxis. El cuerpo goza, y solo existe el goce porque tenemos un cuerpo, solo uno por ahora. Y si algo podemos decir de cómo goza un ser hablante, es porque -a diferencia de una ostra- el sujeto del que el psicoanálisis se ocupa, habla. Es indemostrable si una ostra goza, y de qué, puesto que no habla. No se niega que una ostra pueda gozar, sino que nada sabemos sobre aquello en lo que consiste ese goce .
La Inteligencia Artificial, y en particular la I.A. Generativa, interesa a nuestra praxis en la medida que se postula como un saber sobre el goce, a partir de una aproximación totalizadora del lenguaje y su poder autónomo.
Si un médico podría ser sustituido por un programa digital, por qué no imaginar que como psicoanalistas cabe la posibilidad de que corramos la misma suerte. Considero que si esto llegase a realizarse, “Her”, de Spike Jonze, es un hermoso ejemplo de cómo es perfectamente posible que se desate un amor de transferencia entre un parlêtre y un sistema operativo. Pero la metáfora de la película es que a partir de determinado momento, esa transferencia solicita un cuerpo. La pulsión humana no es sin la pasión de lalengua, y esa pasión encierra un enigma que la Inteligencia Artificial no puede hacer desaparecer. Esa es tal vez una de las características que más nos incumben, y no la idea de que la Inteligencia Artificial nos conducirá a una catástrofe o a la extinción de la especie.
En el pasado mes de agosto, la compañía Zoom tuvo que salir al paso para negar lo que muchas organizaciones de hackers habían descubierto. La compañía supuestamente emplea la Inteligencia Artificial para sondear en el entorno del usuario cuando aparece filmado por la cámara. Algunas personas escogen un fondo de pantalla simulado o neutro, pero la mayoría no repara en el hecho de que el lugar donde se encuentra, y que es visto y grabado por Zoom, proporciona a la compañía una información extraordinariamente rica. La clase social del usuario, el tipo de vivienda u oficina donde se conecta, la ropa que lleva, los objetos que lo rodean. Eso permite trazar un perfil socioeconómico, incluso político, del usuario, a fin de utilizarse como objetivo de ventas, ofertas de consumo, y todo aquello que puede monetarizarse. Esto provocó un estallido en las redes sociales y la compañía desmintió las acusaciones. Sin embargo, los portavoces se negaron a atender a ninguno de los grandes medios informativos del mundo, ni periódicos ni televisiones que intentaron ponerse en contacto con Zoom. Es cierto que una actualización el sistema Zoom incluía una cláusula (que no solemos leer por su intencionada extensión, lo que nos convierte en cómplices pasivos de la videovigilancia) en la que se establece que los usuarios “consienten al acceso, uso, recolección, modificación, distribución, procesamiento, participación y almacenamiento del Servicio Generado de Datos de la compañía Zoom”, con fines de “aprendizaje mecánico o Inteligencia Artificial (sumados al entrenamiento y puesta a punto de algoritmos y modelos”.
El revuelo mediático y el intercambio de acusaciones y desmentidos entre hackers y voceros de la compañía, pone de relieve la desprotección de los usuarios ante la explosión sin precedentes de las industrias de altas tecnologías, convertidas en asaltantes y devoradores de datos. La fase canibalística del tecnocapitalismo ha convertido la Inteligencia Artificial en un monstruo que se alimenta de todo a cualquier precio, y que pone en peligro los principios democráticos que durante muchas décadas dieron protección a los derechos civiles de los ciudadanos, así como al intento de intrusión en los resortes más íntimos del parlêtre. La Inteligencia Artificial Generativa es un ariete que a toda costa pretende derribar el muro de la subjetividad, romper el reservorio del inconsciente.
TikTok se ha convertido en la aplicación más utilizada en la actualidad. El número de visualizaciones diarias supera al de las búsquedas en Google. Posee un algoritmo sumamente complejo, que varía constantemente según el tipo de contenido que va marcando tendencia. Pero lo más novedoso e inquietante es que el contenido que el usuario ve, puede ser editado a su antojo mediante los potentes motores del algoritmo, es decir, puede cambiar lo que se ve y lo que se dice, y a su vez reenviarlo a otros. TikTok puede utilizarse para diseminar toda clase de información falsa, y la propagación sigue la velocidad de un incendio. El circuito letal se completa porque al mismo tiempo la Inteligencia Artificial se alimenta de datos cuya veracidad es imposible de comprobar. En realidad, a la compañía TikTok, como a la mayoría de estas plataformas y aplicaciones, le resulta por completo indiferente la distinción entre lo verdadero y lo falso. Más aún, tal indiferencia es uno de los signos patognomónicos de aquello a lo que las redes sociales nos han conducido.
El actor Johnny Deep interpuso una demanda judicial a su ex mujer Amber Heard por difamación y malos tratos. El juicio, que duró más de 200 horas, fue televisado y retransmitido. Nunca en la historia de un juicio se habían alcanzado tantos millones de espectadores, ni siquiera el de O.J. Simpson, jugador de fútbol americano, acusado de asesinar a su esposa. Claro que Deep es un personaje de fama internacional, uno de los actores más populares de las últimas décadas. Pero la novedad reside en que los usuarios de TikTok, YouTube y otras aplicaciones, han ganado millones de dólares editando y publicando trozos del juicio. Algunos influencers en TikTok han tenido más de 10 millones de visualizaciones. Es interesante que en un caso de violencia sexual, el apoyo que Johnny Deep ha recibido desde el principio fue masivo, sin distinciones entre hombres, mujeres o miembros del colectivo LGTBI, mientras las muestras de desprecio y oprobio hacia la actriz fueron abrumadores. Como se sabe, el resultado fue que Amber Heard fue condenada a indemnizar a Deep con 50 millones de dólares.
Un documental sobre el juicio muestra hasta qué punto las redes sociales y en especial la aplicación TikTok hacen posible una versión moderna y tecnológicamente sofisticada de la barbarie del circo romano, donde el pulgar hacia arriba o hacia abajo decidían la vida o la muerte de un gladiador.
Caroline Mimbs Nyce, periodista y colaboradora de numerosos medios, ha comprendido muy bien que el algoritmo de TikTok “sabe”. Este saber, como el del inconsciente, es invisible, pero esa app ,al igual que Facebook, YouTube y otras, gobierna un perfil de contenidos personalizados para los usuarios, conforme a las preferencias que se detectan en sus búsquedas y reenvíos. La Comunidad Europea, que en los últimos años intenta jugar un papel de control sobre la privacidad de los ciudadanos y el uso de sus datos, ha obligado a la compañía TikTok a que ofrezca al usuario la posibilidad de cancelar la oferta automática de contenidos. No obstante, la mayoría de los expertos en Ciencias de la Comunicación consideran que esto no cambiará prácticamente nada, puesto que la alienación digital ha alcanzado una magnitud tal que solo puede comprenderse si analizamos la extraordinaria alianza que las tecnologías han establecido con lo más real del ser hablante. Sin lograr de momento una fusión absoluta, el saber algorítimico nos asedia y encuentra formas alternativas de dominar ese real.
El agujero constituyente del inconsciente sigue siendo, en su cualidad de lo imposible de escribirse, lo que impide que nos convirtamos en un objeto completamente cautivo del saber algorítmico. Pero del mismo modo que una reserva natural no sobrevive si no hay una estructura que vele por su cuidado, el psicoanálisis debe estar atento a las mil luces y sombras del capitalismo, que ya no requiere solo de ejércitos para destruir la convivencia y la paz social. Puede empujarnos al reino de Tánatos con unas pocas fórmulas matemáticas.
*Psicoanalista. Miembro de la AMP (ELP).
Conferencia dictada en el Primer Congreso Internacional de Inteligencia Artificial (México).
Fotografía seleccionada por el editor del blog.

¿Psicoanalistas siendo sustituidos por IA? No se dude ni un instante. Antes lo serán muchísimos otros del campo de la psicoterapia, los de las TCC los primeros. Pero los psicoanalistas también. Más aún, con su propia colaboración entusiasta. Estoy casi seguro que el grupo de la IPA dedicado a la interfaces inconsciente/neurocognición e IA, ya están manos a la obra bajo el pretexto de llegar a mucha más gente a precios populares. ¿Apostamos?
Saludos.
Me gustaMe gusta