Entrevista a Serge Tisseron

Los robots van a modificar la psicología humana

En 2016, Microsoft soltó en Twitter a Tay, una Inteligencia Artificial pensada para interactuar por imitación y respuesta en las redes sociales. Después de una jornada y más de 96.000 tweets, los internautas malintencionados le habían hecho adquirir palabras misóginas, racistas y antisemitas.

Compartir en:


Satisfacción de los deseos, soledad, memoria, relación espacial… Para el psiquiatra
Serge Tisseron, las máquinas dotadas de inteligencia artificial van a revolucionar no sólo nuestra vida cotidiana, sino también nuestra forma de ser en el mundo. «La compañía ya no se definirá solamente por la presencia de un humano, sino también de una máquina». Serge Tisseron es psiquiatra, doctor en psicología y, desde 2015, miembro de la Academia de Tecnologías. Fue cofundador, en 2013, del Instituto para el Estudio de las Relaciones Hombre/robot, del que es un activo miembro. Autor de «Pequeño tratado de cyberpsicología», «Robots, nuevos socios y cuidados psíquicos», y «El día en que mi robot me amará», ha participado r-cientemente en el festival internacional de periodismo celebrado en Couthures-sur–Garonne con el tema «¿Podemos hacerlo con sexbot?».


¿Cómo va a modificar el psiquismo humano la omnipresencia de máquinas dotadas de inteligencia artificial (IA) en nuestra vida cotidiana?

Los robots van a modificar la psicología humana en la misma medida en que los progresos de la alimentación y de la medicina han modificado nuestros cuerpos. Nuestra talla y nuestra corpulencia han cambiado, nuestra resistencia a las enfermedades y al dolor también, pero no nos damos cuenta porque estos cambios se nos presentan como naturales. Sucederá lo mismo con las máquinas inteligentes, que van a revolucionar no solamente nuestra vida cotidiana, sino también nuestra forma de ser en el mundo.

Cuatro campos, como mínimo, serán profundamente modificados. En primer lugar, nuestra capacidad para diferir la satisfacción de nuestros deseos. El teléfono móvil, y luego el correo electrónico, ya han comenzado a alterar nuestra capacidad de resistencia a la expectativa relacional: con la entrega casi instantánea por dron, nos convertiremos también en intolerantes a la hora de esperar la llegada de objetos. El grado siguiente será, probablemente, la intolerancia por lo que se refiere a nuestras expectativas de reconocimiento, dado que nuestros robots de proximidad podrán gratificarnos con gran cantidad de felicitaciones y gentilezas. ¿Seremos, pues, capaces de soportar que la sociedad humana que nos rodea sea menos amable con nosotros? ¿Seguiremos teniendo ganas de seguir frecuentándola?

El segundo cambio concierne a la relación con la soledad y al discurso interior. Con nuestros «chatbots» [agentes conversacionales], vamos a desarrollar una tendencia a encerrarnos permanentemente. Contrariamente a la mayoría de los humanos, estas máquinas nos rebotarán constantemente las preguntas, los placeres y las gentilezas. Por una simple razón: la captura de nuestros datos personales…

 Pero, por ello mismo, la noción de soledad cambiará: la compañía ya no se definirá solamente por la presencia de un humano, sino también de una máquina. ¿Qué será de la posibilidad de tener, para sí mismo, un discurso interior, sin interlocutor, cuando nos acostumbremos a tener un interlocutor permanente a domicilio, presto a escucharnos tanto tiempo como deseemos?

Los otros dos campos en los que la inteligencia artificial va a modificar nuestro psiquismo son nuestra memoria y nuestra relación con el espacio. Mañana, nuestro smartphone no sólo estará en disposición de almacenar gran cantidad de nuestros datos personales, sino que también podrá clasificarlos en nuestro lugar, participando así, permanentemente, en la construcción de nuestra biografía.

En cuanto a las herramientas de geolocalización, nos permitirán, por supuesto, desplazarnos en el espacio sin tener la menor comprensión del miso. Si el teletransporte, hoy banal en los videojuegos, existe un día en el mundo real, será percibido como totalmente natural, porque ya habremos perdido la representación de los espacios intermedios entre el punto del que partimos y el punto al que llegamos.


Los robots ¿van a obligar al hombre a redefinir la idea que tiene de sí mismo?

En todas las tecnologías inventadas hasta ahora, los objetos estaban a nuestro servicio: como un director de orquesta, los poníamos en marcha cuando teníamos necesidad de ellos. Lo que será novedoso con los objetos dotados de inteligencia artificial será que podrán interpelarme y proponerme sus servicios como si fuéramos socios a partes iguales. Cuando yo entre en mi automóvil autónomo ‒Ford ha previsto su comercialización para 2021‒, seré recibido por una voz aclopada a una pequeña cámara, que me dirá, por ejemplo: “Al ver tu cara esta mañana tengo la impresión de que has dormido mal”.

Si olvido mi paraguas antes de salir, no será mi mujer ni mis hijos quienes me lo indiquen, sino mi asistente personal, el cual me amonestará: “Recuerda que te he dicho esta mañana que iba a llover”. Nos veremos cada vez más enfrentados al hecho de que las máquinas tienen competencias de las que carecemos, es decir, nos encontraremos enfrentados a nuestra incompletud humana. Con el riesgo de sentir cierta vergüenza frente a nuestras insuficiencias… Y también frente a una confianza cada vez más ciega en sus capacidades. Seremos así gradualmente encerrados en una cada vez mayor dependencia afectiva frente a las máquinas.


¿Cómo puede ayudar la psicología frente a estos nuevos fenómenos?

Va a ser necesario integrar nuestra relación con los objetos como un elemento para apreciar la calidad de nuestra relación el mundo ‒o dicho de otra forma, de nuestra salud mental. Hoy estimamos que es buena cuando uno tiene una buena red social, una sexualidad satisfactoria, un trabajo más o menos estable…

Haría falta añadir el reconocimiento de una sana dependencia afectiva hacia los objetos. La misma podría, en efecto, convertirse en patológica, como es el caso de quienes sufren de abstinencia cuando son privados de su videojuego, de las redes sociales o del alcohol. Otro riesgo es el de pasar de la felicidad del antropomorfismo (yo proyecto mis emociones y mis pensamientos sobre un objeto, pero sé que se trata de una proyección) a las ilusiones del animismo (yo atribuyo al objeto en cuestión capacidades cognitivas y emocionales idénticas a las mías).  


¿Por qué las máquinas inteligentes pueden llegar a aumentar este riesgo de animismo?

Porque podrán tomar la iniciativa de la relación, y también porque sus fabricantes alimentan la ilusión de que tienen emociones. Esto agravará el fenómeno constatado, hace más de medio siglo, por el informático Joseph Weizenbaum, quien elaboró un programa bautizado Eliza, un precursor de los “chatbots” destinado a simular a un psicoterapeuta cuyo método consiste en reformular las palabras del paciente concentrándose en sus reacciones emocionales. Weizenbaum percibió que algunos de los estudiantes que le ayudaban en esta tarea tenían tendían a pensar que la máquina les comprendía realmente. Entonces acuñó esta frase, que debería ser inscrita en el frontón de todos los laboratorios de investigación en IA: “Jamás habría creído que un programa tan simple pudiera provocar tales delirios en la gente normal”.

Esto es lo que denominamos un fenómeno de disonancia cognitiva: por más que se sepa que son máquinas, uno no puede dejar de desarrollar con ellas la misma relación que con los humanos y creer que tienen emociones. Más recientemente, el Estado Mayor norteamericano descubrió que algunos soldados enviados a Afganistán e Irak se encariñaban de forma irracional con su robot antiminas: los daños que éste sufría les afectaban gravemente, y querían absolutamente que fuera reparado en lugar de recibir un robot nuevo salido de fábrica. Durante el combate, algunos ponían incluso su vida en peligro para evitarle daños.


En su último libro usted escribió: «Si fuera más joven, crearía un laboratorio de estudio de la psicología de las IA». ¿Es realmente necesario inventar una psicología de las máquinas?

Estaba convencido de esta evidencia por lo que sucedió con Tay, una IA pensada para jugar el papel de un adolescente capaz de interactuar en las redes sociales. Elaborada por Microsoft y “soltada” en Twitter en marzo de 2016, había sido programada para aprender por imitación y respuesta. Resultado: después de una jornada y más de 96.000 tweets, los internautas malintencionados le habían hecho adquirir palabras misóginas, racistas y antisemitas, obligando a Microsoft a suspender urgentemente su cuenta de Twitter. Lo que debemos retener de esta desastrosa experiencia es que las máquinas dotadas de capacidad de aprendizaje evolucionan de forma diferente al entrar en contacto con sus respectivos usuarios..

¿Hay que hablar propiamente de psicología? En cierto modo, sí. Si atendemos a lo que es observable, las máquinas “educadas” en entornos diferentes se distinguen entre sí por sus comportamientos, por sus palabras, incluso por las emociones que simulan. Haría falta entonces estudiar la forma en que estas IA podrían transformarse al hilo de las interacciones con los humanos. Y también al hilo de sus propias interacciones

Porque se olvida con frecuencia que las comunidades de robots van a adquirir una importancia creciente: podrían, por ejemplo, conectarse por la noche a un servidor central, una especie de escuela nocturna que corrigiera sus aprendizajes más antisociales. Esta interconexión es el gran desafío que nos plantean los objetos dotados de IA. Los informáticos nos presentan a sus criaturas como objetos “autónomos”, pero su poder de aprendizaje y de almacenamiento de datos está basado en su interconexión permanente.


Los robots, como dice, van a cambiar nuestra relación con la culpabilidad. ¿De qué modo?

Por un lado, culpabilizándonos, por otro, desculpabilizándonos. Las máquinas van a poder culpabilizarnos porque vamos a darles el derecho de castigarnos. Retomemos el ejemplo del automóvil autónomo, donde el conductor está llamado a seguir estando disponible en caso de necesidad. Para asegurarse de ello, el vehículo nos envía regularmente una señal a la que debemos responder poniendo una mano rn el volante. Si no respondemos a la señal –porque nos hemos dormido o estamos viendo una película en el asiento trasero–, ¿qué pasa? El algoritmo nos sanciona obligándonos, la próxima vez que usemos nuestro vehículo, a conducirlo nosotros mismos a la antigua usanza.  

¿Aceptaremos tales castigos como si formaran parte de un pacto social? ¿Se sentirán algunos perseguidos por su máquina? Es a este tipo de cuestiones a las que se enfrentarán los psicólogos el día de mañana. Pero las máquinas también tendrán el poder de desculpabilizar, con el riesgo de hacer a algunos de nosotros cada vez más inhumanos. Los «robots asesinos», esas máquinas militares programadas para abrir fuego sobre tal o cual objetivo, ya presentan este peligro. A partir del momento en que el hombre sale del bucle de las decisiones, resulta más fácil anular su responsabilidad y aceptar por su propio interés “daños colaterales” más importantes, o dicho de otra forma, un mayor número de muertos civiles.


Aunque sus fabricantes lo hacen todo lo posible por darnos esa ilusión, los robots no experimentan ni emociones ni sufrimientos. ¿Podría ello cambiar algún día?

No hay ninguna razón para dotar de emociones a los robots, más bien al contrario. Recuerde a HAL en la película 2001, La odisea en el espacio, y su famoso “Tengo miedo”, a partir de lo cual todo comienza a ir mal. Pero probablemente sobrevenga una gran ruptura cuando los robots combinen materiales inertes y biológicos. A partir de ese momento, los propios humanos serán probablemente transformados. Y ya no habrá entonces más que criaturas mestizas, ciborgs. Algunos más humanos, otros más máquinas, sin que el límite entre ambos quede quizás demasiado claro.

© Le Monde

Traducción de Jesús Sebastián

Todos los artículos de El Manifiesto se pueden reproducir libremente siempre que se indique su procedencia.

Compartir en:

¿Te ha gustado el artículo?

Su publicación ha sido posible gracias a la contribución generosa de nuestros lectores. Súmate también a ellos. ¡Une tu voz a El Manifiesto! Tu contribución, por mínima que sea, dará alas a la libertad.

Quiero colaborar