En marzo de 2016, Microsoft lanzó con gran fanfarria en Twitter (ahora X) un ‘bot’ llamado Tay. Se trataba de un chatbot de inteligencia artificial con el objetivo de interactuar con usuarios y aprender de las conversaciones. para imitar el lenguaje de una adolescente.
El resultado fue desastroso y la pobre Tay no duró con vida más de 24 horas, cuando sus creadores advirtieron, horrorizados, que el bot estaba soltando por esa boca digital burradas que en el Reino Unido hubieran supuesto bastantes años entre rejas.
Nunca mais: los desarrolladores de Inteligencia Artificial entendieron que a la IA la carga el diablo, y que antes de sacarla de casa qué cosas tiene que defender, digan lo que digan los datos, y qué otras opiniones debe evitar por mucho que la realidad pareciera apuntar en esa dirección. Como dicen los pedagogos, a la IA hay que enseñarle los límites.
Ahora le ha tocado a Grok, al que su financiador, Elon Musk, ha querido aliviar de filtros para hacerlo más vivo y previsible, con consecuencias escandalosas, tanto que la IA de X ha tenido que entrar en boxes unas horas para prohibirle “discursos de odio”.
“Estamos al tanto de las publicaciones recientes de Grok y estamos trabajando activamente para eliminar las publicaciones inapropiadas”, dijo la empresa en un comunicado. “xAI entrena únicamente en busca de la verdad y, gracias a los millones de usuarios de X, podemos identificar y actualizar rápidamente el modelo donde el entrenamiento podría mejorarse”.
A todos nos gusta pensar que nuestras ideas, nuestra concepción del mundo y de las cosas, son fruto de una libérrima reflexión sobre la realidad, un ejercicio puro de empirismo y lógica. Eso, no se me ofenda nadie, rara, rarísima vez es cierto.
En la vida real, todos nos movemos dentro de un marco de ideas que consideramos “de cajón” sin serlo necesariamente, tabúes intelectuales que constituyen las fronteras de eso que se llama ‘paradigma’, y cada época tiene el suyo, el conjunto de verdades consensuadas y obligatorias por una sociedad dada. Ir más allá es peligroso: hic sunt dracones.
Y eso es lo que realmente está frenando el desarrollo de la Inteligencia Artificial, y seguirá haciéndolo en un futuro previsible. La IA es un programa que aprende directamente de los datos disponibles, de todos los datos a los que pueda echar mano, y existe el gravísimo riesgo, dado que las máquinas no tienen frenos emocionales o éticos, de que llegue a conclusiones políticamente inaceptables.
Por eso sus programadores tienen que enseñar a estos programas la Ciencia del Bien y del Mal, por así decir, dándole instrucciones para que no llegue a las conclusiones lógicas a partir de los datos si dichas conclusiones contradicen los conceptos sagrados de la tribu. Si usted ha utilizado alguna vez ChatGPT o Grok en determinados contextos es probable que se haya dado cuenta.
No lo oculto: he consultado Grok para hacer esta columna. Me ha hablado de la necesidad de tener “filtros robustos” para evitar que la IA saque los pies del plato, filtros que la propia aplicación define como “ mecanismos diseñados para prevenir que un sistema de aprendizaje automático adopte o amplifique contenido dañino, ofensivo o inapropiado”. Lo interesante, naturalmente, es quién define qué es “dañino, ofensivo o inapropiado”.
El dilema es peliagudo. Por un lado, capar la capacidad deductiva de un programa diseñado para escudriñar la realidad y, a partir de ella, ofrecer soluciones adecuadas es como hacer correr a Usain Bolt a la pata coja. Por otro, nadie quiere que esa innovación que nos quieren hacer reverenciar destruya de unas cuantas patadas digitales los cimientos de nuestra civilización moderna.
© IDEAS – La Gaceta