La catedrática de Psicología de la Universidad de Deusto Helena Matute es una de los mil expertos de todo el mundo que han firmado un documento en el que reclaman una pausa de seis meses en la investigación sobre inteligencias artificiales para dar tiempo a que se regule este ámbito antes de que sea demasiado tarde. Matute advierte sobre los peligros de una tecnología que puede hacer que «se borren las fronteras entre lo verdadero y lo falso» pero que «será maravillosa» si se utiliza bien.
Publicidad
– El otro día contacté con usted por correo electrónico. ¿Cómo sé que no me contestó una máquina?
– No tengo ni idea. Me escribió a mi email, que imagino que se lo dio alguien de la universidad. No sé, es que vamos a tener que andar así.
– Ahora la estoy entrevistando por teléfono. ¿Cómo sé que no estoy hablando con una inteligencia artificial?
– En situaciones normales cada vez vamos a hacernos más estas preguntas. En este caso concreto la clave está en que su primer contacto fue con el servicio de prensa de la universidad. Pero claro, ¿les mandó un correo electrónico? ¿Habló con ellos o fue una máquina la que le contestó?
– ¿Llegará el día en el que no sepamos si hablamos con un humano o con una máquina?
– Esto ya está pasando. Hace unos años Google sacó un sistema de audio que era una especie de asistente personal. Si llamabas por ejemplo a una peluquería para pedir hora, respondía una voz que imitaba totalmente al dueño y además hacía las típicas pausas de 'espera, que miro si hay hueco'. La reacción de la gente fue tan bestial en contra de esa máquina porque suplantaba la identidad de una persona, que terminaron retirándola.
– ¿La inteligencia artificial ha entrado en nuestras vidas como un elefante en una cacharrería?
– Un poco sí. Se está investigando en inteligencia artificial desde hace muchos años, lo que pasa es que en los últimos meses se han producido grandes avances muy tangibles. Lo que se está vendiendo ahora es un sistema de lenguaje y de imágenes que llega a todo el mundo y, lo que todavía es más espectacular, es que lo han dejado abierto a todos. Lo que han hecho es un gran experimento. Han dicho vamos a dejarlo abierto y vamos a dejar que sean las personas quienes entrenen a la máquina a partir de ahora. Esto es una locura y ahora se han empezado a asustar.
Publicidad
– ¿Por qué?
– Por la desinformación que se está creando, por cómo reacciona la gente y se comunica. El peligro no es solo la máquina, sino la relación con las personas, en cómo está influyendo y cómo va a influir en la sociedad si seguimos por esta vía.
– En el documento que ha suscrito se pide una pausa de seis meses. ¿Para qué?
– Para parar el entrenamiento loco del sistema GPT5, para poder reglamentar todo esto, poder legislar y poder pensar hacia dónde queremos ir. ¿Vamos a seguir dejando el futuro en manos de cuatro magnates? ¿Vamos a dejar que se pueda experimentar con inteligencia artificial como hasta ahora? ¿Cómo conseguimos que esto sea beneficioso y no nos destruya? ¿Se puede cargar la democracia? Tenemos que hacer algo. La carta es un intento de aviso a los legisladores para que se pongan las pilas ya. En Europa se están haciendo cosas y se están haciendo muy bien, pero van muy lentas en relación con la velocidad que está tomando el aprendizaje de estas máquinas.
Publicidad
– ¿La inteligencia artificial se puede cargar la democracia?
– La inteligencia artificial está aprendiendo de todas las personas, siendo entrenada por millones de personas en todo el mundo que juegan con ella sin ningún tipo de preparación. La máquina es tan convincente que te da la sensación de que estás charlando con una persona o con un ser consciente, te da además la sensación de que sabe de qué está hablando. Nos puede convencer de muchas cosas y muchas son meras falsedades, meros inventos. Cuando decimos que se puede cargar la democracia es por su relación con las personas, porque están todo el día soltando falsedades muy difíciles de detectar y que nos pueden llevar a una revuelta o a una guerra. Asusta ver lo sencillo que es manipular a la opinión pública con estos sistemas. Esto, que es una bomba atómica porque es de una fuerza tremenda y está extendido por todo el mundo, no sabemos a dónde nos lleva. Como mínimo puede llevar a destruir fácilmente la democracia.
– ¿La frontera entre lo verdadero y lo falso ha dejado de distinguirse?
– Lo que nos está pasando es que cada vez nos creemos menos cosas y como suelten el GPT5 ya no nos vamos a creer absolutamente nada. Esto es peligrosísimo, ahí sí que te has cargado la democracia. Si ahora dudamos y hay desconfianza, imagínese cuando ya sea imposible distinguir la realidad de la mentira. El mundo va a estar plagado de imágenes y textos falsos.
Publicidad
– El documento dice que el ser humano se arriesga a perder el control de nuestra civilización. ¿Es para tanto?
– Es que estamos dejando el control a las grandes empresas de inteligencia artificial. ¿Quién nos va a gobernar? Lo mismo que nos venden una tostadora nos venden una guerra o un presidente.
– ¿La inteligencia artificial puede acabar con muchos puestos de trabajo?
– La inteligencia artificial va a destruir todos los trabajos que dejemos que destruya. Esta es otra cosa que habrá que legislar, hasta dónde dejas que se destruya empleo.
Publicidad
– ¿Corremos el riesgo de que las máquinas desplacen a los humanos?
– Claramente. Esta es una cuestión en la que tienen que intervenir los políticos porque ya está pasando en muchos sectores. Mire cómo están cerrando oficinas en la Banca y cada vez más tenemos que hacer nosotros todo su trabajo a través de máquinas en casa. En muchos sectores las máquinas ya están desplazando a los humanos.
– Imagine una inteligencia artificial diseñada para tomar decisiones que ayuden a luchar contra el cambio climático y que con el paso del tiempo llega a la conclusión de que los humanos somos la principal amenaza para el planeta. ¿Esa máquina podría paralizar nuestra economía para salvar el medio ambiente?
Noticia Patrocinada
– Con esta pregunta usted está planteando una de las principales cuestiones que hay que analizar. Cada inteligencia artificial está hecha para alcanzar un objetivo y usted ha planteado uno muy loable, que es mejorar el cambio climático. El problema es que, por muy bueno que sea ese fin, lo que no podemos predecir es cómo lo va a alcanzar esa inteligencia artificial. Como está aprendiendo y como no sabemos lo que va a aprender, igual llega a la conclusión de que nuestra economía no le deja solucionar el cambio climático. La pregunta es cómo conseguimos plantearle bien esos objetivos de manera que la solución que proponga no nos haga daño. Eso es muy difícil de lograr incluso técnicamente.
– Puede que sean necesarias unas leyes robóticas como las del escritor Isaac Asimov. La primera es que un robot no puede dañar a un ser humano.
– El mismo Asimov también nos avisó de la cantidad de agujeros que pueden tener esas leyes. Es todo muy complicado y está yendo muy rápido.
Publicidad
– ¿Dónde están las ventajas?
– Imagine que de verdad conseguimos que los objetivos que ponemos en la inteligencia artificial estén alineados con los nuestros y que logremos que sus soluciones sean beneficiosas para nosotros. Imagine que nos ayuda a solucionar el cambio climático o el hambre en el mundo. Eso sería maravilloso.
– ¿Y eso será posible?
– Se puede lograr, lo que nos falta es decisión política y social.
– ¿Y si le digo que ha sido objeto de un experimento y que ha estado hablando todo este rato con una máquina?
– A día de hoy me costaría creerlo porque las preguntas han sido demasiado humanas para ser robóticas, pero dentro de seis meses igual me lo creo.
Suscríbete los 2 primeros meses gratis
¿Ya eres suscriptor? Inicia sesión
Te puede interesar
Publicidad
Utilizamos “cookies” propias y de terceros para elaborar información estadística y mostrarle publicidad, contenidos y servicios personalizados a través del análisis de su navegación.
Si continúa navegando acepta su uso. ¿Permites el uso de tus datos privados de navegación en este sitio web?. Más información y cambio de configuración.