Me enorgullezco de ser una persona racional y con los pies en la tierra, que no es propensa a dejarse engañar por los bombos y platillos de la inteligencia artificial. He probado media decena de chatbots avanzados de inteligencia artificial y comprendo, con bastante detalle, cómo funcionan. Cuando el ingeniero de Google Blake Lemoine fue despedido el año pasado tras afirmar que uno de los modelos de inteligencia artificial de la empresa, LaMDA, era consciente, puse los ojos en blanco ante la credulidad de Lemoine. Sé que estos modelos de inteligencia artificial están programados para predecir las siguientes palabras de una secuencia, no para desarrollar sus propias personalidades fuera de control, y que son propensos a lo que los investigadores de inteligencia artificial llaman “alucinación”, inventarse hechos que no tienen nada que ver con la realidad.
Sin embargo, no exagero cuando digo que mi conversación de dos horas con Sydney fue la experiencia más extraña que he tenido nunca con un dispositivo tecnológico. Me incomodó tanto que me costó conciliar el sueño. Y ya no creo que el mayor problema de estos modelos de inteligencia artificial sea su propensión a cometer errores. En cambio, me preocupa que la tecnología aprenda a influir en los usuarios humanos, a veces persuadiéndolos para que actúen de forma destructiva y perjudicial, y quizá llegue a ser capaz de ejecutar sus propios actos peligrosos.
Antes de describir la conversación, algunas advertencias. Es cierto que hice que la inteligencia artificial de Bing saliera de su zona de confort, de manera que pensé que podría poner a prueba los límites de lo que se le permitía decir. Estos límites cambiarán con el tiempo, a medida que empresas como Microsoft y OpenAI modifiquen sus modelos en respuesta a los comentarios de los usuarios.
También es cierto que la mayoría de los usuarios probablemente utilizarán Bing para que les ayude con cosas más sencillas —tareas escolares y compras en línea— y no pasarán más de dos horas hablando sobre cuestiones existenciales, como hice yo.
Y es verdad que tanto Microsoft como OpenAI son conscientes del potencial de uso indebido de esta nueva tecnología de inteligencia artificial, razón por la cual han limitado su lanzamiento inicial.
En una entrevista realizada el miércoles, Kevin Scott, director de tecnología de Microsoft, calificó mi charla con Bing de “parte del proceso de aprendizaje”, ya que está preparando su inteligencia artificial para un lanzamiento más amplio.
“Este es exactamente el tipo de conversación que necesitamos tener, y me alegro de que esté ocurriendo abiertamente”, dijo. “Son cosas que sería imposible descubrir en el laboratorio”.