¿Controlaremos la inteligencia artificial?

Nick Bostrom

El día en que la inteligencia artificial supere a la humana puede que esté todavía lejos, pero ya hay quien piensa en cómo debemos prepararnos para ello. El filósofo sueco Nick Bostrom es uno de los pensadores más influyente en la materia. En su opinión, debemos asegurarnos de poder controlar esta tecnología, pero existe la posibilidad de que no seamos capaces. ¿Nos traerán las máquinas un futuro brillante o la distopía definitiva para la especie?

Horizontal

Photo by Tom Pilston for The Washington Post via Getty Images

Tal vez puede parecer un nombre algo naif para una institución de sus características, pero el Instituto para el Futuro de la Humanidad, de la Universidad de Oxford, se propone explorar, en su complejidad, el porvenir de la especie, sus oportunidades y las amenazas que se ciernen sobre ella. Su director, el filósofo sueco Nick Bostrom (Helsingborg, 1973), ha centrado parte de sus investigaciones en los riesgos existenciales, esto es, los que pueden comprometer la subsistencia de vida inteligente en la Tierra. Hace unos años, publicó Superinteligencia: caminos, peligros, estrategias (Teell), un best seller en el mundo anglosajón en el que avisaba del peligro que corremos los humanos si no enten­demos qué tenemos entre manos con la inteligencia artificial.

La visión de Bostrom fue elogiada por vacas sagradas de los negocios tecnológicos, como Bill Gates o Elon Musk –“la inteligencia artificial es potencialmente más peligrosa que la bomba atómica”– o gigantes de la ciencia, como el mismísimo Stephen Hawking, y en el 2015 Foreign Affairs lo incluyó en su lista de los cien pensadores más influyentes del planeta. La advertencia de Bostrom se fundamenta en la previsión de que a largo plazo, o tal vez antes, la inteligencia artificial superará a la humana en todos sus registros, gracias a los algoritmos que permitirán a las máquinas aprender y mejorar. Esa superinteligencia nos aventajará de tal manera que podrán desempeñar con extrema facilidad y rapidez tareas que para nosotros suponen un gran esfuerzo o son imposibles. Un gran salto.

“Es posible que la inteligencia artificial sea el último invento que los humanos tengamos que hacer jamás”

Entonces... ¿por qué cree que la superinteligencia artificial es uno de los grandes riesgos para la humanidad?

Porque pienso que, si finalmente se crea, en cualquiera que sea su forma, será una fuerza muy poderosa en el universo, con capacidad para crear rápidamente nuevas tecnologías, que podrá planear con mucha anticipación… Al fin y al cabo, será importante para nosotros por la misma razón por la que la inteligencia humana es una fuerza importante en este planeta comparada con, por ejemplo, la de los otros animales. Por eso, es muy importante que, si creamos esta fuerza tan poderosa, la dirijamos hacia un buen objetivo, y me da la impresión de que podemos fracasar en ello. Es decir, podemos ser optimistas de cara al futuro respecto al desarrollo de la tecnología en sí, pero esa tecnología puede convertirse en algo carente de valores en relación con nuestras vidas.

¿Qué le pesa más, su visión pesimista o la optimista?

Soy un poco optimista y un poco pesimista. Soy optimista respecto al potencial de esta tecnología, porque, si las cosas salen bien, se abrirá un enorme mundo de posibilidades al que los humanos podrán acceder por primera vez. Creo que el desarrollo de la inteligencia artificial es una especie de portal, por el cual pasan todos los caminos posibles hacia un futuro realmente brillante para los humanos. Pero también hay un riesgo existencial inherente a pasar por esa puerta, parecido a si estuviéramos conduciendo un coche a gran velocidad y que, en lugar de pasar a través del portal, se estrellara contra la pared. Eso ha ocurrido y ocurre con muchos riesgos para la existencia misma de la humanidad, pero este caso es distinto, porque, si conseguimos hacerlo bien, la superinteligencia artificial puede ayudar a reducir otros peligros a largo plazo para nosotros.

A Bostrom le gustan las metá­foras y las analogías. En una conferencia en la ONU, para hablar de ese riesgo, usó la imagen de una urna repleta de ­bolas que simbolizarían las invenciones y los avances tecnológicos. De entre ellas, las bolas blancas representarían los descubrimientos beneficiosos para la humanidad y las negras, los que podrían aniquilarla. Hasta la fecha, el género humano nunca ha sacado una bola negra, pero eso puede ocurrir algún día. El problema radica en que, una vez sacada, la bola no se puede volver a introducir, es decir, nunca en la historia, una vez hecho un invento, se ha dado marcha atrás. Para quien piense en la energía nuclear, esta sería una bola gris.

¿No son similares los riesgos de la energía atómica y la superinteligencia artificial?

Son casos distintos, aunque sí que hay algunas analogías. Sobre la energía atómica en su día había también incertidumbres: por ejemplo, entre los integrantes del proyecto Manhattan (el que desarrolló las primeras bombas nucleares que luego fueron detonadas sobre Japón) había preocupación por la posibilidad de que una ignición nuclear pudiera causar a su vez la ignición de la atmósfera, una gigantesca reacción en cadena que matara a toda la humanidad. Ahora se sabe que eso es imposible, pero los científicos del proyecto Manhattan no estaban seguros y, por eso, al inicio, tuvieron que hacer detenidamente cálculos y cerciorarse de que no ocurriría. Y también es cierto que los usos futuros de esa tecnología eran inciertos, para bien y para mal. Por una parte, la preocupación más importante era qué harían los humanos con esas armas nucleares, cómo acabaría siendo un mundo que dispusiera de una posibilidad tan fácil de destruir ciudades enteras. Y, por otra, había la esperanza de que la energía nuclear tuviera muchos efectos positivos. Pienso que sí, que hay ciertas similitudes, pero, desde el punto de vista de las diferencias, la energía nuclear fue, en un principio, una tecnología militar. Con la inteligencia artificial, en cambio, los usos civiles tienen mucho más peso, porque se vislumbran utilidades en todos los sectores de la economía, en la salud, en el medio ambiente, la industria espacial, la manufactura, el entretenimiento... y sí, todo eso puede ser utilizado con una finalidad militar, pero no es su objetivo principal. Otra diferencia es que los fundamentos de la energía nuclear eran bastante conocidos, había teorías bastante precisas con predicciones cuantitativas, cuánta masa produciría cuánta energía y otras cosas de ese tipo. En cambio, con la superinteligencia artificial no tenemos nada análogo a ese nivel de conocimiento teórico. Hay importantes diferencias en el desafío intelectual que ambas tecnologías representan.

“Entraremos en una era distinta, en que deberemos repensar muchos valores humanos desde la base, muchas asunciones que hemos hecho sobre el mundo”

Pero en el caso de la inteligencia artificial hay mucho debate intelectual previo que tal vez en el caso de otras tecnologías no existió.

El desarrollo de las armas nucleares fue secreto hasta que estalló la primera bomba en Hiroshima, y entonces todo el mundo supo de esa nueva tecnología. Por tanto, hasta ese momento muy pocas personas podían tener un debate sobre ella. Con todo, en determinados círculos, algunas de esos investigadores sí debatieron al respecto, como algunos de los científicos del proyecto Manhattan, pero, al fin y al cabo, no tuvieron una gran influencia sobre cómo se usaron las armas nucleares que ellos mismos construyeron, porque su control pasó a manos de las élites políticas y militares. Respecto a la inteligencia artificial ahora está habiendo mucho más debate, pero esta tecnología se ha ido desarrollando desde 1956, cuando se acuñó el término, y resulta en cierto modo sorprendente lo poco que los pioneros en este campo dedicaron a pensar qué ocurriría si algún día llegaban a obtener el éxito en sus investigaciones. Muchos de ellos, de hecho, eran muy optimistas respecto a la velocidad a la que culminarían sus trabajos, pensaban que tal vez en diez años. En realidad, lo que ocurrió fue que destinaron toda su imaginación a pensar en cómo se podía llegar a una inteligencia artificial como la humana, pero no a pensar qué ocurriría después.

¿Qué plantea para controlar el riesgo de la inteligencia artificial? ¿Habría que establecer principios éticos básicos?

No lo plantearía así. Diría que hay, al menos, dos problemas que resolver. Uno es un problema de ciencia informática teórica, que es lo que lo que llamaríamos técnicamente controles escalables de la alineación de la inteligencia artificial. Es decir: si un día somos capaces de fabricar una máquina mucho más inteligente que nosotros, tenemos que conseguir que haga únicamente las cosas para las que fue diseñada y que no se desvíe de ese objetivo, por mucho que su inteligencia crezca. Si resolvemos eso, se da el segundo gran problema, que es el de la gobernanza, es decir, cómo accedemos a esta tecnología tan poderosa y cómo la utilizamos. Tenemos que decidir según qué valores se usa y para qué objetivos, tenemos que asegurar que se utilice con fines positivos para el bien de todos y que los beneficios no sean monopolizados por pequeños grupos... Históricamente, hemos usado las tecnologías para muchas finalidades, no siempre beneficiosas. Si damos respuesta a estos desafíos, tenemos por delante un gran futuro.

En una conferencia de TED, Bostrom ilustraba la importancia de esa alineación entre el objetivo de la máquina y nuestros valores. Un sistema superinteligente estaría diseñado, per se, para optimizar un proceso y lograr una meta determinada independientemente de otras consideraciones, y no tendría en cuenta los intereses de los humanos, a no ser que se lo programara para respetarnos.

Por ejemplo: olviden los androides tipo Terminator e imaginemos una máquina inteligente, con capacidad para aprender y mejorarse a sí misma, que ha sido programada, pongamos por caso, para el humilde objetivo de fabricar cuantos más tornillos mejor. A medida que ese sistema incremente su potencia, capacidad de cálculo y recursos, absorberá más materia prima y energía. Y si es tan inteligente, puede tener la capacidad de poner al servicio de su misión todos los recursos de una ciudad, de un país o del planeta. En este punto, los humanos no tendríamos las riendas, sino que seríamos una molestia. Todo eso pasaría si no se crean los mecanismos de control que hagan que el sistema se mantenga subordinado a nuestros intereses.

¿Cree que el hecho de que la investigación en inteligencia artificial pueda quedar en manos de grandes corporaciones es un motivo de preocupación?

No está claro cuál sería la alternativa preferible. Si volvemos al caso de la energía nuclear, estaba en las manos del proyecto Manhattan, que era de carácter militar, y no sé si esa es la alternativa más deseable para la inteligencia artificial. Otra opción sería que el desarrollo de este campo quedara en manos de académicos, pero tal vez es más difícil que un proyecto académico alcance la escala y la capacidad para ser competitivo frente a los grandes laboratorios comerciales. Y además pienso que con un proyecto de esa naturaleza sería también más difícil tener un alto nivel de seguridad operativa. En este punto, hay que señalar que, actualmente, el desarrollo de la inteligencia artificial es muy abierto, todos los resultados son publicados de forma inmediata. Sin embargo, tal vez en algún momento del futuro sería preferible cambiar a un régimen de desarrollo cerrado, porque puede que queramos que el desarrollo de la tecnología sea más lento para tener un año en que instalar los mecanismos de control y seguridad, comprobar que todo funciona y lentamente incrementar su operatividad. Pero eso es difícil porque choca con el régimen actual de desarrollo abierto. Otra opción es un proyecto colaborativo internacional sin ánimo de lucro; tal vez ese podría ser un buen método.

Cuando oímos hablar de la inteligencia artificial, es fácil pensar que la tecnología se mueve demasiado rápido para nosotros. ¿Está de acuerdo con esa idea?

Desde un punto de vista teórico, la respuesta es probablemente que sí. Si la humanidad fuera totalmente sensata y razonable, tal vez lo que haríamos sería ponernos de acuerdo para darnos mil años para desarrollar la tecnología de forma cuidadosa. Si la gente muriera en esos mil años, los dejaríamos en suspensión criónica, para, quién sabe, resucitarlos más tarde, y así podríamos culminar la investigación al cabo del tiempo que fuera necesario. Pero esta no es la situación en la que nos encontramos, no tenemos ese control sobre la velocidad a la que se mueve la investigación. Hay fuerzas muy importantes en movimiento –comerciales, intelectuales, científicas, numerosos países implicados...– que hacen que el desarrollo de la inteligencia artificial vaya a velocidad de crucero. En lo que creo que podemos tener más influencia es en cuestiones concretas como la investigación en el alineamiento de la inteligencia artificial, que es un punto donde más investigación y más fondos podrían representar una diferencia importante. Creo que tiene más sentido centrarse en ese tipo de temas concretos más que en modular la velocidad de la capacidad de investigación.

Hay quien dice que la superinteligencia artificial será el invento más importante de la historia, pero también el último. ¿Coincide con esa predicción?

El término superinteligencia significa que se trata de una tecnología que es mucho mejor en cualquier tarea intelectual que la mente humana, y entre esas tareas se encuentran las relacionadas con la investigación y los inventos. Por tanto, si, en general, esta tecnología puede hacer cualquier trabajo intelectual mejor que nosotros, podrá inventar mucho mejor de lo que nosotros somos capaces. Si tenemos eso en consideración, pienso que sí, que es posible que la inteligencia artificial sea el último invento que los humanos jamás tengamos que hacer.

¿Cuál sería su escenario ideal para la inteligencia artificial en, por ejemplo, cien años? ¿Qué mundo imagina?

Creo que la mitad de la pregunta es fácil de responder, pero la otra mitad es más difícil. La parte fácil es que hoy hay todo tipo de problemas horribles en el mundo, como el niño que muere por leucemia o la gente que está en la pobreza sin poder alimentar a su familia, que muy posiblemente se podrán resolver con tecnología avanzada y desarrollo económico. Pero hay la parte difícil. Una vez resueltos todos esos problemas, habrá que ver qué creamos, qué hacemos con nuestro tiempo si no tenemos que trabajar. Tendremos una enorme capacidad para redefinir el mundo, y tal vez redefinir también nuestras mentes y nuestros cuerpos. Creo que hay oportunidades maravillosas, pero es difícil verlas de forma concreta actualmente. Pienso que entraremos en un régimen distinto, en el que tendremos que repensar muchos valores humanos desde la base, muchas asunciones que hemos hecho sobre el mundo. La idea de que la gente halle sentido a su vida y su identidad en el trabajo, por ejemplo, puede desaparecer si las máquinas hacen las cosas mejor que noso­tros. Tendremos que pensar qué haremos que tenga valor, qué actividades encontraremos valio­sas, no porque tengan un interés instrumental, sino porque hacer esta actividad o tener esa experiencia tenga un valor intrínseco. Tendremos que pensar muchas cosas desde la base.

Horizontal

Un futuro abierto

Los científicos no tienen un conocimiento exacto de qué puede suceder en el futuro con la inteligencia artificial, es un terreno desconocido.

Horizontal

¿Como la energía nuclear?

La energía nuclear tenía –y tiene– la capacidad para destruir a la humanidad, pero a diferencia de la inteligencia artificial, los científicos tienen un conocimiento profundo de ella.

Horizontal

Valores humanos

Una de las claves del futuro de la superinteligencia artificial es que las máquinas, por mucho que se desarrollen, estén supeditadas a

los intereses humanos. En caso contrario, una máquina dedicada a fabricar tornillos que se desarrollara más y más podría terminar con la especie.

La importancia de la seguridad

Uno de los problemas de la superinteligencia artificial es el de establecer mecanismos de control y de seguridad plenamente comprobados antes de que se ponga en funcionamiento.

Mostrar comentarios
Cargando siguiente contenido...