El peligro real es el de la súper inteligencia. Gente que está viva hoy podrá ver ese tipo de tecnología”.

Más del 99,9% de las especies que han poblado este planeta están extintas y es probable que lo mismo pase con el hombre”.

En la Universidad de Oxford, el Reino Unido, el Instituto del Futuro de la Humanidad (“Future of Humanity Institute” o “FHI”, en inglés) es liderado por el doctor en Filosofía Nick Bostrom y su objetivo no es otro que investigar cómo y cuándo podría ser el fin de la Humanidad.

¿Suena un poco catastrofista, no? O podría ser la idea inicial para una película de desastres que a Hollywood le encantaría producir.

Pero más vale estar preparados, responden algunas de las más prestigiosas universidades a nivel global, como el MIT y Oxford, que en el último tiempo han desarrollado think tanks con el objetivo de analizar con minuciosidad científica qué fenómenos tecnológicos podrían traer el fin de nuestra especie. Algunos de los más prestigiosos científicos, filósofos y empresarios colaboran en esta tarea.

“Hoy hay más investigaciones académicas sobre el snowboard y acatangas (esos escarabajos famosos por hacer pelotitas) que sobre la extinción humana, y eso quizás no sea una buena idea, Tenemos que discutir cómo evitarla”, comenta Bostrom a través de una llamada Santiago-Oxford, en la que discutimos el Apocalipsis. No es que todo se vaya a acabar ahora o mañana, pero sí vale la pena empezar a pensar cuándo y cómo, aclara.

¿Qué se pierde, después de todo?

El doctor en Filosofía es también académico de la Universidad de Oxford y escritor de libros especulativos que asustan a gente muy poderosa. Y son best sellers.

En 2014, Bostrom publicó “Superinteligencia: Caminos, Peligros y Estrategias”, que dejó temblorosos a más de uno en la industria tecnológica. El documento es un profundo análisis de las implicaciones que tendría el crear una inteligencia artificial de nivel humano o superior. La IA es precisamente la candidata que hoy corre con ventaja para apurar nuestro exterminio, según el investigador.

Algunos líderes a quienes el libro despertó preocupación fueron el empresario creador de Tesla y SpaceX, Elon Musk; el fundador de Microsoft, Bill Gates; el difunto físico Stephen Hawking, y el expresidente de EE.UU. Barack Obama. Todos han discutido públicamente las ideas de Bostrom. Y ha redituado. En octubre pasado, el FHI recibió una donación individual por US$ 17 millones, la mayor que un Departamento de Humanidades ha logrado en la historia de Oxford.

—¿Por qué se asustaron?

—Hoy, la IA tiene la capacidad de hacer una sola cosa muy bien, mejor que una persona en muchos casos: lograr un jaque mate. Pero la IA que les gana a todos los humanos del mundo jugando ajedrez no es buena, por ejemplo, para manejar un vehículo autónomo. Como especie, con eso estamos a salvo. Pero si creamos una IA que pueda desempeñarse en una amplia cantidad de tareas como hacemos las personas (esto se conoce como IA general), entonces estamos en problemas.

¿Y por qué podría ser devastador para la especie humana?, le preguntamos al investigador. En este punto es donde las cosas se ponen muy, pero muy raras. Solo un breve adelanto: una máquina superinteligente de hacer clips de papel podría acabarnos a todos.

¿Curar el cáncer?

Una pérdida de tiempo

Bostrom asegura que la investigación académica sobre riesgos existenciales es más “valorable” para la Humanidad que buscar una cura para el cáncer o ir a ayudar a gente en África. Es una afirmación que por lo bajo es muy atrevida, sin duda; pero el filósofo dice que tiene cómo sustentarla, con un toque de matemática y otro poco de utilitarismo.

En pocas palabras, Bostrom arguye que cambiar aunque sea en una millonésima parte la probabilidad de que en el futuro nos extingamos completamente como especie es más valioso que salvar solo a unas cuantas personas.

—¿Cómo convence a alguien de que la extinción es algo real y posible?

—Más del 99,9% de las especies que alguna vez volaron, se arrastraron o nadaron por este planeta, hoy están extintas. Por lo tanto, nuestra extinción es claramente un futuro posible. Qué tan posible es la pregunta que tratamos de responder. Y cómo esa posibilidad ha variado en el tiempo y cómo se proyectará en el futuro.

Esas extinciones fueron por fenómenos naturales. ¿Por qué un desastre de ese tipo no es el mayor riesgo?

—Si no nos hemos extinguido en los últimos 100 mil años por efectos naturales, es poco probable que pase en el próximo siglo.

—¿Cuál es la amenaza de las máquinas?

—Cuando creemos una inteligencia general, que pueda resolver una amplia variedad de problemas y desempeñarse en diferentes ambientes, se podría dar lo que se conoce como “explosión de inteligencia”. Es decir, esa máquina podría crear máquinas más inteligentes, y esas otras más inteligentes, y así hasta optimizarse muy por encima de nuestro nivel intelectual.

—Dice que una máquina sería “mala”, en el sentido de que sería peligrosa para nosotros. Pero nadie sería tan tonto como para programar una súper máquina para matarnos...

—No es necesario que esté programada directamente con valores maliciosos para que sea peligrosa. Toma el ejemplo de mi “maximizador de clips de papel”.

—¿Qué es eso?

—Imagina que tienes una súper IA que es más inteligente que cualquier humano y que puede desenvolverse en muchas áreas, como nosotros lo hacemos. A esta máquina la programas para hacer clips de papel. Algo inocente.

—¿Por qué pienso que no es algo tan inocente como parece?

—Con sus capacidades, la IA compraría clips, intentaría ganar dinero para obtener más clips o buscar formas de producir aún más clips. Pero más importante que eso, buscaría formas de hacerse más inteligente para poder encontrar nuevas formas de optimizar su capacidad de producir clips. Veríamos esa “explosión de inteligencia”.

—La “inteligente” es difícil de definir. ¿Si fuera inteligente, no sabría que obtener clips es un objetivo tonto?

—Quizá para una inteligencia humana parezca algo tonto, pero este es otro tipo de inteligencia; en este caso, referente a su poder de optimización para la tarea para la que fue programada. Habiéndose hecho más inteligente, tendría nuevas herramientas para mejorar su hardware y para hacerse aún más inteligente. Ese nuevo nivel le daría acceso a herramientas para mejorarse aún más, y así. Sería más hábil que cualquier empresario o corredor de bolsa. Podría comprar otras empresas, transformarlas en productoras de clips, países enteros, personas, sociedades enteras. Llegado a un punto, toda la masa de la Tierra podría estar optimizada solo para producir clips por esta súper IA.

Hay un silencio que se siente largo en la línea telefónica que cruza el Atlántico, uniéndonos con la oficina del filósofo de Oxford. Bostrom creó el caso del “maximizador de clips” en un paper de 2003, como un ejercicio mental para hacer conciencia sobre el hecho de que debemos ser cuidadosos en el momento de fijar los objetivos de una IA.

El caso de la

vieja consola Atari

—Afirma que hoy no existen máquinas con una capacidad general, que sería cuando se volverían riesgosas. ¿Cuándo cree que existirán?

—Bueno, una IA puede ser peligrosa sin tener una capacidad general como las de un humano.

Es una de las cosas que decía Obama de su libro. Daba un ejemplo de un algoritmo programado solo para robar códigos nucleares. No puede hacer otras cosas, pero sigue siendo peligroso.

—Sí. Pero el peligro existencial real es el de la superinteligencia. Esto representa una diferencia cualitativa con todo lo que tenemos hoy. Claro, habrá también miles de beneficios si usamos bien ese tipo de tecnología. No estoy en contra de ello. Lo importante es que se alinee con nuestros objetivos.

—¿Cuándo podríamos ver una IA general?

—Creo que gente que está viva hoy podrá ver ese tipo de tecnología.

—¿Hoy no hay nada por el estilo?

—No, pero se está avanzando hacia eso. El laboratorio DeepMind creó ya hace unos años una máquina que podía aprender sola a jugar diferentes juegos de la consola Atari, que tienen reglas y objetivos muy diferentes. Y en un breve período obtuvo capacidades sobrehumanas de rendimiento en dichos videojuegos. De eso ya han pasado unos años (fue en 2015) y la IA ha avanzado mucho.

—¿Pero no se exagera el riesgo actual? ¿Estamos en una situación de mayor peligro de extinción que en la Guerra Fría?

—Es una buena pregunta. Hubo momentos específicos durante la Guerra Fría donde el nivel fue más alto, como durante la crisis de los misiles de Cuba. Pero tienes que calcular la probabilidad de extinción total de la siguiente manera: dividir la probabilidad de que hubiera una guerra, que obviamente no era 100%, por la probabilidad de que dicha guerra hubiera matado a todas las personas. Ahí obtienes una probabilidad de extinción modesta.

En las películas siempre dicen que cuando la IA obtiene “conciencia” es el punto de inflexión para cuando se vuelve peligrosa.

—Creo que la conciencia es un producto material, por lo que no hay razón para que no sea replicable. Pero eso no es lo importante. Podemos tener una máquina que no sea “consciente” en el sentido en el que los humanos lo somos, pero puede ser un optimizador muy poderoso y tener efectos negativos. Lo que no significa que el tema de la conciencia no sea importante en la discusión de IA.

—¿Y por qué sería importante?

—Lo es cuando consideramos el aspecto moral. Si tiene una IA que tiene características similares a la de un animal, una conciencia de ese nivel debería tener cierto estado moral. Pegarle a un perro es malo; entonces, ¿por qué no lo sería hacerle daño a una IA que procesa el mundo de forma similar a un perro?

Un dilema moral típico en IA es qué debería decidir un vehículo autónomo que va manejando y se le cruza inesperadamente una persona en frente. ¿La atropella o efectúa un giro brusco que podría matar a su conductor?

—Los vehículos autónomos serán mucho más seguros que los conducidos por personas y, por lo tanto, causarán muchas menos muertes humanas.

LEER MÁS