Ir al contenido principal

Ciencia No-Ficción II



No temo a ninguna de las máquinas existentes; lo que temo es la extraordinaria rapidez con que se están convirtiendo en algo muy diferente a lo que son en la actualidad. Ninguna clase de seres en el pasado ha evolucionado tan rápido. ¿No debería ser observada celosamente esta evolución, y controlada mientras todavía podamos supervisarla? (...) ¿No es probable que haya más hombres ocupados en el cuidado de las máquinas que en el cuidado de los hombres? ¿No estamos creando nuestros sucesores en la supremacía de la tierra, aumentando diariamente la belleza y la delicadeza de su organización, dándoles mayor habilidad y cada vez más esos poderes de auto regulación y auto accionamiento que terminarán superando cualquier intelecto?
Samuel Butler, Erewohn. 1872.

Toda generación piensa que los desafíos que afronta son nuevos y raramente lo son. Al parecer, todo eso de lo que hablábamos en la primera parte de este artículo, cuando expusimos el reto al que nos enfrentamos con el desarrollo de la inteligencia artificial (IA), ya se veía venir hace 150 años, durante la revolución industrial en Inglaterra. Pone un poco los pelos de punta leer estas reflexiones en una novela escrita en el siglo XIX.

Esta segunda parte la dedicaremos a explorar qué factores influyen en la aparente despreocupación general de hoy en día ante las posibles consecuencias del desarrollo de la IA. También veremos quiénes son los principales actores de este desarrollo.

Cerramos la primera parte con Nick Bostrom preguntándose qué podemos hacer para aumentar nuestras posibilidades de supervivencia como especie ante la eventual llegada de un sistema superinteligente, que es algo que puede ocurrir relativamente pronto (algunos expertos dicen que aún estamos muy lejos, pero otros aseguran que podríamos llegar a ese escenario en los próximos 20 a 40 años). Teniendo en cuenta que hasta un 30% de estos expertos consideran que, cuando llegue, el resultado será malo o muy malo para la especie humana, es algo de lo que desde luego deberíamos estar hablando. Porque tener un 30% de posibilidades de pertenecer a una especie en vías de extinción a mi no me deja muy tranquilo precisamente. Si me dices 1 o 2% vale, puedo vivir con eso, pero... ¿¿un 30%??

Y es que el debate sobre los posibles efectos del desarrollo de la IA se centra hoy en día en cuestiones inmediatas, cosas muy serias que ya están aquí y que desde luego merecen ese debate. Ya nombramos algunas en la primera parte: el sistema de créditos que se está desplegando en China, las armas autónomas letales o el efecto sesgado en el reconocimiento facial que usa la policía. Sin embargo, el que dentro de unos años haya una probabilidad no menor de que se haga realidad el futuro de Terminator pero sin John Connor ni resistencia ni nada de nada no parece preocuparnos demasiado.

Es bastante extraño. ¿No deberíamos estar todos asustadísimos? O dicho de otra manera: ¿por qué no hay casi nadie hablando de esto?

Parece haber varias razones. Por un lado, está el efecto “ciencia ficción”: hay cierta tendencia a señalar a los que se atreven a dar predicciones tan radicales como gente poco seria, tanto en instancias científicas como en los propios medios. También hay razones que tiene que ver con la naturaleza humana: estamos programados para preocuparnos por amenazas directas y concretas y no por amenazas futuras y abstractas. Además, dentro de nuestra naturaleza también está el efecto wishful thinking, algo así como ver siempre las cosas de color de rosa: si nos dicen que con la IA el futuro va a ser maravilloso, para qué preocuparse. Dejemos esto en manos de los expertos, que ellos saben lo que hacen. ¿Te suena? Otra posible razón: hay cierto hastío ante el avance tecnológico: hemos visto tantos cambios en los últimos años que cosas tan revolucionarias como AlphaZero apenas sacan titulares en medios especializados. Por último, tal vez una de las claves principales sea el efecto “carrera armamentística”, que hace que los agentes que están liderando este desarrollo traten de que la preocupación por la IA no les ponga muchos obstáculos, ya que ésto los retrasaría, beneficiando a sus competidores.

Fijémonos primero en ese efecto “ciencia ficción”. Hasta no hace tanto, pensar en un sistema con inteligencia humana, y no digamos la llegada de una superinteligencia artificial, eran considerados eventos irreales o como mínimo lejanísimos en el tiempo por gran parte de los expertos. Sin embargo, eso ha cambiado radicalmente en las últimas dos décadas. Cuando Ray Kurzweil aseguró que una máquina pasaría el test de Turing en 2029 en su libro “La era de las máquinas espirituales”, la reacción general entre los expertos fue de incredulidad, por decirlo de una manera suave. Los más críticos lo llamaron pirado y los menos que no era un científico serio. La mayoría aseguraba que si eso llegaba a pasar, que era muy dudoso, sería dentro de cientos de años. Bien, Ray sacó el libro en 1999. Como ya dijimos en la primera parte, en una encuesta de 2013, es decir, menos de 15 años después, el consenso entre esos mismos expertos había bajado de “dentro de cientos de años” a “sobre 2040”. Ray dice, y con razón, que a ese ritmo terminarán criticándole por dar estimaciones conservadoras (de hecho, una encuesta del año pasado entre la población general en Estados Unidos ya ponía la probabilidad de ocurrencia en más del 50% para 2028).

Y es que hay que tener mucho cuidado con rechazar predicciones que parezcan ciencia ficción, porque para que la ficción se transforme en no ficción a veces solo hay que sumar talento con incentivos muy altos. Stuart Russell, otro destacado investigador en al campo de la IA, cuenta la siguiente historia: Lord Ernest Rutherford, el científico que descubrió que los átomos contenían grandes reservas de energía, dijo sin embargo en 1933 que “quien espere una fuente de energía de la transformación de los átomos está diciendo tonterías”. Al día siguiente otro científico leyó esas declaraciones y no le gustaron nada. Salió a dar un paseo y así, de la nada y por puro cabreo, se le ocurrió la idea de la reacción en cadena. Unos años después y con el incentivo de ganar una guerra mundial, esa idea se puso en práctica y Estados Unidos construyó la bomba atómica. Stuart usa esta historia como un ejemplo del que podríamos aprender al menos a tener cierta cautela. Señala que, si es por incentivos, ya se están poniendo billones de dólares en el desarrollo de la IA, y que saltos evolutivos inpensables para algunos pueden de hecho suceder de un momento para otro, convirtiendo lo que hasta el día anterior eran tonterías, o ciencia ficción, en ciencia a secas.

Sin embargo, está claro que este efecto “ciencia ficción” sigue existiendo. Pese a los avances de esta década, pese al trabajo de divulgación de gente como Nick Bostrom, y pese a que figuras tan creíbles como Bill Gates o Stephen Hawking se hayan atrevido a advertir públicamente que deberíamos tomarnos muy en serio los peores escenarios posibles. Pero han pasado ya algunos años desde que Gates y Hawking hicieran sus declaraciones, y lo cierto es que el debate general que ellos quisieron contribuir a iniciar no se está produciendo.

Saliendo del mundo académico y bajando a la calle, más de lo mismo. Los medios más serios hablan de los problemas que tenemos ya encima, pero casi nada de lo que puede suceder dentro de unos años. No es muy sorprendente que solo se hablase masivamente de DeepMind cuando hubo razones deportivas: el hombre contra la máquina en el desafío final, Lee Sedol vs. AlphaGo. Y cuando decimos masivamente es algo limitado más o menos a Japón, China y Corea, donde el Go es algo más que uno de los deportes nacionales. Tal vez para tener un debate a nivel masivo de verdad sobre IA haya que cambiar en los titulares los nombres de Stephen Hawking y Lee Sedol por los de Kim Kardashian y Cristiano Ronaldo.

Pasemos a la siguiente razón por la que ese debate es hoy prácticamente inexistente: la naturaleza humana. Hay que entender que, en términos evolutivos, somos más o menos el mismo bicho que hace cien mil años, y que por tanto nuestra especie está diseñada para vivir en condiciones muy distintas a las de hoy en día. Un cazador-recolector, que es lo que el Homo Sapiens ha sido el 90% de su tiempo en esta tierra, no tenía que preocuparse de amenazas futuras y abstractas, sino que lidiaba diariamente con riesgos directos y muy concretos: prefiero no trepar ahí a buscar ese huevo porque está muy alto y me puedo caer; este hongo tiene mala pinta, mejor no me lo como; el viento trae olor a tigre, ¡a correr! En cuanto al largo plazo, el cazador-recolector como máximo evaluaba moverse a otra zona para mejorar sus posibilidades de supervivencia: empieza a hacer frío, me cuesta cada vez más encontrar comida, por aquí hay demasiados depredadores…

Cuando dejamos de recoger frutas y movernos de territorio en pequeñas manadas y pasamos a vender derivados financieros y vivir sedentariamente en megaurbes dentro de estados-nación, la gestión estratégica de las amenazas se volvió bastante más compleja. Nuestra preparación evolutiva dejó así de ser relevante, excepto quizás para los que viven en ciertos barrios de esas megaurbes. Los sistemas sociales se estratificaron y las decisiones sobre qué es una amenaza para el conjunto de la sociedad y cómo evitarla se delegaron en unos pocos individuos de los estratos superiores. Y estos estratos superiores se han vuelto cada vez más expertos en gestionar a la población a base de crear o magnificar las amenazas que más convienen a sus intereses y obviar o silenciar las que menos.

No sorprende por tanto que algunas de las decisiones más relevantes que se han tomado ante amenazas muy serias no hayan sido precisamente las más adecuadas para el conjunto de la sociedad. Y ello pese a contar con mucha información y con herramientas de predicción que se han ido volviendo cada vez más fiables. Por no extendernos demasiado, pongamos como ejemplo la cadena de errores de cálculo que derivaron en la carnicería de la primera guerra mundial (señalando específicamente el entusiasmo general que se consiguió trasmitir a la población ante la posibilidad de esa guerra). Otro ejemplo más actual y ciertamente destacable sería el juego de intereses que afecta al desafío del cambio climático (es más rentable y por tanto mejor para mis accionistas que invierta parte de mis beneficios en lobbies negacionistas del cambio climático que abordar el problema y tener que reorientar estratégicamente mis negocios).

En muchos casos, tanto a nivel individiual como colectivo, juega también la otra variable de la que hablábamos sobre la naturaleza humana: el efecto wishful thinking, o pensar que las cosas van a salir bien y planificar en consecuencia. En el desarrollo de la IA hay mucho de eso. Las posibles consecuencias favorables son tan tentadoras que dan muchas ganas de creer que las conseguiremos. Y eso está bien, todos queremos esas consecuencias favorables. Sin embargo, uno de los consejos más sabios de todo buen padre, luego copiado por la mayoría de los gurús de los negocios, es: “espera lo mejor, prepárate para lo peor”. Está muy bien pensar y trabajar para que la IA sea algo que nos ayude a vivir mucho más y mucho mejor; pero al mismo tiempo es necesario prepararnos y planificar para que no resulte que sacamos esa famosa bola negra del saco de las nuevas tecnologías, la que significaría nuestra perdición.

Hablando de las nuevas tecnologías, otra de las razones que referíamos más arriba por la que no parece que estemos prestando demasiada atención a la revolución de la IA es precisamente la fatiga tecnológica. Esto es efecto en parte de la curva del crecimiento exponencial, que ya se nos está poniendo un poco cuesta arriba. Las tecnologías se desarrollan cada vez más deprisa y con más alcance. Nos cuesta mucho seguir el ritmo y apenas podemos prestar atención a las novedades, abrumados ante la oferta. Una noticia revolucionaria sobre IA como AlphaGo se queda obsoleta unos meses después con AlphaZero. ¿Quién puede seguir el ritmo?

No podemos decir que estemos bien preparados para esto. Casi no nos habíamos terminado de acostumbrar a internet y el correo electrónico cuando llegaron masivamente los móviles con sus apps y las redes sociales. Y cuando abrazamos esa otra tecnología, llegó con ella un nivel inaudito de control y manipulación a gran escala (como contábamos en Ladrillos en tu muro). Las preguntas que se hace al respecto el escritor Yuval Noah Harari en este artículo de opinión son tremendas: “¿Cómo funciona la democracia liberal en una era en la que los Gobiernos y las empresas pueden piratear a los seres humanos? ¿Dónde quedan afirmaciones como que ‘el votante sabe lo que conviene’ y ‘el cliente siempre tiene razón’? ¿Cómo vivir cuando comprendemos que somos animales pirateables, que nuestro corazón puede ser un agente del Gobierno, que nuestra amígdala puede estar trabajando para Putin y la próxima idea que se nos ocurra perfectamente puede no ser consecuencia del libre albedrío sino de un algoritmo que nos conoce mejor que nosotros mismos?”. Pensar sobre estos desafíos que ya tenemos aquí es abrumador. Pero eso no quita que debamos pensar también en los desafíos que podemos tener mañana, antes de que nos atropellen (sí, otra vez la metáfora del camión).

Y así llegamos a la última razón de la que hablábamos: el efecto “carrera armamentística”, ese término que parece sacado de la guerra fría. Y es que los actores que están liderando el desarrollo de la IA son los gobiernos de los principales países del mundo, por supuesto encabezados por los de China y Estados Unidos, acompañados por las principales empresas de tecnología, como Google, Facebook, Amazon, Microsoft, IBM, Baidu o Tencent. Actores con una capacidad muy grande de influir en un debate y demasiado en juego como para andarse con miramientos. Porque aquellos que se enfrenten a más obstáculos (críticas, legislación, esas cosas) probablemente se retrasarán en la carrera, lo que beneficiará a sus competidores.

Piénsalo. ¿Qué premio obtiene quien gane esta carrera? Si todo va “bien”, sería un sistema con la capacidad de convertir en super-humanos a quienes lo controlen, a quienes puedan acceder o se lo puedan pagar. Un sistema que, por tanto, podría dar lugar a otra especie, una que podría considerar a los humanos que se queden fuera como los humanos consideramos a los chimpancés, o peor, como un ganadero considera a su ganado. Un sistema con el potencial de otorgar todos sus beneficios al primero y, si éste así lo decide, ninguno al segundo. Eso es lo que está en juego en la carrera.

Hablábamos más arriba sobre la tendencia de los estratos superiores de las sociedades a crear o magnificar las amenazas que más convienen a sus intereses y obviar o silenciar las que menos. Bien, podemos considerar que los participantes de esta carrera son la élite de esos estratos superiores. Como en toda carrera, llegar primero implica correr más que los demás. Para lo cual, o tienes el mejor coche, o asumes más riesgos que el que lo tiene.

Y esto es tal vez lo más aterrador: para estos corredores, que algún competidor llegue antes a la meta parece ser una amenaza mayor que arriesgar más para llegar primero y sacar así la bola negra para todos. Mala suerte, qué se le va a hacer. No resulta muy extraño entonces que a ninguno de ellos le interese que la gente vaya por ahí gritando “¡extinción!”, y que hagan todo lo posible por minimizar ese escenario. No el de la extinción, sino el de la gente gritando.

Bien, estas son las razones por las que es muy probable que no te enteres de que viene el camión hasta que lo tengas encima. Veamos ahora más en detalle quiénes son y qué están haciendo los que conducen el camión.

En el caso de China estamos hablando de una apuesta clara y decidida del estado para pasar a liderar la carrera por el desarrollo de la IA en los próximos años. Esta apuesta engloba a las grandes empresas tecnológicas chinas, como Tencent o Baidu, y a los cientos de nuevas startups de IA que están siendo masivamente financiadas. Otras variables que se alinean para conseguirlo son una población enorme con una capacidad de protesta o reacción casi nula ante el aumento del nivel de control, y la posibilidad de recolecctar cantidades ingentes de datos, que al fin y al cabo es lo que alimenta la mayoría de los sistemas de IA. El resultado empieza a parecerse mucho a aquella distopía a la que George Orwell apuntaba en 1984, con algunas “mejoras” sacadas directamente de Black Mirror, como su sistema de créditos por comportamiento. Al menos, no se preocupan mucho por ocultar qué pasaría si ganan ellos la carrera.

El caso de Estados Unidos es bastante más complejo. Allí hay dos actores principales impulsando el desarrollo de la IA. Por un lado, el Pentágono, con cosas como el ya famoso Proyecto Maven, que apunta a acelerar el análisis de imágenes captadas por los drones militares, clasificando automáticamente imágenes de objetos y personas (tómate un momento para pensar sobre sus posibles usos). Por otro, las grandes empresas tecnológicas: Google, Facebook, Amazon, Microsoft e IBM, principalmente. Y decimos que el caso es más complejo porque mientras en China todos los actores están más o menos alineados, en Estados Unidos el Pentágono y las tecnológicas compiten por un lado para atraer el talento de los profesionales, mientras colaboran por otro en base a contratos de desarrollo multimillonarios. Y esto produce fricciones. El año pasado, ante el activismo de sus propios empleados,Google declinó renovar el contrato que tenía para el Proyecto Maven. Como explica este artíulo, se produce entonces un conflicto entre los intereses de tres partes. Por un lado, las personas, los empleados de Google en este caso, que no quieren que su trabajo sirva para matar gente. Por otro, las empresas, que tienen un mandato de los accionistas para conseguir y mantener contratos multimillonarios sin mirar quién es el contratante (y que puede ser perfectamente China, como pasó con el Proyecto Dragonfly). Y por último, el Pentágono, que quiere usar la tecnología para seguir teniendo la ventaja militar sobre sus adversarios, para lo que está tratando de construir un puente que salve esas diferencias con las otras dos partes, con el discurso “tienes que ayudarnos, somos los buenos”.

De las grandes tecnológicas, merece la pena detenerse en el caso de Google. Es de lejos la empresa más activa en el campo, de hecho se calcula que el 80% de los principales investigadores y desarrolladores de IA (como Ray Kurzweil, por ejemplo) trabajan para Google o para alguna de las empresas punteras que ha ido adquiriendo, como Boston Dynamics o DeepMind. El creador y CEO de esta última, Demmis Hassabis, describe su misión de la siguiente manera: paso uno, resolver la inteligencia (artificial); paso dos, usarla para resolver todo lo demás. Hay bastante consenso en que DeepMind es una de los actores mejor colocados para conseguirlo. Sus avances con algoritmos de “deep reinforcement learning” aplicados a juegos han sido una parte espectacularmente exitosa del primer paso, y el propio Demmis espera avances rompedores en campos mucho más significativos de la ciencia y la medicina en los próximos años. En este sentido, acaban de presentar AlphaFold, un sistema que predice la estructura de las proteínas.

Una de las razones por las que DeepMind accedió a la adquisición por parte de Google fue que el acuerdo contemplaba la creación de un comité ético y de seguridad, para asegurarse de que la tecnología que creasen en adelante no fuese mal usada. Sobre ese comité, el propio Nick Bostrom declaraba que “En mi opinión, es muy apropiado que una organización cuya ambición sea resolver la inteligencia tenga un proceso para pensar qué significaría tener éxito, aunque sea un objetivo a largo plazo (…) Es bueno comenzar a estudiar esto por adelantado en lugar de dejarlo para la noche anterior al examen”.

No faltan comités, institutos, foros e iniciativas sobre la ética y la seguridad en el uso de la IA y sobre su futuro. Las grandes tecnológicas crearon una asociación con el rimbombante nombre de Partnership on Artificial Intelligence to Benefit People and Society. Elon Musk aportó a otra, Open AI. En el ámbito universitario, el Future of Humanity Institute en Oxford, el Machine Intelligence Research Institute y el Center for Human-Compatible IA en Berkeley, el Centre for the Study of Existential Risk de Cambridge, o el Future of Life Institute de Harvard y el MIT, han sido los responsables de la divulgación y publicación de varios estudios y ensayos muy valiosos, que a veces incluso llegan a conseguir algunos titulares.

Pero la verdad es que, como nos cuenta Kelsey Piper en este artículo, la situación general es bastante preocupante. La analogía que usa es muy clara: “El estado actual es un poco como si casi todos los investigadores del cambio climático estuvieran enfocados en las sequías, los incendios forestales y las hambrunas a las que nos enfrentamos hoy en día, con un pequeño equipo dedicado a pronosticar el futuro y solo unos 50 investigadores en todo el mundo trabajando a tiempo completo en idear un plan para cambiar las cosas”.

Resumiendo: la ética y la seguridad en el desarrollo de la IA carecen de una política pública coordinada a nivel internacional, no existe ningún debate abierto y general sobre sus posibles implicaciones, la divulgación relevante raramente pasa del ámbito académico y los recursos dedicados a la investigación y prevención a largo plazo son ridículos. Mientras tanto, la carrera para conseguir una IA que otorgue una ventaja competitiva definitiva sobre los rivales corporativos o geoestratégicos obtiene billones de dólares en financiación.

Así que, para terminar con aquella metáfora con la que empezamos, hay unos señores que están haciendo una carrera de camiones de 8 ejes por una carretera llena de curvas de la que no tienen mapa. La consigna es simple: solo puede llegar uno. La velocidad va en aumento y nadie planea frenar. Tú estás paseando por esa carretera, mirando embobado el teléfono. Y tus hijos están jugando algo más adelante, detrás de una curva.

Feliz domingo.


© Goonder 2019

Comentarios

Entradas populares de este blog

Ciencia No-Ficción

En este artículo hablaremos sobre inteligencia artificial (en adelante IA) y sobre los riesgos y posibles consecuencias a las que nos enfrentamos con su desarrollo. Puede que el tema no te interese ni lo más mínimo, o que estés harto de verlo en titulares. Pero el caso es que la IA cambiará tu vida tarde o temprano, y probablemente de una manera profunda. Así que vamos a tratar de resumirte aquí de qué va todo esto, para que al menos sepas qué esperar. Como siempre, si quieres profundizar, entra en los enlaces sugeridos para acceder a otros artículos y vídeos con mucha más información.

Vamos a empezar con una cita de I.J. Good, un matemático inglés que trabajó con el legendario Alan Turing a mediados del siglo XX en el diseño de las primeras computadoras modernas: “La primera máquina ultra inteligente será el último invento que el hombre necesite hacer, siempre que la máquina sea lo suficientemente dócil como para decirnos cómo mantenerla bajo control. Es curioso que se hable tan raram…

La primera “inversión de la semana de Goonder” deja una ganancia de más del 18%... pero no es un buen ejemplo.

La semana pasada inauguramos un nuevo servicio para nuestros usuarios. Lo llamamos “La inversión de la semana de Goonder”. La idea es poner foco en una de las oportunidades seleccionadas cada viernes por el algoritmo y enviarla por mail a nuestros usuarios, que tendrán hasta la apertura de los mercados del lunes para decidir si operan.
La primera oportunidad seleccionada fue GAP, que salió en la app el viernes 22/2/19. El mail “La inversión de la semana de Goonder” se envió el sábado 23 por la mañana, marcándola como la oportunidad más destacada. Los usuarios tenían todo el fin de semana para decidir si invertían en GAP, hasta antes de la apertura de Wall Street del lunes 25. 

¿Por qué GAP? La acción acumulaba una caída del 25% en los últimos 12 meses. Viendo todos los datos disponibles, el algoritmo detectó que había cierta probabilidad de que la acción rebotase. Dicha probabilidad tendría un porcentaje de éxito mayor si el precio de la acción subía hasta llegar a 25.42 dólares por …