Ir al contenido principal

Ciencia No-Ficción




En este artículo hablaremos sobre inteligencia artificial (en adelante IA) y sobre los riesgos y posibles consecuencias a las que nos enfrentamos con su desarrollo. Puede que el tema no te interese ni lo más mínimo, o que estés harto de verlo en titulares. Pero el caso es que la IA cambiará tu vida tarde o temprano, y probablemente de una manera profunda. Así que vamos a tratar de resumirte aquí de qué va todo esto, para que al menos sepas qué esperar. Como siempre, si quieres profundizar, entra en los enlaces sugeridos para acceder a otros artículos y vídeos con mucha más información.

Vamos a empezar con una cita de I.J. Good, un matemático inglés que trabajó con el legendario Alan Turing a mediados del siglo XX en el diseño de las primeras computadoras modernas: “La primera máquina ultra inteligente será el último invento que el hombre necesite hacer, siempre que la máquina sea lo suficientemente dócil como para decirnos cómo mantenerla bajo control. Es curioso que se hable tan raramente de este punto fuera de la ciencia ficción. A veces vale la pena tomar más en serio la ciencia ficción”.

Puede ser. El bloguero Tim Urban opina lo contrario: dice que cuando escuchamos hablar de IA pensamos en cosas como Star Wars o Terminator, y que eso hace que asociemos el término con la ficción, haciendo que no nos lo tomemos demasiado en serio.

Tim tiene razón. Cuando uno se pone a leer en profundidad sobre IA, la primera reacción es de sorpresa absoluta. Y es que el nivel general de conocimiento y preocupación por este tema está muy muy lejos de donde debería estar. Usando una metáfora conservadora, podríamos describir el rápido desarrollo de la IA como un camión de 8 ejes que se nos está echando encima a 300 km/h. Y uno solo puede preguntarse qué diablos estamos haciendo mirando para otro lado.

Es una pregunta relevante, ¿no crees? No es normal que estemos todo el tiempo discutiendo por tonterías que nos parecen de vida o muerte, y que por supuesto nunca lo son, mientras que cuestiones que pueden ser no de vida o muerte sino de inmortalidad o extinción sean consideradas por la mayoría como historias para adolescentes con gafas. Esto te puede parecer una exageración, pero está muy lejos de serlo.

Trataremos de responder a esa pregunta en la segunda parte de Ciencia No-Ficción, que se publicará el domingo que viene. Esta primera parte tiene el objetivo de describir el camión y su velocidad, y de paso, probablemente, borrarte esa sonrisa.

La IA es algo muy amplio. Sí, está detrás de eso que hace que te salgan anuncios de hoteles en Londres después de hacer una búsqueda de vuelos por internet; y seguro que te acuerdas también que en algún lado leíste sobre cómo la IA ya le gana a los campeones de ajedrez y de ese-juego-chino-que-se-parece (se llama go). Hoy en día se está investigando en muchísimas herramientas y aplicaciones de IA, con avances generalizados en cosas que podrían estar muy bien, como la capacidad de diagnóstico médico o el reconocimiento de lenguajeEn el caso de la industria financiera, lo que más nos incumbe en Goonder, la IA puede ayudar a los algoritmos no solo a predecir mejor los vaivenes del mercado sino también a que sean capaces de aprender de la evolución individual de cada inversor, para ofrecer así un servicio mucho más personalizado. Pero también se están viendo cosas que realmente dan miedo a dónde pueden llegar, como el uso policial del reconocimiento facial (y más si existen claros indicios de conclusiones sesgadas), las armas autónomas letales o el uso en China de créditos sociales por comportamiento ciudadano.

Más allá de estos contínuos avances y de esas implicaciones sobre las que hay cierto nivel de debate, la percepción general hoy en día para el común de los mortales parece ser que si una de estas herramientas de IA todavía no me ha quitado el trabajo, de momento vamos bien.

Mirando hacia el futuro, la cosa se pondrá bastante más peluda si llegamos a dar el siguiente paso, que no es un paso sino un salto enorme, uno que dejaría lo de Neil Armstrong en saltito. Sería la AGI, o inteligencia artificial fuerte: un sistema que sea tan eficiente como un humano no en una tarea concreta, como los que tenemos ahora, sino en cualquier tarea. Dicho de otra manera, un sistema que tenga el mismo nivel de inteligencia que nosotros. Es normal que desde la perspectiva actual te pueda parecer que estemos muy lejos de llegar a ese punto. Pero, ¿lo estamos?

Una manera clásica de medir el avance en el campo de la IA es el famoso test de Turing. Una máquina habrá pasado el test cuando el evaluador considere que sus respuestas son indistinguibles de las de un humano. Hace 5 o 10 años parecía un objetivo lejano. Hoy hablas con Siri o Alexa todos los días y vale, si les preguntas por la inmortalidad del cangrejo te van a contestar una tontería, pero habrás notado que cada vez dicen menos tonterías. Según mediciones de 2016, la IA de Google se estaba acercando al nivel de inteligencia de un niño de 6 años. Y como los niños, estas cosas crecen rápido. Cada vez parece más probable y menos lejano que nos alcancen.

A nivel de evolución tecnológica, llegar a la AGI depende básicamente de lograr incrementos significativos en la capacidad de proceso y en la capacidad de aprendizaje de los sistemas. En cuanto a la primera, estamos en un punto en el que la capacidad de proceso para tener una AGI ya existe, sólo habría que hacerla más eficiente y barata. Al ritmo que vamos, cosa de unos pocos añitos. La segunda es la más difícil: ¿cómo mejorar la capacidad de aprendizaje de un sistema? Al contrario de lo que uno intuitivamente podría pensar, parece que la manera más rápida no es alimentar al sistema con todo el conocimiento posible, sino programarlo para que se busque la vida él mismo a base de prueba y error. De hecho, una de las estrategias que más avances está consiguiendo hoy en día es esa: programar a los sistemas usando redes neuronales y lo que se llama “deep reinforcement learning”, para que aprendan y mejoren solos.

Un ejemplo ilustrativo. ¿Te acuerdas de Deep Blue, el sistema creado por IBM que en 1997 ganó al entonces campeón mundial de Ajedrez, Gary Kasparov? Deep Blue era un sistema al que se alimentó con todo el conocimiento acumulado en ajedrez, millones de partidas; con eso y la pura capacidad bruta de proceso fue capaz de elegir mejores estrategias que el mejor humano y así derrotarlo. Desde entonces, los sistemas creados bajo ese enfoque han ganado rutinariamente a cualquier gran maestro en ajedrez, y desde hace un par de años también en el go, un juego aún más complejo y abstracto. Sin embargo, como puedes leer en este artículo, la empresa de inteligencia artificial DeepMind (propiedad de Google) ha dado este último año un paso evolutivo enorme con AlphaZero, un sistema al que simplemente alimentaron con las reglas del ajedrez, de su versión japonesa el shogi, y del go. La idea, y de ahí el nombre, es que el sistema aprendiera a jugar a los tres juegos desde cero, sin contaminarle con ningún conocimiento humano previo, usando redes neuronales y deep reinforcement learning. Empezó así a jugar partidas ultra-rápidas contra sí mismo y le bastaron unas horas para llegar a las más avanzadas estrategias de los grandes maestros, y un ratito más descubrir estrategias absolutamente impensables para un humano. Por supuesto, AlphaZero es ahora el campeón del mundo no oficial de las tres disciplinas: incluso cuando lo ponen a jugar con una mano atada a la espalda, se pasea. De 100 partidas de go, y con la décima parte de chips y de tiempo para mover, AlphaZero le ganó 100 – 0 al anterior campeón, su hermano mayor AlphaGo (que fue el sistema que en 2016 había derrotado en al último campeón humano, Lee Sedol, como puedes ver en este documental).

Recapitulemos: para que un sistema llegue tener un nivel de inteligencia humana, el problema de la capacidad de proceso estará resuelto a medio plazo, y el problema de la capacidad de aprendizaje está dando saltos cualitativos enormes con el uso de redes neuronales y técnicas de machine deep learning.

Bien, antes de seguir con la descripción de ese camión del que hablábamos, una palabra sobre la velocidad a la que se nos puede echar encima. Hay algo que te puede parecer fácil de entender, pero que de hecho es muy difícil de visualizar: el crecimiento exponencial. La idea es que cuanto más aprenda y mejore un sistema, mejor será aprendiendo y mejorando, ya que se apoyará en cada ciclo de mejora para aumentar mejor y más rápidamente su capacidad. Pero el concepto es al mismo tiempo muy difícil de visualizar, ya que los humanos estamos diseñados para pensar en términos lineales, no exponenciales. Tim Urban lo explica muy bien con ayuda de unos gráficos francamente divertidos e ilustrativos en su blog Wait but why, donde publica dos posts sobre la revolución de la IA: El camino a la superinteligencia e Inmortalidad o extinción (si te interesa el tema te recomiendo que dediques un rato a leer los dos posts: muy amenos y bastante exhaustivos). Al final de su primer post, Tim nos presenta la siguiente reflexión: para un sistema que está aprendiendo de forma exponencial, llegar al estado AGI será apenas algo que pasó durante un segundo, y al siguiente lo dejó atrás. Es lo que hizo AlphaZero con las estrategias de juego que los humanos hemos sido capaces de desarrollar.

Llegados a este punto, introduzcamos dos conceptos nuevos: Singularidad y ASI. Ambos conceptos se apoyan en la capacidad de la tecnología de generar ese crecimiento exponencial que irá cada vez más rápido y sobre el que tendremos cada vez menos control. La singularidad sería ese momento en el que la capacidad de auto-mejora recurrente de un sistema alcanza tal grado que sucede una explosión de inteligencia. ASI significa Superinteligencia Artificial, y es el sistema que surgiría de esa explosión de inteligencia. La ASI es algo que puede dejar al ser humano tan atrás que cualquier capacidad de comprensión y control que tengamos sobre ella serían los mismos que tiene una colonia de hormigas sobre la generación de energía atómica. (En realidad mucho menores, no te pierdas los gráficos de las escaleras en el segundo post de Tim Urban).

Ese es el camión.

Antes de entrar en el apartado de las consecuencias, vale la pena detenerse un momento a considerar lo que acabas de leer. Ya has visto esto antes, ¿verdad? Skynet en Terminator, Hal 9000 en 2001, el agente Smith en Matrix... Ciencia ficción. ¿No?

En realidad es un camino lógico, que para muchos expertos está pasando de posible a probable; un camino que, como se decía al principio, ya fue presupuesto por uno de los pioneros de la computación. ¿Te  acuerdas de esa cita con la que empezamos? Ya, ya, nunca oíste hablar de ese I.J. Good. Y un tipo que en vez de nombre tiene iniciales no te impresiona lo más mínimo. Bien, aquí van más citas de gente que sí conoces. Stephen Hawking: “El desarrollo de la inteligencia artificial podría significar el fin de la raza humana”. Bill Gates: “No entiendo cómo hay gente que no está preocupada”. Elon Musk: “Estamos convocando al demonio”.

Vale, tal vez Elon Musk no sea la persona más creíble del mundo últimamente. ¿Qué opinan los que saben de esto? Se vienen haciendo algunas encuestas entre los principales expertos que están trabajando en el campo de la inteligencia artificial en el mundo (aquí tienes tres de las más relevantes, de 20112013 y 2018). Para empezar, un dato contundente. Los que consideran que todo esto sigue siendo pura ciencia ficción y que un sistema nunca llegará a tener inteligencia humana, según la encuesta que mires, varían entre el 2 y el 20%. Es decir, la inmensa mayoría de los expertos discrepan en el cuándo, no en si. Y respecto al cuándo, los datos medios en las respuestas de los expertos nos indican que tendríamos un sistema AGI entre 2040 y 2060, y que después llegaría uno ASI, o bien muy rápidamente, o como mucho 30 años después.

Dicho de otra forma: si tienes entre 20 y 40 años, hay un 50% de probabilidades de que a tus hijos les atropelle el camión. Y tus nietos lo tienen muy mal.

O muy bien. Porque a lo mejor cuando llegue el camión en vez de atropellarnos nos hace subir a él y nos lleva a un futuro instantáneo en el que se esfumarán casi todas nuestras limitaciones, empezando por la muerte (y tal vez incluso los impuestos).

Ahora ha llegado el momento de que te presente a Ray Kurzweil, o como lo llaman en el documental que se hizo sobre él, “El hombre trascendente”. Científico, inventor, escritor, músico, empresario, creador de la Singularity University, últimamente director de ingeniería de Google. Un tipo del que hasta los que piensan que está pirado admiten que es un genio. 21 doctorados honoris causa, un coeficiente de inteligencia de esos que se salen del gráfico y un historial de predicciones cumplidas bastante impresionante. Es el equivalente a una superestrella de rock para los tecnólogos. Puedes verlo en acción en charlas TED, leer perfiles sobre él en The New Yorker o en Rolling Stone, o entrevistas en Playboy o The Guardian.

Ray es de los optimistas. Cree que todo sucederá para bien, y que sucederá mucho más rápido de lo que creen sus colegas: asegura que una máquina pasará el test de Turing en 2029 y que la Singularidad ocurrirá allá por 2045. También cree que el crecimiento exponencial del conocimiento terminará haciéndonos inmortales. Presupone que todo el proceso estará controlado, y que muy pronto habrá un salto evolutivo que vencerá las barreras clásicas de la biología, convirtiendo al hombre en una nueva especie, con base humana y evolución artificial. Ray se está cuidando mucho porque ya tiene una edad y lógicamente le gustaría llegar a vivir para siempre. De hecho, por si no llega, su plan B es hacer que congelen su cerebro. También tiene la intención de resucitar a su padre usando su ADN.

Ya estás con esa sonrisa otra vez. No me extraña. Pero si dejas a un lado la capacidad para generar titulares de Ray y lo piensas un poco, no es un escenario tan desquiciado. Sabemos que nuestra construcción biológica está diseñada para condiciones muy distintas a las de hoy en día: una época en la que éramos cazadores-recolectores, apenas un animal más tratando de sobrevivir y de transmitir nuestros genes. La evolución biológica, que viene a hacer lo mismo que el sistema prueba-error con recompensas a las estrategias más exitosas que usa AlphaZero, funciona en unos términos temporales que no tienen nada que ver con la capacidad artificial de mejora que hemos alcanzado. Por tanto, si aspiramos a subirnos al camión, cualquier evolución futura mínimamente apreciable, y ni que decir si es tan radical, tiene que tener forzosamente una base tecnológica.

Vamos con un ejemplo más visual:  ¿Quién corre más rápido, Usain Bolt o tu abuela? Vale. Sí. Usain Bolt. Pero, ¿y si a tu abuela le damos un Ferrari? Puede que le cueste mucho llegar a manejar los pedales, puede que se estrelle contra un árbol o que se lleve puestos unos cuantos peatones incautos que pasaban por allí… pero potencialmente está claro que va a correr mucho más rápido que Usain Bolt, ¿no? Cambia ese Ferrari por avances exponenciales en IA y biotecnología, y tienes todas esas cosas que Ray imagina que serán habituales para las próximas generaciones. Acceso directo con la mente a todos los datos en la nube. Copias de respaldo diarias de nuestro cerebro: memorias, sensaciones, pensamientos, emociones. Posibilidad de usar la nanotecnología y la realidad aumentada para habitar otros cuerpos, otras realidades. Nanobots circulando por nuestro torrente sanguíneo y nuestro cerebro, reparando y mejorando todos los sistemas biológicos, dándonos capacidades físicas y mentales que solo pueden ser descritas como post-humanas. Encargar copias genéticas de nosotros mismos o de nuestros padres, por si no llegamos a tiempo a la fiesta. Y la inmortalidad.

Claro que a Ray, que tiene más de 70 años, todo esto le parece estupendo. A Charlie Brooker, en su cuarentena, le inspiró Black Mirror.

Charlie es un contador de historias. Las distopías que imagina en Black Mirror apuntan a una visión oscura de la condición humana mezclada con unos desarrollos tecnológicos que en muchos casos no parecen tan lejanos. Y lo que es más preocupante no es que estas proyecciones sean francamente desagradables; es que lo que nos propone son escenarios en el que el camión no nos atropella. Escenarios, por tanto, optimistas.

Porque otro escenario posible es que después de la singularidad, el sistema ASI tenga el mismo interés en la supervivencia de los humanos que cualquier humano no militante de Greenpeace en la supervivencia de los mosquitos. Y otro escenario más es que el sistema ASI tenga un objetivo estratégicamente incompatible con la existencia humana, como en el ya famoso ejemplo del maximizador de clips de Nick Bostrom.

Nick Bostrom no se parece mucho a Ray Kurzweil, la verdad. Tal vez en el coeficiente de inteligencia y en sus áreas de interés, pero poco más. Nick es la anti-estrella de rock. Filósofo, pensador, autor de más de 200 publicaciones, experto en ética y tecnología, dirige el Future of Humanity Institute en la Universidad de Oxford. Si tienes tiempo y te gusta el tema, es muy interesante su libro Superinteligencia. Si tienes menos tiempo, puedes leer este perfil que le hicieron en The New Yorker y ver esta charla que dio en Google. Y si no tienes nada de tiempo, aquí tienes un súper resumen que hace él mismo en una charla TED.

Nick ve la llegada de la ASI como un riesgo existencial para la especie humana, la más probable candidata a ser esa “bola negra” que saquemos del saco de las nuevas tecnologías y que signifique nuestra perdición. Se pregunta si no será un error darwiniano crear algo que sea más inteligente que nosotros. Y concluye que, tanto si llegamos como si no a crear un sistema superinteligente, sería una buena idea ir poniendo ya las bases para que el resultado sea lo más benévolo posible con la humanidad. Suena lógico, ¿no?

Porque si sucede, más allá de cuándo suceda, la verdad es que nadie sabe a ciencia cierta qué pasaría. Si será algo bueno o malo para la especie, o muy bueno para unos pocos y muy malo para la mayoría. O más o menos igual, pero en plan Black Mirror. Los mismos estudios de los que hablábamos antes arrojan resultados mucho más diversos sobre este punto. En la encuesta de 2013 antes mencionada, los expertos que pensaban que el resultado sería bueno o muy bueno para la humanidad sumaban un 52%, y los que pensaban que sería malo o muy malo, un 31%. Así que, cuando a Nick le preguntaron al final de aquella charla que dio en Google si íbamos hacia nuestra perdición o no, él respondió lateralmente a la pregunta. “Sí, bueno, probablemente tengamos un riesgo de extinción menor del 50%, no tengo un número exacto”, dijo. Y luego añadió, “Lo que realmente hay que preguntarse es qué podemos hacer para bajar ese porcentaje”.

Tal vez sea ésta la cuestión más importante a la que tengamos que enfrentarnos en los próximos años.


Click aquí para leer Ciencia No-Ficción Parte II.


© Goonder 2019

Comentarios

Entradas populares de este blog

Ciencia No-Ficción II

No temo a ninguna de las máquinas existentes; lo que temo es la extraordinaria rapidez con que se están convirtiendo en algo muy diferente a lo que son en la actualidad. Ninguna clase de seres en el pasado ha evolucionado tan rápido. ¿No debería ser observada celosamente esta evolución, y controlada mientras todavía podamos supervisarla? (...) ¿No es probable que haya más hombres ocupados en el cuidado de las máquinas que en el cuidado de los hombres? ¿No estamos creando nuestros sucesores en la supremacía de la tierra, aumentando diariamente la belleza y la delicadeza de su organización, dándoles mayor habilidad y cada vez más esos poderes de auto regulación y auto accionamiento que terminarán superando cualquier intelecto? Samuel Butler, Erewohn. 1872.
Toda generación piensa que los desafíos que afronta son nuevos y raramente lo son. Al parecer, todo eso de lo que hablábamos en la primera parte de este artículo, cuando expusimos el reto al que nos enfrentamos con el desarrollo de la …

La primera “inversión de la semana de Goonder” deja una ganancia de más del 18%... pero no es un buen ejemplo.

La semana pasada inauguramos un nuevo servicio para nuestros usuarios. Lo llamamos “La inversión de la semana de Goonder”. La idea es poner foco en una de las oportunidades seleccionadas cada viernes por el algoritmo y enviarla por mail a nuestros usuarios, que tendrán hasta la apertura de los mercados del lunes para decidir si operan.
La primera oportunidad seleccionada fue GAP, que salió en la app el viernes 22/2/19. El mail “La inversión de la semana de Goonder” se envió el sábado 23 por la mañana, marcándola como la oportunidad más destacada. Los usuarios tenían todo el fin de semana para decidir si invertían en GAP, hasta antes de la apertura de Wall Street del lunes 25. 

¿Por qué GAP? La acción acumulaba una caída del 25% en los últimos 12 meses. Viendo todos los datos disponibles, el algoritmo detectó que había cierta probabilidad de que la acción rebotase. Dicha probabilidad tendría un porcentaje de éxito mayor si el precio de la acción subía hasta llegar a 25.42 dólares por …