Con el desarrollo de la inteligencia artificial avanzando a gran velocidad, algunos de los hombres más ricos del mundo pueden estar decidiendo ahora mismo el destino de la humanidad.
Garrison Lovely, Jacobin
El cofundador de Google, Larry Page, cree que la IA superinteligente es «sólo el siguiente paso en la evolución». De hecho, Page, que según algunos informes posee una fortuna de 120 mil millones de dólares, planteó que los esfuerzos para evitar la extinción impulsada por la IA y proteger la conciencia humana son no sólo «especistas» sino también «tonterías sentimentales.»
En julio, el ex científico senior de Google DeepMind Richard Sutton —uno de los pioneros del aprendizaje por refuerzo, un subcampo importante de la IA— dijo que la tecnología «podría desplazarnos de la existencia» y que «no debemos resistirnos a la sucesión.» En una charla de 2015, Sutton propuso un escenario en el que «todo falla» y la IA «nos mata a todos» y se preguntó: «¿Es tan malo que los humanos no sean la forma final de vida inteligente en el universo?» «La extinción biológica no es la cuestión», me dijo Sutton, de sesenta y seis años. «La luz de la humanidad y nuestro entendimiento, nuestra inteligencia —nuestra conciencia, si se quiere— pueden seguir sin humanos de carne».
Yoshua Bengio, de cincuenta y nueve años, es el segundo científico vivo más citado, y se destaca por su trabajo fundacional sobre el aprendizaje profundo. En respuesta a Page y Sutton, Bengio me dijo: «Creo que lo que quieren es jugar a los dados con el futuro de la humanidad. Personalmente, considero que esto debería penalizarse». Un poco sorprendido, le pregunté qué quería que se ilegalizara exactamente, a lo que respondió: los esfuerzos por construir «sistemas de IA que pudieran dominarnos y que por diseño tengan su propio interés». En mayo, Bengio empezó a escribir y explicar cómo los sistemas avanzados de IA podrían volverse rebeldes y suponer un riesgo de extinción para la humanidad.