Si bien las preocupaciones de Hofstadters son perfectamente válidas en algún nivel, otros, como Mitch Kapor, el emprendedor y cofundador de Electronic Frontier Foundation y Mozilla, piensan que no deberíamos entrar en pánico por el momento. En declaraciones a Vanity Fair en 2014, Kapor advierte: “La inteligencia humana es un fenómeno maravilloso, sutil y poco entendido. No hay peligro de duplicarlo pronto “.
Tegmark etiqueta a aquellos que sienten como Kapor, que AGI está a cientos de años de distancia, “tecnoescépticos”. Entre las filas de este grupo se encuentran Rodney Brooks, exprofesor del MIT e inventor de la aspiradora robótica Roomba, y Andrew Ng, exjefe científico de Baidu, Google de China, de quien Tegmark afirma haber dicho: “Temiendo un aumento de asesinos los robots es como preocuparse por la superpoblación en Marte “.
Eso puede sonar como una hipérbole, pero considere el hecho de que no existe ningún software que se acerque a rivalizar con el cerebro en términos de capacidad informática general.
Antes de su muerte en 2018, Paul Allen, cofundador de Microsoft y fundador del Allen Institute for Brain Science, escribió junto a Mark Greaves en MIT Technology Review que lograr la singularidad, el punto donde la tecnología se desarrolla más allá de la capacidad humana para monitorear, predecir, o entenderlo, requerirá mucho más que diseñar máquinas cada vez más competentes:
“Para lograr la singularidad, no basta con ejecutar el software actual más rápido. También necesitaríamos crear programas de software más inteligentes y capaces. La creación de este tipo de software avanzado requiere una comprensión científica previa de los fundamentos de la cognición humana, y solo estamos raspando la superficie de esto. Esta necesidad previa de comprender la ciencia básica de la cognición es donde los argumentos de “la singularidad está cerca” no logran persuadirnos “.
Personas de ideas afines como Naveen Joshi, el fundador de Allerin, una empresa que se ocupa de big data y aprendizaje automático, afirman que estamos “a pasos agigantados” de lograr el AGI. Sin embargo, como admite en un artículo de Forbes, el gran ritmo de nuestro desarrollo en IA podría hacerle cambiar de opinión fácilmente.
Está en hor-AI-zon
Ciertamente, es posible que la balanza se esté inclinando a favor de aquellos que creen que el AGI se logrará en algún momento antes de que termine el siglo. En 2013, Nick Bostrom de la Universidad de Oxford y Vincent Mueller de la Sociedad Europea de Sistemas Cognitivos publicaron una encuesta en Fundamental Issues of Artificial Intelligence que evaluó la percepción de los expertos en el campo de la IA con respecto al período de tiempo en el que la tecnología podría alcanzar niveles similares a los humanos. .
El informe revela “una opinión entre los expertos de que los sistemas de IA probablemente (más del 50%) alcanzarán la capacidad humana general para 2040-50, y muy probablemente (con un 90% de probabilidad) para 2075”.
El futurista Ray Kurzweil, el científico informático detrás de las tecnologías de síntesis de música y de texto a voz, también cree en el enfoque rápido de la singularidad. Kurzweil confía tanto en la velocidad de este desarrollo que está apostando fuerte. Literalmente, está apostando a Kapor $ 10,000 a que la inteligencia de una máquina podrá pasar la prueba de Turing, un desafío que determina si una computadora puede engañar a un juez humano para que piense que ella misma es humana, para 2029.
Poco después, como dice en una reciente charla con la Sociedad para la Ciencia, la humanidad se fusionará con la tecnología que ha creado, cargando nuestras mentes en la nube. Por admirable que sea ese optimismo, esto parece poco probable, dada nuestra recién formada comprensión del cerebro y su relación con la conciencia.
Christof Koch, uno de los primeros defensores del impulso para identificar los correlatos físicos de la conciencia, adopta un enfoque más fundamentado al tiempo que conserva parte del optimismo de que la IA similar a la humana aparezca en el futuro cercano. Escribiendo en Scientific American en 2019, dice: “El rápido progreso en las próximas décadas traerá máquinas con inteligencia a nivel humano capaces de hablar y razonar, con una miríada de contribuciones a la economía, la política y, inevitablemente, a la guerra”.
Koch es también uno de los autores que contribuyeron a la teoría de la conciencia de integración de información del neurocientífico Guilio Tononi. Como dice Tegmark, la teoría sostiene que “la conciencia es la forma en que se siente la información cuando se procesa de ciertas formas complejas”. IIT afirma que la conciencia de cualquier sistema puede evaluarse mediante una métrica de 𝚽 (o Phi), una medida matemática que detalla cuánto poder causal es inherente a ese sistema.
En el libro de Koch, The Quest for Consciousness: A Neurobiological Approach, Koch equipara phi con el grado en que un sistema es, “más que la suma de sus partes”. Sostiene que phi puede ser propiedad de cualquier entidad, biológica o no biológica.
Esencialmente, esta medida podría usarse para denotar cuán consciente es el funcionamiento interno de un sistema de los demás mecanismos internos de ese sistema. Si 𝚽 es 0, entonces no existe tal conciencia y el sistema no siente nada.
La teoría es una de muchas, sin duda, pero es notable por su intento de mensurabilidad matemática, ayudando a hacer tangible el sentimiento inmaterial de la conciencia. Si se demuestra que tiene razón, esencialmente excluiría la posibilidad de que las máquinas sean conscientes, algo que Tononi explica en una entrevista con la BBC:
“Si la teoría de la información integrada es correcta, las computadoras podrían comportarse exactamente como tú y yo; de hecho, es posible que [incluso] puedas tener una conversación con ellas que sea tan gratificante o más gratificante que contigo o conmigo”, y sin embargo, habría literalmente no hay nadie allí “.
Optimismo de tipo (humano)
El entrelazamiento de la conciencia y la inteligencia artificial representa algo así como un acto de equilibrio civilizatorio. Puede que no haya otros campos de investigación científica en los que estemos avanzando tan rápidamente con tan poca idea de lo que potencialmente estamos haciendo.
Si logramos, ya sea por intención o por accidente, crear máquinas que experimenten el mundo subjetivamente, las implicaciones éticas serían monumentales. También sería un momento decisivo para nuestra especie, y tendríamos que lidiar con lo que significa haber creado esencialmente una nueva vida. Ya sea que sigan siendo una posibilidad lejana o nos estén esperando a la vuelta de la esquina, haríamos bien en comenzar a considerarlos más seriamente.
En cualquier caso, puede resultar útil pensar en estos temas con menos pavor y con un optimismo más cauteloso. Este es exactamente el tono que da Tegmark al final de su libro, en el que ofrece la siguiente analogía:
“Cuando los estudiantes del MIT vienen a mi oficina en busca de asesoramiento profesional, generalmente comienzo preguntándoles dónde se ven a sí mismos en una década. Si un estudiante respondiera “Quizás estaré en una sala de cáncer, o en un cementerio después de ser atropellado por un autobús”, le haría pasar un mal rato […] Dedicar el 100% de sus esfuerzos a evitar enfermedades y accidentes es una gran receta para la hipocondría y la paranoia, no la felicidad “.
Cualquiera que sea la forma que adopte la mente de AGI, estará influenciada y reflejará la nuestra. Parece que ahora es el momento perfecto para que la humanidad dé prioridad al proyecto de elaborar colectivamente qué principios éticos y morales nos son queridos. Hacerlo no solo sería instructivo sobre cómo tratarse unos a otros con dignidad, sino que ayudaría a garantizar que la inteligencia artificial, cuando pueda, haga lo mismo.