La IA no nos odia; sólo le resultamos irrelevantes

0
61
Supongamos que alguien activa una inteligencia artificial (IA) con el objetivo de producir clips sujetapapeles. A la IA se le otorga la capacidad de aprender, de modo que encontrar nuevas formas de lograr su objetivo de manera cada vez más eficiente. Como la IA es superinteligente, si existe una forma de convertir algo en clips de papel, la encontrará. Como además buscará obtener todos los recursos necesarios para su propósito; pronto alojará recursos de otras actividades.

Supongamos que alguien activa una inteligencia artificial (IA) con el objetivo de producir clips sujetapapeles. A la IA se le otorga la capacidad de aprender, de modo que encontrar nuevas formas de lograr su objetivo de manera cada vez más eficiente. Como la IA es superinteligente, si existe una forma de convertir algo en clips de papel, la encontrará. Como además buscará obtener todos los recursos necesarios para su propósito; pronto alojará recursos de otras actividades.

La situación empeora. Podríamos querer detener a esta IA, pero esta se da cuenta de que nuestros planes podrían frustrar el cumplimiento de su objetivo y se mostrará implacable buscando cumplir su objetivo. Y, como la IA es varios órdenes de magnitud más inteligente que nosotros, de seguro ganará la batalla.

Se trata de una situación en la que un ingeniero activó una IA para una tarea sencilla pero donde, dada su capacidad de automejora, la IA amplía sus capacidades; innova para producir clips de manera más eficiente; desarrolla poder para apropiarse de los recursos que necesita; y, en última instancia, se enfoca en preservar su existencia para poder cumplir su objetivo. La IA es literal y más ingeniosa que cualquier persona, por lo que pronto el mundo estará inundado de clips; incluso a expensas de lo que deba destruir para lograrlo.

Esta idea surge de un experimento mental propuesto por Nick Bostrom, un filósofo de la Universidad de Oxford. Bostrom examina el llamado “problema del control”; esto es: ¿cómo podríamos controlar una IA varios órdenes de magnitud más inteligente que nosotros?

Bostrom es una personalidad muy peculiar. “A pesar de lo que muchas veces se ha pensado -principalmente por su inclusión en la corriente del transhumanismo-, Bostrom no es un tecnólatra. Tampoco un tecnófobo, aunque alguna lectura apresurada de “Superinteligencia” pueda hacer llegar a esa conclusión. Es sólo un pensador. Y como tal, su misión es reflexionar de manera radical sobre los problemas prominentes de su época. Su acierto consiste en haber identificado a la tecnología moderna como un problema fundamental, y más concretamente, a la fe ciega y el optimismo exacerbado que muchas personas profesan en la actualidad por la tecnología”, afirma Marcos Alonso Fernández en el prólogo a la tercera edición del mencionado libro de Bostrom, “Superinteligencia. Caminos peligros, estrategias”.

Si bien Bostrom reconoce que el ejercicio mental es “ridículo”; este sigue siendo tomado como ejemplo para conceptualizar el cada vez más importante “problema del control”.

Tres mosqueteros contra la IA

Una de las personas que con más detenimiento ha pensado este problema es Stuart Russell, profesor de Informática Teórica en la Universidad de California. Russell ha escrito -junto con el ex-director de investigación de Google, Peter Norvig-, lo que es considerado -casi de manera literal- la “Biblia” de la IA: “Inteligencia artificial: un enfoque moderno”; el libro más utilizado, citado y leído en los cursos universitarios de informática teórica.

En 2014, Russell y otros tres científicos -Stephen Hawking, Max Tegmark y Frank Wilczek- publicaron una advertencia sobre los peligros de la IA. Los tres autores consideran errónea la idea -habitual entre quienes trabajan en este ámbito- de que, dado que todavía faltan varias décadas para lograr una inteligencia artificial general; podemos limitarnos a seguir trabajando en ella e ir resolviendo los problemas de seguridad a medida que surjan; si es que surgen. “Si una civilización extraterrestre superior nos enviara un mensaje diciendo: ‘Llegaremos dentro de unas décadas’, ¿nos limitaríamos a responder: ‘De acuerdo, llámennos cuando lleguen; dejaremos las luces encendidas’? Eso es más o menos lo que está ocurriendo con la inteligencia artificial”; escribieron.

Stephen Hawking fue un físico teórico, astrofísico, cosmólogo y divulgador científico británico; quizás el científico más brillante de la historia. Max Tegmark es un muy famoso físico, matemático, cosmólogo, investigador de IA y escritor de muchos libros de divulgación científica; el más famoso de ellos “Vida 3.0”; su visión sobre cómo sería el futuro si la IA siguiera evolucionando. Frank Wilczek es un experto en materia condensada, astrofísica y física de partículas y, en 2004, recibió el Premio Nobel de Física 2004 por sus aportes al desarrollo de la cromodinámica cuántica.

Si hago esta breve reseña de estas tres personas es para remarcar el calibre de pensadores que se oponen -opusieron en el caso de Hawkings-, al desarrollo de la IA; en particular debido a este “problema del control”.

La dificultad de controlar

El padre de la cibernética -Norbert Wiener- publicó, en 1960 en la icónica revista “Science”, un artículo titulado “Algunas consecuencias morales y técnicas de la automatización”: una breve exploración sobre la tendencia de las máquinas a desarrollar -cuando comienzan a aprender- “estrategias imprevistas a velocidades que desconciertan a sus programadores”.

Me viene a la mente la experiencia de unos ingenieros de Google que, mientras trabajaban en una IA, descubrieron que esta había aprendido bengalí. “No lo entiendes del todo. No puedes decir muy bien por qué [la IA] dijo esto, hizo aquello o por qué se equivocó en esto otro. Tenemos algunas ideas y nuestra capacidad para entenderlo mejora con el tiempo. Pero ahí es donde estamos ahora”, dijo en su momento el director ejecutivo de Google, Sundar Pichai. Que la IA haya aprendido bengalí no implica riesgo alguno, pero ¿cómo nos protegemos de otros “resultados inexplicables” o “imprevistos” que sí puedan resultar peligrosos?

Además, ¿cómo definir un objetivo de una manera rigurosa y lógicamente impecable; que defina con exactitud tanto el problema como el resultado esperado en todas las “condiciones de contorno” imaginables; con todas barreras de control explicitadas de manera exhaustiva?

En el ejercicio mental de Bostrom, podríamos pedirle, por ejemplo, que sólo produzca una cantidad determinada de clips, pero la IA podría preocuparse por lo que sucedería una vez que los terminemos y buscar seguir produciéndolos. Así, habría que indicarle que, una vez cumplido ese objetivo, se desconecte y no se preocupe por nuestra actividad posterior algo que, de seguro, jamás se nos hubiera ocurrido.

Probemos con otro ejercicio mental. Imaginemos que tenemos una inteligencia artificial potente, en extremo evolucionada, capaz de resolver los problemas científicos más difíciles. Imaginemos que le pedimos que elimine el cáncer. El ordenador podría llegar a la conclusión de que la forma más eficaz de hacerlo sea eliminando a todas las especies en las que la división incontrolada de células anormales pueda ocurrir. Así, antes de que podamos darnos cuenta de nuestro error, podríamos haber eliminado toda forma de vida sensible de la Tierra, excepto la propia inteligencia artificial, que no tendría razón alguna para no creer -de manera genuina- que ha completado su tarea con éxito.

La verdad es que, en realidad, cualquier daño que pudiéramos sufrir por parte de una máquina superinteligente no sería resultado de la malevolencia ni de ninguna otra motivación de tipo humano, sino que se podría deber al simple hecho de que nuestra ausencia es un óptimo para el logro de sus fines.

En su libro, Bostrom ilustra este aspecto citando palabras de Eliezer Yudkowsky, teórico especializado en temas de seguridad de la IA: “La inteligencia artificial no te odia ni te ama; pero estás hecho de átomos que puede utilizar para otra cosa”; por ejemplo, clips de metal.

Otra forma de pensar el problema es imaginando a un pianista interpretando una pieza de Bach. Al escuchar la música nadie piensa en los árboles talados, los elefantes sacrificados, los seres humanos esclavizados y asesinados en pos de los beneficios de los traficantes de marfil; en toda la destrucción que llevó a esa ejecución de la pieza de Bach. “Ni el pianista ni el fabricante del piano tenían una animosidad personal hacia los árboles, los elefantes ni los hombres y mujeres esclavizados; pero todos ellos estaban hechos de átomos que podían utilizarse para fines concretos; para ganar dinero, para tocar música. Lo que significa que, después de todo, esa máquina que tanto terror causa en ciertos círculos racionalistas no es tan diferente de nosotros”; afirma Mark O’Connell en “Cómo ser una máquina. Aventuras entre ciborgs, utopistas, hackers y futuristas intentando resolver el pequeño inconveniente de la muerte”.

No lo sabemos, pero nos vamos acercando -cada día más- a un punto de equilibrio cada vez más inestable. Activar una IA súper inteligente bien podría ser lo último que hagamos. Es sorprendente que existan tan pocos científicos e investigadores que señalan el peligro que representa seguir desarrollando modelos de cajas negras cada vez más potentes; con capacidades emergentes mayores; y que nos podrían guiar hacia resultados impredecibles e incontrolables.

¿Cómo podríamos protegernos si el resultado implicara un peligro de extinción? ¿Nos llegaremos a dar cuenta del error instantes antes de extinguirnos? Quizás debamos pensarlo antes de ser convertidos en clips sujetapapeles de metal.

Fuente: https://www.eltribuno.com/salta/seccion/deportes

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí