Mariano Sigman - Santiago Bilinkis (Artificial) La nueva inteligencia y el contorno de lo humano

La moral de un algoritmo

¿Es real el peligro?

En el último tramo de este libro, la ciencia empieza a mezclarse de forma definitiva con la ciencia ficción. Llegamos a Metrópolis, Solaris, Terminator, Mad Max, Her, Ex Maquina, 2001: Odisea del espacio... Es el momento de preguntarnos por la utopías, las distopías y el apocalipsis: ¿pueden las máquinas y la IA convertirse en una amenaza para nuestra especie? Justamente la ciencia ficción ha sido el laboratorio en el que exploramos este universo de posibilidades, creando escenarios en los que ordenadores superinteligentes adquieren autonomía e intentan (por diferentes razones) aniquilar a la humanidad. Ahora ya no es una película: muchas personas que más entienden de IA hace un tiempo que nos advierten sobre el riesgo que esta tecnología implica para nuestra existencia en los años venideros.

En mayo de 2023, muchos de los referentes mundiales en el tema firmaron una declaración conjunta que consiste en una sola oración: <<Mitigar el riesgo de extinción por causa de la IA debe ser una prioridad global, a la altura de otros riesgos como las pandemias y la guerra nuclear>>. La frase llama la atención por lo contundente, pero también por lo escueta. Subraya tanto el consenso acerca del peligro existente, como la imposibilidad de trasladar la preocupación a acciones concretas por la dificultad que plantea ponerse de acuerdo sobre qué forma podría tomar ese peligro y qué medidas podríamos adoptar para protegernos.

A muchas personas, la mera posibilidad de que la humanidad pueda extinguirse en los próximos años por causa de la IA les parece un despropósito, una de las fantasías del cine catastrófico. ¿Cómo podría una máquina hacernos semejante daño? Si eso fuese una amenaza real, ¿no podríamos simplemente apagarla? Pero lo más probable es que una IA tan avanzada como para ser peligrosa no residiría en un solo ordenador, sino que está distribuida en fragmentos en una red deslocalizada para la que no habrá un interruptor de apagado general. O, más bien, serán las inteligencias de esa red las que lo controlen. Apagar una inteligencia artificial de esa red se parecerá más a erradicar un virus que a apagar la luz. El mayor peligro de todos quizá sea pecar de ingenuos. El riesgo es real. Y desentenderlo o subestimarlo no hace más que amplificarlo.

Muchos sostienen, por ejemplo, que es imposible que generemos una inteligencia que supere nuestra propia capacidad. Pero, por más que creamos que la inteligencia es el rasgo más definitorio de nuestra especie, no somos el pináculo de nada. Pudimos idear y fabricar dispositivos que levantan miles de veces más peso que nosotros, artefactos capaces de volar y cruzar océanos y continentes o llevarnos a la luna. Si hemos podido construir máquinas con la capacidad de superarnos en todos estos aspectos, ¿por qué no sería posible fabricar otras que superen nuestra inteligencia general?

La IA es una tecnología muy diferente de todas las que hemos inventado hasta ahora. En primer lugar, por el método que usamos para construirla. Para hacer, por ejemplo, la bomba atómica, debemos primero entender de manera muy precisa el proceso de fisión nuclear. ¿Cómo desatar a voluntad una reacción en cadena? ¿De qué manera se detiene? Al lanzar la primera bomba sobre Hiroshima, el gobierno de los Estados Unidos podía delimitar la extensión del hongo nuclear. Su efecto, tremendamente destructivo y nocivo, había sido estimado con bastante precisión.

A la IA, en cambio, estamos llegando por un camino muy distinto. No logramos entender aún los mecanismos que dan origen a la inteligencia biológica, y muchísimo menos a la conciencia. Es como si estuviésemos fabricando una bomba nuclear con una compresión muy precaria de la física del núcleo y de las partículas elementarles. Y así, la explosión de esta <<bomba de inteligencia>> puede extenderse en formas que nos son casi imposibles de pronosticar. La IA es un experimento en tiempo real en el que participa, con o sin consentimiento, toda la población mundial. Ya vimos como el GPT fue un experimento que desarrolló habilidades que ni siquiera sus creadores fueron capaces de imaginar. La inteligencia artificial sale de la circularidad previsible de las máquinas y se inserta, de pleno, en lo imprevisible, en lo que siempre ha sido territorio de la polis, el lugar más selecto del devenir humano.

Una inteligencia no es una herramienta inerte, como un avión o una bomba. Por su propia naturaleza, es dinámica y puede tener agencia. Puede aprender sin que nadie le enseñe, es capaz de planificar y establecer metas intermedias para alcanzar los fines que persigue, tiene la posibilidad de tomar decisiones que tienen un efecto real sobre el mundo y sobre su propia estructura y podría, eventualmente, realizar copias idénticas o modificadas de sí misma. Aun sin serlo, reúne casi todas las condiciones de un ser vivo: es un ente con intención, que trabaja activamente y consume energía para lograr un objetico con cierta planificación. También tiene personalidad; dos instancias de una misma IA, con ligeros cambios arbitrarios en sus parámetros pueden dar lugar a ideas y comportamientos muy distintos. Una inteligencia artificial puede programarse a sí misma, y reproducirse. Podría incluso tener <<sexo digital>>, combinándose con otras inteligencias para mezclar sus identidades.

No hay comentarios:

analytics