Sobre si el robot comprende
La inteligencia artificial sobrepasa ya las capacidades de memoria y cálculo de los humanos. Pero en cierto sentido es estúpida: depende de las instrucciones que le demos, esquiva siempre lo raro y es inhábil para afrontar situaciones radicalmente nuevas.
La inteligencia artificial y sus algoritmos no sienten, no tienen conciencia moral, no comprenden. A su manera, «entienden», tienen entendimiento porque son inteligencia. Pero otra cosa es «comprender». Comprender es más profundo, abarcador y versátil que entender. Gracias a ello podemos formular juicios, y hasta juzgar sobre los propios juicios, como hace la conciencia moral. Un humano sí comprende, y comprende que comprende, y comprende esto último también. ¿Qué robot tiene toda esa facultad de reflexividad? La máquina piensa, y puede llegar a pensar sus pensamientos. Pero ¿pensará sobre el hecho mismo que piensa? ¿juzgará y se juzgará a sí misma?
No estamos pues, en condiciones para sostener que un robot comprende. «Deep Blue», el computador que en 1997 ganó la partida de ajedrez al campeón mundial Garry Kasparov, no debió comprender la zozobra y la decepción de su rival, ni seguramente el significado de su propio triunfo. Kasparov dijo: «Comprendí que la máquina no calculaba, pensaba». Pero la máquina no «comprendía», eso que de ella decía el ajedrecista. Ni siquiera «pensaba», porque hay una enorme diferencia entre calcular y pensar, entre entender y comprender. Comprender, pensar, está lleno de facetas, entre sensitivas, emocionales y conceptuales, que un programa no puede recoger. La idea de esta superioridad es compartida por la mayoría de los creadores de inteligencia artificial.
Consideremos, por ejemplo, la relación de la inteligencia artificial con la medicina. Ordenadores, robots y otros dispositivos tienen cada vez mayor protagonismo en el cuidado del mayor de los bienes de las personas: su vida. ¿Hasta qué punto debe mandar la máquina sobre el individuo, en aspectos cruciales de este como la vida, la salud y sus condiciones básicas de existencia? En la medicina no se juegan solo estos elementos físicos. Se implican también la dignidad, libertad y derechos del paciente. En el ámbito de la sanidad, la inteligencia artificial computa datos, sostiene actividades diagnósticas, realiza intervenciones clínicas y permite estrategias de comunicación en red (Fosch-Villaronga, 2020). La telemedicina es una actividad en aumento. Por no hablar, en otro aspecto, de la posible instalación de chips o microscópicos robots en el cerebro que ayuden, por ejemplo, a la sinapsis neuronal. De hecho, la información sobre el genoma y la salud generada por un individuo a lo largo de la vida puede llegar a superar los 1.000 terabytes. El conocimiento y la gestión de todos estos datos han experimentado un cambio radical a raíz de la tecnología digital.
Pero, mientras tanto, no se olvide que la tecnología también toma decisiones, de principio a fin, en el proceso del cuidado sanitario de cada persona. Con lo cual es exigible que haya una buena praxis en la programación e instrumentación tecnológicas de este cuidado. Cada paciente es diferente y las enfermedades y su prevención presentan igualmente múltiples variaciones, por ejemplo, en el caso de las consideradas enfermedades minoritarias. Es casi inevitable que un robot no pueda controlar todas estas variables, incluidas las sociales y culturales del paciente, y que un programa deficiente o una mala monitorización del hardware lleguen a perjudicar al enfermo tanto en su estado físico como en sus derechos. Imaginemos asimismo las consecuencias de un ciberataque o de una escasa ciberseguridad en las personas, pero también en todo el sistema sanitario. No podemos, pues, apartar la mirada sobre el robot encargado de nuestra salud, a fin de que no la complique y que la resuelva mejor o por lo menos tan bien como lo haría un sujeto humano preparado y responsable.
Continúan siendo válidas, a nuestro parecer, las tres leyes de conducta del robot según el bioquímico y escritor Isaac Asimov: 1) Un robot no hará nunca daño a un humano; 2) un robot obedecerá siempre a un ser humano, excepto que ello contradiga la primera ley; y 3) un robot protegerá siempre su propia existencia, excepto si contradice la primera y la segunda ley. Permanece abierta a la crítica la fabricación de armas, que se hace ya gracias a la inteligencia artificial, y debería seguir haciéndose dicha crítica. Pero, además, habría que acompañar a esta censura el rechazo de usar la inteligencia artificial como arma. El mismo robot como arma. El soldado robot puede matar a otros robots, pero también a seres humanos, y con eficacia y mortandad superior a como lo haría un humano soldado. Peor que matar borracho o por un ataque de ira, el robot matará fríamente según un programa diseñado para matar. En la película Star wars el robot C3PO despliega ansiedad y dudas, pero ello permanece hoy como un ficción.
No parece equivocado pensar que en el futuro las armas, grandes o pequeñas, para la guerra o para la defensa personal, serán robots, mucho más baratos y eficaces que la producción, compra y uso de los misiles y armas de fuego actuales. La muerte del enemigo podrá ser a distancia, fácil y anónima, quizá mediante un teléfono «inteligente>» o aparato similar. Se estará, pues, a un paso de matar solo con el pensamiento [...]
Ambivalencia del progreso
Cabe entonces alejarse de la visión utópica del progreso igual que de la visión distópica de este. La visión centrada suele ser la mejor. Cuanto más conocemos a los hombres más admiramos aquella firme propuesta de Aristóteles: elegir el justo medio. El único extremo que no corre riesgos de equivocarse y hacer daño es el del término medio.
Si pensamos en el progreso tecnológico, el justo medio en nuestra gama de actitudes podría consistir en asumir los siguiente. 1) Pesar que la innovación no es en sí misma ni indiscutible buena ni necesariamente mala. Va a depender de sus fines, sus medios y, en definitiva, de la aplicación de sus resultados. 2) Pesar que la innovación puede hacernos avanzar hacia lo bueno o mejor, pero también hacia lo malo o peor. 3) Pensar que la innovación puede representar, al mismo tiempo, y según el mismo juicio moral, un progreso y un retroceso. En el plano de la ética, no estamos acostumbrados a pensar, ni nos apetece hacerlo, que se pueda avanzar a la vez que se camina hacia atrás. Pero eso es una realidad. Los misiles supersónicos usados en la guerra de Ucrania son un progreso material y un retroceso moral, también de consecuencias materiales [...]
Conclusión
El problema de la relación entre los usos de la inteligencia artificial y la ética no se localiza en el hecho de debatir sobre la conveniencia de las directrices morales. Tampoco en el hecho de ponerse de acuerdo sobre cuáles han de ser dichas pautas y en qué orden de importancia han de constar.
El verdadero problema, vista la experiencia de ello, estriba en el hecho de respetar en la práctica las regulaciones que nosotros mismos nos hemos dado, y colgado de dicho problema, el de hallar la forma de garantizar este respeto. En otras palabras, lo difícil y costoso no es la assumption de una normativa ética, sino el commitment o compromiso efectivo de ella. Pues no basta con adherirse a la norma, sino que hay que obedecerla, manteniendo una lealtad a las líneas reguladoras de la conducta.
Hemos tocado, pues, el aspecto más decisivo de la ética de la inteligencia artificial: la implementación de la regulación moral de la tecnología. Es decir, pasar de los valores abstractos a la aplicación técnica de estos. Lo cual exige: una compliance efectiva, códigos éticos claros y explícitos, comités de ética independientes y eficaces, y, a la postre, la conversión de la regulación ética en una norma legal (Shelton,2003). ¿Quién ha de gobernar la tecnología? Puede ser esta la definitiva pregunta. La respuesta debería ser: todos. En una democracia: el parlamento, el gobierno y los jueces, más el juicio moral de cada ciudadano.
La inteligencia artificial supone, en resumen, un reto de intensidad creciente a la inteligencia natural. El impacto de sus aplicaciones sobre la sociedad y el propio individuo es un hecho evidente e inevitable en todo momento. Sin embargo, la rápida evolución de la ciencia y la tecnología en torno a la inteligencia artificial contrasta con la lentitud con que se desarrollan los hábitos y las creencias (los «valores») de toda época innovadora en el conocimiento (Bilbeny, 1997). Para una mente científica y a la vez sociable, las señales más preocupantes de este desfase se dejan notar progresivamente en el uso social e individual de las tecnologías derivadas de la aplicación de la inteligencia artificial.
Es preocupante que este uso se haga muchas veces de forma irresponsable y se vulneren aspectos tan esenciales para la vida social y personal como la libertad y el derecho a la intimidad, o la garantía de la seguridad física y jurídica, elementos necesarios para un desarrollo justo y sostenible, además de eficaz. Es obvio que la inteligencia artificial por sí misma no resolverá el problema, porque ni siquiera puede planteárselo: es un problema filosófico. Depende de nuestra inteligencia natural y de su poder y deber de reflexión sobre las consecuencias presentes o futuras de cualquier forma de actividad que dependa del ser humano. Y todo depende de las ideas y las órdenes de este.
Por lo expuesto hasta aquí, conviene sin demora formalizar y poner en activo un foro científico y humanístico para dilucidar y fijar los requisitos éticos y jurídicos fundamentales pata un uso responsable de los programas y las aplicaciones de la inteligencia artificial. Se trata de intentar el establecimiento de unas normas universales, interculturales y jurídicamente vinculantes que impidan la creación de un mundo inseguro e infeliz por medio de objetivos que deberían haber sido evitados.
* Bilbeny, Norbert (La justicia como cuidado de la existencia)
* Bilbeny, Norbert (La vida avanza en espiral) Conversaciones sobre...
* Bilbeny, Norbert (La vida avanza en espiral) Conversaciones sobre...
* Bilbeny, Norbert (Moral barroca) Pasado y presente de una gran soledad
No hay comentarios:
Publicar un comentario