FM21

31 INTELIGENCIA ARTIFICIAL Hubo un antes y un después de que un pulgar (humano, por cierto) accio- nara aquel botón sobre el cielo de Hiroshima y Nagasaki. Muchos de aquellos jóvenes e ilusionados cien- tíficos compresiblemente cegados por la oportunidad de desarrollar una nueva tecnología revolucionaria, en un particular contexto histórico, han declarado años después sus remordi- mientos por las consecuencias de su participación en el ProyectoManhattan; algunos de ellos dedicaron su vida a la lucha antiarmamentística –no así el director científico del proyecto, que nunca admitió públicamente arrepentimiento aduciendo las muer- tes evitadas ‘gracias’ a la masacre–. La comunidad científica tiene muy clara su responsabilidad desde enton- ces (y otros precedentes en el ámbito de las armas químicas y bacteriológi- cas) sobre cómo y para qué va a ser utilizado un nuevo descubrimiento o desarrollo. Investigadores en IA de todo el mundo firmaron, ya en 2015, un documento en el que advertían: “no participaremos ni apoyaremos el desarrollo, la fabricación, el comercio o el uso de armas autónomas leta- les”. El universo de posibilidades y la impregnación a todos los niveles que va a suponer la expansión de la IA nos coloca ante nuevos retos y también ante nuevos dilemas que nos sumer- gen de lleno en cuestiones esenciales sobre la naturaleza humana. Hoy es la ciencia, precisamente, la que aboga por una reflexión huma- nística, e interpela a la sociedad y a sus legisladores sobre la importan- cia de garantizar que en el proyecto de diseñar en su conjunto el mundo robotizado que está por llegar sea preservada y potenciada la esencia de nuestra humanidad. Y es que el último nivel de la IA es la llamada autoconciencia. Pero vayamos por partes, porque en la actualidad todos los sistemas de inteligencia artificial que existen están muy lejos de pare- cerse a ‘Skynet’, con acceso ilimitado a datos y sistemas, control absoluto de los mismos y libertad para tomar deci- siones a su criterio. Lo cual podría ser peligroso para los humanos. O no. No olviden la sensata –y lógica– respuesta de aquella inteligencia artificial cine- matográfica que allá por los ochenta concluía que, cuando se trata de ‘ jue- gos de guerra’, “el único movimiento para ganar es... no jugar” (después de ser programada para jugar en bucle al tres en raya contra sí misma –ya en 1952 Arthur Samuel creó el pri- mer software capaz de aprender, un programa que jugaba a las damas mejorando tras cada partida—). Aunque el imaginario popular asocia la inteligencia artificial a la idea de robots humanoides deambulando en nuestros entornos, lo cierto es que esta tecnología, invisible y silenciosa, ya está entre nosotros y la usamos sin saberlo. Desde la revolución digi- tal (o Tercera Revolución Industrial), y especialmente desde la irrupción de internet, la tecnología ha sido un chiquillo asalvajado, que campa a sus anchas, no obedece normas y carece de sentido de la responsabilidad. Pero los cambios socioeconómicos y en la vida de las personas que traerá la Cuarta Revolución Industrial, van a requerir una planificación de enver- gadura sin igual. El futuro no se puede dejar al azar. Hacerlo podría cambiar el curso de la evolución. Utilizar las Algoritmos para la ética. Si, como decía Stuart Mill, la moral es un componente de la razón, entonces sería posible programar a las máquinas explícitamente con unos principios éticos o filosofía moral (estrategia top-down), por otra parte, difícil de consensuar a escala planetaria. No está claro que la ética y el sentido común se puedan descomponer en una secuencia lógica. La otra opción (bottom-up) es no ‘decirles’ nada y que aprendan a aplicar criterios éticos en sus decisiones observando el comportamiento humano a lo largo tiempo.

RkJQdWJsaXNoZXIy Njg1MjYx