Entrevista a José Ignacio Latorre, físico, profesor universitario, investigador y divulgador científico
El sector industrial lleva décadas mejorando la automatización de sus procesos con programas que realizan eficientes operaciones de datos, optimizando así su producción o su logística, por ejemplo. Hoy está incorporando sistemas de IA, que pasan de operar datos a analizarlos para ofrecer una propuesta de acción que no les ha sido explícitamente programada. ¿Cómo se consigue esta nueva manera de procesamiento de datos, y qué viene a aportar este cambio de paradigma a las empresas que la adopten?
A lo largo del siglo XX hemos aprendido a aprender de forma automatizada. En varias décadas de progreso en inteligencia artificial hemos creado tecnología, como es el aprendizaje supervisado, el no supervisado o el basado en el refuerzo. Ahora tenemos redes neuronales adversarias que se entrenan mutuamente para aprender más allá de lo que un humano les pueda enseñar. Ha sido un camino lleno de tropiezos y éxitos. El resultado es impresionante. La pregunta no es si una empresa ha de optar por incluir inteligencia artificial, sino si muchas de las empresas existentes tienen, o tendrán, sentido en una sociedad íntimamente controlada por entes artificiales.
El progreso tecnológico es una marea silenciosa. Aquellas empresas más ágiles, sean del sector que sean, tendrán éxitos superiores a su competencia. No hay vaquerías en las ciudades, ni videoclubs, ni carros o caballos, como los hubo hace un siglo. La velocidad de progreso es impresionante. Mi consejo es que todos debemos abandonar nuestros prejuicios y comprender la ciencia y la tecnología que se deriva, de forma no sesgada y sin agendas.
¿Hasta qué punto la estrategia que adopte cada país con respecto a la inversión y el desarrollo de la IA y otras tecnologías avanzadas condicionará su futuro? A usted le encargó el gobierno de Abu Dhabi liderar un proyecto sin precedentes: construir la primera computadora cuántica de EAU, colocándole al frente del Centro de Investigación Cuántica del Instituto de Innovación Tecnológica. ¿Cómo valora esta apuesta y su experiencia de trabajo allí? ¿Y cuéntenos cómo va el proyecto del ordenador cuántico?
Sí, el gobierno de Abu Dhabi me encargó crear el primer ordenador cuántico del mundo árabe. Es un reto fenomenal. No existe una verdadera cultura científica en los Emiratos. Pero existirá en pocos años. Muchos son los países que avanzan con paso muy firme: Israel, Corea del Sur, Singapur. Otros se retuercen en su propia burocracia y discusiones de tertulia. Nuestro proyecto avanza de forma firme, en colaboración con investigadores en Barcelona. La ciencia tiene sus tiempos, ajenos a las estridencias mediáticas. Soy partidario de la humildad inmediata, compatible con la ambición de largo plazo.
Usted es socio y fundador de la spin-off Qilimajaro Quantum Tech, que ofrece servicios de optimización de procesos basados en tecnología cuántica ¿qué tipo de proyectos les están encargando?
Qilimanjaro tiene por objetivo construir ordenadores cuánticos útiles. Es un gran reto. Debemos construir chips basados en corrientes superconductoras, colocados a 10 miliKelvin, donde mantienen su coherencia cuántica. También creamos el stack de programación llamado Qibo. Por separado desarrollamos algoritmos cuánticos. En mi opinión, la computación cuántica debe comprenderse de forma coordinada. Es un ataque completo al paradigma clásico de computación. Sabemos que es posible; ahora toca hacerlo. En este momento la inteligencia artificial y la computación cuántica se están combinando para crear computación hibrida. Este esfuerzo tendrá, sin duda, impacto en el sector farmacéutico en todos sus ámbitos: química cuántica, desarrollo de medicamentos, optimización de procesos, predicción..., todo lo calculable será mejorado.
¿Nos encontramos en el punto en que para avanzar en IA hay que focalizarse en la fase de entrenamiento de estos s robots para que sean verdaderamente inteligentes? ¿Por qué es tan importante esta cuestión y cómo se entrenan estos sistemas?
Nuestros sistemas son más inteligentes de lo que la gente cree. Han sustituido el criterio humano en innumerables ámbitos de decisión. Pero tan pronto como un ordenador logra superar a los humanos en una tarea, de inmediato cuestionamos su capacidad de resolver algo más difícil. La ciencia tiene paciencia. Vencerá cualquier obstáculo. No lo duden, la inteligencia artificial llegará a ser brutal, la tendremos que reprimir con leyes. El énfasis en robots es de poca importancia comparado con el universo de aplicaciones algorítmicas que se están desarrollando. Es mucho más interesante el progreso alcanzado en aplicaciones del procesamiento del lenguaje natural.
¿Cómo progresará la IA en los próximos años?, en particular, ¿qué podrá hacer la inteligencia artificial a corto y medio plazo para mejorar la salud humana?
Como tantos otros campos, el mundo de la salud ha pecado de menospreciar el mantener grandes bases de datos depuradas. Poco a poco, ese retraso se ha ido paliando. En primer lugar, la minería de datos hará su buen papel. Luego llegarán algoritmos más sofisticados. Más adelante el progreso se acelerará. Programas hablarán con programas, se cruzarán todo tipo de algoritmos y datos. Estamos viviendo la infancia de la inteligencia artificial. En el caso de la salud, todavía estamos en la cuna.
Uno de los mayores retos de la ciencia, si no el mayor, es comprender el funcionamiento del “órgano rey”, el cerebro. La IA avanzada busca los patrones de funcionamiento del cerebro humano para forjarse a su imagen y semejanza. ¿Existe consenso en seguir el modelo de redes neuronales a pesar del desconocimiento que todavía hay sobre los complejos procesos cerebrales? En un futuro ¿podría, paradójicamente, ser una IA la que nos explique cómo funcionamos, porqué somos como somos y, en definitiva, qué o quiénes somos?
Sin duda. La inteligencia artificial ya está asistiendo a los humanos en la propia investigación de muchas disciplinas. Una antena no se diseña, se deja en manos de un algoritmo genérico. Y esa antena nos envía los datos que recoge una sonda espacial, controlada a su vez por sofisticados algoritmos. Imaginen cualquier futuro, y se quedarán cortos. El órgano rey será comprendido, será simulado, será superado.
¿Cómo funciona en la actualidad y como debería evolucionar el aprendizaje automático, en el que el algoritmo aprende de la experiencia, y sobre todo de los errores, para hacer realidad lo que ha venido a llamarse una IA fuerte, una superinteligencia que decida por sí misma? Un reto al respecto serían las consecuencias de delegar en las máquinas el desarrollo de nuevos conocimientos y de determinados procesos cerebrales; la evolución de la máquina ¿puede conllevar la involución de algunas de las capacidades humanas?
Todo progreso científico redunda en instrumentos que nos superan. Ya no levantamos pesos y nuestros cuerpos son más débiles que en milenios anteriores. Ya no calculamos y necesitamos de máquinas para dividir por 7. La inteligencia artificial producirá una debilitación de nuestra capacidad de alcanzar decisiones correctas. Los humanos estamos predispuestos a delegar nuestras decisiones. Pocos aman la responsabilidad, que implica decidir. Incluso preferimos que un algoritmo nos escoja pareja a intentar una aproximación humana directa. Sin duda, la mayoría se volcará en más entretenimiento banal. No es un escenario muy halagüeño, pero creo que es inevitable.
Ahora que ya hemos visto que la tecnología sigue su curso, y su expansión y evolución es imparable, emergen nuevos factores a tener en cuenta, como la necesidad de legislar en un sinfín de cuestiones o de priorizar el factor ético a la hora de programar los algoritmos para que no tengan los mismos sesgos que los humanos. ¿Cuáles cree que serán los primeros asuntos sobre los que se harán necesarias nuevas leyes? Y ¿cómo se logra el comportamiento ético de las máquinas?, ¿también legislando? En esta tarea de desarrollar máquinas que evolucionen siguiendo directrices basadas en valores universales, ¿qué papel jugarán los programadores, las corporaciones y los gobiernos?
Existen iniciativas en la UE y en USA para establecer límites a la inteligencia artificial. No existe consenso en cómo proceder. La UE es mucho más garantista que el resto del planeta e intenta avanzar lentamente. Los programadores y las corporaciones deben seguir comportamientos éticos establecidos por las leyes aprobadas en los parlamentos. El camino democrático es el único transitable. Toda corporación debe ser responsable. Si no lo es, será penalizada muy fuertemente. Necesitarán legislación urgente la asistencia artificial a mayores, la educación artificial a niños, las flotas de coches autónomos, los asistentes a jueces, a doctores. El Deep Fake requiere un esfuerzo legal colosal.
Plantea en su libro Ética para máquinas, un interesante tema sobre la necesidad de que una IA superior, que acabará por tener el control y será capaz de tomar las mejores decisiones y de reproducirse a sí misma mejorada en cada generación, sea programada con un “ingrediente” muy particular: la condescendencia. La racionalidad absoluta implicaría que, por lógica, los humanos fuéramos eliminados, a la vista de nuestras perniciosas acciones sobre la vida del planeta. ¿Cómo se programa una máquina para que sea comprensiva y compasiva con los seres imperfectos que, en el origen, la crearon? Un ente artificial inteligente, justo y compasivo, ¿es posible?
Sí, lo creo firmemente. La violencia es un vestigio que arrastramos de nuestros orígenes. Poco a poco pierde fuelle. Todas las sociedades evolucionadas tienden a la pacificación, al estudio del arte, de la justicia social. Sé que mucha gente lo duda. Por favor, lean a Pinker y a tantos otros que intentan evitar el sesgo del momento actual. Cuidamos de nuestros mayores, votamos políticas de ayudas que nos devuelven sentido como especie ética. Así también operaremos en el caso de la inteligencia artificial, que asumirá estos principios más allá de lo programable.
En las últimas semanas he estado leyendo su libro; disfruté haciéndolo, su lectura me ha brindado momentos ciertamente gratificantes. ¿Cree que ese y otros placeres serán, algún día, experimentados por un soporte artificial? ¿Eso significaría que las máquinas habrían alcanzado la autoconciencia? ¿Qué diría a aquellos que piensan que no pasaremos de la llamada “IA débil”, que una superinteligencia autónoma generalista es una utopía? En definitiva, una inteligencia artificial superior con conciencia propia ¿es posible, es deseable o, sencillamente, es inevitable?
De verdad creo que la inteligencia artificial alcanzará niveles sobrehumanos. Basta observar el recorrido científico de los últimos siglos para comprender que todos los obstáculos imaginados han sido superados. No creo que el camino de la complejidad computacional, que es lo que está en el corazón de la inteligencia, sea algo diferente. Hay quién dijo que no volaríamos, que no curaríamos un sinfín de enfermedades, que no clonaríamos a seres vivos, que no dominaríamos al átomo, que bastaban unos pocos ordenadores para toda la Tierra. Los humanos siempre hemos operado como seres profundamente egocéntricos y sin aceptación del cambio. La Tierra era el centro del universo, luego lo fue el Sol. Ahora el centro de todo es cerebro humano. Será otro bastión que conquistaremos. La ciencia tiene paciencia.
Reflexiones del profesor Latorre, en diez frases
“Imaginen cualquier futuro y se quedarán cortos. El órgano rey será comprendido, será simulado, será superado”
“La inteligencia artificial producirá una debilitación de nuestra capacidad de alcanzar decisiones correctas”
“La IA y la computación cuántica se están combinando para crear computación hibrida. Ello tendrá un impacto en el sector farmacéutico en todos sus ámbitos: química cuántica, desarrollo de medicamentos, optimización de procesos, predicción..., todo lo calculable será mejorado”
“La violencia es un vestigio que arrastramos de nuestros orígenes. Poco a poco pierde fuelle. Todas las sociedades evolucionadas tienden a la pacificación, al estudio del arte, de la justicia social”
“Necesitarán legislación urgente la asistencia artificial a mayores, la educación artificial a niños, las flotas de coches autónomos, los asistentes a jueces, a doctores... El Deep Fake requiere un esfuerzo legal colosal”
“Pocos aman la responsabilidad, que implica decidir. Incluso preferimos que un algoritmo nos escoja pareja a intentar una aproximación humana directa. Sin duda, la mayoría se volcará en más entretenimiento banal. No es un escenario muy halagüeño, pero creo que es inevitable”
“La ciencia tiene sus tiempos, ajenos a las estridencias mediáticas. Soy partidario de la humildad inmediata, compatible con la ambición de largo plazo”
“Estamos viviendo la infancia de la inteligencia artificial. En el caso de la salud, todavía estamos en la cuna”
“El progreso tecnológico es una marea silenciosa”