2 de cada 3 expertos en IA, partidarios de una regulación inmediata para el desarrollo de los grandes modelos de lenguaje
Dos de cada tres expertos en Inteligencia Artificial (IA) son partidarios de una regulación gubernamental inmediata para el desarrollo de los grandes modelos lingüísticos (LLM), si bien en su mayoría no consideran necesaria una moratoria para seguir desarrollando esta tecnología. Así lo refleja el último informe de Expert.ai, multinacional especializada en inteligencia artificial (IA) para la comprensión del lenguaje natural.
El informe, titulado Large Language Models: Opportunity, Risk and Paths Forward, muestra los resultados de una encuesta realizada el pasado mes de abril entre más de 300 expertos en IA de empresas, proveedores tecnológicos y personal académico para identificar los riesgos asociados a la implantación de los LLM en las compañías en materia de sostenibilidad, responsabilidad social y gobernanza (ESG, por sus siglas en inglés)..
“En los últimos años, modelos LLM como GPT, Bert o T5 han demostrado capacidades inimaginables hasta ahora”, explica Elisa Martínez Frade, vicepresidenta de Ventas de Expert.ai para Iberia y Latinoamérica. “Sin embargo, también existen desafíos, muchos de ellos directamente relacionados con la gobernanza y el cumplimiento”.
En marzo de 2023, líderes de la industria, investigadores y otros expertos en IA firmaron una carta abierta en la que pedían una “pausa” de seis meses en el desarrollo de IA a gran escala más allá del GPT-4. argumentando que el uso de IA debería ser “transparente, explicable y empíricamente sólido, fomentando la responsabilidad”, y que GPT-4 “no cumple ninguno de estos requisitos, ya que es parcial, engañoso y un riesgo para la privacidad y la seguridad pública”.
Preguntados sobre esto, más de la mitad de los participantes (52,2%) afirmó que no es necesaria la moratoria de 6 meses en el desarrollo de los LLM, pero más del 70% están a favor de una regulación gubernamental inmediata para lidiar con el uso malicioso de la IA generativa y promover su adopción en las organizaciones.
Principales desafíos
El informe de Expert.ai incluye una pregunta específica en cuanto a los principales hándicaps y desafíos que se encuentran actualmente a la hora de explotar los LLM. Los encuestados consideran aspectos como la falta de veracidad, los sesgos en la interpretación y el manejo de propiedad intelectual como los principales retos a los que se enfrentan a la hora de evolucionar.
• La principal preocupación entre los profesionales es la falta de veracidad (69,8%). Un buen ejemplo son las alucinaciones, proceso por el cual el LLM genera texto sin basarse en conocimientos o experiencias del mundo real, lo que le lleva a inventar o fabricar respuestas ficticias o imposibles.
• En segundo lugar, los encuestados señalan que los modelos de IA generativa como GPT a menudo presentan una gran falta de precisión, e incluso pueden llegar a presentar como hechos informaciones falsas o sesgadas (67,3%). Forrester Research llama a esto “sinsentidos coherentes”.
• Por detrás se coloca la lucha contra las ciberamenazas (phishing, fraude, ingeniería social…), factor señalado por el 61,1% de los encuestados.
• Un 59,3% citó como riesgo el hecho de que muchos LLM están formados en base a grandes franjas de información protegida por derechos de autor, lo cual puede dar lugar a filtraciones.
Otra de las cuestiones clave planteadas en la encuesta es la forma en que el uso de LLMs impactará en la política de gobernanza de la organización, y cómo debe trasladarse a los empleados por lo que respecta a su utilización. La respuesta mayoritaria entre los profesionales de la IA (38,8%) fue que se debe controlar su uso, pero aplicando un cierto grado adicional de libertad, mientras que un 24% indicó que se deben implementar restricciones.