45 INTELIGENCIA ARTIFICIAL El informe, titulado Large Language Models: Opportunity, Risk and Paths Forward, muestra los resultados de una encuesta realizada el pasado mes de abril entre más de 300 expertos en IA de empresas, proveedores tecnológicos y personal académico para identificar los riesgos asociados a la implantación de los LLM en las compañías en materia de sostenibilidad, responsabilidad social y gobernanza (ESG, por sus siglas en inglés).. “En los últimos años, modelos LLM como GPT, Bert o T5 han demostrado capacidades inimaginables hasta ahora”, explica Elisa Martínez Frade, vicepresidenta de Ventas de Expert.ai para Iberia y Latinoamérica. “Sin embargo, también existen desafíos, muchos de ellos directamente relacionados con la gobernanza y el cumplimiento”. En marzo de 2023, líderes de la industria, investigadores y otros expertos en IA firmaron una carta abierta en la que pedían una “pausa” de seis meses en el desarrollo de IA a gran escala más allá del GPT-4. argumentando que el uso de IA debería ser “transparente, explicable y empíricamente sólido, fomentando la responsabilidad”, y que GPT-4 “no cumple ninguno de estos requisitos, ya que es parcial, engañoso y un riesgo para la privacidad y la seguridad pública”. Dos de cada tres expertos en IA son partidarios de una regulación gubernamental inmediata para el desarrollo de los grandes modelos lingüísticos (LLM)
RkJQdWJsaXNoZXIy Njg1MjYx