Actualidad Info Actualidad

Más de la mitad de los encuestados consideran innecesaria una moratoria en el desarrollo de los sistemas de este tipo

2 de cada 3 expertos en IA, partidarios de una regulación inmediata para el desarrollo de los grandes modelos de lenguaje

Redacción Interempresas29/08/2023

Dos de cada tres expertos en Inteligencia Artificial (IA) son partidarios de una regulación gubernamental inmediata para el desarrollo de los grandes modelos lingüísticos (LLM), si bien en su mayoría no consideran necesaria una moratoria para seguir desarrollando esta tecnología. Así lo refleja el último informe de Expert.ai, multinacional especializada en inteligencia artificial (IA) para la comprensión del lenguaje natural.

Imagen

El informe, titulado Large Language Models: Opportunity, Risk and Paths Forward, muestra los resultados de una encuesta realizada el pasado mes de abril entre más de 300 expertos en IA de empresas, proveedores tecnológicos y personal académico para identificar los riesgos asociados a la implantación de los LLM en las compañías en materia de sostenibilidad, responsabilidad social y gobernanza (ESG, por sus siglas en inglés)..

“En los últimos años, modelos LLM como GPT, Bert o T5 han demostrado capacidades inimaginables hasta ahora”, explica Elisa Martínez Frade, vicepresidenta de Ventas de Expert.ai para Iberia y Latinoamérica. “Sin embargo, también existen desafíos, muchos de ellos directamente relacionados con la gobernanza y el cumplimiento”.

Imagen

En marzo de 2023, líderes de la industria, investigadores y otros expertos en IA firmaron una carta abierta en la que pedían una “pausa” de seis meses en el desarrollo de IA a gran escala más allá del GPT-4. argumentando que el uso de IA debería ser “transparente, explicable y empíricamente sólido, fomentando la responsabilidad”, y que GPT-4 “no cumple ninguno de estos requisitos, ya que es parcial, engañoso y un riesgo para la privacidad y la seguridad pública”.

Preguntados sobre esto, más de la mitad de los participantes (52,2%) afirmó que no es necesaria la moratoria de 6 meses en el desarrollo de los LLM, pero más del 70% están a favor de una regulación gubernamental inmediata para lidiar con el uso malicioso de la IA generativa y promover su adopción en las organizaciones.

Imagen

Principales desafíos

El informe de Expert.ai incluye una pregunta específica en cuanto a los principales hándicaps y desafíos que se encuentran actualmente a la hora de explotar los LLM. Los encuestados consideran aspectos como la falta de veracidad, los sesgos en la interpretación y el manejo de propiedad intelectual como los principales retos a los que se enfrentan a la hora de evolucionar.

Imagen

• La principal preocupación entre los profesionales es la falta de veracidad (69,8%). Un buen ejemplo son las alucinaciones, proceso por el cual el LLM genera texto sin basarse en conocimientos o experiencias del mundo real, lo que le lleva a inventar o fabricar respuestas ficticias o imposibles.

• En segundo lugar, los encuestados señalan que los modelos de IA generativa como GPT a menudo presentan una gran falta de precisión, e incluso pueden llegar a presentar como hechos informaciones falsas o sesgadas (67,3%). Forrester Research llama a esto “sinsentidos coherentes”.

• Por detrás se coloca la lucha contra las ciberamenazas (phishing, fraude, ingeniería social…), factor señalado por el 61,1% de los encuestados.

• Un 59,3% citó como riesgo el hecho de que muchos LLM están formados en base a grandes franjas de información protegida por derechos de autor, lo cual puede dar lugar a filtraciones.

Imagen

Otra de las cuestiones clave planteadas en la encuesta es la forma en que el uso de LLMs impactará en la política de gobernanza de la organización, y cómo debe trasladarse a los empleados por lo que respecta a su utilización. La respuesta mayoritaria entre los profesionales de la IA (38,8%) fue que se debe controlar su uso, pero aplicando un cierto grado adicional de libertad, mientras que un 24% indicó que se deben implementar restricciones.

Comentarios al artículo/noticia

Deja un comentario

Para poder hacer comentarios y participar en el debate debes identificarte o registrarte en nuestra web.

Suscríbase a nuestra Newsletter - Ver ejemplo

Contraseña

Marcar todos

Autorizo el envío de newsletters y avisos informativos personalizados de interempresas.net

Autorizo el envío de comunicaciones de terceros vía interempresas.net

He leído y acepto el Aviso Legal y la Política de Protección de Datos

Responsable: Interempresas Media, S.L.U. Finalidades: Suscripción a nuestra(s) newsletter(s). Gestión de cuenta de usuario. Envío de emails relacionados con la misma o relativos a intereses similares o asociados.Conservación: mientras dure la relación con Ud., o mientras sea necesario para llevar a cabo las finalidades especificadasCesión: Los datos pueden cederse a otras empresas del grupo por motivos de gestión interna.Derechos: Acceso, rectificación, oposición, supresión, portabilidad, limitación del tratatamiento y decisiones automatizadas: contacte con nuestro DPD. Si considera que el tratamiento no se ajusta a la normativa vigente, puede presentar reclamación ante la AEPD. Más información: Política de Protección de Datos

REVISTAS

VÍDEOS DESTACADOS

  • MX-System en funcionamiento - Centro de procesamiento de PVC Schirmer

    MX-System en funcionamiento - Centro de procesamiento de PVC Schirmer

TOP PRODUCTS

NEWSLETTERS

  • Newsletter Automatización y Componentes

    20/11/2024

  • Newsletter Automatización y Componentes

    13/11/2024

ENLACES DESTACADOS

Advanced Factories

ÚLTIMAS NOTICIAS

EMPRESAS DESTACADAS

OPINIÓN

ENTIDADES COLABORADORAS

OTRAS SECCIONES

SERVICIOS