10 de las empresas ya la han incorporado en 2023, frente al 1,4% de las empresas que la utilizaban en 2021. Sin embargo, su nivel de incorporación es todavía superior en las grandes empresas. Los datos de la encuesta de BCG, Build for the future Gen AI C-level muestran que el 50% de las grandes compañías ya está realizando pruebas piloto con IA generativa y el 10% está en fase de escalado. La incorporación de la IA generativa continuará durante los próximos años, puesto que el 89% de los directivos la colocan como una de sus tres prioridades tecnológicas. Sin embargo, los retos para escalarla son: la falta de talento (62% de los encuestados); la inexistencia de una hoja de ruta (47%) y de una estrategia para su uso responsable (42%). La implementación de la IA presenta una serie de beneficios muy relevantes, para las empresas, el individuo y la sociedad en general, principalmente elevando la productividad y, por ende, el crecimiento económico. Sin embargo, la IA también cuenta con una serie de riesgos asociados a su uso, como unos resultados de los outputs de los modelos de IA sesgados sin motivo aparente, violación de privacidad, no explicabilidad, actuando como una “caja negra”, o alucinaciones. La estrategia de mitigación de los riesgos pasa por el despliegue e incorporación de una IA responsable. Organizaciones como el Foro Económico Mundial, la OCDE, el Banco Interamericano de Desarrollo, ya han comenzado a generar una definición de la IA responsable, mientras que instituciones como el Responsible Artificial Intelligence Institute o Adigital están creando componentes fundamentales para la creación de un marco y evaluar si se están aplicando de forma correcta los principios de una IA responsable. El gobierno de España también ha lanzado su Estrategia Nacional de IA para promocionar el desarrollo de una IA inclusiva, sostenible y centrada en la ciudadanía. El proceso de incorporación en el modelo de negocio de la IA responsable es un proceso holístico, de transformación profunda y constante. Es necesario definir una estrategia que imponga los principios que guiarán a las compañías, establezca un modelo de gobierno claro, con roles, responsabilidades y controles para verificar su cumplimiento, desarrolle nuevos procesos, eleve las capacidades tecnológicas y la estrategia de datos y fomente una cultura top-down de comunicación y de incorporación de los principios de IA responsable. La IA responsable no es solo una cuestión ética que coloca al ser humano en el centro de las decisiones sino que también institucionaliza y normaliza el uso de la IA como tecnología preponderante para el desarrollo de la digitalización; aumenta la competitividad por el cumplimiento temprano de la regulación; mejora la rentabilidad, puesto que está íntimamente ligada a los criterios de sostenibilidad que buscan un desarrollo que tenga en cuenta criterios medioambientales, sociales y de buen gobierno; mejora la imagen de marca y optimiza la captación y retención del talento. Regulación como nueva frontera de la digitalización La competencia por la digitalización se disputa en un escenario global, donde tanto la Unión Europea, como EE UU o China están realizando un gran esfuerzo para transformar sus economías y hacerlas más digitales mediante el uso de nuevas tecnologías. En este empeño digitalizador la regulación juega un papel clave como catalizador del crecimiento, aunque su peso será más o menos relevante en función del mercado que se esté analizando. Europa es donde
RkJQdWJsaXNoZXIy Njg1MjYx