Al 89% de los directivos de TI les preocupa el impacto de los fallos de la IA generativa en sus estrategias de ciberseguridad
Sophos ha publicado los resultados de la encuesta 'Más allá del Hype: La realidad empresarial de la IA para la ciberseguridad', en la que han participado 400 responsables de TI. El estudio revela que, a pesar de que el 65% de los directivos de TI ha adoptado funciones de inteligencia artificial generativa (GenAI), el 89% manifiesta su preocupación por los fallos de estas herramientas en las estrategias de ciberseguridad de sus organizaciones.
Además, según revela la nueva investigación de Sophos X-Ops, 'Los ciberdelincuentes aún no se han subido al tren de la IA (todavía)', recientemente publicada, se ha producido un ligero pero notable cambio en la forma en que el cibercrimen utiliza la IA. Tras investigar varios foros clandestinos, Sophos X-Ops ha descubierto que, aunque todavía hay escepticismo sobre la IA generativa, algunos delincuentes la están utilizando para automatizar tareas rutinarias, como la elaboración de correos electrónicos masivos y el análisis de datos. Otros la están incorporando a toolkits de spam e ingeniería social.
"Como con muchas otras cosas en la vida, el mantra debería ser 'Confía, pero verifica' en lo que respecta a las herramientas de IA generativa. En realidad, no hemos enseñado a las máquinas a pensar; simplemente les hemos proporcionado el contexto para acelerar el procesamiento de grandes cantidades de datos", explica Chester Wisniewski, director y CTO field global de Sophos. "El potencial que tienen estas herramientas para acelerar las cargas de trabajo en seguridad es asombroso, pero sigue siendo necesario el contexto y la comprensión de un supervisor humano para que este beneficio se haga realidad", añade.
Contando con alguna forma de IA integrada en la infraestructura de ciberseguridad del 98% de las empresas encuestadas, los responsables de TI expresan su preocupación por una posible dependencia excesiva de la IA, con el 87% de los encuestados afirmando que les preocupaba la consecuente falta de responsabilidad en materia de ciberseguridad.
GenAI y la reducción del burnout
Se observan diferentes prioridades a la hora de utilizar la GenAI en función del tamaño de la empresa. Mientras que las grandes organizaciones (aquellas con más de 1.000 empleados) dan prioridad a la mejora de la protección, los encuestados con entre 50 y 99 empleados califican la reducción del burnout como su principal beneficio deseado del uso de las herramientas de IA generativa. Sin embargo, para complicar las cosas, en todos los tamaños de empresas, el 84% de los responsables encuestados dicen estar preocupados por la presión para reducir el número de profesionales de ciberseguridad debido a expectativas poco realistas sobre las capacidades de la IA para reemplazar a los operadores humanos.
Por otra parte, el 75% de los directores de TI coinciden en que los costes de GenAI en productos de ciberseguridad son difíciles de cuantificar. Aunque el 80% cree que GenAI aumentará significativamente este coste, la mayoría de las organizaciones considera que esta tecnología ofrece una vía para reducir el gasto total en ciberseguridad, ya que el 87% de los encuestados cree que los ahorros de GenAI compensarán los costes.
Consideraciones de Sophos sobre DeepSeek
Sobre el último modelo de GenAI, DeepSeek, que está revolucionando el mercado actual de la IA, Chester Wisniewski comenta: "La naturaleza de código abierto de DeepSeek lo abre a la exploración, tanto por adversarios como por entusiastas. Al igual que Llama, se puede jugar con él y eliminar en gran medida las barreras de seguridad. Esto puede dar lugar a abusos por parte de los ciberdelincuentes, aunque es importante señalar que el funcionamiento de DeepSeek sigue requiriendo muchos más recursos de los que dispone el ciberdelincuente medio".
"Sin embargo, lo que supone más presión para las empresas, es que, debido a su rentabilidad, es probable que veamos varios productos y empresas adoptar DeepSeek, lo que potencialmente conlleva riesgos significativos para la privacidad. Al igual que con cualquier otro modelo de IA, será fundamental que las empresas realicen una evaluación de riesgos exhaustiva, que se extienda a cualquier producto y proveedor que pueda incorporar DeepSeek o cualquier LLM futuro. También deben estar seguras de que cuentan con los conocimientos adecuados para tomar una decisión informada", concluye Wisniewski.