Actualidad Info Actualidad

La inversión en Big Data y analítica empresarial crece un 7% en 2021 según IDC

El importante avance hacia la economía basada en el dato

Cristina Mínguez06/06/2022

Cada vez más las organizaciones son conscientes de la importancia de basar las decisiones de negocio en los datos y aunque según veremos a continuación todavía queda camino por recorrer, son muchas las que ya están trabajando en ello. Y es que, como escuchamos cada vez más en boca de los expertos, el dato es el 'nuevo petróleo' ya que se están convirtiendo en pieza clave de la sociedad y la economía.

Aunque queda un largo trayecto por recorrer y teniendo en cuenta que las grandes corporaciones van muy por delante, las empresas en España son muy conscientes de la necesidad de definir estrategias corporativas ligadas a la gestión y análisis de datos.

“Desde luego, 2021 ha sido un gran año para el Big Data y las tecnologías digitales en general”, comenta Maximiliano Fernández, profesor en el área de Inteligencia Artificial y Data Science en el Centro Universitario U-tad. Para este portavoz, se podría argumentar que un mayor número de empresas consideran ahora que estas herramientas son imprescindibles y, por tanto, nadie cuestiona la asignación de presupuestos para este tipo de proyectos. “Sin embargo, antes de la pandemia, existía un mayor número de barreras e impedimentos, así como otras prioridades que podían relegar al Big Data a un segundo plano, especialmente en empresas de tamaño más modesto. Por suerte, esto está cambiando rápidamente y nos estamos acercando cada vez más a una economía enfocada al dato, aunque todavía hay camino por delante para que el Big Data llegue a todos los sectores productivos”.

En esta misma línea, Jordi Calvera, Regional Managing Director Iberia, Israel, Greece, Turkey & LATAM de Intersystems, afirma que “la inversión en Big Data no solo se ha mantenido, sino que ha aumentado respecto al año 2020. IDC vaticinó que el aumento en soluciones Big Data y analítica empresarial sería del 7% en 2021, y parece que esta estimación se ha cumplido”.

Para Jordi Calvera, la mayoría de las empresas ya están familiarizada con esta tecnología, pero todavía queda por avanzar en términos de limpiar datos, porque el paradigma GIGO (Garbage IN, Garbaje Out) continúa vivo; es decir, no todos los datos son válidos, sino que deben ser validados, limpiados y, a continuación, analizados. La última fase de este proceso debe ser la comprensión de la información porque el análisis por el análisis no es suficiente para que las empresas extraigan el máximo valor de sus datos. “Todo este proceso genera en la empresa una cultura del dato y de la información que está construyendo la resiliencia empresarial necesaria para afrontar con éxito las crisis que puedan aparecer en el futuro”.

Imagen

¿Solo para grandes empresas?

“Cada vez más organizaciones son conscientes del valor de los datos que generan y de aquellos a los que tienen acceso como fuentes externas”, comenta Israel Serrano, responsable de Scality en España. “Todavía nos queda un camino importante a andar, pero los primeros pasos, sin duda, se han tomado. La importancia de la gestión adecuada de los datos no sólo compete a las grandes corporaciones, aunque es cierto que a estas les resulta más fácil acceder a las herramientas y servicios necesarios”.

Y es que, “en general, las empresas de reciente creación, aunque más pequeñas en tamaño, ya nacen con el convencimiento de la necesidad de tener una estrategia clara de gestión y explotación del dato por lo que se encuentran en una posición competitiva muy buena. Quizá es la pyme tradicional la que precisa de apoyo en políticas activas por parte de la administración que les permita subirse al tren de la digitalización y explotación del valor de los datos”.

Por su parte, para Paula Gómez, Data & Adtech Director de Making Science, “si bien es cierto que se afronta de maneras muy diferentes, la gobernanza y activación de datos es algo que atañe a todas las empresas de nuestro país, no solo a las grandes, las medianas y pequeñas, deben también comenzar a hacer frente a este reto ya que, sin duda, el futuro es más digital que nunca y se ha de evolucionar hasta llegar a ser data-driven”.

Luis Polo, Product Manager de Ekon

Luis Polo, Product Manager de Ekon.

Como explica la portavoz de Making Science, la clave a la hora de gobernar y activar nuestro Big Data es apoyarse en las tecnologías adecuadas, en los partners digitales con conocimiento en materia y, por supuesto, que toda estrategia que se lleve a cabo esté alineada con las regulaciones actuales de privacidad.

Como indica Luis Polo, Product Manager de Ekon, la realidad actual en las empresas es que aún queda un largo camino por recorrer respecto a la definición de estrategias corporativas ligadas a la gestión y análisis de datos. “Desde luego, las grandes corporaciones van por delante en este aspecto. Sus necesidades de control, integración y aseguramiento de la calidad del dato son mucho mayores, en muchos casos, de forma crítica”.

Sin embargo, detalla Luis Polo, “visto de manera positiva, el discurso ha cambiado respecto de hace unos años. Las pymes españolas son conscientes de la importancia del dato y del beneficio que trae para sus negocios. Muchas veces el problema es desconocimiento sobre los pasos a dar y metodologías a aplicar, qué nivel de recursos es necesario y cuánta inversión tienen que hacer”. Para Polo, es importante encontrar aquí un balance entre los beneficios que deberían traer estas estrategias en torno al dato y el coste de su implementación. Una forma de acercar y facilitar el acceso a las impresoras a esta nueva cultura es que los productos de uso diario y de gestión empresarial incorporen herramientas de supervisión, gestión y análisis del dato como parte de su solución”.

Respecto a la inversión requerida para adquirir un modelo de negocio basado en datos, para Maximiliano Fernández, U-tad, la respuesta nuevamente depende del sector y de las características de la empresa. “Sin embargo, he sido testigo de implementaciones y transformaciones en Big Data que consiguieron un alto impacto tanto para la empresa como para sus clientes, en las cuales no se ha requerido una inversión sustancial en términos de presupuesto. Mi consejo es siempre buscar el ‘sweet spot’ que cubre el 80% de las necesidades críticas del negocio con el 20% de la inversión total, para decirlo en términos de la Ley de Pareto”.

Paula Gómez, Data & Adtech Director de Making Science

Paula Gómez, Data & Adtech Director de Making Science.

Administración pública y smart cities

Las tecnologías de Big Data permiten avanzar hacia soluciones inteligentes que no solo mejoren la eficiencia de la gestión de los servicios públicos, sino que supongan un beneficio directo a todo un gran colectivo, sin olvidarnos de alcanzar una movilidad más sostenible.

En este sentido, Jordi Calvera, Intersystems, encuentra múltiples beneficios, no sólo en términos de servicios al ciudadano o agilización y precisión de los procesos administrativos, sino también en la gestión de la ciudad misma. “Cualquier ciudad que aspire a desarrollarse como una Smart City necesita los datos limpios para operar. El IoT no tendría sentido si los datos no fueran viables y lo mismo sucede con la Inteligencia Artificial. Tenemos a nuestro alcance tecnologías que, ahora, con la cota de perfección que ha alcanzado la gestión de los datos, es cuando pueden ser más operativas”.

Por su lado, Paula Gómez, Making Science, observa que “es cierto que la Administración Pública ha sabido evolucionar rápidamente en un momento tan crítico como lo fue la pandemia de 2020 pero, por supuesto, dentro de esa “digitalización” todavía le queda mucho por avanzar. Una correcta gestión de los datos podría facilitar procesos administrativos, mejora de las bases de datos de los usuarios, así como la calidad de los datos de estos, una mejor y más rápida gestión de trámites, entre otras muchas gestiones. Sin duda es un reto al que ya se están enfrentando y que a lo largo de estos años veremos como evoluciona”, indica Paula.

En esta misma línea, Maximiliano Fernández, U-tad, considera que la Administración Pública está siendo uno de los sectores más beneficiados en términos de transformación digitalización de procesos durante y después de la pandemia. “Es de esperar que el próximo paso sea la implantación de estrategia de Big data en la mayoría de los frentes de la Administración Pública con el fin de mejorar su eficiencia”. Como indica, existen tanto señales como ejemplos tangibles que cualquier ciudadano puede reconocer fácilmente en estos días. “Por ejemplo, los esfuerzos relacionados con el seguimiento de los casos de COVID-19 y la implementación de la campaña de vacunación, a nivel país y a nivel mundial, es algo que nunca antes se ha visto en nuestro planeta. Todo ello derivó en la implantación del pasaporte COVID a nivel europeo y en la creación de la tarjeta sanitaria virtual en España, claros ejemplos de digitalización de datos para mejorar la calidad de la vida del ciudadano”.

Jordi Calvera, Regional Managing Director Iberia, Israel, Greece, Turkey & LATAM de Intersystems

Jordi Calvera, Regional Managing Director Iberia, Israel, Greece, Turkey & LATAM de Intersystems.

La importancia de la calidad del dato

Los datos confiables son esenciales tanto para tomar decisiones estratégicas acertadas, como para la buena marcha de la empresa a nivel operativo, ya sea interna o externamente. Y es que, como indica Luis Polo, Ekon, la calidad es el aspecto central de cualquier política basada en información y muchas veces se descuida o se deja de lado. “De igual manera que no podemos construir un edificio si los cimientos no son sólidos, no podemos construir reportes, indicadores o realizar cálculos sin tener la confianza de que el dato es exacto, es correcto, está actualizado, es relevante, coherente y accesible. ¿De qué nos serviría desplegar una infraestructura y tecnología de gestión de datos si no podemos confiar en los resultados? Por ejemplo, si la cifra de negocios o los ratios financieros se basan en datos no confiables, ¿realmente tendría sentido utilizar estos informes y KPIs como guía para la toma de alguna decisión en una organización?

Por tanto, el aseguramiento de la calidad del dato es, por tanto, el primer driver para asegurar la consistencia de los procesos de reporting y proporcionar confianza a sus usuarios. Es de obligada necesidad construir una cultura organizacional alrededor del dato y aplicar metodologías de control y supervisión sobre todo el flujo de trabajo: desde la extracción y consolidación, a cómo se gestionan y acceden posteriormente por parte de los usuarios involucrado.

“En mi opinión, este factor tan crítico suele ser el primer baño de realidad para los profesionales del Big Data, quienes tienen que invertir una significativa cantidad de tiempo y recursos en la preparación de los datos en comparación a la etapa de creación, entrenamiento y validación de los modelos Machine Learning”, indica Maximiliano Fernández. Por ello, para el portavoz de la U-tad, es muy importante que se reconozca la necesidad de contar con profesionales cualificados en la Ingeniería de Datos específicamente. “De hecho, esta es un área de conocimiento que hemos identificado ya hace un tiempo y en la que nos estamos enfocando en U-tad. Existe una demanda sostenida, creciente y no satisfecha de perfiles de este tipo, Data Engineers, en comparación con otros perfiles de Big Data y Machine Learning”.

Paula Gómez, Making Science, indica en esta línea que los datos desordenados, contactos con falta de información o el incorrecto orden de los mismos, puede hacer que nuestras estrategias y compañas no desemboquen en buenos resultados. “Por este motivo es importante revisar que los datos que se están recogiendo son los adecuados y con la calidad necesaria para luego confiar en ellos de cara a la toma de decisiones. La tecnología y diferentes soluciones de Data Quality son necesarias para poder tener el control en el día a día, sin estos sistemas iremos a ciegas”.

Maximiliano Fernández, profesor en el área de Inteligencia Artificial y Data Science en el Centro Universitario U-tad...

Maximiliano Fernández, profesor en el área de Inteligencia Artificial y Data Science en el Centro Universitario U-tad.

El gran potencial del Deep Learning

Muchos expertos coinciden que 2022 será el año en que el Big Data logrará una evolución tecnología considerable pero aún nos queda mucho para ver todo lo que el Big Data puede hacer por nosotros.

Para Paula Pérez, Making Science, las tendencias tecnológicas que combinan machine learning con inteligencia artificial y que ayudan a predecir comportamientos de usuarios ganan cada vez mas terreno y las compañía están interesadas en estas ya que les permite optimizar recursos pero también generar más beneficios.

Jordi Calvera, por su lado observa que una tendencia que está tomando mucha importancia en las empresas, cuya trayectoria se inició entre las de servicios financieros y está siendo valorada por el resto de sectores, es Data Fabric, que, según Forrester, se trata del futuro de la gestión de datos. Como indica el responsable de Intersystems, este enfoque facilita utilizar mejor las arquitecturas de datos con que ya cuenta la organización sin tener que reconstruir las aplicaciones o los almacenes. Hace posible el acceso a información valiosa en tiempo real y esto facilita que la organización se adapte a la evolución del mercado cuando es necesario y no después.

“En InterSystems hemos llevado data fabric más allá con Smart Data Fabric, al que hemos incorporado amplia gama de capacidades de análisis, incluida la exploración de los datos, la inteligencia empresarial, el procesamiento de lenguaje y machine learning. Esto hace posible la obtención de nuevos conocimientos del negocio, tendencias y mercados, y que, además, se puedan crear aplicaciones y servicios prescriptivos inteligentes”.

Para Maximiliano Fernández, U-tad, como tendencia tenemos que prestar mucha atención al Deep Learning, el área con el mayor potencial de impacto y crecimiento en nuestros días. “Nuevamente, si bien las técnicas de Deep Learning ya se encuentras desarrolladas y disponibles, el éxito de una estrategia de Big Data siempre depende del tipo de negocio y del conocimiento de sus profesionales para poder generar resultados tangibles a partir de las mismas. No todo problema es apto para Deep Learning, pero desde luego que éste posee el mayor potencial para generar disrupción”.

Israel Serrano, responsable de Scality en España

Israel Serrano, responsable de Scality en España.

El software de gestión se enriquece con la analítica de datos

Cada vez más los programas de gestión van incorporando funcionalidades que tienen su base en las tecnologías de Big Data, incluso agregando fuentes de información externas a la propia compañía y que enriquecen la analítica de datos, tal y como explica Israel Serrano, Scality España. “Resulta de máxima importancia tener en cuenta la eficiencia de las tecnologías implicadas, especialmente la que se encarga de almacenar y gestionar los datos sobre los que se aplica esa analítica. No es extraño ver cómo organizaciones descartan lanzar procesos de análisis de datos en entornos de Big Data porque los costes iniciales desincentivan el posible beneficio resultante de ese análisis. Cuando hablamos de Big Data, hablamos de una cantidad enorme de datos que además tiene que estar accesible normalmente a las aplicaciones analíticas y de IA, por lo que suele ser el aspecto más relevante desde un punto de vista económico”.

Desde Ekon, Luis Polo entiende que, “desde luego, la gestión y el análisis de datos ya no es una cuestión ajena a las empresas actuales. Son conscientes de su importancia y buscan cómo mejorar a partir del conocimiento implícito en sus datos”. Para este portavoz, las empresas buscan cubrir estas necesidades de la mejor forma que pueden. “Muchas veces de forma interna, lo que es costoso y, en la mayor parte de los casos, son iniciativas con poco éxito porque no tienen los recursos y el conocimiento específico. Así que es necesario generalmente externalizar completa o parcialmente a empresas terceras que prestan esos servicios especializados y sí tienen ese expertise”, explica. “Sin embargo”, añade, “donde realmente se percibe una clara tendencia de mercado es en la apuesta que están realizando los productos actuales de gestión empresarial por innovar en funcionalidades e incorporar soluciones que cubran estos aspectos avanzados de Big Data. Es decir, el objetivo es proporcionar a las empresas usuarias un ecosistema que les permita implementar políticas de control del dato, garantizar su calidad y trazabilidad, y generar conocimiento compartido en la organización. Conocimiento que les ayude, entre otras cosas, a tomar mejores decisiones de negocio, a detectar patrones de comportamiento, a analizar sus procesos internos o a anticipar potenciales problemas”.

“Una tendencia que está tomando mucha importancia en las empresas, cuya trayectoria se inició entre las de servicios financieros y está siendo valorada por el resto de sectores, es Data Fabric, que, según Forrester, se trata del futuro de la gestión de datos”, Jordi Calvera, Intersystems

“Es importante revisar que los datos que se están recogiendo son los adecuados y con la calidad necesaria para luego confiar en ellos de cara a la toma de decisiones. La tecnología y diferentes soluciones de Data Quality son necesarias para poder tener el control en el día a día, sin estos sistemas iremos a ciegas”, Paula Gómez, Making Science
“La calidad del dato suele ser el primer baño de realidad para los profesionales del Big Data, quienes tienen que invertir una significativa cantidad de tiempo y recursos en la preparación de los datos en comparación a la etapa de creación, entrenamiento y validación de los modelos Machine Learning”, Maximiliano Fernández, U-tad
“Todavía nos queda un camino importante a andar, pero los primeros pasos, sin duda, se han tomado. La importancia de la gestión adecuada de los datos no sólo compete a las grandes corporaciones, aunque es cierto que a estas les resulta más fácil acceder a las herramientas y servicios necesarios”, Israel Serrano, Scality
“La gestión y el análisis de datos ya no es una cuestión ajena a las empresas actuales. Son conscientes de su importancia y buscan cómo mejorar a partir del conocimiento implícito en sus datos”, Luis Polo, Ekon

Comentarios al artículo/noticia

Deja un comentario

Para poder hacer comentarios y participar en el debate debes identificarte o registrarte en nuestra web.

Suscríbase a nuestra Newsletter - Ver ejemplo

Contraseña

Marcar todos

Autorizo el envío de newsletters y avisos informativos personalizados de interempresas.net

Autorizo el envío de comunicaciones de terceros vía interempresas.net

He leído y acepto el Aviso Legal y la Política de Protección de Datos

Responsable: Interempresas Media, S.L.U. Finalidades: Suscripción a nuestra(s) newsletter(s). Gestión de cuenta de usuario. Envío de emails relacionados con la misma o relativos a intereses similares o asociados.Conservación: mientras dure la relación con Ud., o mientras sea necesario para llevar a cabo las finalidades especificadasCesión: Los datos pueden cederse a otras empresas del grupo por motivos de gestión interna.Derechos: Acceso, rectificación, oposición, supresión, portabilidad, limitación del tratatamiento y decisiones automatizadas: contacte con nuestro DPD. Si considera que el tratamiento no se ajusta a la normativa vigente, puede presentar reclamación ante la AEPD. Más información: Política de Protección de Datos