Ángel Galán: “el Big Data se aplica a todas las unidades de negocio de una compañía”
13 de Diciembre de 2019
13 de Diciembre de 2019
Está claro que el Big Data es presente y futuro de todas las organizaciones. Un buen uso de este determina que una empresa ascienda y abrace mayores oportunidades de negocio.
Bajo esta premisa, EAE Business School ha organizó el webinar: Big Data para la toma de decisiones, impartido por Angel Galán director del big data & artificial intelligence en Kabel.
Antes de Kabel, Galán ocupó el cargo de responsable de Inteligencia de Negocio y Data Analytics en Correos, y llegó a la compañía de casualidad: “estaban en un modelo de transición hacia un nuevo modelo analítico con unas necesidades muy concretas y querían potenciar esa área”.
Desde que entró en el mundo del Big Data, el reto más importante al que se ha enfrentado es mantenerse al día, “las tecnologías evolucionan de manera súper rápida. El mundo del dato cada vez es más amplio y lo complicado es tener una visión suficiente como para poder guiar en estrategias corporativas como globales”.
Ángel Galán ha iniciado el webinar con la idea de que a las compañías les cuesta hacer ofertas individualizada pues los datos por si solos no implican una buena decisión, “es su interpretación y cómo se aplican en el proceso de negocio lo que les otorga valor”. Además, destacó que, a pesar de que hoy tenemos gran cantidad de información, se mantienen constantes los datos que utilizamos en nuestras analíticas y la mayoría de las compañías sólo utilizan el 1% de la información.
Evolución del mundo del dato
El 90% de los datos disponibles en el mundo se han producido en los 2 últimos años. “Creamos gran cantidad de información, tenemos gran cantidad de elementos con los que interactuamos unos con otros y, sobre todo, la cantidad de sistemas ya no personales sino de sistemas como puede ser la IOT que producen gran cantidad”. Así, puso como ejemplo, el proyecto del genoma humano, “su objetivo fue identificar y cartografiar los aproximadamente 20.000-25.000 genes del genoma humano desde un punto de vista físico y funcional”. Según el profesional, se necesitaron múltiples equipos en todo el mundo y un trabajo de manera coordinada, se tardó en mapear todo el genoma humano alrededor de 10 años y costó 1 billón de dólares. “Mientras que en 2015 tardamos sólo 1 día y costó 100 dólares; la previsión para 2025 es que seamos capaces de hacerlo en 1 segundo y cueste 1 dólar” compara. Por tanto, el aumento de variabilidad de información trabajada con diversos volúmenes ha provocado una democratización absoluta que ha reducido los costes y “elimina barreras de acceso tanto para la generación como para el consumo”.
También ha explicado la evolución de la capacidad de computación. “La de 2001 era el equivalente al cerebro de un mosquito, en 2010 a un pequeño ratón, en 2020 está previsto que por 1.000 dólares podrás comprar la capacidad de computación equivalente al del cerebro humano; en el 2050 la capacidad de comprar computación equivalente al de todos los cerebros humanos”.
Según Ángel Galán, una de sus características esenciales es la importancia del valor de la información dependiendo del tiempo, pues es más valiosa la información cuanto más cercana es a su creación. “La cantidad de volumen va vinculada, en gran medida, a la diversidad de tipologías de información que podemos tener hoy”. También ha dado importancia al hecho de poder trabajar con todos estos datos estructurados, pues permite trabajar con esa algoritmia con nuestras propias imágenes sobre el dato no estructurado, “esto cambia totalmente nuestra filosofía” explica. Para el director del big data & artificial intelligence en Kabel, el Big Data, que nació como una solución tecnológica, a día de hoy, se está aplicado a todas las unidades de negocio de una compañía, es más, “cada vez tenemos perfiles mixtos que están dentro de estas unidades de negocio que nos permiten trabajar con datos de una manera mucho más flexible”.
Big Data & big problem
Angel Galán reconoce que lo que nos encontramos en nuestro día a día son dificultades en nuestros proyectos donde estas altas expectativas muchas veces no se cumplen. La realidad es que el 60% de los proyectos de Big Data no llegan a cumplir las expectativas Gartner. “El 44% de los proyectos de Big Data son cancelados y las expectativas de recuperación de ROI del 3,5%, es del 0,5%”.
Esto sucede, según el profesional, porque cuando hay una irrupción, hay una tendencia a sobrevalorar una tecnología de forma inicial, “necesitamos tener una madurez interna en la compañía para poder ser productivo”. Esto es precisamente lo que pasa cuando tienes cualquier tipo de inicio en una tecnología: “En este tipo de situaciones debemos ser realistas, para que tengamos un retorno previsible no solo basta con implantar la tecnología, a veces se producen cambios de procesos y falta de madurez a la hora de incorporarlos en los departamentos”. Por ello, concluye que el Big Data viene para ayudarnos y lo que hay que hacer es incrementar el valor de la información.
Analítica en la toma de decisiones
Ángel Galán ha diferenciado cinco tipos de analíticas: descriptiva, de diagnóstico, predictiva, prescriptiva y, finalmente, la inteligencia artificial. Primeramente nos encontramos con el raw data, que son datos aún no procesados. “La analítica de diagnóstico es una forma de analítica avanzada que examina los datos o el contenido para responder a la pregunta: ¿Por qué sucedió?”.
La analítica predictiva es una forma de análisis avanzado que examina los datos o el contenido para responder a la pregunta: ¿Qué va a pasar? ¿Qué es más probable que suceda? Y se caracteriza por técnicas como el modelo de regresión, estadísticas multivariadas, búsqueda de patrones, modelos predictivos y pronósticos.
La analítica prescriptiva es una forma de analítica avanzada que analiza los datos o el contenido para responder a la pregunta: ¿Qué se debe hacer? ¿Qué podemos hacer para que suceda? Y se caracteriza por técnicas como el análisis gráfico, la simulación, la complejidad de procesamiento de eventos, redes neuronales, motores de recomendación y aprendizaje automático.
“Cuando tenemos todos estos factores reunidos entra la parte de inteligencia artificial, que es un factor que se diferencia de la prescripción porque es mucho más accionable”. Cuando hablamos de inteligencia artificial, el experto en big data explica que la idea que nos viene no es la de un algoritmo sino la de un futuro robótico: “no piensas en la realidad es simplemente automatizar procesos, es la ciencia que permite entrenar a los sistemas para emular tareas realizadas por personas a través del aprendizaje y la automatización”.
Puedes visualizar el vídeo completo en el siguiente ENLACE.