Lo mejor de 2016 en el mundo de la analítica de negocio

Visitas: 175

Tras la tormenta de black fridays y la llegada de las postales navideñas, es el momento de hacer balance del año y echar la vista atrás (sin ponernos melancólicos como Camilo Sesto). Cada vez suceden más cosas a nuestro alrededor y pasan más rápido, con lo que desde SISTEL queremos daros una visión de las tendencias más importantes (desde nuestro humilde punto de vista) que han tenido lugar este año.

Bienvenidos al antropoceno (la era del usuario)

Leía hace unos días en el períodico El Mundo una noticia sobre el debate de la comunidad científica del inicio de un nuevo período geológico denominado antropoceno, caracterizado por el impacto geológico de la acción del ser humano. Aunque desde luego no puedo opinar en materia de geología, en el mundo de la analítica de negocio podemos afirmar sin duda y con rotundidad que este año se ha iniciado una nueva era equivalente al antropoceno: la era del usuario.

Y es que como ya adelantamos en nuestro artículo de tendencias para el año 2016, el cuadrante mágico de Gartner 2016 para las herramientas de Business Intelligence supuso un terremoto en el mercado, apuntando como líderes a las herramientas favoritas por los usuarios de negocio (Qlik, Tableau y Microsoft), por delante de los tradicionales gigantes tecnológicos (Oracle, Microestrategy, IBM, SAP y SAS).

Como sucede en el mercado de las apps de móviles, la tiranía del usuario es implacable y ya no hay vuelta atrás. Tras años donde el papel del usuario en el proceso de analítica de negocio se limitaba a ser un mero consumidor .

Las herramientas de BI son por y para los usuarios y estás son las cualidades que deberían reunir:

  • Autoservicio: Lo primero y fundamental que quiere cualquier usuario es ser autónomo y no depender de nadie. Debemos facilitar que acceda al dato que necesita sin intervención (o mínima) de terceros (sobretodo IT).

  • Análisis visual: Analizar la información de forma intuitiva y rápida, construir visualizaciones y gráficos de forma sencilla (arrastrando y soltando) y además poder hacerlo desde cualquier dispositivo.

  • Data Discovery: La posibilidad de navegar por los datos sin límites, de lo más general a lo más particular, analizar desde cualquier punto de vista, filtrando por cualquier dimensión o medida.

  • Preparación de los dtos visual: Disponer de una interfaz gráfica que permita de forma sencilla acceder a los datos, manipularlos y relacionarlos entre sí.

Durante mucho tiempo hemos hablado de democratizar el BI, extender la información a toda aquella persona de la organización que la necesite. Pues bien, la era del usuario ha llegado.

Big Data y Small Data

Gartner viene publicando un informe de lo que denomina Hype Cicle of Emerging Technologies, que viene a resaltar las expectativas “hinchadas” al respecto de nuevas tecnologías que van surgiendo en el mercado. Durante los últimos años, todo el mundo tenía la mirada puesta en el término “Big Data” que venía apareciendo hasta precisamente este 2016. Y es que parece que la fiebre o la burbuja Big Data se va deshinchando, pero no para mal, en el sentido de unas expectativas exageradas, sino más bien al contrario: la tecnología se ha ido normalizando y está siendo adoptada en las organizaciones. Este proceso de normalización en 2016 no significa que sea una tecnología madura cuya adopción está generalizada en el tejido empresarial (todavía queda mucho camino por recorrer en la pyme española), sino que los directivos y los usuarios de negocio son conscientes de su necesidad, saben de su utilidad y que es viable aplicarla en sus organizaciones.

Como sabemos, Big Data hace referencia a un conjunto de tecnologías que nos aportan más capacidad de procesamiento de datos (volumen), más capacidad de computación (velocidad ) y acceso a fuentes de información no estructuradas (variabilidad). Frente a este concepto, se ha empezado a hablar de Small Data, pero no como algo que se opone al Big Data sino como un paso previo: Small Data consiste en utilizar las tecnologías de Big Data ( almacenamiento y computación distribuida, aprendizaje automático y minería de datos, etc.) sobre un conjunto de datos reducido que puedan ser procesados y entendidos por un ser humano.

La razón de ser del Small Data viene motivada porque es más sencillo y rentable realizar el desarrollo de un proyecto de Big Data empezando con un conjunto de datos más reducido, que se pueda verificar y probar la validez de su funcionamiento y a posteriori escalar a un volumen de datos más elevado.

Del Datawarehouse al Data Lake

Parecía que con la irrupción del Big Data los grandes datawarehouse corporativos tenían los días contados por el streaming de datos y procesamiento en tiempo real. La realidad es que seguimos necesitando guardar los datos en algún sitio para poder procesarlos aunque sea de forma temporal, bien porque el dato cambia, puede no estar disponible en otro momento (fuentes online) o bien porque ahora no lo necesito pero en un futuro sí. Esta situación parece que nos devuelve a la casilla de salida, pero la diferencia es que la tecnología hoy día nos permite almacenar mucha cantidad de información a un coste menor. Es en este contexto, cuando se e empieza a popularizar el término Data Lake, para referirse a un almacén en el que guardamos todos los datos que necesita la organización sin ningún tratamiento ni estructura. En realidad de lo que se trata es de almacenar los datos en crudo (ficheros logs, tablas de cualquier ERP, imagenes de facebook, tuits o cookies de los navegadores de nuestros usuarios) en un repositorio Hadoop.

El resultado es una estructura de datos heterogénea sin modelar, pero lista para ser explotada: al final de lo que se trata es como extraer petróleo crudo para luego refinarlo y convertirlo en combustibles, plásticos, químicos, etc. Las ventajas del data lake frente al datawarehouse son incontestables: menor coste de implantación, menor tiempo de despliegue y mayor variedad de datos (naturaleza, volumen). El precio que hay que pagar es el trabajo de “cocinar” estos datos, frente a un datawarehouse donde normalizamos y modelamos en dimensiones, hechos y métricas que prácticamente nos lo deja listo para consumir.

Todo parece indicar que aún queda recorrido para los datamarts y datawarehouse corporativos (lo cual es lógico, con el nivel de inversión metido en estas tecnologías, hay todavía que amortizarlo) pero el data lake parece imparable.

Se acerca borrasca SaaS: Cloud Analytics

La nube está aquí y ha venido para quedarse. Todos los fabricantes de software de BI están lanzando su oferta de pago por uso vinculada a plataformas en la nube. Parece que cada vez más, todas las compañías evitan la compra de licencias en propiedad (cuya amortización requiere de años) y tienden a pagos por uso, empujados por la vertiginosa velocidad con la que la tecnología se queda obsoleta. Vivimos empujados por el cortoplacismo y eso se nota en las empresas, donde nadie se atreve a comprar una tecnología de cara a n años vista.

En esta vorágine, la nube está siendo la solución más flexible y rentable a corto plazo. Hay mucho menos riesgo de costes ocultos en los proyectos de BI y la inversión inicial es menor; sin embargo, tampoco es la panacea a todos nuestros problemas: la rentabilidad puede caer si nuestros proyectos se dilatan mucho, si crece el número de usuarios o si cambia el volumen o las necesidades de procesamiento. Al igual que ocurría con el Small Data o los Data Lakes: son una buena idea para empezar, pero siempre habrá que utilizar enfoques híbridos (on premise / cloud) para vigilar por nuestra rentabilidad.

Con todo esto vamos a terminar 2016 e iniciar un 2017 donde el deep learning, el análisis cognitivo y el internet de las cosas vienen llamando a la puerta, pero eso, como se suele decir, será otra historia...

Autor

Imagen de Mario De Felipe Pérez

Director Área Business Analytics

CAPTCHA
Esta pregunta es para comprobar si usted es un visitante humano y prevenir envíos de spam automatizado.