Analizamos el mundo a través de un rompecabezas, conformado por piezas de conocimientos que se agrupan en categorizaciones, grupos, familias y etiquetas. Así es como la ciencia ha podido “saber más“ en detalle sobre los diferentes aspectos de la realidad. Pero, ¿qué pasaría si quisiéramos tener un entendimiento completo de una situación “x”? Deberíamos comenzar a descubrir el cuadro completo “big data, big picture” que se esconde detrás de toda pieza analizada.

Hoy, la digitalización frente a los grandes volúmenes de datos (Big Data)nos brinda la oportunidad de descubrir el cuadro completo – o por lo menos, capturar la mayor cantidad de piezas de información, a través de millones de conversaciones interconectadas unas con otras que permiten el entendimiento digital compartido y así una fuente única de conocimiento mundial en todos los niveles de sabiduría del ser humano: ciencia, negocio, arte y religión.

Ya no es sorpresa que vivimos bajo una lluvia de datos digitales, el activo principal que alimenta la nueva economía mundial de conocimiento. Durante el 2016, se espera menos teorización de Big Data y mayor implementación de proyectos que involucren tecnologías, análisis y datos. Los aspectos principales a considerar:

  • Captura e integración de datos
  • Gobernabilidad de datos
  • Visualización
  • Capitalización y uso de datos

Mediciones de crecimiento de datos

Los datos provienen de fuentes diversas:

  • Externas: redes sociales y portales tradicionales.
  • Grandes transacciones de datos: registro de la facturación en telecomunicaciones y el registro detallado de las llamadas (CDR).
  • Datos biométricos: huellas digitales, escaneo de la retina, reconocimiento facial y genética.

Pero el gran acelerador es la Internet de las Cosas (IoT). Algunas estimaciones indican que se espera llegar durante este año a aproximadamente 23.000 millones de dispositivos conectados a Internet a nivel mundial, en camino a los 50.000 millones que se pronostican para 2020.

A destacar

Hoy se genera según IBM 2,5 quintillones de bytes a diario.

Más de la mitad de la población poseen un dispositivo móvil: 5.100 millones según Gartner.
Cerca de la mitad de la población tienen acceso a internet pero no es proporcional: el 75% de la población es europea, el 41% de la audiencia proviene de Asia y solo el 16% lo tienen en Africa.

De aquí al 2020 el 90% del crecimiento IT será en la nube. Se espera que para el 2020, este volumen haya alcanzado los 40 zettabytes. Más de 20 veces más de información, en menos de 10 años.

Tecnologías y tendencias

La explosión de los datos es facilitada por arquitecturas informáticas cada vez más robustas tanto en almacenamiento como en nuevos modelos de bases de datos lógicos que facilitan la gobernabilidad e integración de los datos.

Según Ing. Pablo F. Sciolla, analista de Big Data, de Pistrelli Henry Marrtín & Asociados, los aspectos técnicos a considerar son:

“Desde el punto de vista de las plataformas de almacenamiento y procesamiento de datos, se observa una tendencia en el incremento en la adopción de tecnologías de bases de datos NoSQL (No Sólo Lenguaje de Consulta Estructurado), apoyado en los beneficios que proporcionan no contar con esquemas rígidos. Las tecnologías de bases de datos orientadas a documentos, basadas en columnas y clave-valor, están creciendo sostenidamente en todos los informes de uso. Por este motivo, es esperable observar una mayor adopción de la filosofía de persistencia políglota: diferentes tecnologías de bases de datos conviviendo en una misma solución, cada una en lo que mejor hace.

big data

En el año 2015 varias compañías en Argentina han realizado POCs (pruebas de concepto) de tecnologías de Big Data, y durante este año se moverán hacia ambientes productivos estables. Gradualmente irán transformando esos ambientes en empresariales, incorporando en sus agendas temas como seguridad basada en roles, monitoreo avanzado, continuidad del negocio, etc. Pero el 2016 será también el año donde muchas más compañías realicen sus primeras POCs y varias lo harán con Hadoop. No obstante, Apache Spark, un componente originalmente del stack de Hadoop, está tomando vuelo propio como plataforma de Big Data siendo adoptado por varias empresas a nivel mundial. Es esperable observar que esa adopción se manifieste de forma similar en Argentina. Muchas de estas POCs se plantearán directamente en alguna Cloud.

Desde el punto de vista de la explotación de datos, los usuarios siguen demandando visiones equivalentes a las que tenían históricamente, siendo transparentes las plataformas en las cuales los datos se almacenan y procesan. Por lo tanto, es esperable que crezca la adopción de herramientas que brinden una visión “OLAP” (Procesamiento Analítico en Línea) de los datos almacenados en plataformas de Big Data. Y el self-service continuará creciendo”.

El desafío

El desafío de Big Data es poder entender los datos y hechos en el momento que se producen, disminuir la brecha de error, mejorar la toma de decisiones y actuar en tiempo real.

En este punto durante el 2016 se acentuará la necesidad de gobernar con eficacia los datos utilizados en las aplicaciones de BI y analítica. En consecuencia, también aumentará la demanda de recursos humanos con conocimientos en tecnologías de almacenamiento y gestión de la información.

Uno de los desafíos internos es la capacidad de gobernar con eficacia los datos utilizados en las aplicaciones de BI y analítica. Un consejo es unificar la administración de los datos bajo el departamento de BI a fin de que la unidad permita centralizar y administrar los datos colaborando y asesorando en su utilización al resto de la empresa. El primer paso para el departamento de BI, es almacenar datos de manera consistente antes de que esté a disposición para su análisis.

Hoy, gracias a la madurez tecnológica, podemos: gestionar, capturar, procesar, clasificar, visualizar con estadísticas e integrar el conocimiento. Frente a nuevas técnicas como machine learning (aprendizaje automático) podemos recrear escenarios futuros. Así, capturamos los datos mientras que la información se va produciendo “no antes y no después” generando canales de asimilación de datos distribuidos de manera omnipresente, y los analizamos bajo una visión que unifique el propósito de selección de datos y permita descubrir patrones y relaciones que no son fáciles de comprender a simple vista. Usamos Big Data en todo, así como todo negocio es de conocimiento:

  • Creando ventajas competitivas.
  • Maximizando la experiencia del usuario.
  • Adquiriendo de nuevos clientes.
  • Comprendiendo el comportamiento de los procesos comerciales, tomando decisiones de negocio más inteligentes.

En otros ámbitos, podemos hacer frente a problemas mundiales como el calentamiento mundial y optimizar las respuestas a enfermedades como el mal de Alzheimer o el Cáncer. A través de la colaboración y datos abiertos podemos mejorar la distribución de recursos esenciales como el agua y alimentos, o crear ciudades inteligentes para disminuir el impacto del consumo y crear gobiernos transparentes.

Big Data no es sólo un concepto relativo a grandes volúmenes de datos y su tecnología, sino que representa un quiebre disruptivo en los métodos y reglas de cómo abordar los hechos, en el enriquecimiento colectivo del conocimiento humano, la aceleración de las innovaciones y la nueva mirada de recrear el presente con datos integrados en un “big picture”.

De a poco, las piezas del rompecabezas darán paso a un gran tablero de ajedrez en la cual cada movimiento se realizará prediciendo los diferentes escenarios posibles de juego con información de valor y con estrategias eficientes.

Por: Lic. Mara G. Destéfanis
Founder & CEO BigDataMachine
www.bigdatamachine.net