La consolidación estratégica del Big Data

Tabla de Contenidos

El enorme volumen de datos digitales que se genera a diario, a partir de las más simples actividades humanas, constituye una poderosa herramienta para optimizar la toma de decisiones estratégicas de las empresas. Sólo hay que contar con soluciones tecnológicas que permitan analizarlos con agilidad, precisión y veracidad, adaptándose a los cambios del contexto y a las crecientes necesidades del mercado y los clientes.

La recopilación y análisis estratégico de grandes cantidades de datos digitales, conocida comúnmente como Big Data, dejó hace mucho de ser sólo un concepto de moda. Hoy es una actividad económica exitosa y creciente, que mueve casi U$ 10 mil millones, y se espera alcance una tasa de crecimiento anual cercana a 30% en 2023.

Estas contundentes cifras de negocio demuestran que la nueva “ciencia de datos” es parte medular de la digitalización empresarial y, nos guste o no, abarcará en mayor o menor grado todos los aspectos cotidianos de la actividad humana. 

Más aún, todo el gigantesco proceso de transformación tecnológica y cultural de las empresas se basa en la implementación masiva de la analítica de datos y sus “disciplinas hermanas”, entre las que se encuentran la Inteligencia de Negocios (BI), el Internet de las Cosas (IoT), la Inteligencia artificial (AI), la Computación en la Nube y, por supuesto, la automatización.

CONCEPTOS CLAVE

Técnicamente, la expresión “Big Data” abarca tanto el enfoque metodológico centrado en la recopilación y análisis de datos digitales desde diferentes áreas (como economía, cultura, sociedad, defensa y política, entre otras), como también en las tecnologías utilizadas para realizar esta tarea.

Esto implica, a grandes rasgos, reunir grandes cantidades (volumen) de data, al ritmo más rápido posible (velocidad) y empleando una gran diversidad de formatos (variedad).

Pero no se trabaja sólo a partir de acciones conscientes o especialmente dirigidas (como las clásicas encuestas de opinión, o los focus group y estudios de mercado, por ejemplo). También implica recabar datos desde actividades cotidianas e inconscientes que realiza cualquier persona cuando está en línea. Entre estas podemos destacar el llenado de formularios de inscripción en blogs o portales multimedia, enlaces o clics tipo “me gusta” en redes sociales, palabras clave ingresadas a buscadores y navegadores, y visitas a determinadas páginas web. 

Todas estas acciones generan datos valiosos que se recopilan, analizan y utilizan continuamente para obtener información procesable y acciones automatizadas, generalmente orientadas a lograr beneficios concretos para el posicionamiento y competitividad de empresas, marcas y/o productos.

Un proceso que cada día se vuelve más profundo y eficiente, pues constantemente se diseñan algoritmos cada vez más sofisticados, para “aprender” y sacar provecho de nuestro comportamiento en línea.

Claro que esta actividad ya no sólo se circunscribe al mundo en línea. El advenimiento de la computación en la nube y el IoT también permite que las ciudades, centros comerciales, oficinas públicas y privadas, calles y hasta nuestros propios hogares se vuelvan “inteligentes”, lo cual les permite, a su vez, constituirse en eficaces herramientas para la recolección de más y mejores datos.

En otras palabras, una nueva “civilización inteligente y ultraconectada”, que prospera, precisamente, gracias a la toma de decisiones estratégicas basadas en el Big Data.

IMPLICACIONES PRESENTES Y FUTURAS

La correcta aplicación de Big Data puede tener grandes y diferentes implicaciones para el progreso empresarial y, conjuntamente, de la sociedad.

Por ejemplo, para los administradores públicos, políticos y legisladores, la gran cantidad de conocimientos basados ​​en datos y macrodatos, puede traducirse en la formulación de mejores y más austeras políticas públicas, así como en la elección de mejores medios para avanzar hacia la consecución de los objetivos que demanda el bien común.

A su vez, para el ciudadano medio se traduce, por ejemplo, en aspectos tales como mejores decisiones de compra, optimización de viajes interurbanos, mejor administración del tiempo, o elecciones más informadas, transparentes y democráticas. En resumen, una mejor calidad de vida.

BÚSQUEDA PERMANENTE DE CONOCIMIENTOS

Este veloz cambio de paradigmas enfrenta a las empresas con la necesidad de dejar atrás las estrategias centradas sólo en la información, para reemplazarlas por aquellas basadas en el análisis de datos.

Quienes han comprendido esta trascendencia evolutiva, hoy progresan gracias al uso activo de la analítica, pasando de un enfoque estrictamente descriptivo a un modelo de análisis de diagnóstico, predictivo y prescriptivo. 

De este modo, las organizaciones que hoy aspiran a conquistar el mercado actúan, cada vez con más éxito, sobre la base de conocimientos y predicciones basados ​​en datos.

Esto implica operar desde ciertos atributos clave:

– Enfatizar la recopilación de datos.

– Invertir constantemente en herramientas y habilidades para recopilar y analizar esos datos.

– Comprometerse a que los datos sean ampliamente accesibles.

– Tener disponibilidad para considerar las ideas basadas en datos, que surgen desde todos los niveles de la empresa, sin discriminación de ningún tipo.

– Dedicarse al progreso continuo, basado también en datos.

El VALOR DE LAS “10 V”

Este enorme trabajo de recopilación, análisis e interpretación de grandes cantidades de datos (muchas veces diferentes y disímiles, aunque provengan de públicos relativamente homogéneos), requiere de ciertas precisiones técnicas y metodológicas.

En primer término, no se trata sólo de enfatizar el volumen, la velocidad y la variedad en la recopilación. Los especialistas han identificado, además, otras siete características adicionales que deben tenerse en cuenta, al intentar comprender, estudiar y aplicar el concepto de Big Data.

Esto lleva a plantear las siguientes 10 características que, para efectos de conveniencia práctica, comienzan todas con la letra “V”:

Volumen: Es tal vez el valor más extendido y trascendente, pues más del 90% de todos los datos digitales se generaron sólo en los últimos dos años. La velocidad actual de generación es, simplemente, asombrosa. Por ejemplo, cada minuto se cargan 300 horas de contenidos de video en YouTube.

Velocidad: Se refiere a la rapidez con que se generan los datos. Y hoy se habla de cifras que pueden parecer desconcertantes. Por ejemplo, sólo Facebook afirma que cada día le ingresan 600 terabytes de datos; mientras que Google asegura procesar un promedio de 40.000 consultas por segundo, lo que equivale a 3,5 mil millones de búsquedas diarias.

Variedad: Aproximadamente 90% de todos los datos disponibles son no estructurados o semiestructurados. En consecuencia, hay que hacer a un lado las clásicas columnas y filas de datos tabulados, así como cualquier otro método tradicional de análisis para trabajar con eficiencia.

Variabilidad: Se refiere a la “contaminación” de los datos, es decir, al número de discrepancias existentes. Estas pueden resolverse mediante métodos de detección de anomalías y valores atípicos. Aunque a menudo se confunde con variedad, esta característica es más específica y se relaciona con la multiplicidad de fuentes y tipos de datos incongruentes, que dan como resultado una multitud de puntos discrepantes que son claves para la correcta interpretación.

Veracidad: Se refiere principalmente al origen y confiabilidad de los datos, así como a su contexto y relevancia para el análisis posterior. Es una característica importante, especialmente en el contexto de las funcionalidades automatizadas, pues la confianza en los datos tiende a disminuir a medida que aumentan algunas o todas las propiedades antes mencionadas.

Validez: Plantea la necesidad de saber si los datos son correctos para el uso previsto. Su valor es tan grande, que los científicos de datos dedican aproximadamente 60% de su tiempo a la limpieza de toda la data, antes de considerarla en el análisis. Por ende, una excelente gobernanza de datos es imperativa para darle confiabilidad a los resultados.

Vulnerabilidad: La privacidad y seguridad deben ser parte esencial del ADN de cualquier organización que recopile, almacene y procese datos. Es un imperativo inevitable, pues cualquier violación en la cadena del Big Data, implica una gran brecha que puede llevar a un potencial desastre.

Volatilidad: En poco tiempo, ciertos datos se vuelven obsoletos e inútiles. Por ello, las organizaciones deben establecer reglas claras para su intercambio y disponibilidad oportuna, así como garantizar una rápida recuperación de la información.

Visualización: Implica hacer comprensibles las grandes cantidades de datos disponibles, para que sea más fácil traducirlas en acciones. La visualización es responsable de las percepciones elusivas que todo el mundo busca, dado que usar gráficos para contar historias complejas es extremadamente difícil.

Valor: El uso de Big data implica grandes costos, pero también ofrece la oportunidad de concretar importantes negocios. En otras palabras, hay que ocuparse de que el retorno de la inversión cubra los problemas presupuestarios que implica realizar un buen análisis de datos.

La correcta combinación de estas 10 “V” permitirá comprender mejor a los clientes, responder mejor a sus necesidades, optimizar los procedimientos y flujos de trabajo, reducir costos, incrementar los retornos y, consecuentemente, mejorar el rendimiento comercial.

LA PIRÁMIDE DIKW

La experticia directiva, o los conocimientos y competencias del líder, son factores importantes para la toma de decisiones estratégicas en una empresa. Sin embargo, los datos en sí mismos (y su posterior análisis), también pueden derivar en “sabiduría directiva”. 

Para ello se puede recurrir a la pirámide DIKW, o jerarquía DIKW. Esta define un modelo que representa las relaciones estructurales y funcionales que pueden construirse entre datos, información, conocimiento y sabiduría.

Esta idea se resume en una cita de la investigadora Jennifer Rowley, quien, en su estudio “La jerarquía y la sabiduría: Representaciones de la jerarquía DIKW”, publicado en 2007 en Journal of Information and Communication Science, manifestó que «por lo general, la información se define en términos de datos; el conocimiento, en términos de información; y la sabiduría, en términos de conocimiento».

Por ende, es lógico afirmar que la toma de decisiones se basa en la sabiduría; y que esta, a su vez, se basa en la recopilación de datos.

Técnicamente la “pirámide DIKW” ilustra la forma en que debieran darse los procesos de decisión basados en datos, a partir del siguiente esquema:

Primero se recopilan e introducen de datos de calidad en los sistemas de dirección y control de la empresa. 

Luego, la información resultante se evalúa en términos de integridad, corrección, vigencia, consistencia y precisión. Si puntúa suficientemente en estas escalas, dicha información se asimila como “conocimiento”.

La calidad del conocimiento resultante se evalúa contra el conocimiento de procedimiento ya incorporado en los sistemas de dirección y control, como plantillas para medir las fortalezas de los competidores, suposiciones sobre sus futuras campañas de posicionamiento e inversión, y suposiciones doctrinales, a menudo codificadas como reglas, entre otras posibles variables.

Finalmente, la conciencia (o sabiduría) resultante de estos análisis, se evalúa en términos de la utilidad que tenga, dentro de la base de conocimientos incorporada en los sistemas de dirección y control.

Si se aplican estos indicadores e instrumentos comerciales, podrá disponerse de un poderoso modelo para la toma de decisiones, basado en datos relevantes de alta calidad.

Esto nos lleva a concluir que los datos, por sí solos, son completamente inútiles. Su verdadero valor emerge de un análisis realizado por los algoritmos correctos. Sólo de este modo será posible extraer la información necesaria para impulsar mejores decisiones comerciales.

Por ende, sólo las empresas que implementen una estrategia integral de Big Data, podrán mantenerse a la vanguardia en términos de innovación y adaptación a las distintas variables que hoy le imprimen más y más dinamismo al mercado. 

Asimismo, impulsarán una efectiva modernización de su cultura organizacional, a partir de un manejo de la información que motive a los colaboradores a hacer mejor uso de los procesos basados ​​en el análisis de datos y los conocimientos resultantes. 

🔔 La nueva herramienta para crear formularios con Inteligencia Artificial en segundos
Pruébalo ahora

Sobre el autor

Francisco Gonzalez

Comparte en

Suscribete a nuestro Newsletter