EL JUEGO DE LA OCA
El Big Data, Small data o el Análisis de Datos se ha hecho un hueco en muchos sectores profesionales hasta volverse una herramienta fundamental en nuestro día a día. Pero ¿realmente sabemos cómo afrontar todos los retos y desafíos que supone el Big Data y el análisis de datos?
Sin duda 2020 ha sido un gran año para el Big Data y seguirá su desarrollo durante el 2021, las nuevas tecnologías han permitido consolidar el uso de herramientas y estrategias de este ámbito y podemos ver como el Big Data Analytics es una práctica más del Business Intelligence y un valor diferencial de la competencia.
ÍNDICE DE CONTENIDOS
Tendencias Big Data y Analítica 2021
Esto es así porque el dato es el nuevo valor a gestionar por parte de las organizaciones de todo tipo. Las empresas están buscando capacidades en cuanto a la captura, almacenamiento y procesamiento del dato, y aquellas que lo consigan habrán alcanzado una ventaja sobre su competencia, es lo que se denomina Ventaja Analítica. Aquellas empresas que logren las ansiadas ventajas analíticas podrán decir, entonces sí, que son verdaderas empresas Data Driven, empresas centradas en el valor del dato.
Muchos expertos coinciden que 2021 será el año en que el Big Data logrará una evolución tecnología considerable pero aún nos queda mucho para ver todo lo que el Big Data puede hacer por nosotros y sin duda será un cambio de contexto económico y social.
Con la analítica aumentada veremos la aparición de conocimientos o cambios más importantes que servirán a los negocios a optimizar la toma de decisiones.
Nuestra primera tendencias de Big Data , la analítica aumentada, utiliza el aprendizaje automático y la inteligencia artificial para mejorar el análisis de los datos mediante la búsqueda de un nuevo método de creación, desarrollo y compartición de análisis de datos. Muchos clientes empresariales prefieren el análisis aumentado a los análisis tradicionales para reducir los errores y sesgos humanos.
Para 2021, la analítica aumentada será un impulsor dominante de nuevas de herramientas tecnológicas que hagan del propio proceso de analítica de datos algo sencillo y accesible para gran parte de los perfiles de una organización. Estas herramientas tratarán de democratizar la ciencia de datos y el aprendizaje automático a toda una organización.
Otra palabra clave cuando hablamos de avances tecnológicos es la IA que está permitiendo ser más rápido y preciso a la hora de la toma de decisiones estratégicas en muchos sectores empresariales. Lo que sin duda veremos es como el auge de las tecnologías digitales, el almacenamiento de datos a un menor coste, el hardware de alto rendimiento y el software integrado fomentarán el cambio tanto en las grandes como en las pequeñas empresas.
Las empresas que adopten la IA formando parte de sus procesos de negocio serán cada vez más, y es lógico, puesto que las ventajas que ofrece esta tecnología son muchas en diferentes niveles como, por ejemplo, a nivel de procesos, de creación de nuevos modelos de negocio, de interacción con el cliente, e incluso de interacción entre las propias personas de una organización
Datos como servicio
Los datos como servicio utilizan la tecnología de la nube para dar a los usuarios y las aplicaciones con acceso a la información a pedido sin depender de dónde puedan estar los usuarios o las aplicaciones. Es una de las tendencias actuales en el análisis de grandes datos. Los datos como servicio son como el software como una ayuda, la infraestructura como una ayuda, la plataforma como una ayuda.
La computación en memoria son los datos que se almacenan en un nuevo nivel de memoria que está situado entre la memoria flash NAND y la memoria dinámica de acceso aleatorio. Esto proporciona una memoria mucho más rápida que puede soportar cargas de trabajo de alto rendimiento para el análisis avanzado de datos en las empresas.
Data Lakehouse: Más allá del Data Lake
¡Seguimos con más Tendencias Big Data! Actualmente muchas de las grandes compañías tienen uno o varios Data Lakes y uno o varios Datawarehouses. Probablemente la mayoría también separe los casos de uso en casos de IA(Inteligencia Artificial) o Data Science de los casos de BI, lo más común es que para los primeros se usen los Data Lakes y para los segundos se usen los Datawarehouses.
Hasta hace unos años, esto era lo normal, puesto que el grado de madurez de las tecnologías no permitía que el grado de las sinergias entre los dos mundos fuera grande. Desafortunadamente en la todavía los mundos BI y Big Data siguen separados principalmente porque la manera de contestar las preguntas del negocio son diferentes:
BI: Las preguntas son conocidas por lo que modelamos los datos para obtener respuestas a esas preguntas
Big Data: No sabemos las preguntas por lo que analizamos los datos buscando esa pepita de oro
Afortunadamente la industria se mueve a modelos más holísticos, concretamente, las arquitecturas de datos se están uniendo en plataformas que pueden extraer lo mejor los dos mundos favoreciendo las sinergias entre BI y Big Data.
«Este cambio tiene que seguir satisfaciendo las necesidades de velocidad, rendimiento, calidad y veracidad que las grandes compañías siguen requiriendo», La idea de un Data Lakehouse es la siguiente:
¿Se podría crear un Datawarehouse sobre un sistema de almacenamiento distribuido barato, sin perder el rendimiento del sistema y que siga cubriendo los casos de uso más enterprise?
La respuesta es: Sí. Y es que en esencia un Data Lakehouse es un Datawarehouse que tiene como almacenamiento de datos un Data Lake, la idea es simple, pero esconde una gran complejidad técnica que muchas compañías han sabido trasladar a la realidad: Databricks, Snowflake, Microsoft…
Las características fundamentales de un Data Lakehouse son:
Soporte ACID
Gestión de los esquemas y los metadatos
Conectividad con herramientas BI
Almacenamiento desacoplado del procesamiento
Formatos de almacenamiento Open Source(parquet)
Soporte para datos estructurados y no estructurados
Soporte para diferentes casos de uso: Machine learning, reporting/dashboarding, ETL
Capacidad de gesitonar datos en real-time/streaming
Para terminar, es un nuevo paradigma que simplifica radicalmente la infraestructura de datos empresariales y acelera la innovación en una era en la que Machine Learning está listo para revolucionar todas las industrias, especialmente mezclando todo tipo de datos internos, externos, estructurados y no estructurados.
Puede que el cambio climático no sea un tema nuevo para los científicos, pero el aprovechamiento del Big Data para combatirlo puede ser la corriente principal del 2021. De hecho, se cree que el aprovechamiento del Big Data puede ayudarnos a conocer el estado actual de las emisiones de dióxido de carbono.
No sólo eso, sino que incluso los datos de la investigación meteorológica, las ciencias de la tierra, la investigación oceánica e incluso las instalaciones de investigación nuclear están estipulados para ayudarnos a comprender el cambio climático y otras condiciones ambientales relacionadas con el planeta