En todos los informes, predicciones, visiones… sobre el futuro, aparece el Big Data como una de las áreas más interesantes para trabajar.
Junto al grafeno, los coches eléctricos, el cloud computing y el «Internet de las cosas», el Big Data es omnipresente en todas las listas de tecnologías, tendencias, retos…
Esto ha provocado que todo el mundo hable del Big Data. Y esta ubicuidad ha conseguido que nadie sepa muy bien qué es exactamente. Me recuerda a la Web 3.0, de la que todo el mundo opina pero pocos saben realmente.
No voy a ser yo el que resuelva la duda, entre otras cosas porque no creo que haya, aún, una forma única de decir qué es. Pero sí tengo una opinión e, incluso, una que tiene una conexión con la gestión documental (motivo último para que aparezca este tema en este blog).
La definición obvia del «Big Data» es el tratamiento de «grandes» volúmenes de datos.
Pero con esta definición en seguida surge el primer problema: ¿cuánto de «grande» tiene que ser una base de datos para que la consideremos «Big Data»?
Teniendo en cuenta que la capacidad de los discos duros y pen-drives (y el almacenamiento gratuito en la nube) se duplica cada año o año y medio, está claro que el concepto de «grande» cambia cada poco tiempo. Y según quien lo usa. Lo que para una PYME puede ser Big Data, para Oracle o EMC es trivial. Así que tenemos que mejorar un poco esta definición.
Personalmente me gusta utilizar una un tanto subjetiva. Creo que una base de datos (de clientes, facturas, cobros…) se convierte en «Big Data» cuando se vuelve inmanejable sin la ayuda de herramientas de análisis complejas. (más…)