BAQUIA

Big Data: cómo gestionar volúmenes de información de más de 1.000 millones de GBs

Óscar Domínguez de Lima, responsable de Marketing y Comunicación de Pragsis

El término Big Data hace referencia al conjunto de tecnologías y herramientas que permiten resolver los diferentes tipos de limitaciones asociadas al tratamiento de volúmenes de datos del orden de exabytes (≈1.000 petabytes = 1.000 millones de gigabytes).

Las principales organizaciones internacionales manejan millones de gigabytes de información de sus clientes, proveedores, productos y operaciones, generados a partir de información comercial, transacciones, redes sociales, blogs, páginas web, sensores, entre otras fuentes de información. El volumen de datos generados cada año crece de forma exponencial en todos los sectores. Tal es la velocidad con la que aumenta dicho volumen de información, que el 90% de la información existente ha sido generada en los últimos dos años, según otro informe de IBM.

Datos, datos y datos

Según el informe de 2011 de McKinsey Global Institute sobre el aumento del volumen de información a escala mundial, en 2010 se generaron y almacenaron más de 6.500 petabytes de datos (≈6.500 millones de gigabytes). Además, dicho informe prevé un crecimiento de un 40% anual, con Norteamérica y Europa a la cabeza.

Petabytes

Dado el volumen de datos generados, tanto las empresas como la administración pública se ven en la necesidad de contar con una tecnología capaz de almacenar, procesar y analizar dicha información de manera rápida y eficiente, con el menor coste posible.

Desde principios de 2000 Google viene trabajando con tecnologías que solventan estas barreras técnicas, mediante el uso de herramientas optimizadas que permiten manejar una gran cantidad de datos a una velocidad mayor, y de manera más eficiente y económica. Yahoo!, entre 2006 y 2008, inspirándose en las herramientas desarrolladas por Google, crea Hadoop, una tecnología Open Source que usa extensivamente en su negocio.

Hadoop ha tenido una gran acogida a nivel internacional por su robustez, fiabilidad y carácter gratuito. Según GigaOm, “La mayoría de las grandes empresas a nivel mundial están, al menos, experimentando con esta tecnología”. Algunas de estas compañías son Telefónica, Bank of America, Ebay, Facebook, Tuenti o Twitter, que hacen uso de tecnología Big Data basada en Hadoop desde hace varios años.

Son sólo un ejemplo de tantas grandes compañías que precisan soluciones para almacenar y procesar el elevado volumen de datos que manejan, sin que sea necesaria una gran inversión en infraestructura. Facebook y Yahoo cuentan con los mayores cluster de Hadoop del mundo, en concreto, Yahoo cuenta con un centro de procesamiento de datos con alrededor de 42.000 máquinas que almacenan un volumen de información en torno a los 200 millones de gigabytes.

En España, las tecnologías Big Data están irrumpiendo con mucha fuerza, dotando a las compañías de nuevas armas de venta en un entorno de mercado muy competitivo. En los próximos años veremos cada vez más ejemplos de grandes plafaformas procesando complejos entornos de datos.

David Millán, Head of Big Data Solutions en Pragsis, explica de forma sencilla las razones por las que contar con una plataforma de gestión de grandes volúmenes de datos: “Las empresas, y la sociedad en su visión más amplia, están generando un mar de información del que se está procesando y analizando menos de un 15%. El análisis exhaustivo de la información generada por las empresas ayuda a reducir costes, a maximizar el beneficio y, sobre todo, a generar nuevos negocios no imaginados hasta la fecha. La tecnología Hadoop ofrece nuevas dimensiones y posibilidades empresariales, pues ayuda a canalizar, procesar e interpretar grandes volúmenes de información de diversa índole”.


Compartir en :


Noticias relacionadas

Recomendamos




Comentarios