BAQUIA

Devorados por la información digital

Hace unos años, un simple router de 56 Kbs era todo lo que necesitábamos para acceder a la información digital que manejábamos. Entonces apenas utilizábamos el correo electrónico y navegábamos por webs compuestas de texto e imágenes. Hoy día, la información digitalizada no deja de crecer: las televisiones digitales, el contenido interactivo en la Red, la VoIP, las etiquetas RFID o los sistemas de monitorización y vigilancia son sólo algunos ejemplos de esta imparable progresión.

Estos son algunos datos que se recogen en el informe The Expanding Digital Universe, elaborado por IDC:

  • En 2006, la información digital creada y procesada ascendía a 161 exabytes, o lo que es lo mismo, 161.000 millones de gigabytes. Esto equivale a unos tres millones de veces la información acumulada en todos los libros jamás escritos. La mayoría de esta información está compuesta por imágenes, procedentes de los 1.000 millones de aparatos (teléfonos, cámaras, escáneres, aparatos de vigilancia…) capaces de captarlas.
  • Con ser ya enorme esta cantidad, entre 2006 y 2010 la información digital se multiplicará por seis, hasta llegar a 988 exabytes.
  • Actualmente, las economías emergentes de países como India, China, Sudamérica o Europa Oriental aportan el 10% del universo digital, pero en los próximos años crecerán a un ritmo estimado entre un 30 y un 40% mayor que las economías más maduras.
  • En 2010, el 70% de la información digital será creada por particulares, aunque diferentes organizaciones (empresas, gobiernos, asociaciones) tendrán la responsabilidad de custodiar el 85% de ese universo digital.
  • De toda la información digital disponible actualmente, se calcula que en torno al 20% está sometida a reglas y estándares, y un 30% está potencialmente sujeta a aplicaciones de seguridad.

Las causas de la explosión

Según el estudio de IDC, los principales factores que están contribuyendo a esta explosión de información nunca antes conocida son el crecimiento de Internet (48 millones de usuarios en todo el mundo en el año 1996, 1.100 millones en 2006 y 1.600 esperados en 2010) y la banda ancha, que favorece que proliferen las aplicaciones multimedia, de mayor tamaño.

Por citar algunos ejemplos, sólo YouTube sirve una media de 100 millones de vídeos diarios; por las redes P2P se calcula que circulan diariamente 1.000 millones de archivos; y entre los 1.600 millones de buzones de correo electrónico existentes el año pasado se intercambiaron 6 exabytes, el 3% del total de la información digital; y ello sin contar el spam, que añade cada día 60.000 millones de mensajes, el 95% del correo que circula.

Otros elementos que contribuyen a esta tendencia son la conversión de datos (como películas, llamadas de voz o señales de televisión) del formato analógico al digital, la caída de precios de aparatos como cámaras, teléfonos y ordenadores, así como la creciente facilidad para almacenar y compartir la información en formatos fácilmente intercambiables.

Por último, también influye la disminución de precios del almacenamiento y la creciente capacidad de procesamiento, que lleva a que cada vez más instituciones y organizaciones opten por el contenido digital.

Con todos estos datos, ya han salado todas las alarmas: a finales de este mismo año, la información digital en circulación podría sobrepasar la capacidad total de almacenamiento disponible.

Y algunas consecuencias

Por supuesto, este panorama reclama un nuevo planteamiento en la manera en que empresas y organizaciones de todo tipo, con la responsabilidad de transportar, almacenar, asegurar y replicar la información digital, se ven en la obligación de migrar hacia métodos más sofisticados y eficaces de tratar esa ingente cantidad de datos. Pero además, hay modelos de negocio que pueden verse seriamente amenazados en este nuevo escenario.

Para mitigar el problema de la saturación de información, algunos ISPs ya están aplicando políticas de restricción del tráfico, reduciendo la cantidad y velocidad de las descargas en determinadas circunstancias: cuando el proveedor detecta que un cliente está haciendo un uso inapropiado o excesivo de su conexión (generalmente debido a la descarga de archivos en las redes P2P), puede cerrar parcialmente el grifo para evitar que el resto de usuarios reciba un peor servicio a costa del abusón. De aquí que el debate sobre la neutralidad de la Red vaya a cobrar fuerza en los próximos tiempos, aunque esto es tema para otro artículo…

Probablemente, uno de los sectores que mire con más preocupación todas estas consideraciones sea el del vídeo bajo demanda, anunciado como uno de los sectores punteros en la industria tecnológica en los próximos años. El modelo de descargas que proponen empresas como Joost o 4oD, recién inaugurado servicio del británico Channel 4, basados en tecnologías peer-to-peer, podrían ser catalogados por los proveedores como perniciosos: apenas tres horas viendo programas en Joost pueden consumir 1GB de datos, suficiente para que un proveedor califique de “gorrón” o “anormal” al usuario de turno.

¿Y cómo afrontar el problema?

Aparte de la ya mencionada y polémica dosificación del ancho de banda, otras soluciones que proponen para intentar solventar el problema pasan por la multiplicación de los soportes de almacenamiento (discos duros, CDs, memorias externas, etc.), aunque esta opción tiene el doble inconveniente de, por un lado, ser un proceso un tanto farragoso, y por otro, que no toda la información existente es susceptible de ser almacenada en este tipo de soportes.

Otro informe de la consultora Delitte, Telecommunications Predictions 2007, que llega a conclusiones similares al de IDC, propone como soluciones el despliegue de nuevas infraestructuras capaces de dar cabida a toda la demanda futura, aunque aquí el gran inconveniente sería el enorme coste asociado, estimado en torno a los 240.000 millones de dólares. Además, no está claro quién debería hacerse cargo de esta operación: ¿los ISPs?; ¿los gobiernos?; ¿los proveedores de contenidos?

Procera Networks es una compañía californiana especializada en la optimización del ancho de banda. Durante la reciente presentación de su sede en España, sus responsables declararon que ya empiezan a ser visibles los efectos de la saturación informativa de al Red. Procera ha desarrollado un software que prioriza el tráfico de la Red en función del contenido y el perfil del usuario, con el objetivo de garantizar que la información trivial no entorpezca el servicio.

Además, no hay que olvidar el coste económico que ésta conlleva: mientras el envío de 100.000 correos electrónicos le cuesta a un ISP alrededor de 20 céntimos, el envío de 100.000 vídeos de baja resolución cuesta alrededor de 15 dólares, y 100.000 películas de alta definición le salen por casi 11.800 dólares.

Que una parte de este coste se traslade al usuario, acostumbrado a tarifas planas y ofertas cada vez más atractivas en el competitivo mercado de la banda ancha, es una posibilidad poco popular pero en absoluto descartable. Así se abre la posibilidad de entrar en la era de la denominada Banda Ancha Dinámica , donde el usuario tendrá a su disposición multitud de combinaciones y planes en función de la calidad y cantidad de servicios que desea consumir.


Compartir en :


Noticias relacionadas

Recomendamos




Comentarios