Tiempo de lectura: 3' 39'' No. de palabras: 607

Aunque no es un concepto reciente, la masificación de Big Data sí lo es. El término inglés hace referencia al volumen de información generada en la Red.

¿Volumen? Sí. Francisco Guzmán, gerente general de Level 3 Ecuador, cuenta que desde el inicio de la vida digital hasta el 2000 se generó 5 000 millones de gigas de información. Pero desde ese año, se generan las mismas 5 000 millones de gigas cada dos días. Solo en Twitter se crean 12 terabits de tuits diariamente y en Facebook 100 petabits (entre fotos y videos) al día.

No solo el volumen es lo que cuenta, sino la velocidad que depende de la conexión a Internet y la capacidad de generarla. Guzmán comenta que el tráfico global de teléfonos móviles supera los 130 exabits anuales, lo que equivaldría a 33 billones de DVD o 800 cuatrillones de mensajes de texto con información.

No solo se trata de datos generados en la Internet a través de redes sociales y correos electrónicos, sino que también todos los datos que se comparten en la Red. Big Data no existiría como tal si la información generada se quedara en la Red sin ningún tipo de uso.

El concepto tecnológico propone que a través del análisis de esta información se pueda tomar decisiones empresariales. Para Carlos Galeano, especialista de Regional EMC, lo más importante de este procesamiento es que se lo puede hacer en tiempo real. Galeano explica que antes se procesaba información histórica, pero ahora con la proliferación de móviles se puede conocer lo que sucede en el mundo de forma inmediata.

Una de las aplicaciones más comunes de Big Data es la creación de ciudades inteligentes a través del control de tráfico. Por ejemplo, cuando una persona utiliza Waze (aplicación de localización) también informa a otros usuarios sobre las posibles congestiones y vías alternas. Justamente esto, es lo que hace Big Data a gran escala: encontrar esta información y generar mecanismos de control vehicular.

En el campo de investigativo sirve como una herramienta útil para procesar la información que se almacena en hospitales y centros médicos. Guzmán cuenta que la implementación de herramientas que procesen esta información en Estados Unidos podría ahorrar al país alrededor de USD 300 billones anuales. El procesamiento permitiría, según Guzmán, prevenir pandemias o catástrofes.

Álex Salazar, gerente del grupo de software de IBM Ecuador, explica que a través de la minación de información se puede identificar patrones. Hay que considerar que actualmente el mundo genera 2,5 quintillones de bites en el mundo diariamente, dice Guzmán.

Salazar explica que hay herramientas disponibles para extraer la información y analizarla. IBM, por ejemplo, cuenta con equipos y software que minan estos datos automáticamente dependiendo de los parámetros que indique la empresa contratante. La compañía EMC también cuenta con infraestructura adecuada para analizar esta información.

Según Salazar, Ecuador también incursiona en esta tendencia desde hace un año. El sector financiero y entidades gubernamentales han optado de este concepto para conocer más los hábitos de consumo de los ecuatorianos. De hecho, según Galeano, este manejo es una necesidad latente en Ecuador.

Los datos

  • 2,5 quintillones de bites de información se generan a través de Internet. Estos datos son creados diariamente.
  • 12 tebits es la cantidad de publicaciones que se generan en Twitter diariamente. La cantidad refleja el consumo mundial.
Califique
2
( votos)