.
INTERNET ECONOMY

La moda del Big Data

sábado, 25 de julio de 2015
La República Más
  • Agregue a sus temas de interés

Jesús Diez

Por otra parte, se aprecia que existe confusión en cómo aplicarlo, cómo instalarlo e inclusive en que consiste, por lo que primero debemos entender que es el Big Data. 

El Big Data es la gestión y análisis de enormes volúmenes de datos que no pueden ser tratados de manera convencional, los mismos superan las capacidades de las herramientas de software habitualmente utilizadas para la captura, gestión y procesamiento de datos. Esto conlleva a tener importantes infraestructuras, diversas tecnologías y servicios con los cuales se puedan dar soluciones al procesamiento de grandes cantidades de datos (tanto estructurados, no estructurados o semi-estructurados), ejemplos de ello archivos de audio, imágenes digitales, mensajes por redes sociales, emails, escáneres médicos, etc.

Los usuarios cuentan hoy con infinidad de dispositivos a través de los cuales se pueden conectar y acceder a servicios informáticos (celulares, tablets, teléfonos inteligentes, netbooks, notebooks, GPS, la tradicional PC, cámaras, etc.). Al mismo tiempo las vías de acceso a los servicios se han diversificado, a las redes privadas que utilizaban las empresas, se les sumo primero internet y luego las redes de banda ancha móviles. La multiplicidad de dispositivos, la facilidad de acceso y el consecuente aumento de la cantidad de usuarios y del tipo de datos (alfanuméricos, voz, video, imágenes, etc.), ha generado este crecimiento exponencial del volumen de datos que se conoce como Big Data.

El objetivo de Big Data es convertir el dato en información que facilite la toma de decisiones, incluso en tiempo real, lo cual conlleva a transformarlo en una oportunidad de negocio. Las empresas ya están utilizando Big Data para entender el perfil, las necesidades y el sentir de sus clientes respecto a los productos y servicios ofrecidos.

Para poder llevar adelante los procesos de adquisición, extracción, integración, análisis e interpretación de los datos, no solamente va ser importante contar con tecnologías que puedan manejar el volumen, la variedad y la velocidad, sino también con un nuevo modelo de procesamiento a través del cual se pueda generar a través de esos datos el valor esperado y por supuesto contar con las herramientas necesarias para implementarlo y soportarlo.

¿Por qué hablamos de un nuevo modelo de procesamientos de datos?
Básicamente, porque los métodos de análisis y consulta de grandes volúmenes de datos son fundamentalmente diferentes de análisis estadísticos tradicionales basados en pequeñas muestras. Estos datos son a menudo más sucios, dinámicos, heterogéneos, y podríamos también decir más complejos, ya que a la hora de analizar alguno de ellos podría ser necesario incorporar los metadatos o para automatizar el proceso podríamos tener que recurrir a definiciones semánticas.  Podemos reconocer inclusive que en determinadas situaciones pueden ser menos confiables. Sin embargo, incluso en estas condiciones puede ser más valioso para el negocio que las muestras pequeñas que se manejan en los análisis tradicionales.  Además, este gran volumen de datos interconectados forma grandes redes de información que se pueden explorar para compensar los datos faltantes, para cotejar los casos conflictivos, o para validar su veracidad.

Cuando hablamos de Big Data, y hablamos del volumen, la variedad y la velocidad, se debe sumar también dos importantes características que de por si son fundamentales para la toma oportuna y eficaz de decisiones que son la veracidad y el valor de ese dato. Por eso hoy en día se habla del científico de datos, un profesional con perfil científico, tecnológico y de visión de negocio.

Conozca los beneficios exclusivos para
nuestros suscriptores

ACCEDA YA SUSCRÍBASE YA