Big Data

Search for glossary terms (regular expression allowed)

Diccionarios

Término Definición
Big Data

Los macrodatos, también llamados datos masivos, inteligencia de datos, datos a gran escala o big data (terminología en idioma inglés utilizada comúnmente) es un término que hace referencia a conjuntos de datos tan grandes y complejos que precisan de aplicaciones informáticas no tradicionales de procesamiento de datos para tratarlos adecuadamente. Los Datos son la reproducción simbólica, de un atributo o variable cuantitativa o cualitativa; según la RAE «Información sobre algo concreto que permite su conocimiento exacto o sirve para deducir las consecuencias derivadas de un hecho»​. Por ende, los procedimientos usados para encontrar patrones repetitivos dentro de esos datos son más sofisticados y requieren un software especializado. En textos científicos en español, con frecuencia se usa directamente el término en inglés big data, tal como aparece en el ensayo de Viktor Schönberger La revolución de los datos masivos. 


 

El uso moderno del término "big data" tiende a referirse al análisis del comportamiento del usuario, extrayendo valor de los datos almacenados, y formulando predicciones a través de los patrones observados. La disciplina dedicada a los datos masivos se enmarca en el sector de las tecnologías de la información y la comunicación. Esta disciplina se ocupa de todas las actividades relacionadas con los sistemas que manipulan grandes conjuntos de datos.

Las dificultades más habituales vinculadas a la gestión de estos grandes volúmenes de datos, se centran en la recolección y el almacenamiento de los mismos, en las búsquedas, las comparticiones, y los análisis, y en las visualizaciones y representaciones.

La tendencia a manipular enormes volúmenes de datos, se debe en muchos casos a la necesidad de incluir dicha información, para la creación de informes estadísticos y modelos predictivos utilizados en diversas materias, como los análisis sobre negocios, sobre publicidad, sobre enfermedades infecciosas, sobre el espionaje y el seguimiento a la población, o sobre la lucha contra el crimen organizado.

El límite superior de procesamiento ha ido creciendo a lo largo de los años.[8]​ Se estima que el mundo almacenó unos 5 zettabytes en 2014. Si se pone esta información en libros, convirtiendo las imágenes y todo eso a su equivalente en letras, se podría hacer 4500 pilas de libros que lleguen hasta el sol.

Los científicos con cierta regularidad encuentran límites en el análisis debido a la gran cantidad de datos en ciertas áreas, tales como la meteorología, la genómica, la conectómica (una aproximación al estudio del cerebro; en inglés: Connectomics; en francés: Conectomique), las complejas simulaciones de procesos físicos y las investigaciones relacionadas con los procesos biológicos y ambientales.​

Las limitaciones también afectan a los motores de búsqueda en internet, a los sistemas de finanzas y a la informática de negocios. Los data sets crecen en volumen debido en parte a la recolección masiva de información procedente de los sensores inalámbricos y los dispositivos móviles (por ejemplo las VANET), el constante crecimiento de los históricos de aplicaciones (por ejemplo de los registros), las cámaras (sistemas de teledetección), los micrófonos, los lectores de identificación por radiofrecuencia.

La capacidad tecnológica per cápita a nivel mundial para almacenar datos se dobla aproximadamente cada cuarenta meses desde los años 1980.

Se estima que en 2012 cada día fueron creados cerca de 2.5 trillones de bytes de datos. Los sistemas de gestión de bases de datos relacionales y los paquetes de software utilizados para visualizar datos, a menudo tienen dificultades para manejar big data. Este trabajo puede requerir "un software masivamente paralelo que se ejecute en decenas, cientos o incluso miles de servidores"​.

Lo que califica como "big data" varía según las capacidades de los usuarios y sus herramientas, y las capacidades de expansión hacen que big data sea un objetivo en movimiento. "Para algunas organizaciones, enfrentar cientos de gigabytes de datos por primera vez puede provocar la necesidad de reconsiderar las opciones de administración de datos. Para otros, puede tomar decenas o cientos de terabytes antes de que el tamaño de los datos se convierta en una consideración importante".

Los grandes volúmenes de datos recopilados por varias organizaciones. Estos datos se analizan de muchas maneras para encontrar patrones, correlaciones y otras ideas sobre los usuarios. Aunque a menudo es tan grande que no se puede procesar con el software tradicional, lo importante no es solo el volumen de datos.

El analista de la industria Doug Laney usó 'las tres V' para explicar el sistema de big data, en 2001 👇

1. Volumen
Los datos se recopilan de una variedad de fuentes, y la cantidad de datos disponibles crece a un ritmo creciente.

2. velocidad
Esto se refiere a la velocidad del procesamiento de datos, que continúa mejorando. Por ejemplo, las aplicaciones de redes sociales permiten a las empresas recopilar grandes cantidades de datos a velocidades que no se habrían escuchado hace una década, no importa en 2001.

3. Variedad
La variedad es la cantidad de tipos de datos que se recopilan. Como con todo lo demás, esto continúa expandiéndose con cada año que pasa.

👉 Cuando se juntan, las tres V definen el concepto de big data. En pequeña escala, es bastante inofensivo y es un método efectivo para establecer qué funciona y qué no. Sin embargo, el auge de las redes sociales y otros servicios en línea ha llevado a la persona promedio a renunciar a grandes cantidades de información personal, lo que tiene implicaciones preocupantes para el futuro.

Después de todo, ¿se siente realmente cómodo con una variedad de organizaciones que tienen información sobre todas sus actividades, tanto dentro como fuera de línea? Cuando considera que los métodos de análisis solo serán más exhaustivos, ¿cuál será el resultado final? ¿Los lugares de trabajo serán más seguros o el análisis acelerará los recortes de personal y la automatización? ¿Los adictos al juego estarán a salvo de un flujo constante de anuncios de apuestas de compañías capaces de apuntarlos con mayor precisión?

En el aquí y ahora, ya hemos visto el lado negativo del análisis de big data, por ejemplo, cuando el infame Cambridge Analytica recopiló ilegalmente datos de usuarios de Facebook para ayudar a campañas políticas en todo el mundo. Esta saga muestra que el uso de big data puede ser muy efectivo para persuadir a los usuarios seleccionados para que voten de cierta manera o para impulsar una agenda deseada.

Luego están las empresas de redes sociales como Facebook, que acumulan datos que finalmente se empaquetan y venden. Si tiene dudas sobre big data, el primer paso es limitar el uso de las redes sociales siempre que sea posible.

Es difícil describir el tamaño de los grandes datos. Puede consistir en petabytes (1,024 terabytes) o exabytes (1,024 petabytes) con registros sobre millones de personas, o perfiles más detallados sobre un número menor.

Big data es una seria preocupación de privacidad, y no importa si no tiene nada que ocultar. Las empresas, organizaciones y gobiernos quieren saber todo sobre nosotros y pueden procesar más datos a velocidades cada vez mayores. Por otro lado, es difícil culparlos, ya que el uso de big data ha demostrado ser altamente efectivo en el pasado.

Author - .
Visto - 97

Esta web utiliza cookies propias y de terceros para analizar y mejorar tu experiencia de navegación. Al continuar navegando, entendemos que aceptas su uso. Más información:Política de privacidad.

  Acepto cookies de este sitio.
Directiva Europea sobre privacidad y comunicaciones electrónicas