El uso de datos ha crecido mucho en los últimos años. Los especialistas se han dado cuenta de su importancia dentro de la transformación digital. Pero, ¿cuál es la historia detrás del big data?
Los primeros registros de uso de datos para rastrear y controlar negocios datan de hace más de 7.000 años. Cuando se introdujo la contabilidad en Mesopotamia para registrar el crecimiento de cultivos y rebaños. Con el tiempo los principios contables continuaron mejorando. Así que en 1663, John Graunt registró y examinó toda la información sobre los roles de mortalidad en Londres. Él quería comprender y construir un sistema de alerta para la peste bubónica en curso. En el primer registro de análisis de datos estadísticos, reunió sus hallazgos en el libro “Observaciones naturales y políticas”. Hechas sobre las facturas de mortalidad, que proporciona grandes conocimientos sobre las causas de muerte en el siglo XVII.
Por su trabajo, Graunt puede considerarse el padre de la estadística. Y por lo tanto uno de los pioneros dentro de la historia del big data. A partir de ahí, los principios contables mejoraron pero no pasó nada espectacular. Hasta que en el siglo XX comenzó la era de la información. El primer recuerdo de los datos modernos se remonta a 1887. Cuando Herman Hollerith inventó una máquina de computación que podía leer los agujeros perforados en tarjetas de papel para organizar los datos de un censo.
El Siglo XX
El primer gran proyecto de datos se creó en 1937 y fue encargado por la administración de Franklin D. Roosevelt en los Estados Unidos. Después de que la Ley del Seguro Social se hizo oficial, el gobierno tuvo que realizar un seguimiento de las contribuciones de 26 millones de estadounidenses y más de 3 millones de empleadores. IBM obtuvo el contrato para desarrollar una máquina de lectura de tarjetas perforadas para este enorme proyecto de contabilidad.
La primera máquina de procesamiento de datos apareció en 1943. Fue desarrollada por los británicos para descifrar los códigos nazis durante la Segunda Guerra Mundial. Este dispositivo, llamado Colossus, buscaba patrones en los mensajes interceptados a una velocidad de 5.000 caracteres por segundo. De este modo, la tarea se reduce de semanas a horas.
En 1952 se creó la Agencia de Seguridad Nacional (NSA) y en 10 años se contrató a más de 12.000 criptólogos. Esto porque se enfrentaron a una sobrecarga de información durante la Guerra Fría cuando comienzaron a recopilar y procesar señales de inteligencia automáticamente.
En 1965, el gobierno de los Estados Unidos decidió construir el primer centro de datos para almacenar más de 742 millones de declaraciones de impuestos. Así como 175 millones de conjuntos de huellas dactilares transfiriendo todos esos registros a cintas magnéticas de computadora que debían almacenarse en un solo lugar. El proyecto se abandonó más tarde por temor al «Big Brother». Pero en general se acepta que fue el comienzo de la era del almacenamiento de datos electrónicos en la historia del big data.
En 1989, el científico informático británico Tim Berners-Lee inventó finalmente la World Wide Web. Quería facilitar el intercambio de información a través de un sistema de «hipertexto». Pero él no sabía en ese momento el impacto que su invento iba a tener en el futuro.
A partir de los años 90, la creación de datos se ve impulsada a medida que cada vez más dispositivos están conectados a Internet. En 1995 se construyó la primera supercomputadora. Que fue capaz de hacer tanto trabajo en un segundo de lo que puede hacer una calculadora operada por una sola persona en 30.000 años.
El Siglo XXI
En 2005, Roger Mougalas de O’Reilly Media acuñó el término Big Data por primera vez, solo un año después de que crearan el término Web 2.0. que se refiere a un gran conjunto de datos que es casi imposible de administrar y procesar con herramientas tradicionales de inteligencia empresarial.
2005 es también el año en que Yahoo! creó Hadoop, construido sobre MapReduce de Google. Su objetivo era indexar toda la World Wide Web y, hoy en día, muchas organizaciones utilizan Hadoop de código abierto para analizar grandes cantidades de datos.
A medida que comienzan a aparecer más y más redes sociales y la Web 2.0 toma vuelo, se crean más y más datos a diario. Las startups innovadoras lentamente comienzan a profundizar en esta enorme cantidad de datos y también los gobiernos comienzan a trabajar en proyectos de Big Data. En 2009, el gobierno de la India decide tomar un escáner de iris, una huella digital y una fotografía de sus 1.200 millones de habitantes. Dentro de la historia del big data este fue un momento crucial. Ya que todos estos datos se almacenron en la base de datos biométrica más grande del mundo.
En 2010 Eric Schmidt habla en la conferencia Techonomy en Lake Tahoe en California y afirma que «hubo 5 exabytes de información creada por el mundo entero entre los albores de la civilización y 2003. Ahora esa misma cantidad se crea cada dos días».
En 2011, el informe McKinsey sobre Big Data menciona: la próxima frontera para la innovación, la competencia y la productividad, establecía que solo en 2018 los EE. UU. enfrentarían una escasez de 140.000 – 190.000 científicos de datos, así como 1,5 millones de administradores de datos.
En los últimos años, ha habido un aumento masivo de nuevas empresas de Big Data, todas tratando de lidiar con datos y ayudando a las organizaciones a comprenderlos. Cada vez más empresas están adoptando y avanzando lentamente hacia una cultura basada en datos. Sin embargo, aún faltan muchos avances y proyectos por venir. ¿Tú ya eres parte de la revolución e historia del big data? ¡Aprende más con nosotros!