Big Data e Sua História Desde o Hadoop

Saiba como hadoop e mapreduce revolucionarem nossa capacidade de processar dados 


Introdução

Dados tem sido uma parte essencial da evolução do ser humano por milhares de anos  através de observação e compreensão nós processamos os dados para complicar ou simplificar nossas vidas como nossos cérebros evoluiu ao longo dos séculos a capacidade para assimilar grandes quantidades de dados tornou-se parte integrante da nossa existência. Nos dias atuais com nossa tecnologia avançada  as máquinas tornaram-se capazes de adquirir e processar conjuntos de dados gigantescos, 

Este artigo irá abordar de forma rápida as origens do big data e como ele conseguiu transformar a nossa vida, 

Big Data

Big data é o termo usado para definir grandes quantidades de dados que podem ser processado para revelar tendências de padrões e associações, especialmente relacionadas a comportamento humano e interações do termo big data foi cunhado pelo author Roger Mougalas da O'Reilly Media em 2005, que mencionou o termo para descrever uma quantidade de dados tão grande que não poderia ser processado por ferramentas tradicionais de big data os tipos de dados de big data podem ser classificados em três tipos: estruturado, não estruturados e semi estruturados inicialmente usado para processar processos estruturados e semi-estruturados big data ajudou muito a processar e extrair sentido de dados não estruturados. 

O mais antigo registros de uso de dados para rastrear e empresas de controle datam de 7.000 anos atrás, quando a contabilidade foi introduzida na Mesopotâmia falando sobre recentes avanços no século 20 a primeiro projeto de dados em larga escala pela IBM para desenvolver cartões perfurados sistemas para ajudar a rastrear as informações de cerca de 26 milhões de americanos em 1943 o primeira máquina de processamento chamada Colossus foi desenvolvido pelos britânicos para decifrar Códigos nazistas durante a Segunda Guerra Mundial este dispositivo detectou padrões em mensagens interceptadas a uma taxa de 5.000 caracteres por segundo 

Hadoop

Com o advento da internet e computadores durante os anos 90, a criação de dados cresceu a uma taxa exponencial no ano 2005 Yahoo criou o código-fonte aberto framework hadoop com a intenção de indexer toda a rede mundial de computadores hoje.

O Hadoop é usado por milhões de empresas para processar quantidades colossais de dados jutamente com outras soluções no mercado como um solução para processar big data em tempo rea, algumas das outras ferramentas para processar e analise dados de Cassandra colher flume storm MongoDB, diversas organizações como Amazon, Netflix, Starbucks, American Express, lidam com big data diariamente um exemplo de volume de dados é a Electronic Arts, uma empresa de videogame que tem 275 milhões de usuários ativos e gera aproximadamente 50 terabytes de dados todos os dias o mundo dos jogos é grande e vem crescendo rapidamente.

Conclusão

O desenvolvimento de big data pavimentou a caminho para o surgimento de várias outras tecnologias e como as quantidades de dados nós produzimos continuar a crescer, assim como o nosso capacidade dos computadores de processar e analisar eles 
 

Espero que este conteúdo tenha te ajudado!

Obrigado!

Se Inscreva Na Nossa Newsletter Tenha Acesso Aos Melhores Artigos