Big data não está mais limitado ao Hadoop
No ano passado, as organizações começaram a armazenar, processar e extrair valor de dados de todas as formas e tamanhos. Este ano, os sistemas que oferecem suporte a grandes volumes de dados estruturados e não estruturados continuarão crescendo e melhorando para operar de forma integrada com os padrões e sistemas da TI empresarial. Haverá ainda uma demanda de mercado por plataformas que ajudem os administradores de dados a gerenciar e proteger o Big Data e que permitam aos usuários analisar esses dados. Sistemas especializados serão integrados às plataformas analíticas existentes, estimulando a adoção pelas empresas. O diretor de marketeing de produtos da Tableau, Dan Kogan, elege as as cinco tendências mais importantes para o Big Data em 2017.
1. Big Data mais ágil e acessível
“É claro que você pode utilizar o aprendizado de máquina (ou machine learning) e fazer análises de sentimentos no Hadoop, mas a primeira pergunta que as pessoas geralmente fazem é: o quanto o SQL interativo é rápido? Afinal, SQL é a via utilizada por usuários corporativos que desejam acessar os dados do Hadoop para criar painéis com KPIs mais interativos e ágeis, bem como para fazer análises exploratórias. Em 2017, as opções se expandirão para o Hadoop. Essa mudança já começou, conforme evidenciado pela adoção de bancos de dados mais ágeis como o Exasol e o MemSQL, de armazenamentos baseados no Hadoop, como o Kudu, e de tecnologias que possibilitam consultas mais rápidas”.
2. O Big Data não está mais limitado ao Hadoop
“No passado, observamos que a onda do Big Data fez surgir várias tecnologias para atender às necessidades de análises no Hadoop. Porém, para empresas com ambientes complexos e heterogêneos, as respostas estão em diversas fontes de dados, que variam desde sistemas de registros e warehouses em nuvem até dados estruturados e não estruturados de fontes de dados do Hadoop e de outros tipos.
Em 2017, clientes precisarão fazer análises com todos os tipos de dados. Consequentemente, as plataformas que são flexíveis em relação a dados e fontes irão prosperar, enquanto aquelas desenvolvidas especificamente para o Hadoop e que não são compatíveis com outros casos de uso serão deixadas de lado. A aquisição da Platfora é um indicador dessa tendência”.
3. Organizações irão utilizar lagos de dados desde o início para obter valor
“Um lago de dados é como um reservatório. Primeiro você cria a estrutura (um cluster) e depois enche de água (dados). Depois que o lago estiver pronto, você começa a usar a água para várias finalidades, como geração de energia, consumo e recreação (análises preditivas, aprendizado de máquina, segurança cibernética, etc.). Até aqui, alimentar o lago tem sido suficiente. Em 2017, isso mudará, uma vez que não será mais tão fácil justificar comercialmente o uso do Hadoop. As organizações precisarão usar o lago repetidamente e com agilidade para obter respostas com mais rapidez”.
4. Arquiteturas desenvolvidas para a flexibilidade em estruturas de dados
“O Hadoop tornou-se um mecanismo multifuncional para análises ad hoc, e tem sido usado até mesmo para gerar relatórios operacionais sobre as cargas de trabalho diárias, o que geralmente é feito por data warehouses. Em 2017, as organizações responderão a essas necessidades híbridas buscando uma arquitetura desenvolvida especificamente para um caso de uso. Elas pesquisarão diversos fatores, incluindo o comportamento dos usuários, perguntas, volumes, frequência de acesso e muito mais antes de escolher uma estratégia de dados. E as próprias estratégias combinarão as melhores ferramentas de preparação de dados de autoatendimento, o Hadoop Core e plataformas de análise voltadas para o usuário final, de forma a possibilitar sua reconfiguração à medida que essas necessidades evoluem”.
5. A variedade é o que orienta os investimentos em Big Data
“O Big Data é definido pelos três Vs: volume, velocidade e variedade de ativos de informação. Embora os três Vs estejam em expansão, variedade está se tornando o maior responsável por investimentos em Big Data. Essa tendência continuará crescendo conforme as empresas buscam integrar mais fontes e se concentrar na “cauda longa” do Big Data. Do JSON sem esquema até tipos aninhados em outros bancos de dados (relacionais e NoSQL) e dados com formatação (Avro, Parquet, XML), os formatos de dados estão se multiplicando, e os conectores estão se tornando essenciais. Em 2017, as plataformas de análise serão avaliadas com base em sua capacidade de oferecer uma conectividade direta em tempo real com essas diversas fontes”.