fev
6
2012

Big Data: proposta arrojada e visão de 360°?

Pesquisas apontam que 90% dos dados gerados ao redor do mundo são não estruturados, principalmente por conta do rolo compressor das redes sociais. Essa avalanche deverá obrigar as empresas a buscarem tecnologias para filtrar informações úteis para os negócios.

Uma única chamada de celular pode resultar entre dez a 20 registros com todo o detalhamento da ligação, os quais precisam ser armazenados e tratados pelas operadoras para a criação de planos de acordo com o perfil de cada consumidor. Como o Brasil tem mais de 242 milhões de linhas sem fio em serviço, de acordo a Agência Nacional de Telecomunicações (Anatel), pode-se imaginar a montanha de informações que esse setor gera e que se for garimpada e analisada em tempo real [com precisão] torna-se valiosa para as empresas.

Realizar esse trabalho não é tarefa simples. E Big Data aparece como a solução que o mercado está apontando para a mineração de dados importantes na velocidade que os negócios exigem.

Assim como telecomunicações, outros segmentos da economia geram a cada minuto uma avalanche de informações como é o caso do financeiro, indústria de manufatura, varejo, empresas de utilities e de mídia. A curva do volume de dados nas companhias é ascendente, principalmente por causa das redes sociais, que se tornaram uma espécie de dínamo que disseminam conteúdos em questão de segundos.

As previsões da IDC sinalizam que a quantidade de informação digital ao redor do mundo alcançará 2,7 zettabytes (ZB) em 2012, com crescimento de 48% sobre 2011. Para 2015, as estimativas são de que essa massa chegará a 8 ZB. Segundo a consultoria, o volume de dados armazenados globalmente crescerá 44 vezes até 2020. Em 2010, esse número era de 1,2 ZB, o que daria para formar duas pilhas de DVDs do tamanho da distância da Terra à Lua – cerca de 240 mil milhas, conforme cálculo de especialistas.

Vários fatores estão contribuindo para esse cenário. Um deles é o aumento do poder computacional, com lançamento de processadores mais velozes a custos reduzidos, o que tornou os equipamentos de armazenamento mais acessíveis. Então as empresas estão comprando cada vez mais servidores para guardar informações, derrubando a barreira da infraestrutura. Outros motivos são a popularização das redes sociais e o surgimento de novas tecnologias como dispositivos móveis que fazem comunicação entre máquinas (M2M), GPS, sistemas de smart grid para monitorar redes de serviços públicos (água, luz e gás) e identificação por radiofrequência (RFID), entre outras.

Com essa transformação, a IDC estima que 90% das informações digitais que estão sendo criadas são não estruturadas, ou seja, em diversos formatos como textos, vídeos, áudio e imagens. São informações que não estão armazenadas nos sistemas corporativos controlados pela área de TI. Portanto, não estão guardados em bancos de dados, aplicativos de gestão empresarial (ERP), Business Intelligence (BI) nem nos sistemas de relacionamento com o cliente (CRM).

A maior parte dos dados não estruturados está hoje na nuvem da internet, trafegando em redes ou em outros serviços online. Há uma parcela de arquivos de categoria espalhada nas empresas, em máquinas dos usuários como e-mails, apresentações em PowerPoint, planilhas etc.

Esse oceano de dados sem controle está desafiando as áreas de TI e de negócios das organizações, que precisam encontrar caminhos para peneirar no mundo sem fronteira informações que podem valer ouro e trazer vantagem competitiva.

Diante desse quadro, IDC e Gartner preveem que 2012 é o ano do Big Data, abordagem que se apoia em ferramentas analíticas para lidar com grandes volumes de informações e ajudar as companhias a reter clientes e criar produtos com maior margem de acertos.

O termo “Big Data” foi criado pelos analistas de mercado para denominar o crescimento exponencial dos dados que as empresas precisam ou podem tratar para extrair informação útil. O conceito começou a ser disseminado para alertar as organizações sobre a necessidade da adoção de uma estratégia para avaliar principalmente os dados não estruturados, que estão fora do controle da TI.

Apesar de trazer benefícios para as companhias que lidam com grandes massas de dados, analistas do Gartner dizem que essa abordagem, por vezes leva gestores de TI a terem uma visão míope. Alguns podem se sentirem tentados a se concentrar mais na administração dos grandes volumes de informações e dedicar menos tempo aos aspectos de triagem e qualificação.

“O problema do Big Data não é o alto volume dos dados, mas sim a complexidade para captar informações nos diferentes formatos de mídia e cruzá-las em tempo real”, avalia Daniel Lázaro, líder para a prática de Analytics e Gestão da Informação da Accenture para a América Latina. O executivo cita como exemplo a necessidade que as companhias estão enfrentando para captar conteúdos das redes sociais, no momento em que vão para o ar, e analisá-los com outras bases de dados das centrais de atendimento.

“O atraso na análise pode não ser eficiente para os negócios”, acredita o consultor da Accenture. Ele destaca que o acompanhamento em tempo real é importante para entender o comportamento dos clientes e tomar decisões mais rapidamente para retê-los ou lançar produtos.  A maioria das companhias capta em primeiro lugar o dado para depois tratá-lo. Mas essa abordagem, segundo ele, começa a mudar com a chegada ao mercado de tecnologias de streaming de vídeo para fazer o filtro das informações no momento em que estão trafegando pela rede.

Gustavo Tamaki, gerente de Vendas da Greenplum Brasil, unidade da EMC, constata que muitas empresas estão preocupadas apenas em guardar os dados, mas algumas já perceberam que a mineração faz a diferença para os negócios. Ele observa que nos Estados Unidos e Europa esse processo está mais avançado, mas que hoje no Brasil somente grandes companhias conseguem ter visibilidade da importância de Big Data.

O executivo esclarece que a nova abordagem é um pouco diferente da proposta pelo BI, que olha mais o passado histórico baseado em fatos que aconteceram para a tomada de decisão. Já o Big Data, segundo ele, tem a vantagem de analisar fatos no momento em que estão ocorrendo para antecipar medidas. Fernando Corbi, diretor de Ecossistema de Canais da SAP, concorda e menciona como exemplo disso, a possibilidade de um varejista acompanhar em tempo real o padrão de consumo das vendas de um supermercado em determinada região do Brasil e fazer correlações com o clima do local para oferecer sorvete, de acordo com a preferência dos compradores. Se a temperatura mudar, a empresa tem como rapidamente alterar sua campanha e fazer outro tipo de promoção.

Esse mesmo tipo de análise, de acordo com Corbi, pode ser feito pelas operadoras de telecomunicações para criar planos sob medida para os usuários de celular, olhando o padrão de consumo de cada um com avaliações em tempo real. Ele afirma que as teles já eram obrigadas a guardar uma grande massa de dados dos clientes, mas que com as ferramentas de Big Data mais barato classificá-las e filtrá-las.

Filtro das redes sociais

Na opinião de Rômulo Linhares, diretor da unidade de Enterprise Information Services da HP para a América Latina, o Big Data vem com uma proposta bem mais arrojada que a do CRM, que tem a premissa de mostrar uma visão 360 graus dos clientes, apoiado em dados transacionais, que ficam em repositórios das empresas. Mas com as redes sociais a realidade muda. Esse modelo, na visão do executivo, torna-se incompleto.

O executivo da HP cita o caso da Coca-Cola, que tem mais de 9 milhões de fãs no Facebook, e que a empresa precisa avaliar o comportamento deles em tempo real para tomar decisões. “O que tem no CRM é bom, mas os ganhos são maiores quando é possível fazer análise de sentimentos dos consumidores nas redes sociais”, enfatiza Linhares.

Linhares relata a experiência de um cliente da HP, cujo nome não foi revelado, que contratou soluções de Big Data da HP para analisar resultados de campanhas veiculadas no Facebook sobre lançamentos filmes, antes mesmo de sua estreia nos cinemas. Informações são coletadas e tratadas para medir se determinada produção será lucratividade, avaliando seu sucesso ou fracasso de bilheteria.

“Com base nos comentários e análises de sentimentos, é possível determinar o tempo que o filme ficará em cartaz ”, diz Linhares, que considera que esse trabalho é muito útil para as companhias saberem como será aceitação de um produto novo, reduzindo custos, como no caso da distribuição de filmes que não vão atrair expectadores. As opiniões dos internautas podem sinalizar que é mais vantajoso para distribuidora de filmes lançar o título direto em DVD, sem precisar alocar salas de cinema.

Na Europa, indústrias de manufatura estão se apoiando em Big Date para desenvolver produtos ouvindo a opinião dos consumidores pela internet. “O consumidor apresenta sugestões no site sobre um novo modelo de carro e as informações são captadas de forma estruturadas. Mas quando elas são solicitadas pelo Twitter, vêm desestruturadas”, afirma Fábio Del Conti, gerente de Storage da Oracle para a América Latina. Ambas bases de dados são tratadas e analisadas para melhoria da qualidade dos veículos da marca.

Gustavo Tamaki, da EMC, destaca que um dos setores que deverão se apoiar bastante em Big Data no Brasil é o financeiro para cruzar informações com o perfil dos clientes em redes sociais e fazer avaliações de riscos. “Um banco poderá analisar o perfil da pessoa, no Facebook, por exemplo, para verificar se ela tem condições de pedir um empréstimo”. O diretor da unidade de consultoria para indústrias da Teradata para América Latina, Américo de Paula, concorda. “Tem empresas que precisam conceder crédito e não encontram informações de seus clientes e vão buscar informações em redes sociais para fazer correlações”, diz ele.

O executivo da EMC acredita que Big Data será últil também para filtrar informações de bancos passaram pelo processo de fusão “Cada um tinha um conjunto de produtos e agora precisam avaliar o que traz lucratividade por cliente”, explica. Ele diz que o tratamento dos dados pode ser feito com cruzamento das várias bases de dados, coletando todas as informações de serviços contratados pelo cliente. Tamaki conta que essas análises geralmente são feitas em pequenas bases de dados e depois ampliadas, buscando histórico de clientes para criar uma oferta melhor para ele.

Desafios do Big Data

Hoje, as companhias tomam decisão baseadas em feeling ou em pesquisas de mercado, mas especialistas afirmam que os melhores dados estão nas companhias. Elas têm informações exclusivas para incrementar os negócios. O Big Data vem com a proposta de ajudá-las a descobrir suas próprias riquezas. Entretanto, consultores alertam que a nova abordagem exige uma estratégia bem alinhavada.

Para a gerente da área de Consultoria de BI da Deloitte, Rosana Cavenago, um dos maiores desafios para adoção desse modelo é a infraestrutura, já que as organizações vão precisar de sistemas com alto desempenho para acessar metadados, criar categorias e processá-los com segurança. Lázaro, da Accenture, destaca a necessidade de mudança organizacional para abraçar essa nova iniciativa, que nasce na TI mas que deverá ficar com a área de negócios. Ele acha que surgirá nas companhias uma unidade dedicada à gestão da análise de dados.

“Big Data é uma demanda dos negócios para reduzir custos, reter clientes, vender mais e atrair o melhor consumidor. Então acho que vão surgir nas empresas programas de governança de dados com uma visão única da companhia”, acredita Rômulo Linhares da HP.

Além de definir a área responsável para Big Data, as empresas terão de capacitar profissionais. Gustavo Tamaki, da EMC, afirma que está surgindo um novo especialista para lidar com essas questões que é o cientista de dados. A fabricante até formou um time próprio com essa competência. São PhDs, com formação em matemática e estatística com conhecimento de indústrias.

“Esse novo profissional é uma espécie de cientista maluco com habilidade para desenvolver pequenos programas, fazer a ponte com as áreas de negócios e dominar redes sociais”, diz Américo de Paula, da Teradata. Achar esse especialista não será tarefa fácil, antecipa Tamaki, que constata carência por esse tipo de mão de obra até mesmo nos Estados Unidos.

Um novo negócio

Para alguns especialistas, Big Data é um nome novo para um problema antigo. Fábio Del Conti, gerente da unidade de Storage da Oracle para a América Latina, lembra que institutos de metereologia foram os pioneiros em adotar essa abordagem. “Eles olhavam para o satélite que enxergava as nuvens e ficavam coletando inúmeras informações históricas para saber se iria chover. Assim traçavam tendências para o plantio da próxima safra de soja, por exemplo ”, comenta o executivo.

Esse trabalho, segundo ele, envolvia um investimento muito alto porque exigia supercomputadores científicos, que custavam caro. Com a evolução da tecnologia, esse poder computacional tornou-se acessível para as aplicações comerciais, possibilitando às empresas adotarem estratégias de Big Data.

Américo de Paula, diretor da Unidade de Consultoria para Indústrias da Teradata para a América Latina, lembra que o varejista Wal Mart foi um dos primeiros a investir na estratégia de Big Data, para analisar comportamento dos consumidores e descobriu que compradores de cerveja também levavam fraudas. Porém, ele diz que nesse caso, as informações eram estruturadas. Agora, o desafio é cruzar esses dados com os não estruturados com velocidade.

Big Data está sendo considerado uma espécie de um novo Service Oriented Architecture (SOA) e  praticamente todos os fornecedores de TI querem pegar uma carona nessa nova onda.  A maioria anunciou ofertas de plataformas para tentar ajudar companhias a manipular com mais eficiência uma montanha de informações e extrair dados importantes de redes sociais, além de outras fontes não estruturadas.

O Hadoop, software de programação opensource, está intimamente associado ao movimento do Big Data. “O mercado vai presenciar dispositivos baseados em data warehousing Hadoop e transformará a tecnologia na mais quente plataforma em 2012″, prevê o analista da Forrester Research, James Kobielus.

A SAP passou os últimos meses falando sobre as virtudes de seu banco de dados in-memory Hana. Segundo a fornecedora, a tecnologia pode acelerar drasticamente dados de exploração e análise, uma vez que a informação passa a ser processada na memória RAM, sem efetuar a leitura em discos tradicionais. Sua concorrente Oracle anunciou a Exalytics, appliance que vem com a mesma proposta.

Com a plataforma Neoview, a HP segue alcançar a Teradata, um dos fortes players do mercado de data warehousing. Para ganhar fôlego nessa área, a empresa adquiriu a Vertica, fornecedora de data warehouse analítico. A EMC também reforçou sua estratégia para explorar o mercado de Big Date com a compra da Greenplum para entregar aos clientes ferramentas para análise de grandes bases de dados.

A movimentação em torno do Big Data promete ser aquecida ao longo de 2012. O mercado não está parado e os dados, menos ainda.

.

Fonte: Originalmente publicado por COMPUTERWORLD em 06 de fevereiro de 2012 – 07h30