Resolvendo Todos Os Problemas Do Windows E Outros Programas

Como o Apache Kafka está lubrificando as rodas para big data

A análise é frequentemente descrita como um dos maiores desafios associados ao big data, mas antes mesmo que essa etapa aconteça, os dados precisam ser ingeridos e disponibilizados para usuários corporativos. É aí que entra o Apache Kafka.

Desenvolvido originalmente no LinkedIn, o Kafka é um sistema de código aberto para gerenciar fluxos de dados em tempo real de sites, aplicativos e sensores.



Essencialmente, ele atua como uma espécie de 'sistema nervoso central' corporativo que coleta dados de alto volume sobre coisas como atividades do usuário, registros, métricas de aplicativos, cotações de ações e instrumentação de dispositivo, por exemplo, e os disponibiliza como um fluxo em tempo real para consumo por usuários corporativos.



como conectar o telefone lg ao computador

Kafka é freqüentemente comparado a tecnologias como ActiveMQ ou RabbitMQ para implementações locais, ou com Amazon Web Services 'Kinesis para clientes em nuvem, disse Stephen O'Grady, co-fundador e analista principal da RedMonk.

“Está se tornando mais visível porque é um projeto de código aberto de alta qualidade, mas também porque sua capacidade de lidar com fluxos de informação em alta velocidade está cada vez mais em demanda para uso em cargas de trabalho de serviço como IoT, entre outras”, acrescentou O'Grady.



Desde que foi concebido no LinkedIn, Kafka ganhou o apoio de alto nível de empresas como Netflix, Uber, Cisco e Goldman Sachs. Na sexta-feira, ele recebeu um novo impulso da IBM, que anunciou a disponibilidade de dois novos serviços baseados em Kafka por meio de sua plataforma Bluemix.

O novo serviço Streaming Analytics da IBM visa analisar milhões de eventos por segundo para tempos de resposta abaixo de um milissegundo e tomada de decisão instantânea. IBM Message Hub, agora em beta, fornece mensagens escalonáveis, distribuídas, de alto rendimento e assíncronas para aplicativos em nuvem, com a opção de usar uma API REST ou Apache Kafka (interface de programação de aplicativos) para se comunicar com outros aplicativos.

O Kafka teve o código aberto em 2011. No ano passado, três dos criadores do Kafka lançaram a Confluent, uma startup dedicada a ajudar as empresas a usá-lo na produção em escala.



'Durante nossa fase de crescimento explosivo no LinkedIn, não conseguimos acompanhar a crescente base de usuários e os dados que poderiam ser usados ​​para nos ajudar a melhorar a experiência do usuário', disse Neha Narkhede, um dos criadores de Kafka e co-fundadores do Confluent.

“O que o Kafka permite que você faça é mover os dados pela empresa e disponibilizá-los como um fluxo de fluxo livre contínuo em segundos para as pessoas que precisam fazer uso deles”, explicou Narkhede. 'E faz isso em escala.'

como ignorar a senha do iphone ios 10

O impacto no LinkedIn foi 'transformacional', disse ela. Hoje, o LinkedIn continua sendo a maior implantação do Kafka em produção; ultrapassa 1,1 trilhão de mensagens por dia.

Enquanto isso, a Confluent oferece software de gerenciamento avançado por assinatura para ajudar grandes empresas a administrar o Kafka para sistemas de produção. Entre seus clientes estão um grande varejista e 'um dos maiores emissores de cartão de crédito nos Estados Unidos', disse Narkhede.

Este último está usando a tecnologia para proteção contra fraudes em tempo real, disse ela.

Kafka é 'um barramento de mensagens incrivelmente rápido' que ajuda a integrar muitos tipos diferentes de dados rapidamente, disse Jason Stamper, analista da 451 Research. 'É por isso que está emergindo como uma das escolhas mais populares.'

Além do ActiveMQ e do RabbitMQ, outro produto que oferece funcionalidade semelhante é o Apache Flume, observou ele; O Storm e o Spark Streaming também são semelhantes em muitos aspectos.

No espaço comercial, os concorrentes da Confluent incluem IBM InfoSphere Streams, Ultra Messaging Streaming Edition da Informatica e Event Stream Processing Engine (ESP) da SAS, juntamente com Apama da Software AG, StreamBase da Tibco e Aleri da SAP, acrescentou Stamper. Concorrentes menores incluem DataTorrent, Splunk, Loggly, Logentries , X15 Software, Sumo Logic e Glassbeam.

Windows 7 como desligar as atualizações automáticas

Na nuvem, o serviço de processamento de fluxo Kinesis da AWS 'tem o benefício adicional de integração com os gostos de seu data warehouse Redshift e plataforma de armazenamento S3', disse ele.

O recém-anunciado Listener da Teradata é outro candidato, e também é baseado em Kafka, observou Brian Hopkins, vice-presidente e analista principal da Forrester Research.

Em geral, há uma tendência acentuada em relação aos dados em tempo real, disse Hopkins.

Até 2013 mais ou menos, 'big data girava em torno de grandes quantidades de dados armazenados no Hadoop', disse ele. 'Agora, se você não está fazendo isso, você já está atrás da curva de poder.'

Hoje, dados de smartphones e outras fontes estão dando às empresas a oportunidade de interagir com os consumidores em tempo real e fornecer experiências contextuais, disse ele. Isso, por sua vez, depende da capacidade de entender os dados com mais rapidez.

bootrec scanos

“A Internet das Coisas é como uma segunda onda de dispositivos móveis”, explicou Hopkins. 'Cada fornecedor está se posicionando para uma avalanche de dados.'

Como resultado, a tecnologia está se adaptando de acordo.

'Até 2014, tudo girava em torno do Hadoop, então era o Spark', disse ele. 'Agora, é Hadoop, Spark e Kafka. Esses são três pares iguais no pipeline de ingestão de dados nesta arquitetura analítica moderna. '