Fontes Lima Novo

ORLANDO FONTES LIMA JÚNIOR
Professor Titular da UNICAMP

Coordenador do LALT (Laboratório de Aprendizagem em Logística e Transportes)

Provavelmente vocês já brincaram com o Akinator na internet. Para quem não conhece o jogo, você pensa em uma pessoa famosa e o software vai fazendo perguntas gerais como “é homem?, “mora no Brasil?” etc. De repente ele sugere o nome da pessoa que você escolheu. Na maior parte das vezes, acerta. Não existe mágica, existe uma mistura de Big Data com Inteligência Artificial que permite buscar nas diferentes bases disponíveis na internet possibilidades de respostas e pelas perguntas vai se restringindo as possibilidades de resposta e aumenta a probabilidade de acerto.

Um exemplo comercial desta tecnologia é o Watson desenvolvido pela IBM que faz o mesmo em diagnósticos de doenças e tomadas de decisão complexas

Com o movimento de migração das bases de dados para nuvens e o aumento das interações das redes sociais e empresariais a disponibilidade de dados públicos ou privados cresceu muito e a mineração de dados passou a ser essencial.

O Big Data envolve coleta de informações e uso de ferramentas que permitam processar e aplicar estas novas informações. A Gartner sugere que o “Big Data é um recurso de alto volume, alta velocidade e / ou de alta variedade de informações que exigem formas de processamento de informações inovadoras e econômicas que possibilitam uma visão aprimorada, tomada de decisões e automação de processos”.

O Big Data requer três camadas distintas antes da aplicação: dados, sistemas de processamento e sistemas de análise para depois permitir o processamento visando a tomada de decisão. Em termos de dados, ou seja a primeira camada, necessitamos dos “três V’s” alto volume, alta velocidade e alta variedade

Os principais usos do Big Data em Logística e Supply Chain levam ao aumento da eficiência operacional (otimização de rotas e de coletas e entregas em tempo real, e planejamento de redes e da capacidade operacional), melhoria da experiência do cliente (gerenciamento das interações, avaliação de riscos e responsividade) e surgimento de novos modelos de negócios (sourcing estratégico).

Essas inovações permitiram coletar dados antes inexplorados. A conectividade da Internet criou um interminável fluxo de novas interações entre pessoas e produtos – estabelecendo correlações onde nenhuma poderia ser vista anteriormente. O armazenamento aparentemente ilimitado da Nuvem aumentou o acesso aos dados e forneceu um local para arquivar informações não coletadas.

As empresas já têm como rotina produzir relatórios, acompanhar tendências e fazer previsões. O que vem mudando é a velocidade e a qualidade com que isso é feito. Os atuais sistemas de processamento de informação como os ERP, CRM, TMS ou WMS terão que ser reinventados com a disseminação do BigData. Este será o fator competitivo crítico para o SCM nos próximos anos. Não aderir a esta tendência poderá ser o ponto final para alguns.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *