sábado,23 novembro, 2024

Destravando o valor dos dados e da Inteligência Artificial

A corrida pelos insights valiosos proporcionados pelos dados, capazes de oferecer vantagens competitivas sem precedentes, já começou. Ainda assim, poucas empresas parecem ter despertado para reconhecer todo o potencial desse conjunto de informações e, consequentemente, para a verdadeira dinâmica desta disputa. Em uma ambiguidade, por sua vez, a busca por uma inteligência artificial efetiva (IA), peça fundamental na exploração do valor do dado, segue cada vez mais acelerada. A expectativa é de que o crescimento econômico global proporcionado pela IA alcance os US$ 15,7 trilhões até 2030, de acordo com levantamento da PwC, dos quais 45% virão de aprimoramentos de produtos.

Não é por acaso que 17% das 30 maiores empresas do planeta já usavam a IA combinada com o aprendizado de máquina — machine learning (ML) —, em escala desde 2019, enquanto 30% utilizavam a tecnologia em funções seletivas, como indica pesquisa feita pela KPMG. Um estudo global da Deloitte descobriu que nas organizações que adotam IA, mais de oito em cada dez líderes a veem como “muito” ou “criticamente” importante para o sucesso de seus negócios. Já três em cada quatro líderes empresariais (72%) sentem-se positivos sobre o papel que a IA desempenhará no futuro, segundo pesquisa realizada pelo The AI ​​Journal.

Explorando a nuvem ao máximo

Base fundamental para a implementação da AI/ML, a utilização da nuvem deve orientar mais de US$ 1 trilhão em negócios até 2030, indicam dados da McKinsey. Neste cenário, embora 53% das empresas ainda precisem obter um valor substancial de seus investimentos em nuvem, uma pesquisa da PwC revela que 74% dos líderes de negócios estão engajados na estratégia de nuvem, e 56% dos executivos veem a nuvem como uma plataforma essencial para crescimento e inovação.

Para poder usar a nuvem em sua plenitude, entretanto, é preciso contar com a portabilidade dos dados, ou seja, a liberdade de transferir suas informações de uma plataforma para outra. Embora a grande promessa da cloud seja o modelo em que se paga somente pelo que se consome, na prática, quando se usa muito um único serviço de nuvem, há o risco de se ficar “preso” a ela, já que muitos serviços exigem a migração da aplicação e dos dados.

Nuvem já se transformou em necessidade para utilização dos dados (Imagem: Pexels/Maksim Goncharenok)

Se por um lado temos serviços e infraestruturas proprietárias, no outro extremo dessa esfera, encontra-se a proposta do open source com open standards: o desenvolvimento colaborativo de várias empresas e indivíduos, em que cada um contribui com o que mais conhece e com a sua visão, permite uma evolução mais rápida e uma visão mais ampla de casos de uso, deixando a abordagem proprietária como algo caro, difícil e lento.

Essa proposta permite que os clientes tenham a liberdade de escolha do fornecedor de cloud: a utilização simultânea e transparente de várias nuvens públicas ou privadas permitindo implementar a estratégia adequada levando em conta fatores como preço, funcionalidades, latência, distribuição entre as infraestruturas disponíveis: e tudo isso sem ficar preso ao fornecedor nem de infraestrutura nem de software.

Com essa liberdade de escolha, tecnologias e arquiteturas mais recentes se abrem como possibilidade, se latência é um fator preponderante e a quantidade de dados para processar necessita um estudo mais aprofundado, a arquitetura de edge computing, por exemplo, aparece como uma alternativa.

A utilização da nuvem não tem mais volta: a dúvida é só o quanto será usado de nuvem pública ou privada, o que varia de acordo com fatores estratégicos da empresa. Para começar a destravar o valor dos dados, contudo, é preciso antes de mais nada levar três momentos importantes em consideração, que são os dados a salvo, os dados em movimento e os dados em ação.

Dados a salvo

Mudanças fundamentais revolucionaram o armazenamento de dados. Enquanto a abordagem tradicional focava somente na melhoria da eficiência, hoje o foco é na inovação. Se a visão antes era voltada para a infraestrutura, agora ela é orientada pela aplicação. A dificuldade de performance em escala deu lugar a um desempenho altamente escalável. Tradicionalmente, as soluções de armazenamento eram proprietárias, manuais, monolíticas e rígidas. Atualmente elas são abertas, automatizadas, sob demanda, flexíveis e sempre disponíveis.

As empresas precisam de uma plataforma de dados que proporcione armazenamento extremamente escalável, simples e seguro para máquinas virtuais (VMs) e containers transformando o simples armazenamento em serviços de dados, definidos por software, habilitando o uso de máquinas padrão de indústria para o fornecimento de dados, ficando independente do fabricante, eliminando altos custos de upgrade e, permitindo muito mais versatilidade em relação aos antigos “armários”, seja no data center ou em instâncias de nuvem.

Os containers são uma plataforma consolidada para desenvolver e utilizar a nuvem de forma eficiente, seja ela pública ou privada, principalmente por acelerar o time to market, proporcionando rapidez no lançamento de novos serviços. Após os adventos dos containers e do desenvolvimento ágil, o foco na redução do tempo de lançamento exige uma mudança na forma de armazenamento, transcendendo a abordagem tradicional estática para uma abordagem flexível, seja de um armazenamento temporário (que chamamos de efêmero) ou persistente.

O armazenamento precisa evoluir porque, na economia do algoritmo, os dados são a nova moeda. Partindo dessa perspectiva, as novas formas de obter e processar os dados definem que as melhores companhias são as que têm os melhores algoritmos. Assim, a disrupção proveniente das ideias vindas dos dados e dos algoritmos que as empresas estão construindo está possibilitando novas experiências de clientes e modelos de negócios disruptivos. Competir nessa economia requer inovação contínua, com um desenvolvimento rápido e constante, que depende da capacitação de desenvolvedores e cientistas de dados. As empresas precisam de armazenamento extremamente escalável, simples, seguro, aberto e portável.

Dados em movimento: APIs e Streaming

Outra etapa desta corrida valiosa envolve operações de transferência dos dados. Há um crescente ecossistema de empresas se comunicando por meio de APIs (Application Programming Interface), particularmente no setor bancário, onde vemos florescer o open banking e o open finance. Graças a essas aplicações, os bancos conseguem vender e consumir serviços, incluindo de startups, de maneira controlada e automatizada, ampliando consideravelmente o portfólio.

O streaming de dados, que viabiliza plataformas de rede social como o LinkedIn, usa algoritmos que permitem saber a origem da navegação, o perfil de consumo baseado em cliques, entre outras métricas que auxiliam na entrega de produtos e serviços, a exemplo da publicidade direcionada. Além de medições para a tomadas de decisões, o streaming facilita as análises de fraudes, proporciona gatilhos (triggers) para ações de segurança, além de ser tolerante a falhas e oferecer escalabilidade horizontal.

Um dos maiores exemplos neste sentido é a plataforma de pagamento instantâneo Pix: montado em cima da plataforma de containers OpenShift, utilizando o Red Hat AMQ Streams, cortou o tempo da transação de horas para segundos. Acelerou a inovação e o acesso à indústria financeira a todas as áreas, incluindo pequenos comércios que tinham dificuldades de acesso a esse tipo de tecnologia. Foi construída uma fundação para novos serviços financeiros o que pode ser comprovado com o lançamento de novas funcionalidades como o Pix Saque e o Pix Troco e muito mais por vir como o Pix por aproximação, Pix Garantido entre outros. Tudo isso graças à plataforma de containers e ao seu forte poder de expansão, escalabilidade e rapidez de desenvolvimento.

Dados em ação

A última etapa da corrida é justamente quando os dados entram em ação para ajudar a resolver problemas reais. É onde os dados são trabalhados para extrair o valor.

Todo o processo tem como objetivo transformar dados em informações concretas, úteis e facilmente interpretáveis (Imagem: Carlos Muza/Unsplash)

Esse nível de tratamento de dados abre espaço para soluções específicas de IA/ML (inteligência de máquina e aprendizagem de máquina), viabilizando insights imprescindíveis para a inteligência na tomada de decisões.

Diversas indústrias estão se beneficiando de microsserviços e dos containers para construir, treinar e servir IA/ML. Para além do setor financeiro, que vem trazendo serviços cada vez mais personalizados, com análise de risco aprimorada, menor risco de fraude, e melhores previsões, na saúde, por exemplo, a tecnologia está proporcionando maior eficiência clínica, diagnósticos mais rápidos e de melhor qualidade e, consequentemente, resultados melhores.

As telcos também estão conquistando melhores insights e experiências do cliente, além de uma otimização no desempenho e nas operações de rede, incluindo a detecção de ameaças, que vem sendo melhorada. No setor de seguros, a IA/ML está proporcionando processamento e tratamento automatizado de sinistros, baseando os serviços de seguro na utilização. No segmento automotivo, a inovação vem abrindo os caminhos para a condução autônoma, a manutenção preditiva e a otimização das cadeias de suprimentos.

Fabricantes de software como a Red Hat, utilizam as bases de dados de configurações e incidências de toda a base instalada de suas soluções no mundo todo para criar ações automatizadas nos seus clientes, permitindo evitar problemas antes mesmo que aconteçam, com um patamar importante de suporte preditivo.

O código aberto é a chave primordial para abrir as portas de novas perspectivas em atividades e setores indispensáveis da sociedade. Fundamentais para a rápida implementação de soluções de IA/ML, as ferramentas open source estão presentes desde as etapas iniciais de criação e desenvolvimento, com experimentações e testes, até o lançamento e produção. É a garantia de segurança e agilidade durante todo o ciclo de vida da aplicação. Ao permitir explorar o potencial completo da nuvem, e suas vantagens no tratamento de dados, o código aberto oferece a flexibilidade exigida para atender às demandas de amanhã, e destravar o mais alto valor da informação.

Por: Boris Kuszka 

Redação
Redaçãohttp://www.360news.com.br
1º Hub de notícias sobre inovação e tendências da região Centro-Oeste e Norte do Brasil.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

LEIA MAIS

Recomendados