top of page
Foto do escritorLipie Souza

Infraestrutura de nuvem para GenAI - Automações e RPAs

Ainda muito se discute sobre as potenciais aplicações de GenAI, mas de antemão é preciso pensar na preparação da infraestrutura de nuvem para implantar tais produtos.


Boa parte dos negócios no Brasil já rodam em nuvens, sejam as grandes corporações que possuem seus caros espaços dedicados em parcerias com AWS, Azure e GCP, em sua maior parte, sejam as pequenas e médias empresas que contratam plataformas que em grande extensão já rodam em algum desses três fornecedores. O processo de migração, acentuado na última década, trouxe mais complexidade para o ecossistema de aplicações de uma empresa, uma vez que processos de transformação e processamento de dados se dão em múltiplas instâncias (muitas vezes ainda on-premises, ou seja, aplicações rodando em servidores locais) e fazem uma empresa funcionar com centenas, senão milhares de rotinas automatizadas e distribuídas. O estudo abaixo, de 2021, mostra a tendência de gastos e APPs migrados para a nuvem, por parte dos negócios.


A maioria dessas novas aplicações já nascem ou são adaptadas para serem serverless ou melhor, são “conteinerizadas”. GenAI vem para somar a esta curva de migração;


A tecnologia RPA faz parte desse imbróglio também, e embora o agente RPA em si rode em uma máquina virtual que emule uma UI de um sistema operacional, muitas vezes estes agentes fazem consultas e solicitam transformações de dados que rodam em aplicações na nuvem, gerando um misto encadeado de rotinas de extração, rotinas de transformação e de consolidação de dados na nuvem e localmente. Não há mais como segregar estes processos. São instâncias e rotinas híbridas que fazem parte das macro jornadas processuais das empresas.


A IA Generativa irá se encaixar em tudo isso de um jeito natural, todos os novos frameworks são 100% orientados à nuvem, seguindo uma tendência que já estava em curso, reduzindo gargalos de implantação e trazendo produtividade.

Primeiro, analisemos os aspectos relativos à implantação: nós conseguimos reduzir um produto de GenAI a três simples camadas: uma base de dados vetorial (que pode ser alimentada por bases de dados tradicionais), um agente treinado a partir de uma LLM e foi “finamente tunado” para executar uma tarefa e uma camada de API, que permite realizar solicitações a este modelo, bem como para que o próprio modelo execute ações em seu mundo externo. E frisando, boa parte dos projetos OpenSource para LLMs estão preparados para rodar em Docker/Kubernetes, facilitando enormemente o deploy em qualquer nuvem. Um desenho simples para ajudar na explanação:

Toda aplicação encapsulada dentro do container, compostos por bibliotecas que podem variar a depender da aplicação e custos desejados, que nesta representação é composta por LangChain para rodar o Agente, LLM e encadeamentos, Chroma para a base de dados vetorial, LammaIndex para indexação de dados proprietários não estruturados, formam uma única imagem Docker que pode ser gerada por FlowiseAI: neste post você entende melhor como “montar” essa aplicação.


Esta imagem docker é facilmente implantada em qualquer nuvem compatível com Docker/Kubernetes. Nesta mesma representação, o modelo consome OpenAI tanto como base para o modelo de linguagem tanto para o retreinamento com dados próprios (indexação), mas poderiam ser outros modelos genéricos da Google por exemplo, ou Anthropic. Frisando mais uma vez, esta é uma arquitetura genérica proposto para LLMs, neste caso, um agente que performa ações, uma vez que na camada de I/O adicionamos por exemplo a possibilidade do agente executar uma ação a partir de uma análise textual, por exemplo, solicitado através de um prompt pelo usuário.


Esta aplicação de GenAI pode ser facilmente encaixada em um macro fluxo processual onde há agentes RPA na jogada e principalmente, quando estes se debatem com dados não estruturados, pensemos em um caso de uso de uma esteira onde projetos de engenharia serão avaliados por um coordenador através do SAP, GenAI pode auxiliar tanto na extração de metadados de propostas não padronizadas, bem como na avaliação de riscos estruturais e/ou comerciais do projeto já registrado no SAP, com base em dados históricos estruturados:


O grande passo é que GenAI facilita enormemente esse re-treinamento, para contextos específicos, principalmente quando comparamos esta técnica a métodos de ML anteriores. Outra grande vantagem é que boa parte dos frameworks já disponíveis são codificados em Python, então são facilmente “plugáveis” em aplicações RPA amparadas nesta linguagem. Em experimentos anteriores, eu consegui provar esta facilidade de retreinamento e bem como na implantação, confira estes posts aqui no blog. Me parece que as principais barreiras de adoação ainda seguem na ausência de destinação de tempo e recursos para provas de conceito, uma vez que os riscos da adoção de tal tecnologia, após apropriados refinamentos, são infinitamente menores que os potenciais para implantação da automação de processos. Alêm disso o ROI de tais projetos, em análise preliminar, me parecem muito promissores. Porque não começarmos? Bom, assim como a tecnologia RPA teve o seu boom após os primeiros cases de sucesso divulgados no mercado, com GenAI não será diferente. A diferença agora é o grau de disrupção. 👨‍💻 Vejamos.






23 visualizações0 comentário

Comments

Rated 0 out of 5 stars.
No ratings yet

Add a rating
bottom of page