top of page
Foto do escritorLipie Souza

“Wide Context Awareness”: o potencial dos LLMs para um atendimento digital resolutivo e que entenda o seu cliente

Um bom agente conversacional deve ser construído com “wide context awareness”: o potencial dos LLMs para um atendimento digital que entenda o seu cliente e resolva o seu problema



É sabido, em muitas ocasiões as pessoas acabam encerrando uma sessão em um chatbot e indo para uma interface tradicional, muitas vezes por não conseguirem sequer conversar sobre o problema que gostariam de resolver, outras vezes por morrerem de tédio (quem nunca). É um problema clássico, e muitas empresas resolvem com o famoso transbordo, isto é, repassar o bastão para um ser humano, que consegue analisar a situação de uma forma mais ampla e personalizada, e é aí que o negócio perde em velocidade e escala. E mesmo aqueles chatbots “premiados” que possuem certa resolutividade, mesmo que limitada, perdem muitas oportunidades, de novas vendas por exemplo, por não entenderem bem o contexto situacional de seus clientes. 


Este não é um tópico inédito abordado neste humilde blog, por exemplo neste artigo eu trouxe uma análise sobre como a combinação de canais multimodais poderiam beneficiar a customização do relacionamento com o seu cliente, trazendo maior identificação e naturalidade nas conversas, e em diversos textos eu fui trazendo algumas possibilidades de personalização de agentes conversacionais com base em diversas técnicas, como por exemplo a técnica de embeddings. Contudo, no texto de hoje, trago uma compreensão focada e detalhada a respeito das possibilidades técnicas para consumo de dados relativos ao contexto de seu cliente (usuário), entregando uma experiência personalizada e que entenda de forma aprofundada o contexto situacional do usuário e como ele pode se beneficiar daquela sessão.

Contextos situacionais


Pensemos em casos de chatbots de relacionamento, o cliente pode chegar com qualquer tipo de demanda de pós-venda, desde problemas a respeito do produto ou serviço contratado, até questões relacionadas a pagamento, ou simplesmente para expandir o seu plano, ou seja, uma gama de possibilidades de atendimento, e de cara, precisa desbravar um menu de entrada para conseguir ser atendido de forma correta a partir do seu problema em específico, só neste momento de “entrada” ele já perdeu um pouco da paciência. Acaba sendo “transbordado” e já chega com a percepção de estar sendo mal atendido. Com agentes conversacionais “backed” por modelos de linguagem, você consegue trazer para aquela sessão em específico um contexto histórico, mas também o está acontecendo no mundo real e inferir o motivo daquele atendimento, trazendo não só mais naturalidade, mas também assertividade logo no começo. Por exemplo, se o cliente em seus dois últimos atendimentos trouxe dúvidas sobre limitações sobre o seu plano contratado, e saiu com uma compreensão maior sobre um plano “premium” que poderia atendê-lo naquela demanda em específico mas resolveu não comprar, é possível que nesta nova interação ele tenha voltada para contratá-lo, neste caso a mensagem de boas vindas pode ser adaptada para recebê-lo com tal sugestão. Falando a partir de uma perspectiva mais técnica, uma implementação como esta seria possível com um banco Redis (Vetorial) com um sumário sempre atualizado dos últimos atendimentos, e parte com Prompt Engineering para guiar o agente em como considerar essa base histórica de conhecimento. Ou seja, como utilizá-la a favor do seu negócio. 


Outra possibilidade de surpreender seu cliente, no caso de uma crise, seria por exemplo reconhecer que ele é de determinada região onde o seu serviço está temporariamente interrompido e ajustar as boas vindas pedindo desculpas antecipadamente pelo ocorrido informando que o problema já está sendo tratado. É claro, chatbots tradicionais também conseguem entregar essa implementação, mas de um jeito bem mais engessado, manual e pouco personalizado. Outra vantagem aqui é que, tal construção em um framework como o Langchain, requer poucas linhas de código (ou até mesmo nenhuma), basta que você tenha uma API exposta para consultar se há disrupções no serviço em diferentes localidades e ensine o agente a consultá-la, pedindo que a realiza sempre no começo de qualquer atendimento. 



Outro contexto de crise onde o “tom” da conversa poderia ser ajustado em sessões específicas seria com serviços de monitoramento de suas redes sociais (como por exemplo o serviço oferecido pela Stilingue). Você pode monitorar se há algum evento em curso nas suas redes (por exemplo uma crise decorrente de alguma promoção), e entender se aquele cliente faz parte do grupo afetado, e neste caso ajustar o tom da conversa para que logo na entrada ele já saiba que sua empresa já esta ciente do ocorrido e irá ajudá-lo. Este reconhecimento real-time gera empatia e certamente trará maior identificação do consumidor em relação a sua marca. 


Por outro lado, quando o cenário é positivo em suas redes, você também poderá surpreender seu cliente de forma assertiva ofertando um produto que tem tido um engajamento de sucesso para um determinado perfil de cliente e caso seja este o caso, oferecê-lo de um jeito personalizado, fazendo ligações com atendimentos anteriores por exemplo. Sales up!


Uma inteligência verdadeira a cerca dos seus dados Este também não é um assunto novo aqui neste blog, já trouxe algumas vezes sobre as possibilidades de obtenção de insights mais abrangente a partir das suas bases de dados, e em um estilo diferente dos tradicionais dashboards, haja visto que com LLMs, você poderá fazer perguntas para que o agente/modelo estruture relatórios personalizados (a cada mudança de prompt), isso acaba com aquele velho problema de dashboards que quando entregues já não servem mais ao propósito, porque as hipóteses mudaram. Para isso tem uma forma mais eficiente e abrangente de estruturar essa informação para que um modelo de linguagem possa consumir. Hoje a maior parte das soluções de GenAI estrutura suas bases de conhecimento adicionais através de vetores semânticos, que armazenam pedaços de “strings”, isto é, frases, parágrafos, etc. E criam um índice para obtê-los da forma mais eficiente. Acontece que este método, quando você precisa obter associações que levem em conta relacionamentos globais entre diferentes entidades, acaba sendo ineficaz e custoso.

É aqui que o GraphRAG entra, pois neste método, você mapeia em um grafo o relacionamento entre todas as entidades que compõem o seu negócio. Por exemplo, clientes do Perfil X localizados na Cidade Y. Este método é muito mais eficiente quando se quer gerar insights de vendas por exemplo, tendências, gargalos, etc. Ao levar em consideração todas as variáveis que compõem sua base de treinamento para chegar neste grafo, tem uma visão global do seu negócio, diferente de uma base vetorial onde você obteria respostas focada/restritas. Se quiser entender um pouco mais aconselho este artigo da única empresa que provê conectores para transformação de base de dados relacionais corporativas em grafos. Ou este artigo do time da Microsoft explicando as diferenças entre os dois formatos.


Pois bem meus colegas, com estas tecnologias abrem-se inúmeras possibilidades de transformação do relacionamento com o seu cliente, bem como no consumo mais inteligente de base de dados corporativas, gerando insights de fato. As aplicações de GenAI ainda são pouco adotadas em relação aos métodos tradicionais, muito se fala do assunto, há algumas experimentações em curso naquelas empresas que privilegiam R&D, e ao meu ver, os benefícios de tais tecnologias e seu impacto em escala deveriam motivar maior alocação de recursos para estas aplicações. Porém, nem tudo são flores, o mercado de tecnologia  é cíclico, então vamos nos preparar para as próximas transformações! Este é o intuito aqui :) Até lá. 😎


13 visualizações0 comentário

Comments

Rated 0 out of 5 stars.
No ratings yet

Add a rating
bottom of page