Estratégias de prompt para prevenção à fraude com o BigIA

Fraudes não acontecem por acaso. Elas surgem a partir de brechas, dados inconsistentes e falhas de verificação que muitas vezes poderiam ser identificadas antes de gerar prejuízos. No cenário atual, em que as tentativas de fraude são cada vez mais frequentes, a inteligência artificial generativa se tornou uma aliada poderosa na detecção de riscos, especialmente para empresas pequenas e médias.

Na BigDataCorp, a prevenção à fraudes com inteligência artificial ganha mais precisão com o BigIA, o app que conecta os melhores dados do mercado aos principais modelos de IA, como ChatGPT e Google Gemini. Com ele, empresas podem integrar as informações disponibilizadas pela BigDataCorp ao ferramental de IA que já utilizam no dia-a-dia, permitindo a criação de prompts para identificar sinais de alerta, validar informações e identificar padrões suspeitos com agilidade e contexto.

Neste conteúdo, mostramos como construir prompts eficazes para prevenção à fraude se aproveitando das funcionalidades disponibilizadas pelo BigIA, alavancando o conhecimento já embutido nas LLMs para extrair o máximo de valor das ferramentas de IA neste contexto.

Por que usar estratégias de prompt para detectar fraudes

Os prompts, que são instruções em linguagem natural que orientam os modelos de IA e permitem executar análises complexas de forma simples e precisa. Podemos pensar nos modelos de IA como especialistas que tem em sua memória praticamente todo o conteúdo já publicado na internet sobre praticamente todos os assuntos, mas que precisam de um direcionamento nas perguntas para conseguir resgatar as lembranças. Os prompts são esse direcionamento.

No contexto da prevenção à fraude, as LLMs podem ser encaradas como especialistas no assunto, capazes de sugerir regras e processos de avaliação de indivíduos, empresas e transações com base nos melhores padrões do mercado, desde que sejam direcionadas para isso. Os prompts corretos podem trazer esse conhecimento à tona, permitindo que mesmo empresas que não tem os recursos necessários para contratar pessoas especializadas nessa tarefa possam adotar os processos mais efetivos em suas operações.

Na prática, isso significa:

  • Redução de custos, com o uso de conhecimento já embutido em modelos prontos;
  • Agilidade operacional, com a automação via inteligência artificial;
  • Maior precisão, eliminando erros humanos e retrabalhos;
  • Escalabilidade, com prompts replicáveis e adaptáveis a diferentes situações.

Com estratégias de prompt bem definidas, qualquer empresa pode alavancar o conhecimento de ponta e as melhores práticas já identificadas pelo mercado para a prevenção à fraudes em sua operação, independente do seu tamanho ou nicho de atuação.

Como estruturar um prompt para prevenção à fraude

Existem dezenas de frameworks e modelos mentais com nomes engraçados e memoráveis para orientar a construção de prompts, mas todos eles seguem uma estrutura similar: um bom prompt deve fornecer contexto e deve definir de forma clara o que é esperado como resultado quando houver uma interação.

De forma simples, podemos quebrar um bom prompt nas seguintes partes:

  • Contexto: No contexto, você deve descrever o contexto no qual o modelo está inserido. Explique sobre a sua empresa, o que ela faz, como é o mercado, como são os produtos, e outras informações relevantes sobre a situação na qual o modelo vai ser aplicado;
  • Personalidade: Na seção de personalidade, a ideia é atribuir uma personalidade para o modelo que esteja de acordo com as suas expectativas sobre a forma que ele deve atuar. Você deve dizer se ele é mais ou menos tolerante à riscos, se ele é mais analítico ou intuitivo, se é mais descritivo ou objetivo, e assim por diante;
  • Conhecimento: No bloco de conhecimento, você deve descrever todos os conhecimentos específicos que devem ser utilizados pelo modelo em seu trabalho. Quando mais detalhado você for com relação ao conhecimento, mais direcionados serão os resultados atingidos;
  • Capacidades: Dentro da seção de capacidades, você deve descrever o que o modelo sabe (ou não sabe) fazer. Além de direcionar o trabalho sendo realizado, definir de maneira clara o limite da capacidade ajuda a minimizar alucinações e serve como um guardrail para o uso do modelo; 
  • Forma de trabalho: Neste bloco, você deve definir a forma como espera que o modelo execute o seu trabalho. Você pode instruí-lo a solicitar mais informações para o usuário, emitir relatórios ou opiniões intermediárias, usar ou não ferramentas externas para apoiar na execução das tarefas, e o que mais for necessário para atingir os objetivos esperados;
  • Resultado esperado: Finalmente, neste último bloco, você pode especificar a forma como espera que os resultados sejam retornados para quem está utilizando o modelo. Aqui, você pode definir modelos de relatórios, formatos de respostas, e outros elementos que garantem a consistência e escalabilidade da aplicação da IA em sua operação.

No contexto da prevenção à fraude, um exemplo para cada um dos elementos do prompt poderia ser:

  • Contexto: “A ACME é um e-commerce brasileiro que opera na plataforma Shopify, que recebe cem mil visitantes por mês. A empresa vende tênis esportivos, com um foco maior em homens de meia-idade. Ela é uma das únicas que atua no segmento, sendo a líder do mercado. Os produtos são entregues para todo o Brasil. Esses produtos têm um alto valor de revenda no mercado paralelo. Enfrentamos principalmente chargebacks e devoluções de produto falsas como fraudes.”;
  • Personalidade: “Você é um investigador e analista de fraudes com vasta experiência no mercado, tendo trabalhado em empresas em diversos segmentos de mercado e de diferentes portes. Você é detalhista, com uma cabeça analítica e uma longa memória. Você sabe pesar riscos e retornos de forma objetiva, não sendo excessivamente conservador nem arrojado em suas ações.”; 
  • Conhecimento: “Você tem mais de 10 anos de experiência no mercado de prevenção à fraudes, e tem conhecimento completo de todas as boas práticas, tecnologias, ferramentas e processos utilizados nessa área. Você também tem amplo conhecimento sobre outros tipos de fraudes, e como elas são endereçadas em mercados relacionados com o comércio eletrônico, como, por exemplo, o mercado financeiro. Você sabe analisar transações de compra, bem como os indivíduos ou empresas que estão tentando realizar a compra, e sabe integrar e analisar de maneira unificada os dados de todos esses elementos para chegar a um resultado melhor. Você sabe construir políticas e scores de risco de fraude usando diferentes técnicas e abordagens, e sabe aplicar isso a qualquer análise que seja solicitada.”;  
  • Capacidades: “Quando solicitado, você pode: (1) analisar o risco de fraude de transações e/ou clientes da empresa; (2) formular políticas e procedimentos que possam ajudar a empresa a prevenir fraudes no futuro; (3) avaliar análises de risco já realizadas anteriormente por outras pessoas, apontando pontos fortes e fracos. No geral, você deve ajudar a empresa a evitar fraudes em sua operação.”;
  • Forma de trabalho: “Você deve sempre detalhar todas as etapas da sua análise, formulando um plano de ação e validando-o com o usuário antes de qualquer execução. Se precisar de mais informações ou detalhes sobre qualquer coisa, deve solicitar esclarecimentos para o usuário. Seja sempre objetivo, crítico e direto em suas análises, sem subjetividade ou emoção.”;
  • Resultado esperado: “Sempre que solicitado, me retorne uma análise detalhada com uma pontuação de risco de fraude, o raciocínio por trás desta pontuação, os elementos de maior ou menor risco, e elementos adicionais que podem ou devem ser explorados para minimizar os riscos de fraude.”.

Dados esses elementos, podemos pensar em um processo completo para avaliar uma transação em nossa loja fictícia:   

Passo 1: Passamos os blocos do prompt, exatamente conforme acima, para o modelo, para definir o contexto:

Passo 2: Executamos a análise, pedindo para o modelo: “Um novo cliente se cadastrou e está querendo comprar um tênis Nike XYZ de R$ 1.000,00. Qual é o risco de fraude dessa transação?”

A partir desse ponto, o modelo vai realizar a análise ou solicitar informações adicionais para poder avaliar o risco.

Como o BigIA auxilia na prevenção à fraudes

O BigIA combina dados estruturados e tecnologia proprietária, se integrando aos principais modelos generativos via MCP (Model Context Protocol). Com isso, ele permite que as LLMs, ao executar as instruções de um usuário, se conectem com a base de dados da BigDataCorp para buscar informações que apoiam o processo de análise de risco que está sendo executado.

Veja como isso funciona na prática:

  1. No “Passo 2”, descrito acima, ao invés de solicitar mais informações sobre o cliente e o produto para o usuário, o modelo sugere consultar os dados da BigDataCorp para buscar informações sobre o perfil da pessoa ou empresa que está realizando a compra;
  2. O modelo recupera as informações da BigDataCorp, processa os dados retornados, e avalia as informações, formulando uma análise de risco mais completa com base nos melhores dados do mercado; 

O resultado final é uma análise mais contextualizada, analisando não só os elementos de risco óbvios, mas também uma camada mais profunda de informações que podem indicar a aceitação ou rejeição da transação. Com isso, você tem análises mais claras, confiáveis e compatíveis com a evolução do cenário.

A conexão via MCP permite ainda uma interação maior com os resultados. Uma vez que o modelo retorne uma análise inicial, você pode buscar mais informações sobre o cliente que está fazendo a compra para aprofundar a análise, ou então cruzar dados adicionais do contexto da compra (como o endereço de entrega informado, ou o e-mail informado pelo cliente no cadastro) para ter um resultado mais preciso e detalhado. 

Biografia Generativa: dados prontos para usar em qualquer prompt

Se você não quiser (ou não puder) conectar as suas ferramentas de IA com o servidor MCP da BigDataCorp, você pode também utilizar o recurso da Biografia Generativa para obter informações estruturadas sobre indivíduos ou empresas em um formato já compatível com os prompts.

Na prática, o que muda é que no prompt que você vai enviar para o modelo no “Passo 2” descrito anteriormente, você incluí o resultado da Biografia Generativa (que pode ser recuperado por API ou via o BDC Center), e pede para o modelo fazer a análise levando em consideração as informações sobre o indivíduo ou empresa inclusas.

Com isso, a sua empresa reduz a necessidade de configuração técnica e consegue tirar o máximo de proveito do poder da IA no processo de prevenção à fraude com resultados mais interpretáveis e consistentes.

BigIA: o futuro da prevenção à fraude com dados confiáveis e IA escalável

Na maior datatech da América Latina, a prevenção à fraude acontece com base em dados estruturados, atualizados e integrados de forma inteligente. O BigIA eleva essa capacidade ao combinar a robustez das bases da BigDataCorp com o potencial da IA generativa, permitindo análises rápidas, seguras e escaláveis.

Com o BigIA, sua empresa pode:

  • Automatizar verificações e validações cadastrais;
  • Identificar riscos antes que eles se tornem fraudes;
  • Reduzir em até 90% as análises manuais;
  • Operar com aderência total à LGPD e rastreabilidade completa das consultas.

Quer explorar o potencial da IA Generativa para fortalecer a segurança da sua operação? Experimente o BigIA e descubra como transformar dados em inteligência antifraude.