A Amazon Web Services (AWS) anunciou as verificações de Raciocínio Automatizado (prévia), uma nova proteção no Amazon Bedrock Guardrails para ajudar a reduzir alucinações em grandes modelos de linguagem (LLMs) validando matematicamente a precisão de suas respostas. Isso aproveita o raciocínio automatizado, um campo da ciência da computação que usa provas matemáticas e dedução lógica para verificar o comportamento de sistemas e programas. Diferentemente do aprendizado de máquina (ML), que faz previsões, o raciocínio automatizado fornece garantias matemáticas sobre o comportamento de um sistema. A AWS já usa o raciocínio automatizado em áreas de serviço principais, como armazenamento, rede, virtualização, identidade e criptografia. Por exemplo, o raciocínio automatizado é usado para verificar formalmente a correção de implementações criptográficas, melhorando o desempenho e a velocidade de desenvolvimento. Agora, a AWS está aplicando uma abordagem semelhante à IA generativa. As novas verificações de Raciocínio Automatizado (prévia) no Amazon Bedrock Guardrails são a primeira proteção de IA generativa que ajuda a evitar erros factuais de alucinações usando raciocínio logicamente preciso e verificável que explica por que as respostas de IA generativa estão corretas. As verificações de Raciocínio Automatizado são particularmente úteis para casos de uso em que a precisão factual e a explicabilidade são importantes. Por exemplo, você pode usar as verificações de Raciocínio Automatizado para validar respostas geradas por LLM sobre políticas de recursos humanos (RH), informações de produtos da empresa ou fluxos de trabalho operacionais. Usadas em conjunto com outras técnicas, como engenharia de prompt, Geração Aumentada por Recuperação (RAG) e verificações de aterramento contextual, as verificações de Raciocínio Automatizado adicionam uma abordagem mais rigorosa e verificável para garantir que a saída gerada por LLM seja factualmente precisa. Ao codificar seu conhecimento de domínio em políticas estruturadas, você pode garantir que seus aplicativos de IA de conversação estejam fornecendo informações confiáveis e fidedignas aos seus usuários.
Evite erros factuais de alucinações de LLM com verificações de Raciocínio Automatizado matematicamente sólidas (prévia)
AWS