O Google Cloud publicou um guia sobre como lidar com erros 429 de "esgotamento de recursos", especialmente ao trabalhar com Modelos de Linguagem Grandes (LLMs). O artigo enfatiza a importância de gerenciar o consumo de recursos para uma experiência do usuário tranquila, dadas as demandas computacionais substanciais dos LLMs. Ele apresenta três estratégias principais:

1. **Backoff e Repetição:** Implemente a lógica de backoff exponencial e repetição para lidar com o esgotamento de recursos ou a indisponibilidade da API. O tempo de espera aumenta exponencialmente a cada repetição até que o sistema sobrecarregado se recupere.

2. **Cota Dinâmica Compartilhada:** O Google Cloud gerencia a alocação de recursos para determinados modelos distribuindo dinamicamente a capacidade disponível entre os usuários que fazem solicitações. Isso melhora a eficiência e reduz a latência.

3. **Taxa de transferência provisionada:** Este serviço permite que você reserve capacidade dedicada para modelos de IA generativos no Vertex AI, garantindo um desempenho previsível mesmo durante a demanda máxima.

Este artigo destaca a combinação de backoff/repetição com cota dinâmica compartilhada, especialmente à medida que o volume de solicitações e o tamanho do token aumentam. Outras opções, como substituição de cota do consumidor e taxa de transferência provisionada, são mencionadas para a resiliência do aplicativo LLM. Ele incentiva a criação com IA generativa usando exemplos do Vertex AI no GitHub ou aproveitando o guia para iniciantes, as instruções de início rápido ou o pacote inicial do Google Cloud.