Usando o Gemini API, é possível criar conversas em formato livre em
várias interações. O SDK do Vertex AI in Firebase simplifica o processo gerenciando
o estado da conversa. Assim, diferentemente de generateContentStream()
ou
generateContent()
, você não precisa armazenar o histórico de conversas.
Antes de começar
Se ainda não fez isso, conclua o guia de primeiros passos para os SDKs Vertex AI in Firebase. Verifique se você fez o seguinte:
Configure um projeto novo ou atual do Firebase, incluindo o uso do plano de preços Blaze e a ativação das APIs necessárias.
Conecte seu app ao Firebase, incluindo o registro e a adição da configuração do Firebase.
Adicione o SDK e inicialize o serviço Vertex AI e o modelo generativo no seu app.
Depois de conectar seu app ao Firebase, adicionar o SDK e inicializar o serviço Vertex AI e o modelo generativo, você vai poder chamar Gemini API.
Enviar uma solicitação de comando de chat
Para criar uma conversa de várias interações (como um chat), inicialize o chat
chamando startChat()
. Em seguida, use
sendMessageStream()
(ou sendMessage()
) para enviar uma nova mensagem do usuário, que
também anexa a mensagem e a resposta ao histórico de chat.
Há duas opções possíveis para role
associado ao conteúdo de uma
conversa:
user
: o papel que fornece as instruções. Esse valor é o padrão para chamadas parasendMessageStream()
(ousendMessage()
), e a função gera uma exceção se uma função diferente for transmitida.model
: o papel que fornece as respostas. Esse papel pode ser usado ao chamarstartChat()
comhistory
.
Escolha se você quer transmitir a resposta (sendMessageStream
) ou aguardar
a resposta até que todo o resultado seja gerado (sendMessage
).
Streaming
É possível conseguir interações mais rápidas ao não esperar o resultado completo da geração do modelo e usar o streaming para processar resultados parciais.
Sem streaming
Como alternativa, aguarde o resultado inteiro em vez de fazer streaming. O resultado só será retornado depois que o modelo concluir todo o processo de geração.
Saiba como escolher um modelo do Gemini e, opcionalmente, um local adequado para seu caso de uso e app.
O que mais você pode fazer?
- Saiba como contar tokens antes de enviar comandos longos para o modelo.
- Configure Cloud Storage for Firebase para incluir arquivos grandes nas solicitações multimodais usando URLs de Cloud Storage. Os arquivos podem incluir imagens, PDFs, vídeo e áudio.
- Comece a pensar na preparação para a produção, incluindo a configuração de Firebase App Check para proteger o Gemini API contra abusos de clientes não autorizados.
Teste outros recursos do Gemini API
- Gerar texto com base em comandos somente de texto.
- Gerar texto com base em comandos multimodais (incluindo texto, imagens, PDFs, vídeo e áudio).
- Gere saídas estruturadas (como JSON) de comandos de texto e multimodais.
- Use a chamada de função para conectar modelos generativos a informações e sistemas externos.
Saiba como controlar a geração de conteúdo
- Entenda o design de comandos, incluindo práticas recomendadas, estratégias e exemplos de comandos.
- Configure os parâmetros do modelo, como temperatura e máximo de tokens de saída.
- Use as configurações de segurança para ajustar a probabilidade de receber respostas que possam ser consideradas nocivas.
Saiba mais sobre os modelos do Gemini
Saiba mais sobre os modelos disponíveis para vários casos de uso e as cotas e os preços.Envie feedback sobre sua experiência com o Vertex AI in Firebase