Olá, sejam bem-vindos a este curso de Flash Skills Agentes de IA. Meu nome é Alan Spadini e, para fins de acessibilidade, vou me autodescrever.
Audiodescrição: Alan é um homem branco, com cabelos castanhos. Ele está no estúdio da Alura, com uma parede colorida e uma estante ao fundo.
Neste curso, vamos trabalhar com o LandGraph para a construção de agentes.
O LandGraph é um dos frameworks mais requisitados pelo mercado quando se trata da construção de agentes e multiagentes. Neste curso, vamos aprender a construir agentes responsáveis pela busca na web e em bases de dados e informações específicas. Além disso, trabalharemos com agentes roteadores, que serão capazes de decidir qual agente específico escolher, dependendo da tarefa requisitada.
Esperamos vê-los nos próximos vídeos deste curso. Até lá! [♪]
Neste curso, vamos trabalhar na construção de agentes de IA para resolver um problema específico. Nosso objetivo é criar um agente de IA capaz de buscar informações na internet, como se fosse um agente que coleta links de sites sobre uma pesquisa ou informação específica e elabora uma resposta com base nessa pesquisa. Queremos que a resposta do nosso LLM (Modelo de Linguagem Grande) seja a mais atualizada possível, por isso estamos desenvolvendo este projeto.
Para construir este projeto, utilizaremos o Google Colab, que é um notebook que nos permitirá desenvolver o projeto de forma sequencial. Para agilizar o processo, já realizamos a instalação das bibliotecas necessárias ao longo do curso. Deixaremos uma atividade escrita para que seja possível acessar cada um desses comandos e executar apenas a célula de código dentro do Google Colab. Basta copiar os comandos e pressionar Shift + Enter no Google Colab para que ele execute a instalação. Um ponto de atenção é que ele exibirá um botão de "Restart Session" para que possamos reiniciar a sessão e rodar todo o nosso código sem problemas. Após clicar em "Restart Session", a sessão será reiniciada e poderemos iniciar a construção do nosso código.
Para começar, vamos garantir que temos as bibliotecas corretas instaladas. Podemos fazer isso com os seguintes comandos:
%pip uninstall -y google-ai-generativelanguage google-generativeai langchain-google-genai
%pip install google-ai-generativelanguage==0.6.15
%pip install -U langchain-google-genai
%pip install -U langchain
%pip install -U langchain-community
%pip install -U langgraph
%pip install arxiv
Para trabalhar com uma LLM e construir agentes, precisaremos de uma LLM. Neste curso, utilizaremos a LLM do Gemini, mas é possível usar qualquer LLM que o framework do LangChain permita. Na documentação do LangChain, temos a opção de escolher entre diversas LLMs diferentes, como a LLM do Chat GPT da OpenAI, a da Bedrock, vinculada aos modelos do Cloud, ou mesmo os modelos através da biblioteca OLAMA, que permite a utilização de modelos abertos. Optamos por utilizar a do Gemini, pois, no momento da gravação, eles permitem a utilização em um nível gratuito.
Para obter uma chave de API, necessária para utilizar essa LLM, devemos acessar o site do Google AI Studio. No Google AI Studio, acessamos uma página onde podemos clicar em "Get API Key". Ao clicar, uma tela será exibida, permitindo a criação de uma chave de API. Podemos, por exemplo, deletar uma chave de API existente e criar uma nova. É necessário vincular a chave a um projeto no Google Cloud, onde podemos criar uma chave de API atual. Caso ainda não tenhamos um projeto no Google Cloud, não há problema, pois é possível criar uma chave gratuita para uso. Se escolhermos um projeto do Google Cloud com faturamento configurado, a chave será paga. Para quem está utilizando pela primeira vez, a chave será uma versão gratuita.
A ideia é copiar essa chave e inseri-la no Google Colab. No Google Colab, precisamos inserir essa chave de forma segura. Uma maneira de fazer isso é clicar em "Secrets" no canto esquerdo da tela e adicionar um novo secret. Podemos nomeá-lo, por exemplo, como "chave" e colar a chave. Logo abaixo, no Google Colab, há uma instrução de como copiar esse secret para o nosso código. Podemos copiar o trecho de código exibido, colar e substituir o secret pelo nome da nossa chave. No nosso caso, foi "chave", mas já temos outra chave do Gemini pré-configurada, então utilizaremos esse nome. Copiamos, trocamos e colocamos o nome "Gemini API Key" como o nome dessa chave.
Este é o comando que devemos usar para copiar nossa chave, e colocaremos à frente de UserData
uma variável para armazenar a informação da chave. Nomearemos essa variável como API_Key
para guardar a chave, e queremos tornar essa chave uma variável de ambiente. Precisamos de uma variável de ambiente com um nome específico para que a biblioteca que utilizaremos a reconheça.
Para isso, faremos a importação do módulo os
, utilizando import os
, que nos permitirá acessar informações do sistema. Após definir API_Key
, digitaremos os.environ
, abriremos e fecharemos colchetes, e entre aspas colocaremos Google_API_Key
, que será igual a API_Key
. Assim, a chave será armazenada dentro das variáveis de ambiente como Google_API_Key
. Note que demos um nome diferente para a Gemini API Key
, mas não é necessário ser diferente; a ideia é que precisamos ter o nome Google_API_Key
dentro das variáveis de ambiente para armazenar essa chave.
import os
api_key = userdata.get('GEMINI_API_KEY')
os.environ['GOOGLE_API_KEY'] = api_key
O LinkedIn, que é a biblioteca que vamos começar utilizando, reconhece esse nome como uma chave do Google. Vamos executar o comando e essa chave está guardada. Como mencionado, vamos começar utilizando o LinkedIn, uma biblioteca do mesmo grupo do Lenggraph, que nos permitirá fazer as primeiras interações com a LLM. Queremos descobrir uma informação específica: qual é o impacto da IA em uma área específica. Esse é o tipo de busca que queremos realizar.
Para isso, vamos chamar a LLM do Google através do LinkedIn. Realizamos a importação da biblioteca e agora vamos definir a LLM que estamos utilizando, colocando-a na variável LLM
. A LLM
será igual ao Google Generative AI. Neste momento, não adotaremos a opção de temperatura. Vamos definir o modelo que estamos utilizando. Dentro do Google AI Studio, temos a opção de diversos modelos, mas neste momento queremos utilizar o Gemini 2.0 Flash. Definimos o modelo como Gemini-2.0-Flash
.
from langchain_google_genai import ChatGoogleGenerativeAI
llm = ChatGoogleGenerativeAI(model='gemini-2.0-flash')
Com a LLM definida, queremos passar a instrução para ela utilizando um template de prompt. O prompt é a instrução que estamos passando. Para isso, precisamos importar o prompt template. Dentro desse prompt template, colocaremos a informação que queremos descobrir. Definimos modelo_d_prompt
como igual ao prompt template, onde colocamos o template "me diga quais os impactos da IA no assunto {assunto}". A variável input_variables
será igual a ["assunto"]
.
from langchain.prompts import PromptTemplate
modelo_de_prompt = PromptTemplate(
template="Me diga quais os impactos da IA no assunto {assunto}",
input_variables=['assunto']
)
O que foi feito aqui é que queremos saber quais os impactos da IA dentro de um assunto específico. O assunto entre chaves é uma variável, pois queremos saber os impactos da IA em várias áreas diferentes. Podemos simplesmente trocar a variável assunto
e pedir por um assunto diferente, como medicina, agricultura, entre outros.
Para rodar esse prompt com um assunto específico, precisamos chamar uma cadeia dentro do LangChain. Definimos uma cadeia que será igual ao modelo de prompt que definimos. Passamos esse texto para a LLM, que irá processá-lo e nos dar uma resposta sobre o assunto. Queremos gerar uma saída no formato de String. Precisamos importar o StringOutputParser
para isso.
from langchain_core.output_parsers import StrOutputParser
cadeia = modelo_de_prompt | llm | StrOutputParser()
Com a sequência do processo definida, precisamos invocar essa cadeia para obter a resposta. Colocamos a resposta dentro de uma variável chamada resposta
, que será igual a cadeia.invoke({"assunto": "agricultura"})
. A chamada da cadeia é feita e, após algum tempo, a LLM nos dá a resposta. Imprimimos essa resposta, que nos informa sobre o impacto da IA na agricultura. A inteligência artificial está transformando a agricultura de diversas maneiras.
resposta = cadeia.invoke({'assunto': 'Agricultura'})
print(resposta)
Podemos ficar satisfeitos com essa resposta ou não, pois a informação pode estar desatualizada. Pode ser interessante buscar essa informação na web. No entanto, estamos contando com o conhecimento registrado na LLM, que pode ser visto como um arquivo salvo e fixo, sem consultar a internet. Se quisermos que a LLM consulte a internet, precisamos adicionar essa capacidade. Vamos explorar como fazer isso no próximo vídeo. Até lá!
Já conseguimos chamar a LLM e fazer com que ela respondesse uma questão para nós. No entanto, queremos que a LLM busque informações na web para garantir que a resposta à nossa requisição esteja atualizada. Como podemos fazer isso? Como podemos permitir que a LLM acesse a web, por exemplo, para executar uma busca? Para isso, precisamos criar uma ferramenta.
Vamos criar uma ferramenta baseada em uma biblioteca desenvolvida pela comunidade do LangChain, chamada Tavilli. O Tavilli possui um site próprio, e, para utilizá-lo, também precisaremos de uma API. O interessante é que o site do Tavilli permite o uso até um determinado nível gratuito.
Para começar, precisamos criar uma conta no Tavilli. Vamos deixar uma atividade mostrando como criar essa conta. Basta pegar a chave de API do Tavilli, que aparecerá na tela, e copiá-la. O procedimento será semelhante ao que fizemos com o Gemini. Vamos no símbolo de chave, no lado esquerdo, em "Secrets", e colocamos uma variável com essa chave. No nosso caso, já temos configurada essa chave do Tavilli, que nomeamos como tavilli
, tudo em minúsculo.
Para utilizar essa ferramenta, que já foi preparada pela comunidade do LangChain, faremos o import dela. Vamos usar o comando:
from langchain_community.tools.tavily_search import TavilySearchResults
Além disso, precisaremos de outra funcionalidade do LangChain, que é o tool
, para informar que estamos definindo uma ferramenta. Usaremos o comando:
from langchain_core.tools import tool
Após isso, executamos o comando com shift + Enter. Caso haja algum erro de digitação, corrigimos e executamos novamente. Com os imports feitos corretamente, precisamos pegar a chave de API do Tavilli e colocá-la dentro de uma variável de ambiente. Definimos isso com:
os.environ["TAVILLI_API_KEY"] = userdata.get("tavilli")
Executamos novamente com shift + Enter, e a variável de ambiente estará definida.
Agora, podemos chamar o TavilliSearchResults
. No entanto, não queremos utilizá-lo de forma direta. Queremos definir a chamada do TavilliSearchResults
dentro de uma função Python. Isso demonstra que podemos definir como ferramentas quaisquer funções Python que conseguirmos criar, não sendo necessário que estejam vinculadas a uma ferramenta pré-definida pela comunidade do LangChain. Podemos chamar ou definir quaisquer ferramentas.
Vamos definir uma função Python normal, bem definida e detalhada. A função será:
def busca_web(query: str) -> list:
"""Busca na web por um termo específico"""
A query
será nossa pesquisa, o termo de busca, por exemplo, "o impacto da IA na agricultura". Essa entrada estará no formato de string. O formato de saída será uma lista. Dentro da função, colocaremos uma descrição do que ela faz: "Busca na web por um termo específico".
Para definir que essa função é uma ferramenta, colocamos @tool
antes dela. Em seguida, fazemos a chamada da biblioteca Tavilli, que será armazenada na variável tavilli_search
. Definimos:
@tool
def busca_web(query: str) -> list:
"""Busca na web por um termo específico"""
tavilli_search = TavilySearchResults(max_results=2, search_depth="advanced", max_tokens=1000)
resultado_busca = tavilli_search.invoke(query)
return resultado_busca
Isso estabelece algumas restrições para as buscas, como o número máximo de resultados e a profundidade da busca.
Por fim, podemos testar nossa função chamando-a diretamente:
busca_web("IA na Agricultura")
Ao pressionarmos shift mais "Enter", obtemos um resultado de busca. É importante notar que isso não está relacionado à chamada da API do Gemini. Estamos utilizando a API do Tavilli para realizar a busca e retornar um link com o resultado encontrado na web. O Tavilli nos fornece o título do site, o link e um resumo do conteúdo. Para isso, é necessário definir um search depth (profundidade de busca), advanced (avançado) e um número máximo de tokens. O Tavilli possui uma inteligência artificial que resume o conteúdo do site, o que é bastante interessante.
Essa funcionalidade é uma função que encapsula o Tavilli. Poderíamos ter outras funcionalidades, como uma conta matemática, que seria uma ferramenta definida para a LLM usar. No entanto, a LLM ainda não tentou utilizar essa ferramenta. Para que a LLM utilize essa ferramenta e resuma ainda mais, verificando, por exemplo, o número de links obtidos e fazendo um resumo da estrutura, podemos definir nossas ferramentas.
Definimos as ferramentas com:
tools = [busca_web]
Podemos fornecer várias ferramentas para a LLM, mas, pela experiência, quanto menos ferramentas uma LLM específica utilizar, menos confusa ela ficará. Inicialmente, utilizaremos apenas a ferramenta de busca web. Após pressionar shift mais "Enter", fornecemos essa ferramenta para a LLM.
Criamos uma nova variável, LLM_com_ferramenta
, que será igual a:
llm_com_ferramenta = llm.bind(tools=tools)
Assim, agregamos essa informação à LLM original que definimos. Após pressionar shift mais "Enter", utilizamos o prompt template com o mesmo modelo de prompt que já construímos, restringindo o uso apenas às ferramentas definidas. Não queremos que a LLM utilize seu conhecimento prévio, pois desejamos que ela chame a ferramenta.
Definimos input_variables
, relacionado ao assunto que definimos, e criamos uma cadeia com:
modelo_de_prompt = PromptTemplate(
template="Usando apenas as tools disponíveis me diga quais os impactos da IA no assunto {assunto}",
input_variables=["assunto"]
)
cadeia = modelo_de_prompt | llm_com_ferramenta | StrOutputParser()
Após pressionar shift mais "Enter", o processo é semelhante ao que fizemos anteriormente. Invocamos a cadeia com:
resposta = cadeia.invoke({"assunto": "Agricultura"})
resposta
No entanto, a resposta impressa estava vazia, com apenas duas aspas. Para entender o que ocorreu, utilizamos outro modelo para chamar a LLM com prompt. Passamos o prompt de forma mais direta, sem utilizar um prompt template, apenas com as ferramentas disponíveis. Perguntamos sobre os impactos da IA na agricultura, sem incluir variáveis. Após pressionar shift mais "Enter", chamamos novamente a LLM de outra forma, definindo resposta
como:
prompt = """Usando apenas as tools disponíveis me diga quais os impactos da IA no assunto Agricultura"""
resposta = llm_com_ferramenta.invoke(prompt)
Ao pressionar shift mais "Enter", imprimimos a resposta:
print(resposta)
Ainda assim, o conteúdo impresso estava vazio, mas recebemos mais informações como saída. A LLM percebeu que precisava chamar a ferramenta, identificou o nome busca_web
e os argumentos, que são os impactos da IA na agricultura. Ela não utilizou o prompt completo, apenas a parte relevante para a busca. A resposta incluiu metadata e outras informações extras, mas não gerou a saída esperada. A LLM apenas identificou a necessidade de chamar a ferramenta e parou nesse ponto.
Para resolver isso, precisaremos de algo que realize mais passos. No próximo vídeo, começaremos a trabalhar com agentes. Até o próximo vídeo.
O curso Flash Skills: Agentes de IA com LangGraph possui 92 minutos de vídeos, em um total de 10 atividades. Gostou? Conheça nossos outros cursos de IA para Programação em Inteligência Artificial, ou leia nossos artigos de Inteligência Artificial.
Matricule-se e comece a estudar com a gente hoje! Conheça outros tópicos abordados durante o curso:
Impulsione a sua carreira com os melhores cursos e faça parte da maior comunidade tech.
1 ano de Alura
Assine o PLUS (1 ANO) e garanta:
Formações com mais de 1500 cursos atualizados e novos lançamentos semanais, em Programação, Inteligência Artificial, Front-end, UX & Design, Data Science, Mobile, DevOps e Inovação & Gestão.
A cada curso ou formação concluído, um novo certificado para turbinar seu currículo e LinkedIn.
No Discord, você tem acesso a eventos exclusivos, grupos de estudos e mentorias com especialistas de diferentes áreas.
Faça parte da maior comunidade Dev do país e crie conexões com mais de 120 mil pessoas no Discord.
Acesso ilimitado ao catálogo de Imersões da Alura para praticar conhecimentos em diferentes áreas.
Explore um universo de possibilidades na palma da sua mão. Baixe as aulas para assistir offline, onde e quando quiser.
Acelere o seu aprendizado com a IA da Alura e prepare-se para o mercado internacional.
1 ano de Alura
Todos os benefícios do PLUS (1 ANO) e mais vantagens exclusivas:
Luri é nossa inteligência artificial que tira dúvidas, dá exemplos práticos, corrige exercícios e ajuda a mergulhar ainda mais durante as aulas. Você pode conversar com a Luri até 100 mensagens por semana.
Aprenda um novo idioma e expanda seus horizontes profissionais. Cursos de Inglês, Espanhol e Inglês para Devs, 100% focado em tecnologia.
Transforme a sua jornada com benefícios exclusivos e evolua ainda mais na sua carreira.
1 ano de Alura
Todos os benefícios do PRO (1 ANO) e mais vantagens exclusivas:
Mensagens ilimitadas para estudar com a Luri, a IA da Alura, disponível 24hs para tirar suas dúvidas, dar exemplos práticos, corrigir exercícios e impulsionar seus estudos.
Envie imagens para a Luri e ela te ajuda a solucionar problemas, identificar erros, esclarecer gráficos, analisar design e muito mais.
Escolha os ebooks da Casa do Código, a editora da Alura, que apoiarão a sua jornada de aprendizado para sempre.