LangChain Gemini Tool Server
Integração de LangChain e MCP para processamento de linguagem natural e avaliação de expressões matemáticas.
Installation
Installing for Claude Desktop
Option 1: One-Command Installation
npx mcpbar@latest install eriktilio/mcp-langchain-integration -c claude
This command will automatically install and configure the LangChain Gemini Tool Server MCP server for your selected client.
Option 2: Manual Configuration
Run the command below to open your configuration file:
npx mcpbar@latest edit -c claude
After opening your configuration file, copy and paste this configuration:
View JSON configuration
{
"mcpServers": {
"LangChain Gemini Tool Server": {
"command": "uvx",
"args": [
"mcp-server"
],
"env": {
"GOOGLE_API_KEY": "${input:google_api_key}"
}
}
}
}
LangChain + Gemini + MCP (Tool Server)
Este projeto demonstra como criar um chain com LangChain usando o modelo gemini-2.0-flash do Google e integrá-lo com ferramentas customizadas usando o MCP (Multi-Chain Protocol), via conexão stdio
.
✨ Funcionalidade
A chain é capaz de:
- Interpretar linguagem natural com o Gemini.
- Usar ferramentas externas via MCP — neste exemplo, uma calculadora de expressões matemáticas.
- Executar localmente um servidor de ferramentas que se conecta à chain automaticamente.
🔧 Requisitos
- Python 3.10+
- uv (ou
pip
tradicional)
📦 Instalação
Com uv (recomendado)
uv venv
source .venv/bin/activate
uv pip install -r requirements.txt
Ou com pip tradicional
python -m venv .venv
source .venv/bin/activate
pip install -r requirements.txt
Crie um arquivo .env:
GOOGLE_API_KEY=sua_chave_google_api
🚀 Execução
1. Execute o servidor de ferramentas (MCP)
Primeiro, execute o servidor de ferramentas. Este servidor vai processar as expressões matemáticas.
python server.py
2. Execute o cliente
Em seguida, execute o cliente, que se conecta ao servidor e faz as requisições, passando a pergunta para a chain e recebendo o resultado do cálculo.
python client.py
Como Funciona?
- O chain usa o modelo Gemini-Pro do Google para interpretar a linguagem natural.
- Uma LLMChain é criada usando o modelo e um PromptTemplate para extrair a expressão matemática de uma pergunta.
- A expressão extraída é então passada para uma ferramenta de cálculo via o protocolo MCP.
- O servidor MCP calcula a expressão matemática e retorna o resultado.
Stars
0Forks
3Last commit
2 months agoRepository age
2 monthsLicense
MIT
Auto-fetched from GitHub .
MCP servers similar to LangChain Gemini Tool Server:

Stars
Forks
Last commit

Stars
Forks
Last commit

Stars
Forks
Last commit