LangChain Gemini Tool Server

Integração de LangChain e MCP para processamento de linguagem natural e avaliação de expressões matemáticas.

Installation

Installing for Claude Desktop

Option 1: One-Command Installation

npx mcpbar@latest install eriktilio/mcp-langchain-integration -c claude

This command will automatically install and configure the LangChain Gemini Tool Server MCP server for your selected client.

Option 2: Manual Configuration

Run the command below to open your configuration file:

npx mcpbar@latest edit -c claude

After opening your configuration file, copy and paste this configuration:

View JSON configuration
{
  "mcpServers": {
    "LangChain Gemini Tool Server": {
      "command": "uvx",
      "args": [
        "mcp-server"
      ],
      "env": {
        "GOOGLE_API_KEY": "${input:google_api_key}"
      }
    }
  }
}

LangChain + Gemini + MCP (Tool Server)

Este projeto demonstra como criar um chain com LangChain usando o modelo gemini-2.0-flash do Google e integrá-lo com ferramentas customizadas usando o MCP (Multi-Chain Protocol), via conexão stdio.

✨ Funcionalidade

A chain é capaz de:

  • Interpretar linguagem natural com o Gemini.
  • Usar ferramentas externas via MCP — neste exemplo, uma calculadora de expressões matemáticas.
  • Executar localmente um servidor de ferramentas que se conecta à chain automaticamente.

🔧 Requisitos

  • Python 3.10+
  • uv (ou pip tradicional)

📦 Instalação

Com uv (recomendado)

uv venv
source .venv/bin/activate
uv pip install -r requirements.txt

Ou com pip tradicional

python -m venv .venv
source .venv/bin/activate
pip install -r requirements.txt

Crie um arquivo .env:

GOOGLE_API_KEY=sua_chave_google_api

🚀 Execução

1. Execute o servidor de ferramentas (MCP)

Primeiro, execute o servidor de ferramentas. Este servidor vai processar as expressões matemáticas.

python server.py

2. Execute o cliente

Em seguida, execute o cliente, que se conecta ao servidor e faz as requisições, passando a pergunta para a chain e recebendo o resultado do cálculo.

python client.py

Como Funciona?

  • O chain usa o modelo Gemini-Pro do Google para interpretar a linguagem natural.
  • Uma LLMChain é criada usando o modelo e um PromptTemplate para extrair a expressão matemática de uma pergunta.
  • A expressão extraída é então passada para uma ferramenta de cálculo via o protocolo MCP.
  • O servidor MCP calcula a expressão matemática e retorna o resultado.
Share:
Details:
  • Stars


    0
  • Forks


    3
  • Last commit


    2 months ago
  • Repository age


    2 months
  • License


    MIT
View Repository

Auto-fetched from GitHub .

MCP servers similar to LangChain Gemini Tool Server:

 

 
 
  • Stars


  • Forks


  • Last commit


 

 
 
  • Stars


  • Forks


  • Last commit


 

 
 
  • Stars


  • Forks


  • Last commit


LangChain Gemini Tool Server: MCP Server – MCP.Bar