
Ollama LLM Web Interface
IBKI_LLM
Installation
Installing for Claude Desktop
Manual Configuration Required
This MCP server requires manual configuration. Run the command below to open your configuration file:
npx mcpbar@latest edit -c claude
This will open your configuration file where you can add the Ollama LLM Web Interface MCP server manually.
Ollama LLM Web Interface
이 프로젝트는 Ollama를 사용하여 LLM 모델과 상호작용할 수 있는 웹 인터페이스를 제공합니다.
Prerequisites
- Python 3.8 이상
- Ollama가 설치되어 있어야 합니다 (https://ollama.ai/)
- 원하는 LLM 모델이 Ollama에 설치되어 있어야 합니다 (예: llama2)
설치 방법
- 저장소를 클론합니다:
git clone [repository-url]
cd [repository-name]
- 필요한 Python 패키지를 설치합니다:
pip install -r requirements.txt
- Ollama를 설치하고 원하는 모델을 다운로드합니다:
# Ollama 설치 후
ollama pull llama2 # 또는 다른 원하는 모델
실행 방법
- Ollama 서버가 실행 중인지 확인합니다:
ollama serve
- 웹 애플리케이션을 실행합니다:
python app.py
- 웹 브라우저에서 http://localhost:8000 으로 접속합니다.
기능
- 실시간 채팅 인터페이스
- Ollama LLM 모델과의 상호작용
- 반응형 디자인
- 에러 처리
주의사항
- Ollama 서버가 실행 중이어야 합니다.
- 기본적으로 llama2 모델을 사용하도록 설정되어 있습니다. 다른 모델을 사용하려면 app.py 파일의 model 파라미터를 수정하세요.
Details:
Stars
0Forks
0Last commit
1 month agoRepository age
3 months
Auto-fetched from GitHub .
MCP servers similar to Ollama LLM Web Interface:

Stars
Forks
Last commit

Stars
Forks
Last commit

Stars
Forks
Last commit