Chat with single cell
AI 客戶端中的 MCP 配置
了解如何在 AI 客戶端中配置 MCP 伺服器。
AI 客戶端/插件
您可以在任何支援 MCP 的 AI 客戶端中使用 MCP 伺服器。
如果您之前沒有使用過任何 AI 客戶端,您可以嘗試 Cherry Studio(https://www.cherry-ai.com/)
接下來我將展示如何使用 scanpy-mcp 進行配置。
MCP 設置
本地運行
通過 which(Linux/Mac) 或 where(Windows) 定位 MCP 伺服器:
參考配置
遠程運行
MCP 伺服器在遠程伺服器上運行,但在本地 AI 客戶端中進行對話。
在伺服器上運行 mcp:
確保您已經轉發了必要的端口。如果您使用 VS Code、Trae、Cursor 或類似的開發環境,它們會自動為您處理端口轉發。 如果沒有自動端口轉發,您需要在本地運行以下命令:
然後在本地 AI 客戶端中配置您的 MCP 客戶端,如下所示:
Prompt 設置
配置一個系統提示詞來引導 LLM 專注於 scRNA-seq 分析和工具調用是很重要的。以下是一個範例,您可以根據具體使用場景進行調整: