MCP極簡入門

曹洪偉

  • 出版商: 機械工業
  • 出版日期: 2025-07-01
  • 售價: $534
  • 語言: 簡體中文
  • 頁數: 250
  • ISBN: 711178538X
  • ISBN-13: 9787111785385
  • 相關分類: 人工智慧
  • 下單後立即進貨 (約4週~6週)

相關主題

商品描述

這是一本能輕松帶領讀者快速理解並使用MCP,從而跨越“大模型調用”到“智能系統構建”之間鴻溝的著作。它以簡潔明了、圖文並茂、通俗易懂的方式,從基礎知識、工作原理、服務架構和應用開發等多個角度對MCP進行了 的講解。即便你沒有任何AI基礎,也能充分了解並簡單使用MCP,從而達到 好地使用AI的目的。 全書內容從邏輯上分為三個部分: 部分 MCP基礎認知( 、2章) 通過類比和架構圖解的方式細致地介紹了MCP的基本概念、核心價值、工作原理等,讓讀者能零門檻了解MCP。 第二部分 MCP本地實踐(第3、4章) 手把手指導讀者建立本地MCP主機,從Hello World示例到工具鏈擴展,幫助讀者通過實踐快速建立對MCP的直觀認知。 第三部分 服務開發與應用(第5~12章) 深入講解了MCP服務器的開發,工具方面,涵蓋LangChain、LlamaIndex等主流框架;應用場景方面,覆蓋個人效率、設計優化、數據處理、通信智能化、研發效能、數據庫交互等多個領域。此外,還解析了阿裏雲、騰訊雲等平臺的MCP生態。 全書強調簡介易懂,以幫助讀者快速入門,所以力求用簡潔的語言解釋覆雜的概念和技術細節,用大量的案例、操作步驟和代碼來演示操作的方法和過程,真正做到“快速上手”。

作者簡介

曹洪偉

技術專家,現任聯想諾諦智能首席架構師,專註於大模型應用系統研發,對MCP有較為深入的研究。擁有30余年軟硬件研發經驗,曾就職於北方電訊、斯倫貝謝、高通等世界500強企業,並作為核心技術人員參與多次創業,曾擔任渡鴉科技(被百度收購)CTO,參與了小度智能音箱的研發。曾任百度DuerOS首席布道師,推動對話式AI生態建設。擁有50余項 外專利,中國專利局外聘技術專家,並在QCon、SDCC等技術大會上分享全棧架構與AI應用實踐。樂於分享,著有《性能之道》《深入分布式緩存》《一書讀懂物聯網》等8本著作,翻譯了《持續架構實踐》《基於混合方法的NLP》等10本圖書。閒時維護CSDN博客及公眾號“wireless_com”,分享軟件架構與AI工程實踐的經驗和感悟。

目錄大綱

前 言

第1章 從大模型應用到基於MCP

的AI混搭 1

1.1 從大模型到大模型應用 2

1.2 從搜索到運行工具 3

1.3 如何更好地支持搜索和

使用工具—MCP 5

1.4 MCP的重要性 7

第2章 MCP是如何工作的 8

2.1 MCP的通俗類比 8

2.2 基於MCP的系統是如何組成的:

架構解讀 9

2.2.1 MCP主機 11

2.2.2 MCP客戶端 11

2.2.3 MCP服務器 12

2.3 基於MCP的系統是如何運行的:

工作原理解讀 13

2.4 服務間的共識—MCP解讀 14

2.4.1 MCP的協議棧 14

2.4.2 MCP的雙向通信方式 15

2.4.3 MCP的3種分類 16

2.5 MCP的安全性 17

2.6 基於MCP的系統有什麼不同 18

2.6.1 與REST API的區別 18

2.6.2 與大模型調用第三方工具的

區別 19

2.6.3 與傳統AI服務的區別 20

2.6.4 與大模型服務的區別 20

2.7 示例解讀:基於MCP的

天氣查詢 21

第3章 使用本地MCP主機 24

3.1 用Ollama構建本地MCP主機 24

3.2 基於Claude Desktop構建本地

MCP應用 28

3.3 使用自然語言發現並安裝MCP

服務器 32

3.4 在Cursor中使用MCP服務器 35

第4章 從Hello World逐步構建

MCP服務器 38

4.1 環境配置與資源訪問 39

4.1.1 創建項目並設置環境 39

4.1.2 編寫Hello World 41

4.1.3 測試Hello World的

MCP服務器 42

4.2 使用資源模板擴展資源 46

4.3 添加提示詞使用大模型 50

4.4 創建工具和消息 57

第5章 開發MCP服務器 65

5.1 基於LangChain的MCP集成 65

5.1.1 集成一個簡單的算術MCP

服務器 65

5.1.2 langchain_mcp_tools工具的

集成 68

5.1.3 與ReAct智能體的集成 72

5.2 LlamaIndex的工具集成 74

5.3 MCP服務器的集散地 77

5.3.1 Smithery.ai 77

5.3.2 mcp.so 78

5.3.3 阿裏雲的MCP服務 79

5.3.4 騰訊雲的MCP插件中心 80

5.4 一些實用的MCP服務器 81

5.4.1 APIdog MCP Server 81

5.4.2 Blender MCP Server 82

5.4.3 Perplexity Ask MCP Server 82

5.4.4 Figma MCP Server 82

5.4.5 Firecrawl MCP Server 83

5.4.6 MCP Server Chatsum 83

5.4.7 Neon MCP Server 84

5.4.8 21st.dev Magic MCP Server 84

5.4.9 Browserbase MCP Server 85

5.4.10 Cloudflare MCP Server 85

第6章 基於MCP的常見個人

應用 87

6.1 自動提取Web數據 87

6.1.1 準備工具包 88

6.1.2 安裝智能爬蟲模塊 88

6.1.3 配置智能開關 88

6.1.4 啟動驗證 88

6.2 實現個性化搜索 91

6.2.1 使用FastMCP定義和

註冊工具 92

6.2.2 MCP的客戶端 93

6.2.3 MCP客戶端和服務器的

通信 94

6.2.4 基於MCP的系統能力應用 96

6.3 論文閱讀 99

6.3.1 arXiv的MCP服務器:負責

從arXiv中獲取科學文章 100

6.3.2 Docling MCP服務器 101

6.3.3 構建基於FastAPI的

客戶端 103

6.4 工作流自動化 104

6.5 一個通用的AI助手 107

6.5.1 構建路由器 108

6.5.2 具體實現 110

6.5.3 處理器功能 110

6.5.4 可擴展性 110

第7章 用MCP優化自己的設計 112

7.1 將Figma連接到工作流 112

7.1.1 建立Figma MCP開發和

運行環境 113

7.1.2 獲取Figma API訪問令牌 113

7.1.3 安裝Figma MCP服務器 115

7.1.4 連接到AI編程工具

Cursor 116

7.1.5 工作流程 116

7.2 3D建模 119

7.2.1 安裝Unreal Engine MCP 

Server 119

7.2.2 連接一個AI客戶端 120

7.2.3 Unreal Engine MCP Server的

使用 120

7.3 3D打印 122

7.3.1 MCP 3D打印服務器:連接

創意與現實的橋梁 122

7.3.2 MCP 3D打印服務器的

兼容性 123

7.3.3 MCP 3D打印服務器的

環境配置 123

7.3.4 MCP 3D打印服務器的使用

示例:如何通過自然對話

改進3D打印 124

7.3.5 MCP 3D打印服務器的資源

管理與限制 126

7.3.6 MCP 3D打印服務器:數字與

實體世界的融合 127

第8章 用MCP服務器智能處理

數據 128

8.1 引入智能分析:推理增強 129

8.1.1 Sequential Thinking MCP

服務器的作用 129

8.1.2 Sequential Thinking MCP

服務器的構建 129

8.1.3 Sequential Thinking MCP

服務器的工作方式 130

8.1.4 Sequential Thinking MCP

服務器的核心價值 130

8.1.5 Sequential Thinking MCP

服務器的常見問題 132

8.2 外部數據獲取:網絡爬蟲的MCP

服務器 132

8.2.1 Firecrawl MCP服務器的一個

簡捷實現 133

8.2.2 本地部署Firecrawl 136

8.2.3 在VS Code的Cline插件中

配置MCP服務器 136

8.2.4 在VS Code的Cline插件中

測試Firecrawl 137

8.3 數據報表智能化 137

8.3.1 數據攝取的準備:訪問憑證

的獲取 138

8.3.2 構建用於數據分析的MCP

服務器 141

8.3.3 構建用於數據分析的MCP

客戶端 144

8.3.4 使用MCP服務器進行數據

分析 146

8.4 知識管理 148

8.4.1 安裝REST API插件以增強

Obsidian功能 149

8.4.2 設置MCP-Obsidian服務器:

連接Claude與Obsidian的

橋梁 149

8.4.3 配置Claude連接

MCP-Obsidian服務器 150

8.4.4 MCP-Obsidian服務器的

使用 151

第9章 用MCP讓通信智能化 153

9.1 輕松對接即時通信工具

WhatsApp 154

9.1.1 準備工作 156

9.1.2 克隆存儲庫並運行WhatsApp 

Bridge 156

9.1.3 為WhatsApp Access配置

Claude Desktop應用程序 157

9.1.4 集成WhatsApp並將其作為

MCP工具 158

9.2 輕松連接Slack 159

9.2.1 Runbear讓AI自動化觸手

可及 159

9.2.2 配置Slack MCP客戶端 160

9.2.3 Slack賬戶連接到AI智能體

的兩種授權方法 161

9.2.4 Runbear與Slack集成帶來的

便利 161

9.3 電子郵件的智能化管理:Gmail 162

9.3.1 Gmail MCP服務器的設置和

啟動 162

9.3.2 用Gmail MCP服務器管理

電子郵件 163

9.4 通信轉化:使用mcp-proxy完成

從SSE到STDIO 164

9.4.1 什麼是mcp-proxy 164

9.4.2 如何使用mcp-proxy輕松連接

SSE與STDIO 165

9.4.3 使用mcp-proxy時的重要註意

事項 166

第10章 用MCP大幅提升開發

效能 168

10.1 自動化開發流程實例:Cursor中

的PR工作流 169

?10.1.1 獲得代碼間的差異 169

?10.1.2 用AI智能生成分支名稱和

提交消息 172

?10.1.3 將代碼與GitHub連接:自動

創建PR 174

?10.1.4 將AI助手集成到Cursor中,

提升Git工作流的效率 176

10.2 智能代碼評審 177

?10.2.1 快速搭建項目環境:

安裝工具、配置依賴和

設置憑證 178

?10.2.2 創建一個模塊來處理

GitHub PR的數據檢索 181

?10.2.3 創建核心PR分析器:連接

Claude Desktop、GitHub和

Notion 183

?10.2.4 自動化PR審查流程:從

代碼更改到Notion記錄 186

10.3 優化API調用 187

?10.3.1 使用Spring AI的新特性

優化ThemeParks.wiki API的

使用 189

?10.3.2 優化MCP服務器使用

API的方式 191

10.4 MCP為傳統應用帶來革新:

API的運行時管理 193

?10.4.1 使用Cursor配置

APISIX-MCP服務器的

詳細步驟 194

?10.4.2 通過自然語言與AI交互

來配置APISIX路由 196

第11章 用MCP簡化數據庫

操作 199

11.1 使用關系數據庫構建應用

原型 199

?11.1.1 在本地運行SQLite MCP

服務器 200

?11.1.2 通過對話探索SQLite

數據庫 202

?11.1.3 使用對話快速構建

原型 203

11.2 非關系數據庫Redis的訪問 206

?11.2.1 Redis MCP服務器 206

?11.2.2 構建Redis MCP

服務器的開發環境:

搭建項目基礎 207

?11.2.3 創建Redis MCP

服務器的核心實現:

從代碼到功能 209

?11.2.4 將Redis MCP服務器與

Cursor IDE集成:簡易

步驟指南 214

11.3 Milvus與MCP的集成:開啟

智能數據管理 215

?11.3.1 運行Milvus MCP服務器 216

?11.3.2 在Claude Desktop中

配置並使用Milvus MCP

服務器 217

?11.3.3 在Cursor中配置並使用

Milvus MCP服務器 219

?11.3.4 常見問題及解決方法 220

11.4 Apache Ignite與MCP的

集成:探索分布式數據庫的

新可能 221

?11.4.1 啟動Apache Ignite

並初始化數據庫:從零

開始的詳細指南 222

?11.4.2 構建Apache Ignite MCP

服務器 225

?11.4.3 使用MCP Inspector

測試Apache Ignite MCP

服務器 226

?11.4.4 Apache Ignite MCP服務器

與大模型協作實現推理 229

第12章 用MCP助力大模型 233

12.1 通過MCP服務器在本地運行

DeepSeek R1模型 233

?12.1.1 輕松獲取並設置

DeepSeek R1模型 234

?12.1.2 使用LM Studio簡化本地

運行AI模型 235

?12.1.3 通過MCP與本地

DeepSeek R1模型無縫