12 月 11 日消息,人工智能(AI)智能體正被宣傳為解決旅行規劃、商業問題解答以及各類任務的萬能方案,但要讓這些智能體與聊天界面之外的工具和數據協同工作卻一直頗具挑戰。開發者不得不拼湊各種連接器并維持其運行,而這種做法不僅不穩定、難以擴展,還會引發治理難題。
谷歌表示,其正試圖通過推出自家完全托管的遠程 MCP(Model Context Protocol,模型上下文協議)服務器來解決這一問題,使 AI 智能體能夠更輕松地接入谷歌及其云服務,例如地圖(Maps)和 BigQuery。
注意到,此舉緊隨谷歌最新 Gemini 3 模型的發布,公司希望將更強的推理能力與更可靠的現實世界工具及數據連接相結合。
“我們正在從設計上讓谷歌平臺‘智能體就緒’(agent-ready),”谷歌云產品管理總監 Steren Giannini 向 TechCrunch 表示。
Giannini 指出,過去開發者可能需要花費一到兩周時間搭建連接器,如今只需簡單粘貼一個托管端點的 URL 即可完成集成。
在首發階段,谷歌推出了面向 Maps、BigQuery、Compute Engine 和 Kubernetes Engine 的 MCP 服務器。實際應用場景可能包括:一個分析助手直接查詢 BigQuery,或一個運維智能體與基礎設施服務交互。
以 Maps 為例,Giannini 解釋說,若沒有 MCP,開發者只能依賴模型內置的知識。“但當你為你的智能體配備像 Google Maps MCP 服務器這樣的工具時,它就能基于真實、最新的地點或行程信息進行決策,”他補充道。
雖然 MCP 服務器最終將覆蓋谷歌全部工具,但目前僅以公開預覽(public preview)形式推出,這意味著它們尚不完全受谷歌云服務條款的保障。不過,對于已付費使用谷歌服務的企業客戶,這些 MCP 服務器將免費提供。
“我們預計將在明年年初很快將它們全面發布(general availability),”Giannini 表示,并補充稱未來每周都會有更多 MCP 服務器陸續上線。
MCP(Model Context Protocol)是 Anthropic 大約一年前開發的一種開源標準,用于連接 AI 系統與外部數據和工具。該協議已在 AI 智能體工具生態中被廣泛采用。就在本周早些時候,Anthropic 已將 MCP 捐贈給新成立的 Linux 基金會專項基金,旨在推動 AI 智能體基礎設施的開源與標準化。
“MCP 的魅力在于,由于它是一個標準,只要谷歌提供一個服務器,任何客戶端都能與之連接,”Giannini 說道,“我非常期待看到更多客戶端涌現。”
可以將 MCP 客戶端理解為位于通信鏈路另一端的 AI 應用,它們與 MCP 服務器通信并調用其所提供的工具。對谷歌而言,這包括 Gemini CLI 和 AI Studio。Giannini 還表示,他已嘗試將 Anthropic 的 Claude 和 OpenAI 的 ChatGPT 作為客戶端使用,“它們都能直接運行”。
谷歌強調,這項舉措的意義不僅限于將其服務與 AI 智能體連接。更關鍵的企業級布局在于其 API 管理產品 Apigee,許多企業已使用 Apigee 來分發 API 密鑰、設置配額并監控流量。
Giannini 表示,Apigee 本質上可以將一個標準 API“轉換”為 MCP 服務器,從而將諸如商品目錄 API 之類的端點轉化為 AI 智能體可自動發現和使用的工具,并在其上疊加現有的安全與治理控制機制。
換言之,企業當前用于人工開發應用程序的 API 治理策略,如今也可同樣適用于 AI 智能體。
谷歌的新 MCP 服務器受到名為 Google Cloud IAM 的權限機制保護,明確限定智能體可對該服務器執行的操作。它們還受到 Google Cloud Model Armor 的防護,Giannini 將其描述為專為智能體工作負載設計的防火墻,可防御提示詞注入(prompt injection)、數據泄露(data exfiltration)等高級智能體威脅。管理員還可借助審計日志實現更全面的可觀測性。
谷歌計劃在未來幾個月內將 MCP 支持擴展至更多服務領域,包括存儲、數據庫、日志與監控、安全等。
“我們已經搭建好了底層管道,開發者無需再自己動手,”Giannini 總結道。









