12月21日消息,據 CNBC 報道,谷歌 Gemini 負責人 Josh Woodward 近日公開談及公司在 AI 安全方面的思考。他直言,隨著模型能力不斷增強,AI 帶來的風險也在同步放大,這使得谷歌在產品發布和功能開放上,必須保持高度謹慎。
Woodward 的態度,某種程度上代表了谷歌在 AI 時代的一貫立場。與部分競爭對手強調“盡快上線、快速迭代”不同,谷歌更傾向于在模型正式推向大規模用戶之前,反復進行安全測試和內部評估。這也解釋了為什么在不少人看來,Gemini 的節奏顯得偏慢。
CNBC 指出,谷歌尤其關注幾個方面的風險:模型是否會產生誤導性信息、是否可能被用于有害用途,以及在復雜場景下是否會出現難以預測的行為。隨著 AI 被嵌入搜索、辦公工具和系統級功能,這些風險不再只是理論問題,而是直接關系到數億用戶的日常使用。
Woodward 還提到,谷歌內部對于“AI 應該被允許做什么、不應該做什么”有著非常明確的討論機制。這種機制在某些時候會限制產品的激進程度,但谷歌認為,這是長期信任關系的基礎,而不是可以輕易妥協的成本。
這一立場,也讓谷歌在當前的 AI 競爭格局中顯得有些矛盾。一方面,市場期待更強、更快、更智能的產品;另一方面,任何一次失誤,都可能在輿論和監管層面被無限放大。對于已經處在全球監管焦點的谷歌而言,這種風險尤為突出。
CNBC 認為,Gemini 所面臨的挑戰,并不只是技術能力的比拼,而是在商業壓力、用戶體驗和安全責任之間尋找平衡點。谷歌選擇把“慢一點”當作一種策略,而不是被動結果。
在 Woodward 看來,真正危險的不是 AI 發展本身,而是在缺乏約束和清晰邊界的情況下,盲目追求速度。這種表態,也透露出谷歌對 AI 長期治理問題的高度警惕。(鞭牛士、AI普瑞斯編譯)









