1、1作者:Marina Kaganovich、Rohan Kanungo 與Heidi Hellwig2025 年 3 月1提供安全可靠的 AI2目錄免責事項:本文內容於 2025 年 2 月經驗證正確,所有資訊皆以撰寫當時的情況為準。Google Cloud 將持續改善保護客戶的方式,因此相關的安全性政策和系統未來可能會改變。引言3第 1 章:負責任的創新55風險評估資料治理運用企業真相建立生成式 AI 基準隱私權安全性法規遵循開放式雲端與可攜性環境影響79101215202324第 2 章:命運共同體26第 3 章:最佳做法28治理使用限制安全性隱私權與資料治理掌握生成式 AI 最新發展動態
2、2929293031結論323引言當今企業面臨的重大挑戰,是將 AI 技術導入正式環境,同時兼顧準確率、人身安全和資料安全性。Google Cloud 的生成式 AI 做法著重在企業用途的完備性,內建機制可實現穩健的資料治理、隱私權控制、智慧財產權賠償保障和負責任的 AI 技術。我們提供保護AI 所需的工具和服務,並能滿足資料主權需求,讓客戶放心大規模部署模型。為充分發揮 AI 創新的潛力,同時將風險降到最低,企業自然會想瞭解 AI 技術的治理機制、安全性和公平性,許多人也對這個領域的隱私權、資訊透明度和可靠性表達擔憂。本文將探討 Google Cloud 如何協助企業實現這些效益,當中說明
3、Google 如何以負責任的方式建構企業級生成式 AI,以及在透過 Vertex AI 平台開發生成式 AI時,如何妥善處理 AI 資料治理、隱私權、安全性和法規遵循等議題。本文所指的生成式 AI是指運用 AI 創造新內容,例如文字、圖片、音樂、音訊和影片,也包含透過多模態生成式 AI 產生的變化版內容。這正是為何負責任的 AI 技術如此重要。這項技術能帶給企業極大優勢,包括:3生成式 AI 的運作原理,是透過機器學習模型學會資料集中的模式和關係,再運用學到的模式生成新內容。生成式 AI 由基礎模型(大型 AI 模型)驅動,具備多工處理能力,而且可直接執行重點摘要、回答問題、分類等各種工作。V
4、ertex AI 是機器學習平台,可用來訓練及部署機器學習模型和 AI 應用程式,或是為您的 AI 應用程式自訂大型語言模型(基礎模型的一種,簡稱 LLM)。Vertex AI 結合資料工程、數據資料學和機器學習工程的工作流程,讓不同的團隊運用相同的工具協同合作,並透過 Google Cloud 的強大功能調度應用程式資源。另外,您還能根據特定用途調整基礎模型,只需提供少量的樣本資料,以及完成最基本的訓練即可。強化品牌信譽提升客戶參與度提高長期獲利能力增進產品價值和信任感為 AI 法規做好準備提高客戶忠誠度和信任感4隱私權Google Cloud 在 AI 做法上透明公開、完全負責且採取隱私保
5、護設計,助您堅守最高的隱私權標準。Google 開發及發揮 AI 潛能的策略,始終離不開我們的創立使命:彙整全球資訊供大眾使用,使人人受惠。我們認為必須以大膽且負責任的做法推動 AI 發展。大膽指的是快速創新,在突破性產品中部署 AI 技術,使世界各地的使用者受惠,同時促進科學領域的進步,加深我們對世界的瞭解,協助人類把握機遇及應對最迫切的挑戰。負責任指的是開發和部署 AI 時,應考量使用者需求和更多面向的責任,並維護使用者的人身安全、資料安全和隱私。我們在Google Cloud Platform 使用限制政策和生成式 AI 使用限制政策融入前述的價值觀,公開透明且清楚地傳達 Google
6、的理念。在 AI 應用方面,除了個別使用者需要遵循適當做法外,我們也呼籲業界應議定一套共同標準。Google 持續改進相關做法,進行領先業界的 AI 影響和風險管理研究,並審慎評估新的 AI 研究和應用提案,確保符合我們的原則。我們會不斷調整,反覆評估如何提升日常工作的可靠度和安全性,也會發表 Google 的研究成果,鼓勵各方合作及推動 AI 領域的進展。增強 AI 可信度的重要基礎:安全性Google Cloud 採取最完善的安全控管機制和最佳做法,讓您在平台上安心推動 AI 專案。資料治理資料的使用方式和位置由您全權掌控,而且 Google Cloud 絕不會用個人資料訓練模型,使用起來