提供安全可靠的 AI 技术 -Google_第1页
提供安全可靠的 AI 技术 -Google_第2页
提供安全可靠的 AI 技术 -Google_第3页
提供安全可靠的 AI 技术 -Google_第4页
提供安全可靠的 AI 技术 -Google_第5页
已阅读5页,还剩55页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

作者:MarinaKaganovich、RohanKanungo與HeidiHellwig,1,235風險評估7資料治理9運用企業真相建立生成式AI基準隱私權安全性法規遵循20開放式雲端與可攜性環境影響24治理29使用限制29安全性29隱私權與資料治理30掌握生成式AI最新發展動態免責事項:本文內容於2025年2月經驗證正確.所有資訊皆以撰寫當時的情況為準。GoogleCloud將持續改善保護客戶的方式.因此相關的安全性政策和系統未來可能會改變。3當今企業面臨的重大挑戰.是將AI技術導入正式環境.同時兼顧準確率、人身安全和資料安全性。GoogleCloud的生成式AI做法著重在企業用途的完備性.內建機制可實現穩健的資料治理、隱私權控制、智慧財產權賠償保障和負責任的AI技術。我們提供保護AI所需的工具和服務.並能滿足資料主權需求.讓客戶放心大規模部署模型。為充分發揮AI創新的潛力.同時將風險降到最低.平性.許多人也對這個領域的隱私權、資訊透明度和可靠性表達擔憂。企業極大優勢.包括:自自益.當中說明Google如何以負責任的方式建構企業級時.如何妥善處理AI資料治理、隱私權、安全性和法創造新內容.例如文字、圖片、音樂、音訊和影片.生成式AI的運作原理.是透過機器學習模型學會資料集中的模式和關係.再運用學到的模式生成新內容。生成式AI由基礎模型(大型AI模型)驅動.具備多工處理能力.而且可直接執行重點摘要、回答問題、分類等各種工作。VertexAI是機器學習平台.可用來訓練及部署機器學習模型和AI應用程式.或是為您的AI應用程式自訂大型語言模型(基礎模型的一種.簡稱LLM)。VertexAI結合資料工程、數據資料學和機器學習工程的工作流程.讓不同的團隊運用相同的工具協同合作.並透過GoogleCloud的強大功能調度應用程式資源。另外.您還能根據特定用途調整基礎模型.只需提供少量的樣本資料.以及完成最基本的訓練即可。4的創立使命:彙整全球資訊供大眾使用.使人人受惠。「大膽」指的是快速創新.在突破性產品中部署AI技術.使世界各地的使用者受惠.同時促進科學領域的進步.加深我們對世界的瞭解.協助人類把握機遇及應對最迫切的挑戰。「負責任」指的是開發和部署AI時.應考量使用者需求和更多面向的責任.並維護使用者的生成式AI使用限制政策》融入前述的價值觀.公開透個別使用者需要遵循適當做法外.我們也呼籲業界應議定一套共同標準。Google持續改進相關做法.進行領先業界的AI影響和風險管理研究.並審慎評估新的AI研究和應用提案.確保符合我們的原則。我們會不斷調整.反覆評估如何提升日常工作的可靠度和安全性.也域的進展。增強AI可信度的重要基礎: 02.隱私權全負責且採取隱私保護設計.助您堅守最高的隱私權標準。 最佳做法.讓您在平台上安心推動AI專案。資料的使用方式和位置由您全權掌控.而模型.使用起來無比安心。助您在瞬息萬變且複雜的法規遵循環境中.從容因應法規。 04.5AI發展如此迅速.我們該如何在創新、可靠性和風險控管間取得理想平衡?在本章節中.您將瞭解GoogleCloud如何在建構AI技術時採取負責任的做法.完整顧及風險評估、資料治理、隱私權、安全性、法規遵循、可攜權和碳排減量等面向。6如同任何顛覆性技術和新技術.生成式AI有其複雜性和風險.如要妥善控管.必須仰賴全方位的風險管理框架和治理架構。AI伴隨著許多關鍵問題.我們致力以負的社會大眾都能受惠。最困難的地方在於降低風險.同捏得當.才能真正透過AI實現創新及創造社會利益。明確的原則建構AI技術.並持續制定和實施嚴謹的安全防護措施.開發及使用AI時也會遵守隱私權原則。我們瞭解.打造成功AI技術的關鍵便是審慎評估.因估.並衡量早期與客戶合作開發的契機。負責任的產品開發做法涵蓋多個層面.有些牽涉技術.包括評估資料集和模型是否存在偏誤.有些涉及產品體驗.有些則與政策相關.例如:從產品角度判斷是否提供成的四階段程序.根據AI開發原則審查專案.並與隱私究」與「設計」階段以創新為主.「治理」與「分享」階段則著重於風險評估、測試、監控和資訊公開。使用者體驗研究員組成。我們也會定期發表工作進展.、贏得及維繫客戶信任.以及孕育負責任的創新文化。全的經驗。建構生成式AI服務的過程中.我們會採取技術性做法大規模落實政策.相關技巧包括微調和運用人類時.都會經過多道保護措施把關。我們會根據監控資料和使用者的意見回饋.持續完善政策.也會秉持負責任的精神打造產品.包括在設計階段就融入安全性考量。我們已將上述做法編入安全AI架構(SAIF).結合現有的安全知識應用SAIF.並針對新興威脅調整因應措施.具體做法請見下文。企業決定是否利用生成式AI的優勢時.通常會考量許多問題.其中最關鍵的不外乎是「我該如何幫助自家公司善用AI的強大效益.同時將風?」GoogleCloud可協助您從多種角度解開這道難題。01.開發AI產品期間進行全面審查Google會在模型層級.以及將模型整合進產品/服務的階段.識別並評估潛在風險。我們透過社會技術做法.評估AI與現今社會體系的互動方式.衡量產品/服務在初次發布及日後可能產生的影響和風險。審查人員深知.模型層級和應用層級的潛在風險與影響可能不同.因此會據此發展相應對策。我們還參考多種資訊來源.包括學術文獻、外部和內部專業知識.以及Google內部倫理與安全研究。02.私下發布模型這個做法能讓產品團隊在正式發布前.先收集寶貴的意見回饋。根據意見改良產品後.我們會更新產品說明文件.記錄團隊所做的變更。這份文件通常會說明模型的已知限制.也可能包含服務專屬條款.引導客戶正確使用Google產品。03.擬定緩解策略,因應潛在風險這個做法適用於產品正式發布前就已預見的任何風險.實際措施可能有很多種。假如是生成式AI產品.緩解措施可能會偏技術取向.例如:在開發期間評估及改進模型、建立政策導向的安全防護機制.或是由客戶自行啟用相關防護工具.進一步保護自家專案的安全。政策限制則通常延伸自相關的《使用限制政策》、《服務條款》和隱私權限制。這部分會在後面的「AI資料治理與隱私7調整封鎖回覆的門檻.依自身業務需求和政策控調整封鎖回覆的門檻.依自身業務需求和政策控管內容。舉例來說.企業可根據機率和嚴重性分數調整安全性設定。透過實用工具瞭解及控管AI模型。舉例來說.客戶能採用與安全篩選器類似的模型.透過文字管理服務掃描整個訓練資料集.找出預先定義為「有害類別」的字詞和可能較敏感的主題.持續遵循相關法規。自訂技術控管機制.例如:設定安全篩選器.封覆。客戶能運用安全屬性建立安全篩選器.包括「有害類別」和「毒品」或「貶抑他人」等較敏感的主題。VertexAIVertexAI的模型評估工具提供常見的資料和模型偏誤指標.有助於瞭解模型成效及評估潛在偏誤。無論是否在訓練期間.都能利用這些工具評估資料和模型輸出.找出有疑慮的部分並取得改善建議.進而提升模型公平性。指南和工具.引導客戶設定安全性政策、建構完善的安全性分類器等.以利使用新的開放式模型.打造更安全的AI應用程式。ExplainableAI工具和框架原生整合於多項詮釋機器學習模型生成的預測結果。也歡迎前往模型資訊卡中心.查看API模明文件.認識各模型的優點和限制。8020203GoogleGoogleCloud絕不會使用客戶資料訓練模型基於提供服務的目的.Google可能會處理客戶資料.但未經客戶事先許可或指示.我們不會使用這類資料訓練基礎模型。客戶可隨時控管資料的使用方式和位置VertexAI的基礎模型主要是為一般用途而生.客戶可利用我們的調整API進行微調.根據特定用果和產品開發專業知識.客戶不僅享有世界級的客戶可隨時控管資料的使用方式和位置VertexAI的基礎模型主要是為一般用途而生.客戶可利用我們的調整API進行微調.根據特定用果和產品開發專業知識.客戶不僅享有世界級的AI技術.也能保有資料掌控權。承諾.Google建置了完善的資料治理審查機制。使用者經常問到.我們是否會將客戶資料用於訓練基礎模型.導致相關資訊流入GoogleCloud、GoogleCloud的其他客戶或大眾手裡。為回答這個問題.以下我們將簡要說明Google在微調與部訊.請參閱基礎模型調整方法白皮書。輸入資料(包括提示和適應器權重)輸入資料(包括提示和適應器權重)一律不公開Google將這些內容視為客戶資料.全程以安全的方式儲存.無論是靜態或傳輸中的資料.都會經過加密。客戶可使用自行管理的加密金鑰(CMEK).將儲存的適應器權重加密.而且隨時能刪除這項資訊。未經客戶許可.我們不會記錄用於訓練適應器模型的客戶資料.也不會使用該資料改良基礎模型。020203為充分發揮生成式AI的威力.企業必須運用自有系統和最新資料.建立基礎模型的回覆基準。GoogleCloud將這項即時資訊稱為「企業真相」。運用企業真相建立基礎模型基準.可大幅提升回覆的準確率和完整性.有助實現獨特的應用方式.奠定進階AI代理的基礎。這麼做的好處包括:確保資料真實性,贏得使用者信任使用真實可靠的資料.能大幅強化模型輸出的可信度.讓使用者更信任模型的能力。取得信任後.就能將模型應用於更機密的重要領域.為新一代AI代理鋪路。提供更切合需求的資料提供更切合需求的資料模型可提供更實用、詳盡且與特定情境直接相關的輸出內具體或詳細回覆的應用程式來說.這將是一大利多。盡可能減少幻覺生成式模型會從統計關係中學習.但有時會生成看似合理.卻與事實不符的輸出內容。如果想確保模型將回覆與可驗證的事實交叉比對.就必須建立基準。GoogleCloud客戶享有業界首創的賠償保障.也就是說.如果他人以著作權為由.就生成內容或GoogleCloud使用訓練資料的情形.對客戶提出質疑.我們會承擔相關的潛在法律風險。使用生成式AI處理實際工作模型是以特定時間點的資料訓練而成.如果用途講求精確的最新資訊.必須確保生成式AI能取得新資訊.再投入應用。為確保企業的AI代理提供準確、符合事實且可靠的結果.GoogleCloud提供最全面的方法.幫助客戶運用企業真相建立AI基準。綜觀所有雲端服務供應商.唯有我們能結合企業資料、多家供應商(如Moody’s、MSCI、ThomsonReuters和Zoominfo)提供的專業第三方資料.以及ERP、CRM和人資系統等第三方企業應用程式.建立強大的參照基準。這種多管齊下的基準建立法.可將模型回覆中的幻覺降到最低.讓企業充分發揮資料的潛力.加速實現AI創新。本節將分享Google初步的隱私權考量.意即我們如何根據基本隱私權原則(例如可靠度、公開透明和資料最小化原則).負責任地收集與使用模型訓練資料.並確保模型輸出不會造成危害。具體做法包中設置隱私保護措施、適度公開資料使用情形.以及提供相關控制選項。推出新產品時.我們會在產品生命週期全程貫徹這些原則.並在架構設計中建置完Google秉持負責任的態度開發與部署產品/服務.相關實這項生成式AI開發原則.我們採取結構明確的產品使用情形並提供相關控制選項以及技術和其他隱私防護機制。安專家.在產品上市前先行審查採取合理措施評估相善的AI開發程序.包括風險評估框架、倫理審查機制制.呼應了我們對資料隱私權和保護措施的承諾。具體和《Cloud資料處理附加條款》中闡明.客戶可控管資料的存取、使用和處理方式。另外我允許使用者自行管理個人資料不僅能控管自有資料。在VertexAI平台.客戶主動輸入模型的資料.以及VertexAI據此輸出的內容.都稱為「客戶資料」.Google只會依照客戶的指示處理這類資料。資料和模型用於訓練基礎模型或是洩漏給其他客戶。自有資料自訂和訓練模型的風險.因為這些資料可能含有個人資訊或個人識別資訊等私密內容。這類個人資料通常會連同背景脈絡一起提供.以利模型正常運作。為有效區隔、去識別化及保護資料.我們推出一套持續進化的強大工具和服務.包括:ServiceControls定義邊界.以此隔離資源、控管及限制存取權.進而降低資料竊取或外洩風險。資料偵測功能.提供遮蓋或代碼化等轉換選項.護.保障訓練、微調到推論等各個階段的安全。我們會竭力在CloudAI產品/服務中維護客戶的隱私權.並協助客戶遵循法規。身為全球雲端服務供應商.GoogleCloud向來堅守GDPR規定.也彙整了豐富的DPIA資源中心文件.引導客戶評估資料保護影響。我們還提供特定AI/機器學習服務的設定選項.落實《服務條款》所述的資料落隱私權與安全性息息相關.而這兩項都是GoogleCloud在設計所有產品時恪守的最高準則。AI技術的進步帶來更多改善機會.讓我們在識別、管齊下.打造更安全、規模更大、更臻完善的資安生態系統:提供控管機制、最佳做法和實用功能.讓客戶能順利導入AI技術02.02.持續推出先進的AI產品和服務.協助企業大規模強化安全防護力03.03.持續與時俱進.提前防範威脅GoogleCloud的AI產品受益於廣布全球的基礎架構.不僅可擴充、內建備援功能.更承襲平台的基礎控管機制。我們採取多種做法加強安全性:縱深防禦Google不仰賴單一技術保護基礎架構.而是在技術堆疊中建立漸進式的多層安全防護機制.實現大規模的原生縱深防禦。您可在身分與存取權管理密、網路、偵測、記錄和監控等服務中設定政策和控制選項.層層守護資料和系統。融入安全考量的基礎設計原則我們的作業控管機制涵蓋深度安全性審查、安全漏洞掃描、持續偵測措施.確保部署的服務與客戶資料都安全無虞。我們也特別為VertexAI和生成式AI打造專屬安全控制選項。專為保護專為保護AI工作負載和資料而設計的解決方案AIProtection可協助團隊全面管理AI風險.具體方 以及運用偵測、調查和應變功能處理AI系統面臨加密和去識別化建構加密和去識別化建構AI/機器學習系統時.需要大量資料才能適當訓練模型.而這些資料通常較為敏感.必須妥善保護。所有儲存在GoogleCloud的靜態資料.都會透過強化版金鑰管理系統進行加密。這個系統與Google加密自家資料時使用的系統相同.具備嚴格的金鑰存取控管和稽核機制.並使用AES-256加密標準加密靜態使用者資料.無須另行設定、調整或管理。或者.您也能在CloudService(CloudKMS).使用客戶自行管理的加密金鑰(CMEK).進一步控管金鑰的生成設定、輪替頻率和位置。享有更多控管權.意味著您必須善盡管理金鑰的責任。因此.建議您評估預設加密機制是否能滿足自家法規遵循需求。如要進一步瞭解如何遵守靜態資料加密適用的法規.請參閱這份說明文件。保護軟體供應鏈保護軟體供應鏈拓展現有的軟體供應鏈解決方案.能有效因應AI軟體供應鏈面臨的許多風險。與其打造新的解決方案.不妨比照處理傳統軟體的做法處理AI模型。我們在Google第一方和開放原始碼AI開發生態系統中.採用型來源。這份中繼資料文件會透過加密編譯機制.將模型繫結至用來訓練模型的服務帳戶.也就是代表應用程式.而非真人使用者的識別帳戶。這樣Google也能根據預期的簽署金鑰驗證所有模型.確保內部人員無法暗自覆寫或變更模型.的安全性.並全力支援SLSA和Sigstore專案。2023年.我們將工作成果的原始碼設為開源.以利AI專案運用SLSA和Sigstore等現有解決方案。02030203附錄第1章Protection服務Protection服務.讓系統根據模式或清單.辨識電子郵件地址、電話號碼、職稱等私密資料.然後透過遮蓋或代碼化等方法.自動隱藏或轉換這類資料。在將圖片擷取至機器學習訓練環境前.也可利用這項工具遮蓋當中的私密資料.例如:身分證字號。除了在安全的平台上建構AI產品.我們也制定出安全AI架構(SAIF).這個概念框架能引導您從四個面向保護SAIF源自於Google在軟體開發過程中採用的資安最佳做法(如審查、測試和控管供應鏈).並融合我們對重大解決客戶最重視的問題.包括安全性、AI/機器學習模用AI時.以SAIF為依據規劃及修正做法。事件分析、威脅偵測與數據分析功能.可帶來降低安全防護工作的難度.並提升防020203為妥善保障AI發展所需的技術.制定SAIF等跨公私部門的框架至關重要.這樣才能確保AI模型在實作當下就預設採用安全擴大偵測和應變機制.擴大偵測和應變機制.施.並為AI部署作業建立更施.並為AI部署作業建立更這些步驟不單只是概念.更是適合所有企業採行的框架。值得注意的是.雖然保護AI系統需要考量的層面日漸增加.但許多現行的AI開發、部署和使用方法.只需稍加調整.就能融入上述核心要素.不見得要發展全新做法。歡迎進一步瞭解網路安全領域在AI問世後的變與不變.另外.Google設有AI紅隊演練.能夠檢測安全性和隱私權風險。紅隊演練又稱為對抗測試.期間「白帽駭客」會刻意違反政策.找出並修復可能危害使用者的安全漏洞。隨著生成式AI的興起.紅隊演練成為實用利器 .協助團隊有條不紊地改善模型和產品品質.以及做出上市決策。為進一步解決內容安全風險.我們成立了新團隊.對生成式AI產品進行對抗測試.目的是找出助企業守護AI系統使用安全.並運用AI加強網路防禦能力。這個團隊會不斷探索創新的AI應用方式.藉此強化並檢討評估.我們都會採取對抗做法.根據使用者意見回饋提升模型成效.同時找出新興風險。在AI技術的開發與部署生命週期中.我們會採行完善的安全防護措施.並視特定產品和使用者面臨的風險做出調整。這麼做的優點在於.能及早導入預防和偵測控管機制.透過對抗測試和紅隊演練增強防護力.因此相當重要。我們也會收集威脅情報.隨時掌握最新的攻擊練及儲存.並由全球資安工程師團隊提供支援。設計雲端運算的安全性和隱私保護措施時.必須遵循法管制產業.以及某些重要服務或重要基礎架構供應商而負載及儲存資料的企業.都有權瞭解平台的控管機制.也能經常要求我們發布獨立第三方編製的文件.證明控Cloud的控管機制.我們提供隨時可查閱的法規遵循文件、證明、控管認證和獨立稽核報告.滿足地區和特定產業適用的要求。另外.我們也會協助客戶驗2020020203AI的飛速發展引起全球監管機構的關注.他們越來越好奇現行規範架構如何看待AI.也紛紛開始思考需要採取哪些新措施.才能確保AI的開發與部署過程符合法律、常理和人權。AI的重要性不言而喻.勢必得審慎監管。因此.我們提倡在現有的通用監管概念之上.追加風險導向框架.應對複雜的AI生態系統。Google先前曾發布AI監管建議.概略說明政策制定者在設計AI實務法規時.應考量的一般做法和實踐要點.主要建議包括:0304以現有法規為基礎.制定個05此後.我們不斷發表內容進一步闡明立場.包括《政和《金融機構適用的生成式AI風險管理》。另外.我們的團隊也透過風險評估程序實現下列目標:在AI產品的整個生命週期中.識別、無論在國際或地區性的標準發展組織中.Goo都是值得信賴的意見領袖.除了積極提供意見回饋.也會參與法規、標準和框架的制定過程。我們也密切追蹤、監控及主動支持業界標準.例如最近管理框架(RMF)等.更不忘關注全球法規發展.確保我們持續開發及提供符合客戶需求的工具。Google深知AI有其複雜性和風險.為確保順利接軌未來的AI法規.我們主動檢討內部做法是否符合新興AI治理框架的基準。為落實承諾.我們委請知名網路安全公司Coalfire評估自家現行程序.看看是否符合美國國家標準暨技術研究院(NIST)人工智慧風險管理框架(AI的目標.並檢驗相關做法的成熟度。我們依據Coalfire寶貴的評估見解強化安全防護機制.持續堅守最高標準的獨立審查能提供最客觀的視角.也很榮幸成為首批完我們也密切留意監管領域的發展.以《歐盟AI法案》為例.這個法律架構根據潛在風險和影響程度.明訂AI系統須遵守的義務。這項法案將分階段實施.當中詳載一般用途AI規則、高風險系統應盡的義務.並明文禁工作.我們在內部啟動《AI法案》準備計畫.確保的合作.包括:0203評估並減少與遵循《評估並減少與遵循《AI法案》相關的潛在風險.確保程序完善且到位。仔細分析《AI法案》的規範.將相關要求納入現有的政策、做法和合約中。與客戶緊密合作.瞭解他們對《與客戶緊密合作.瞭解他們對《AI法案》的疑慮和需求.並視情況提供指引和支援。案》的資訊公開、可靠度和公平性原則.並恪守這項法案的測試、監控與文件製作要求.不斷提和第三方AI模型.充分展現我們的開放式理念。這不僅思想:讓客戶享有最多選擇.不必受制於單一產品/服務。換句話說.您可輕鬆連結現有的地端系統、其他雲端服務、SaaS應用程式.甚至能導入自家的專屬模型。VertexAI為統合式平台.可讓您在同一處管理、監控及持續改良模型。無論模型是來自開放原始碼專案.或是由合作夥伴或Google內部開發.都不成問題。這個做法有助於提高資料可攜性.客戶可以自由移動自模型供應商的大部分模型選項.選取和切換模型都十分方、第三方或開放原始碼模型.更快從開發階段投入到正式環境.並能全面追蹤變動。ModelGard化做法.讓您更輕鬆替換機器學習管道中的個別元件.進而加快實驗與疊代速度。只要善用上述各項優點.您就能依自身需求和風險承受能力.做出更明智的決策。24訓練和執行基礎模型需要相當的運算能力.這也是為何AI模型和服務可能耗用大量能源。因此.我們有責任控管這些作業的碳足跡。Google根據日常作業整理出四項最佳做法(簡稱「4M原則」).可大幅減少能源使用量和碳排放量。我們目前已導入這四項做法.任何使用GoogleCloud服務的人也都能採行。若能運用得當.可望減少能源用量100倍和碳排放量1,000倍。下方將簡單介紹這四項概念。).可提高機器學習品質並將運算資源用量減與一般用途處理器相比.使用專為機器學習訓練打造的處理器和系統.效能和能源效率可提升與地端作業相比.雲端運算的能源用量更少.碳與地端作業相比.雲端運算的能源用量更少.碳為高效節能而生的新型特製廠房.可容納50,000台伺服器.電力使用效能(PUE)極佳。地端式資料中心通常規模較小且老舊.無法攤銷新型節能冷卻設備和配電系統的成本。GoogleGoogle投入大量資金.致力實現綠色雲端運算.包括將資料中心改造成全球最有效率的營運據點.以及採購更多無碳能源。平均而言.Google自有自營資料中心的能源效率.是一般企業資料中心的1.5倍以上;與五年前相比.我們現在能以相同電量實運算能力。簡單來說.我們可以用更少的能源完成更多工作。汙染.並盡量延長材料和資源的使用壽命。Google資源.同時引領其他企業達成這個目標。我們致力協助客戶運用資料和AI技術即時做出決策.降低碳排放ActiveAssist功能減少雲端碳足跡.具體做法是利用機器學習技術找出未使用(且可能浪費資源)的工作負載並予以移除進而減少碳排放量。AI和機器學習工作負載的規模和效能迅速提升.讓大量和碳排放量勢必會成長但幅度難以究顯示.隨著AI/機器學習運算需求增加.這類技術所需的能源用量成長速度遠低於許多預測結果。藉由經證實有效的做法.我們大幅減少工作負載的碳足跡.將訓練模型耗用的能源減少多達100倍,碳排放量則減少高達1,000倍。我們將繼續採用這些實證有效的資料中心在設計、建造和營運上皆追求效率最大化.即便未來運算需求增加也能應付。Google運用AI改善自身營運效率.努力減少資料我們的目標是我們的目標是在2030年前實現無碳營運.以及在2030年前補充相當於120%用水量的水資源。此外.我們也致力以更高標準管理水資源、改善水質、確保水資源安全.並讓營運據點所在社區的生態系統恢復健康。Google在開發AI平台、系統和基礎模型時.一向秉持「命運共同體」的理念.並結合相關的技術經驗.打造全方位治理工具、提供明確指引和最佳做法.協助客戶保護資料與AI模型。01第2章03附錄管理策略管理策略.進而完整發揮生成式AI的潛能。風險概況通常相當複雜.對於採用精密模型的生成式AI來說更是如此。更重要的是.風險管理做自行開發AI應用程式.有些選用第三方(包括取混合式做法。另外.我們也必須考量相關服務是否符合企業需求。本情境.而且各自需要不同的風險管理策略:自行建構、依需求自訂模型、直接整合模型.或使用現成模型。這四種情境的主要差異.在於企業對AI模型的直接掌控度.以及將多少工守AI隱私權承諾並保護客戶資料.讓他們放心運用豐富資料開發各種用途.同時持續遵守相關法規和法律。命運共同體模式.客戶將能持續獲得必要工具和指引。探討治理機制、使用限制政策、安全性和隱私權扮演的角色.引導企業成功推動AI發展.也會說明如何掌握生成式AI最新發展動態。0202企業只要按照一系列最佳做法即可順利導入AI.例如:找出相關人員、制定原則、採用框架、記錄政策、清楚說明用途、實施資料治理、與設置提報管道、公告狀態與進展.以及展開AI訓練計畫。如到難題.就能參考這些做法化解困境.並負責任地整合這項技術。如果想以安全、可靠且穩健的方式使用AI.企業應根據內部的使用限制政策(AUP).擬定生成式AI專用的「建構原則」。企業的生成式AI使用行為.必須與內部整體目標和價值觀相符.而且遵守適用的地區和產業規定。使用限制政策具有一定的重要性.因為這些政策往往與企業的其他治理原則緊密連結(包括大規模宣導、訓練和持續監控法規遵循情況等).能從多個面向引導企業建立治理架構.以及決定生成式AI的應用方式。生成式AI確實需要全新的資安做法.但舊有做法仍有一席之地。確保AI安全並不代表要一夕顛覆原有的資安最佳做法.資安團隊迄今累積的經驗大多依然正確且適用。我們認為傳統系統採用的許多資安原則和做法.同樣適合AI系統。瞭解傳統企業軟體系統與AI系統的資安做法差異後.企業將能制定更完善的安全防護策略.讓AI系統免受各種安全威脅侵擾。現在就是採取行動.提前防範潛在攻擊的最佳時刻!保護AI系統時.必須從攻擊者的角度思考並審視已知的弱點.找出攻擊者可能利用的系統安全漏洞。因此.我們建議企業集結數據資料、工程和資安團隊的力量.制定全方位安全防護策略。0202機器學習模型會從訓練資料中學習.並根據輸入內容做出預測.不過有時訓練資料或輸入內容可能頗為敏感。雖然打造採用私密資料的模型可能有其優點.但請務必評估使用這類資料時.可能會對隱私權造成的影響。這裡指的是遵守法律和法規要求.以及考量社會常理和方式.並提供相關的控制選項。好消息是.只要適當運用各種技巧.就能盡量降低機器學習模型洩露基礎資料的可能性.這些技巧包括:QQ判斷能否不使用私密資料訓練機器學習模型.例如:運用非私密資料集.或是從訓練集移除私密資料。如果必須處理敏感的訓練資料如果必須處理敏感的訓練資料.請盡可能減少使用.並妥善處理所有私密資料.例如:配合相關(如將傳輸中和靜態的資料加密).以及遵守隱私按照最佳做法建立資料清理管道按照最佳做法建立資料清理管道.將傳入的資料去識別化並加以彙整.例如:移除可能會遭去匿30發展動態.以及如何強化團隊的專業知識與技能.並AI時.請務必瞭解這不只是技術問題.更是人力投資。您可用淺顯易懂的方式帶領員工認識生成式AI.著重培養策略技能.並打造重視持續學習的文化.完整發揮生成式AI的顛覆性力量.為未來的工作模式做好、可能伴隨的風險及應對方式。型.包括進行實驗、花時間研究、將模型應用至工作等。我們的學習路徑提供多元進修課程.幫助各種職務和型基礎知識.以及認識負責任的AI技術開發原則。另外.我們也整理出AI建議做法.並提供相關實作範例和說明文件.讓您在設計、開發、測試及使用AI系統時.更重視公平性、可解釋性、隱私權和安全性。0202身處AI領域的最前線Google持續鑽識.開發出更強大且實用的AI技術域的發展。我們致力追求創新.希望能促成更多科學新發現.解決人類面臨的重大難題。我們將務中.並與各方合作.貢獻更多創新技術.造福大眾與世界各地的社群。為促進相關討論.我們會發布教育內容、研究資料和其他形式的文件.落實資訊公開原則.並為客戶提供支援。舉例來說.負責任的AI技術指南提供最佳告則涵蓋機器智慧、自然語言處理等豐富主題.展現具重要影響力的科學和實務觀點。聯絡我們010203附錄●生成式AI範例|GoogleCloud●VertexAI簡介|GoogleCloud●多模態AI|GoogleCloud●AI開發原則●多模態AI|GoogleCloud●GoogleCloudPlatform使用限制政策(AUP)●生成式AI使用限制政策●負責任的AI技術●我們對AI政策的觀點-GoogleAI●2023年AI開發原則最新進展01.負責任的創新●負責任的AI技術進度報告●我們對AI政策的觀點-GoogleAI●全權負責●業界自發性AI承諾的實踐●機器學習詞彙:增強學習|Google開發人員平台●意見回饋與控管機制●Google安全AI架構(SAIF)風險評估●VertexExplainableAI簡介●模型公平性評估簡介|VertexAI|GoogleCloud●透過VertexAIModelEvaluation大規模提升模型品質|GoogleCloud網誌●VertexAIModelMonitoring簡介|GoogleCloud●VertexAIModelRegistry|GoogleCloud網誌●負責任的AI技術|VertexAI生成式AI|GoogleCloud●負責任的生成式AI工具包|GoogleAIforDevelopers●審核文字|CloudNaturalLanguageAPI●在VertexAI評估模型|GoogleCloud●模型公平性評估簡介|VertexAI|GoogleCloud●API簡介-模型資訊卡●Gemma模型資訊卡|GoogleAIforDevelopers●Gemini:一系列功能強大的多模態模型●Google模型資訊卡●Google安全AI架構010203附錄資料治理●大型基礎模型的調整方法●以Google搜尋和企業資料建立生成式AI的輸出基準隱私權●生成式AI與隱私權-政策建議工作報告●打造以隱私權為重的AI技術●AI開發原則●生成式AI、隱私權與GoogleCloud●GoogleCloudPlatform/SecOps服務條款●Cloud資料處理附加條款●VertexAI的資料存取透明化控管機制|GoogleCloud●在VertexAI運用IAM進行存取控管|GoogleCloud●SensitiveDataProtection如何協助保護生成式AI工作負載|GoogleCloud

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论