“用魔法打敗魔法” AI時代如何構建數據安全生態(tài)

  來源:中國青年報 中國青年網賈驥業(yè) 朱彩云2024-04-30
打印本文
核心提示:AI時代,,數據安全治理需要做到全程管控,。在一些專家看來,“如果靠過去一些成熟的技術去解決現在的問題是很難的,,今天只能通過‘用AI對抗AI’的方式,,才能解決內容安全的問

AI時代,數據安全治理需要做到全程管控,。在一些專家看來,,“如果靠過去一些成熟的技術去解決現在的問題是很難的,今天只能通過‘用AI對抗AI’的方式,,才能解決內容安全的問題?!?/span>

 ——————————

美國一項新提出的法案,,進一步引發(fā)了人們對大模型時代數據安全問題的關注。

近日,,一名美國眾議院議員提出了一項《生成式人工智能版權披露法案(Generative AI Copyright Disclosure Act)》,,該法案要求企業(yè)在推出人工智能系統(tǒng)之前要告知政府,同時還要列出用于構建或更改該系統(tǒng)訓練數據集的所有受版權保護的作品,。這則法案如被通過,,將推動美國人工智能公司在模型訓練數據的使用上更加透明。

無獨有偶,,在一個多月前歐洲議會投票通過并批準的《人工智能法案(Artificial Intelligence Act)》(以下簡稱《法案》)中,,也明確要求對用于訓練,、測試和驗證人工智能工具的數據進行適當的數據治理。

“近年來,,各國紛紛出臺了涉及人工智能的立法和政策,,大多數國家在制定相關法規(guī)時都采取了謹慎的態(tài)度,避免過度限制人工智能的發(fā)展,,以免阻礙創(chuàng)新和進步,,這彰顯了國際社會對數據安全治理的重視?!痹谌涨芭e行的“2024中關村論壇-數據安全治理與發(fā)展論壇”上,,香港科技大學首席副校長、英國皇家工程院院士郭毅可說,。

當前,,以人工智能(AI)為代表的新技術應用成為發(fā)展新質生產力的重要引擎,隨之而來的數據安全治理與發(fā)展也備受關注,。2024中關村論壇(以下簡稱“論壇”)期間,,舉辦了多場與AI相關的論壇活動,“AI時代的數據安全治理”也成為熱點話題,,不少國內外專家學者以及業(yè)界人士在論壇上交流前瞻理念,、分享研究成果,深化前沿領域數據安全治理效能,。

數據安全治理新形勢

AI時代,,“數據”是一個不得不提的關鍵詞。

“數據對于AI的進步非常重要,?!痹?024中關村論壇年會開幕式上,硅谷人工智能研究院院長皮埃羅·斯加魯菲說,。他提到,,從1997年IBM的“深藍”電腦擊敗當時的國際象棋世界冠軍卡斯帕羅夫,到2016年谷歌人工智能程序AlphaGo戰(zhàn)勝韓國圍棋世界冠軍李世石,,再到如今OpenAI的GPT橫空出世……AI技術快速發(fā)展背后,,主要的驅動因素就是大量的數據。

但隨著AI技術日新月異的變化,,尤其是生成式人工智能(AIGC)的快速發(fā)展,,其性能在優(yōu)化的同時也放大了數據安全風險,其可能引發(fā)的價值偏見,、隱私泄露,、虛假信息等問題引起了大眾的擔憂。“現在很多診斷是由AI來做的,,比如你要將GPT用于診斷疾病,,我們放心嗎?很多時候是不放心的,?!逼ぐA_·斯加魯菲說。

在清華大學計算機科學與技術系教授,、人工智能研究院基礎模型研究中心副主任黃民烈看來,,AIGC的出現,使得現在的數據安全治理與過去相比有很大的不同,。他表示,,AIGC能通過訓練去組合、生成一些在過去的語料庫中根本沒有出現過的新內容,,這些內容可能是有害的,。

“在生成式人工智能(AIGC)時代,我們在數據安全層面,,面臨的是不斷組合和創(chuàng)造新的數據安全風險的問題,,徹底解決這種風險,需要算法和工具的支撐,,而不是靠人,,或者靠一些靜態(tài)的方法去做相對固定的檢測?!秉S民烈說,,可以去研究制定一些有針對性的對抗和攻擊方法,比如事先讓算法發(fā)現模型的漏洞和風險,;也可以利用算法追蹤模型存在的風險,,再有針對性地制定安全手段。

如今,,除了類似ChatGPT的通用大模型,,專注某一垂直領域的行業(yè)大模型也層出不窮。奇安信集團副總裁劉前偉長期關注行業(yè)大模型的數據安全治理問題,,他觀察到,,很多行業(yè)大模型廠商都有一個普遍的擔心:模型預訓練的語料會不會被其他人竊取,?

他解釋說,行業(yè)大模型在做預訓練時,,被“喂”的數據大多是行業(yè)知識,,“這些語料可能是不同企業(yè)最有競爭力的一些數據。”如果存在漏洞,,可能導致這些核心的數據資產被泄露出去,,“這是在通用大模型里,我們過去沒有特別關注的一點”,。

同時,,作為通用大模型的使用者,很多人都會問一個問題:當我去問大模型問題時,,會不會造成商業(yè)機密,、個人信息的泄露。劉前偉在論壇上也提出了上述疑問,。

對于如何解決上述問題,,劉前偉也同意黃民烈教授的觀點?!叭绻窟^去一些成熟的技術去解決現在的問題是很難的,,今天只能通過‘用AI對抗AI’的方式,才能解決內容安全的問題,?!?

構建安全可信的數據治理生態(tài)

2023年5月,包括“ChatGPT之父”山姆·奧特曼(Sam Altman)在內350位AI領域權威人士簽署了一封聯名公開信,,信中寫道:“應將緩解AI導致的滅絕風險,,與其他社會規(guī)模風險(如大流行病和核戰(zhàn)爭)等同重視,作為全球優(yōu)先事項,?!?

“人工智能凸顯了數據的重要性,再創(chuàng)造一個全球性的治理框架,,建立互信是最重要的因素,。”新加坡資訊通信媒體發(fā)展局局長柳俊泓在論壇發(fā)言中指出,,對數據和AI的信任,,是在數字時代平衡保護和創(chuàng)新的基礎。

論壇期間,,不少專家在討論中提到了一個詞——可信AI,,該詞的核心就是AI大模型的安全問題?!拔覀儽仨氄J識到數據安全是永遠的命題,,一定要‘安全可信’?!敝袊こ淘涸菏可虿樵谡搲媳硎?,要用主動免疫可信計算筑牢人工智能安全防線。

在他看來,數據安全治理需要做到全程管控,,實現六個“不”:首先讓進攻者“進不去”,,進去后“拿不到”數據,即使進攻者拿到數據也白拿,,因為數據被加密“看不懂”,,并且系統(tǒng)帶有自動免疫功能,讓進攻者“改不了”數據,。同時,,需要保證設備“癱不了”,能在發(fā)現故障后及時采取措施確保穩(wěn)定運行,,最后是確保攻擊行為可追溯“賴不掉”,。

"達到這六個‘不’的效果,才能使得數據安全治理達到有效的目標,?!鄙虿榻榻B,經過30多年的發(fā)展,,我國已經構建了比較完整的新型產業(yè)空間,。他表示,目前,,中國已經具備可信計算功能的國產CPU,,嵌入式可信芯片及可信根,具備可信計算3.0技術的設備,。

除了可信計算,,一系列前沿技術也為構建安全可信的數據治理生態(tài)提供支持。香港科技大學首席副校長,、英國皇家工程院院士郭毅可認為,,在增強數據安全上,區(qū)塊鏈和量子密碼學等技術有較大應用前景,。

“區(qū)塊鏈有透明和不可更改的技術特性,。”郭毅可說,,將區(qū)塊鏈技術應用在數據安全治理領域,,能在確保數據完整性的同時,進一步降低數據授權風險和數據篡改風險,。他還提到,,可以通過數據匿名化技術、用戶同意和隱私設計規(guī)則,,以及實施數據分類,、訪問控制和加密等方法,,保護知識產權和防止未經授權的數據披露。

在郭毅可看來,,加密技術能保護數據在靜止和傳輸過程中的安全。此外,,還可以利用差分隱私,、數據屏蔽等匿名化技術來刪除個人身份信息,以確保數據的機密性,,同時保留其對AI模型訓練的有用性,。

“用魔法(即AI技術)打敗魔法”,這是劉前偉提出的AI時代數據安全治理的一大出路,。在論壇上關于AI數據安全治理相關技術路徑的討論中,,隱私計算、聯邦學習等被反復提及,。

除了問題,,AIGC也為數據治理提供了新的、更有效的手段,。歐洲科學院院士,、清華大學人工智能研究院常務副院長孫茂松提到,現在數據里面有很多隱私問題,,但可以用生成式人工智能(AIGC)生成符合真實情況的數據,,同時規(guī)避掉用戶真實的隱私數據?!八?,實際上生成式人工智能對我們數據治理也有非常重要的正面推動作用?!?

創(chuàng)新AI監(jiān)管機制

“數據安全治理是人工智能和數字轉型時代一個至關重要且不斷演進的議題,。”郭毅可說,,人工智能時代,,需要在保護數據隱私和敏感信息的同時,建立國際機構框架和法規(guī)來規(guī)范數據安全,。

近年來,,包括英國的《支持創(chuàng)新的人工智能監(jiān)管規(guī)則》、歐盟的《人工智能法案》在內,,多個國家和地區(qū)陸續(xù)出臺了相關的政策和法律,,規(guī)范人工智能的發(fā)展,其中有不少內容與數據安全治理有關,。

2023年8月15日,,全球第一部關于生成式人工智能治理的專門法律規(guī)范《生成式人工智能服務管理暫行辦法》(以下簡稱《辦法》)在我國正式施行,。中國互聯網協(xié)會研究中心副主任吳沈括認為,《辦法》著眼生成式人工智能服務語境下的數據治理,,引入了多項專門規(guī)范,,對于構建面向AI時代的數據治理新生態(tài)具有重要的制度指引意義。

在探索人工智能可控發(fā)展過程中,,監(jiān)管沙盒機制是一個創(chuàng)新手段,。監(jiān)管沙盒是指在風險可控的前提下,通過設立限制性條件和制定風險管控措施,,允許創(chuàng)新產品技術服務或商業(yè)模式在真實市場環(huán)境中,,以真實用戶為對象進行深度測試的一種機制。歐盟《人工智能法案》明確要求其成員國要創(chuàng)建人工智能監(jiān)管沙盒,。目前,,挪威、西班牙等國已開始監(jiān)管沙盒相關工作,。

柳俊泓提到,,目前有很多技術、政策,,能讓企業(yè)從消費者數據集中獲得價值,,同時也可以確保消費者的數據集得到保護。他認為接下來應當建立監(jiān)管沙盒,,在其中使用并且開發(fā)這些技術和政策,,從而能在最大化的使用數據的同時,保障數據安全,。

論壇期間,,“北京人工智能數據訓練基地監(jiān)管沙盒”正式發(fā)布,這是全國首例人工智能領域監(jiān)管沙盒,。北京市經濟和信息化局副局長毛東軍表示,,在管理上,利用監(jiān)管沙盒管理機制,,能幫助企業(yè)在合法合規(guī)的范圍內規(guī)避數據風險,;在技術上,通過數據加密,、脫敏技術,、云桌面操作、安全管理等先進技術,,可以為模型企業(yè)和數據企業(yè)提供基礎保障,,“真正實現數據的可用、可見,、不可得,,避免數據泄露等高風險事件”,。

從出臺政策、法律,,到利用監(jiān)管沙盒進行制度和技術實驗,,其目的都是推動構建人工智能(AI)時代的數據安全治理新生態(tài)。

當下,,給人工智能裝“剎車”成為行業(yè)內討論的熱門話題,,在論壇上也不鮮見?!啊畡x車’就是針對技術性風險的治理體系?!鼻迦A大學蘇世民書院院長薛瀾在論壇接受記者采訪時表示,,構建治理體系的目的,就是來規(guī)制濫用,、誤用和惡用人工智能的行為,。

薛瀾介紹,我國的人工智能治理體系共有三層,,第一層為《新一代人工智能倫理規(guī)范》等所有社會主體都要遵守的廣泛性基礎性原則,;第二層為針對人工智能具體領域的具體法律法規(guī),比如《辦法》,;第三層則是鼓勵企業(yè)加強內部機制建設,,比如成立倫理委員會等。

如果“剎車”安裝不到位,,要如何應對,?薛瀾說:“我們特別鼓勵企業(yè)加強自身的機制建設,這非常關鍵,。另外一點,,也需要全社會的公眾監(jiān)督?!?

(編輯:映雪)


“用魔法打敗魔法” AI時代如何構建數據安全生態(tài)

 
[責任編輯: 315xwsy_susan]

免責聲明:

1,、本網內容凡注明"來源:315記者攝影家網"的所有文字,、圖片和音視頻資料,版權均屬315記者攝影家網所有,,轉載,、下載須通知本網授權,不得商用,,在轉載時必須注明"稿件來源:315記者攝影家網",,違者本網將依法追究責任,。
2、本文系本網編輯轉載,,轉載出于研究學習之目的,,為北京正念正心國學文化研究院藝術學研究、宗教學研究,、教育學研究,、文學研究、新聞學與傳播學研究,、考古學研究的研究員研究學習,,并不代表本網贊同其觀點和對其真實性負責。
3,、如涉及作品,、圖片等內容、版權和其它問題,,請作者看到后一周內來電或來函聯系刪除,。