你的AI大模型可能正在“裸奔” 這三重風險必須警惕

  來源:央視新聞客戶端宋琎2025-03-27
打印本文
核心提示:以大模型為核心的人工智能技術(shù)是創(chuàng)新范式變革與產(chǎn)業(yè)升級的關(guān)鍵引擎,,越來越多的機關(guān),、企事業(yè)單位開始推進大模型私有化部署,廣泛應(yīng)用于企業(yè)辦公,、科技研發(fā),、公共服務(wù)等領(lǐng)域

以大模型為核心的人工智能技術(shù)是創(chuàng)新范式變革與產(chǎn)業(yè)升級的關(guān)鍵引擎,越來越多的機關(guān),、企事業(yè)單位開始推進大模型私有化部署,,廣泛應(yīng)用于企業(yè)辦公、科技研發(fā),、公共服務(wù)等領(lǐng)域,。然而技術(shù)躍升與安全風險始終伴生演進,如何強化模型全生命周期安全管理,,賦能AI行業(yè)向好向善發(fā)展,,成為當前亟須解決的課題。

需加重視的潛在風險

近期多項研究發(fā)現(xiàn),,近90%私有化部署的服務(wù)器在互聯(lián)網(wǎng)上“裸奔”,,部分模型本身也容易被攻擊,存在安全漏洞,。目前個別單位所謂的“設(shè)防”也只是簡單地設(shè)置密碼,,易被攻破,個別單位甚至連防護密碼都沒有,??梢灶A(yù)見,未來隨著大模型普及使用,,有針對性的惡意手段和風險場景勢必激增,。因此,網(wǎng)絡(luò)安全防護必須與技術(shù)發(fā)展同步迭代,。

——敏感數(shù)據(jù)安全問題,。大模型在訓練,、推理、使用過程中會涉及海量數(shù)據(jù),,如用戶在輸入數(shù)據(jù)時不當存儲和處理,,特別是違規(guī)在未設(shè)防模型中處理涉密數(shù)據(jù)、個人隱私數(shù)據(jù),、商業(yè)敏感數(shù)據(jù)時,,存在數(shù)據(jù)被非法獲取、泄露風險,。

——關(guān)鍵領(lǐng)域安全問題,。人工智能離不開高科技設(shè)備,如這類設(shè)備被植入后門程序會讓智能工廠,、金融機構(gòu),、能源設(shè)施等關(guān)鍵領(lǐng)域面臨風險。違法犯罪分子如惡意利用大模型部署的安全漏洞破壞相關(guān)系統(tǒng),,將可能導致公共服務(wù)中斷,、企業(yè)經(jīng)濟損失、安全事故頻發(fā)等惡性事件,,干擾經(jīng)濟正常運轉(zhuǎn)和社會有序運行,。

——侵犯用戶利益。普通用戶如未加防護使用大模型服務(wù)工具,,攻擊者也可以遠程調(diào)用接口竊取模型參數(shù),、訓練數(shù)據(jù)、知識庫等核心資產(chǎn),,或刪除,、污染私有模型文件,導致模型失效或輸出偏差,。同時,,攻擊者可通過未授權(quán)的接口調(diào)用模型推理功能,濫用GPU資源,。如處理數(shù)據(jù)量過大,,大模型服務(wù)器就會因算力耗盡導致癱瘓。

大模型安全風險的產(chǎn)生原因

——開源框架存在不足,。許多單位為了快速上線服務(wù),,直接使用開源框架,默認開啟不設(shè)密碼的公網(wǎng)訪問模式,,不配置合理的安全防護措施,,忽略最基本的防火墻配置。攻擊者未經(jīng)授權(quán)即可自由訪問模型服務(wù),、竊取敏感數(shù)據(jù),,甚至通過歷史漏洞執(zhí)行惡意指令,,從而導致數(shù)據(jù)泄露和服務(wù)中斷。

——風險意識存在欠缺,。部分管理者對AI安全的認知相對滯后,,部分群眾認為“安全是專家的事”,不了解部署AI服務(wù)需要像保護銀行卡密碼一樣謹慎,,在享受AI帶來便利時未考慮背后隱藏的風險,。

——安防教育有待加強。一些企事業(yè)單位缺乏必要的安全防范教育,,導致員工國家安全意識和素養(yǎng)不高,,安全防范意識不強,對于大模型缺乏用心管理,,安防教育缺乏必要的認識。

——專門法律存在空白,。我國近年來已經(jīng)出臺了多部關(guān)于人工智能和網(wǎng)絡(luò)數(shù)據(jù)方面的政策法規(guī)和指導意見,,但隨著人工智能迅猛發(fā)展,應(yīng)運而生的法律問題尚需進一步完善相關(guān)立法,。

國家安全機關(guān)提示

大模型是推動科技進步的重要力量,,但其安全防護須臾不可松懈,無論是開發(fā)者,、企業(yè)還是普通用戶,,都應(yīng)提高警惕,共同守護技術(shù)紅利不被惡意利用,。

——做好安全防護,,筑牢安全防范屏障。AI企業(yè)在開發(fā)和應(yīng)用大模型的過程中需重視自身應(yīng)承擔的安全責任和義務(wù),,可通過加強與安全廠商聯(lián)系合作,,以嚴密的安全技術(shù)保障和運行監(jiān)測,強化大模型運行時的安全性,、可靠性和穩(wěn)定性,。

——培養(yǎng)安全意識,打造協(xié)同防御生態(tài),。單位,、企業(yè)在部署大模型前,需要進行全面的風險評估和安全規(guī)劃,,通過制定安全政策,、開展安全培訓等方式,提高全員安全意識,。廣大民眾要增強大模型使用的安全意識,,注意學習相關(guān)安全知識,,養(yǎng)成良好使用習慣,選擇從官方渠道下載大模型工具,,使用時不要隨意連接陌生網(wǎng)絡(luò),,確保大模型應(yīng)用安全穩(wěn)定。

(編輯:映雪 )


你的AI大模型可能正在“裸奔” 這三重風險必須警惕
 

免責聲明:

1,、本網(wǎng)內(nèi)容凡注明"來源:315記者攝影家網(wǎng)"的所有文字,、圖片和音視頻資料,版權(quán)均屬315記者攝影家網(wǎng)所有,,轉(zhuǎn)載,、下載須通知本網(wǎng)授權(quán),不得商用,,在轉(zhuǎn)載時必須注明"稿件來源:315記者攝影家網(wǎng)",,違者本網(wǎng)將依法追究責任。
2,、本文系本網(wǎng)編輯轉(zhuǎn)載,,轉(zhuǎn)載出于研究學習之目的,為北京正念正心國學文化研究院藝術(shù)學研究,、宗教學研究,、教育學研究、文學研究,、新聞學與傳播學研究,、考古學研究的研究員研究學習,并不代表本網(wǎng)贊同其觀點和對其真實性負責,。
3,、如涉及作品、圖片等內(nèi)容,、版權(quán)和其它問題,,請作者看到后一周內(nèi)來電或來函聯(lián)系刪除。