Image
全國統(tǒng)一服務(wù)熱線
0351-4073466

“萬模裸奔”,DeepSeek正顛覆網(wǎng)絡(luò)安全行業(yè)游戲規(guī)則


編輯:2025-02-28 17:15:58

對于企業(yè)而言,AI既是提升生產(chǎn)力的強大工具,同時也為攻擊者和惡意內(nèi)部人員提供了“大殺器”。隨著生成式AI(例如ChatGPT和DeepSeek)在企業(yè)和政府機構(gòu)中的廣泛應(yīng)用和不安全部署,“萬模裸奔”產(chǎn)生的數(shù)據(jù)安全風(fēng)險已經(jīng)到了失控的邊緣。
2025年是AI安全元年,首席信息安全官(CISO)們必須提前做好準(zhǔn)備,應(yīng)對“萬模裸奔”引發(fā)的數(shù)據(jù)安全危機。

警惕數(shù)據(jù)的“智能化泄漏”

與傳統(tǒng)IT系統(tǒng)不同,生成式AI引入了全新的攻擊媒介,可導(dǎo)致數(shù)據(jù)泄漏、業(yè)務(wù)中斷甚至法律風(fēng)險例如:
  • 提示注入:惡意行為者操縱AI提示來改變輸出或暴露敏感數(shù)據(jù)。

  • 數(shù)據(jù)中毒:對手破壞訓(xùn)練數(shù)據(jù)以影響模型行為。

  • 幻覺:人工智能產(chǎn)生虛假或誤導(dǎo)性的信息,可能會損害決策過程。

由于生成式AI的發(fā)展和普及速度很快,CISO和安全團(tuán)隊往往缺乏足夠經(jīng)驗和技能應(yīng)對AI安全風(fēng)險,在威脅建模和風(fēng)險評估方面存在較大差距。
面對洶涌的生成式AI浪潮,企業(yè)*擔(dān)心的還是數(shù)據(jù)安全問題(例如商業(yè)機密數(shù)據(jù)被競爭對手獲?。?。以*近的一起案例為例:一名員工利用AI助手訪問了企業(yè)內(nèi)部數(shù)據(jù)庫,竊取了包含客戶銷售記錄和產(chǎn)品使用情況的敏感數(shù)據(jù),并將其帶到新的雇主處使用。
這正是生成式AI放大數(shù)據(jù)泄露風(fēng)險的典型例子。據(jù)Gartner*新研究,微軟365 Copilot、Salesforce等基于生成式AI的工具正成為企業(yè)提升生產(chǎn)力的利器,但其對數(shù)據(jù)安全的威脅亦呈指數(shù)級攀升。近60%的受訪者認(rèn)為,過度共享、數(shù)據(jù)泄漏和內(nèi)容蔓延是企業(yè)部署人工智能助手時面臨的*大風(fēng)險。
Salesforce首席執(zhí)行官Marc Benioff在2024年10月公開批評了Microsoft的Copilot,稱其為“令人失望的Clippy 2.0”。他引用了Gartner的報告,強調(diào)了Copilot在數(shù)據(jù)過度共享和安全方面的問題,導(dǎo)致許多組織推遲了實施計劃。

AI引爆“權(quán)限炸彈”

研究顯示,企業(yè)近99%的訪問權(quán)限處于閑置狀態(tài),其中過半屬于高風(fēng)險權(quán)限。傳統(tǒng)安全管理中,冗余權(quán)限本已是重大隱患,而生成式AI的介入使問題急劇惡化,甚至?xí)@些“權(quán)限炸彈”,以幾何級數(shù)放大數(shù)據(jù)安全風(fēng)險。例如,Microsoft Copilot可以訪問所有用戶權(quán)限范圍內(nèi)的數(shù)據(jù),即使用戶本人并未意識到自己擁有這些權(quán)限。這意味著,敏感數(shù)據(jù)可能通過AI對話被無意或惡意泄露。

AI改寫網(wǎng)絡(luò)攻擊游戲規(guī)則:從技術(shù)滲透到提示注入

除了增加數(shù)據(jù)泄漏風(fēng)險外,生成式AI還在改寫網(wǎng)絡(luò)攻擊的游戲規(guī)則。傳統(tǒng)黑客攻擊通常需要攻擊者耐心滲透系統(tǒng),探索內(nèi)部環(huán)境,生成式AI徹底顛覆了傳統(tǒng)攻擊模式。攻擊者無需再耗時滲透系統(tǒng),只需向AI助手提問(提示注入)即可獲取敏感信息或訪問憑證,進(jìn)而實施橫向移動。當(dāng)前AI對網(wǎng)絡(luò)安全的六大核心挑戰(zhàn)包括:
  • 員工數(shù)據(jù)訪問權(quán)限過度寬松

     

  • 敏感數(shù)據(jù)標(biāo)識缺失或錯誤

     

  • 內(nèi)部人員通過自然語言快速定位并外泄數(shù)據(jù)

     

  • 攻擊者利用AI挖掘權(quán)限升級路徑

     

  • 人工難以及時校準(zhǔn)動態(tài)權(quán)限

     

  • AI持續(xù)生成新型敏感數(shù)據(jù)

盡管這些風(fēng)險并非新問題,但AI的介入極大地降低了信息泄露的門檻,使得攻擊者比以往更容易大規(guī)模*率利用企業(yè)的安全漏洞。

萬模裸奔:部署開源模型的風(fēng)險

隨著開源AI模型的興起,許多企業(yè)選擇部署如DeepSeek等模型,以期在本地環(huán)境中利用AI技術(shù)。然而,這種做法也帶來了新的安全隱患。
根據(jù)奇安信近日發(fā)布的資產(chǎn)測繪監(jiān)測結(jié)果,在8971個Ollama(一款開源大語言模型服務(wù)工具)大模型服務(wù)器中,有6449個活躍服務(wù)器,其中88.9%都“裸奔”在互聯(lián)網(wǎng)上,面臨數(shù)據(jù)泄漏、服務(wù)中斷和濫用等嚴(yán)重威脅。私有化部署開源模型的風(fēng)險主要有以下幾點:

1

暴露的服務(wù)器風(fēng)險

近期,有攻擊者通過自動化腳本掃描暴露的DeepSeek服務(wù)器,惡意占用大量計算資源,導(dǎo)致部分用戶服務(wù)器崩潰。

2

缺乏安全認(rèn)證

一些工具(例如Ollama)在默認(rèn)情況下未提供安全認(rèn)證功能,導(dǎo)致許多部署DeepSeek的用戶忽略了必要的安全限制,未對服務(wù)設(shè)置訪問控制。這使得任何人都可以在未經(jīng)授權(quán)的情況下訪問這些服務(wù),增加了數(shù)據(jù)泄露和服務(wù)中斷的風(fēng)險。

3

模型固件加密不足

在本地化部署中,模型核心邏輯需要嵌入硬件固件,以防止惡意篡改或逆向工程。如果缺乏適當(dāng)?shù)募用艽胧?,攻擊者可能會利用這些漏洞,進(jìn)一步威脅系統(tǒng)的安全性。

4

數(shù)據(jù)合規(guī)性問題

開源模型的訓(xùn)練數(shù)據(jù)來源復(fù)雜,可能涉及版權(quán)和隱私問題(甚至導(dǎo)致嚴(yán)厲監(jiān)管處罰的內(nèi)容安全問題)。企業(yè)在使用這些模型時,需要確保數(shù)據(jù)來源合法,并在部署前進(jìn)行*的安全測試,以避免潛在的法律和安全風(fēng)險。

構(gòu)筑新型AI防御體系的八大關(guān)鍵措施

要想降低AI帶來的數(shù)據(jù)安全風(fēng)險,CISO們必須夯實數(shù)據(jù)管理基礎(chǔ),方可引入AI工具。在部署基于大模型的AI工具(無論是開源還是閉源,云端還是本地私有部署)之前,企業(yè)需要明確所有敏感數(shù)據(jù)的存儲位置,并具備識別風(fēng)險、修復(fù)安全漏洞和優(yōu)化權(quán)限配置的能力。
企業(yè)部署DeepSeek等開源模型時,需重視和采取以下主動防御措施:
  • 定期進(jìn)行安全審計:對模型和相關(guān)系統(tǒng)進(jìn)行定期的安全檢查,及時發(fā)現(xiàn)并修復(fù)潛在的漏洞。嚴(yán)格審核第三方AI模型的訓(xùn)練數(shù)據(jù)來源與隱私政策,防范數(shù)據(jù)主權(quán)爭議。

     

  • 彌補AI安全技能鴻溝:鼓勵員工獲取AI安全相關(guān)認(rèn)證(如CAISP、CISSP-AI),提升專業(yè)技能,同時通過模擬攻擊演練(如紅隊/藍(lán)隊演習(xí))增強實戰(zhàn)能力。建立內(nèi)部培訓(xùn)計劃,開發(fā)針對AI安全的技術(shù)培訓(xùn)課程,涵蓋模型漏洞分析、數(shù)據(jù)隱私保護(hù)、算法偏見識別等內(nèi)容,培養(yǎng)既有AI技術(shù)背景又有安全意識的復(fù)合型人才。

     

  • 加強員工安全意識培訓(xùn):AI大大提升了攻防兩端的能力(例如DeepSeek極大提升了*軟件和網(wǎng)絡(luò)釣魚的中文水平),這意味著企業(yè)需要緊急追加預(yù)算提高員工的安全意識水平,確保他們了解并識別那些足可以假亂真的釣魚信息、AI幻覺信息,以及學(xué)習(xí)安全使用和管理AI工具。

     

  • 遵守數(shù)據(jù)合規(guī)性要求:在使用開源模型時,確保遵守相關(guān)的數(shù)據(jù)保護(hù)法律法規(guī),避免侵犯用戶隱私或知識產(chǎn)權(quán)。

在AI工具正式投入使用后,安全管理人員需要采取以下持續(xù)監(jiān)控措施:
  • 權(quán)限動態(tài)治理。實施*小權(quán)限原則,定期審計員工權(quán)限范圍,確保AI工具訪問權(quán)限與用戶實際需求嚴(yán)格匹配,杜絕“權(quán)限閑置即風(fēng)險”的隱患。

     

  • 數(shù)據(jù)智能分類。通過自動化工具全域掃描敏感數(shù)據(jù),建立精細(xì)化標(biāo)簽體系,為數(shù)據(jù)防泄露(DLP)策略提供可執(zhí)行的分類基準(zhǔn)。

     

  • 人機行為監(jiān)控。構(gòu)建AI操作審計機制,實時監(jiān)測異常提示詞(Prompts)、文件訪問模式等行為特征。例如,某員工若頻繁要求AI匯總客戶清單并關(guān)聯(lián)財務(wù)數(shù)據(jù),系統(tǒng)需立即觸發(fā)告警。

     

  • 影子AI可視化。通過CASB(云訪問安全代理)監(jiān)控數(shù)百個AI應(yīng)用,識別高風(fēng)險工具并建立禁用清單(如金融行業(yè)100%屏蔽未授權(quán)AI)。

生成式AI快速普及帶來的數(shù)據(jù)安全威脅正在引發(fā)一場企業(yè)網(wǎng)絡(luò)安全革命,導(dǎo)致企業(yè)安全體系的大規(guī)模范式轉(zhuǎn)移。CISO必須意識到:當(dāng)AI工具能瞬間調(diào)用全網(wǎng)數(shù)據(jù)時,傳統(tǒng)的靜態(tài)防御體系已形同虛設(shè)。唯有將安全文化、數(shù)據(jù)治理、權(quán)限管控與行為分析深度耦合,方能駕馭AI這把“效率與風(fēng)險并存的大殺器”。要想因?qū)Πㄓ白覣I在內(nèi)的生成式AI帶來的數(shù)據(jù)安全危機,CISO亟需開展一場融合技術(shù)、管理與文化的系統(tǒng)性變革。

 

Image
Image
版權(quán)所有:山西科信源科技股份有限公司
咨詢熱線:0351-4073466?
地址:(北區(qū))山西省太原市迎澤區(qū)新建南路文源巷24號文源公務(wù)中心5層
? ? ? ? ? ?(南區(qū))太原市小店區(qū)南中環(huán)街529 號清控創(chuàng)新基地A座4層
Image
?2021 山西科信源信息科技有限公司 晉ICP備15000945號 技術(shù)支持 - 資??萍技瘓F(tuán)