如何防止“有毒”的AI模型釋放現(xiàn)實世界的混亂
對越來越多數據無情、貪婪的胃口可能是人工智能的致命缺陷;或者至少是“毒藥”滲入的最快方式。網絡攻擊者以虛假或誤導性信息的形式將小劑量的“有毒數據”偷偷帶入至關重要的 AI 訓練集中。任務:破壞曾經可靠的模型,使它們朝著完全不同的方向傾斜。
本文引用地址:http://www.antipu.com.cn/article/202504/469932.htm我們今天遇到的大多數 AI 系統(tǒng)——從 ChatGPT 到 Netflix 的個性化推薦——都足夠“智能”,因為它們接受了大量的文本、圖像、語音和其他數據的訓練,因此只能完成如此令人印象深刻的壯舉。如果這個豐富的寶庫被污染,模型的行為就會變得不穩(wěn)定。
現(xiàn)實世界的影響遠遠超出了聊天機器人說胡言亂語或文本到圖像生成器在被要求提供鳥時生成飛機圖像的范疇。不良行為者群體可能會導致自動駕駛汽車無視紅燈,或者在更大范圍內觸發(fā)電網中斷和停電。
為了抵御各種數據中毒攻擊的威脅,F(xiàn)IU 網絡安全研究人員團隊結合了兩種新興技術(聯(lián)合學習和區(qū)塊鏈),以更安全地訓練 AI。根據 IEEE Access 上發(fā)表的一項研究,該團隊的創(chuàng)新方法成功地檢測并刪除了不誠實的數據,以免它損害訓練數據集。
“我們已經構建了一種方法,可以在關鍵基礎設施彈性、交通網絡安全、醫(yī)療保健等方面有許多應用,”奈特基金會計算與信息科學學院首席研究員兼 FIU 助理教授 Hadi Amini 說。
該團隊新方法的第一部分涉及聯(lián)合學習。這種獨特的 AI 訓練方式使用訓練模型的迷你版本,該模型直接在您的設備上學習,并且僅與公司服務器上的全局模型共享更新(不是您的個人數據)。雖然保護了隱私,但這種技術仍然容易受到數據中毒攻擊。
“在用戶數據進入模型之前驗證數據是誠實的還是不誠實的,這是聯(lián)邦學習的一個挑戰(zhàn),”Amini 實驗室的博士生、該研究的主要作者 Ervin Moore 解釋說?!八?,我們開始考慮使用區(qū)塊鏈來減輕這個缺陷。”
區(qū)塊鏈因其在比特幣等加密貨幣中的作用而廣為人知,它是一個分布在計算機網絡上的共享數據庫。數據存儲在按時間順序鏈接在鏈上的區(qū)塊中。每個區(qū)塊都有自己的指紋,以及前一個區(qū)塊的指紋,使其幾乎是防篡改的。
整個鏈遵循一定的結構(數據如何在區(qū)塊內打包或分層)。這就像一個審查過程,以確保不會添加隨機塊。把它想象成一份準入清單。
研究人員在構建模型時利用了這一點。它比較了區(qū)塊更新,計算了異常值更新是否具有潛在毒性。記錄可能有害的更新,然后從網絡聚合中丟棄。
“我們的團隊現(xiàn)在正在與國家交通網絡安全和彈性中心的合作者密切合作,利用尖端的量子加密來保護數據和系統(tǒng),”Amini 說,他還領導 FIU 的網絡安全和 AI 專家團隊,研究互聯(lián)和自動駕駛交通系統(tǒng)的安全 AI?!拔覀兊哪繕耸谴_保美國交通基礎設施的安全,同時利用先進人工智能的力量來增強交通系統(tǒng)?!?/p>
Moore 將繼續(xù)這項研究,作為他正在進行的研究的一部分,以開發(fā)可用于關鍵基礎設施安全的安全 AI 算法。
評論