国产在线观看精品免费,亚洲日本VA久久一区二区,香蕉久久99综合一区二区三区,久久精品99国产精品蜜桃小说

人工智能應用面臨7大數據安全威脅

2024-07-17 09:44:54 Jinyu

圖片

自動(dòng)駕駛技術(shù)、智能助理、人臉識別、智能工廠(chǎng)、智慧城市等人工智能技術(shù)現已廣泛落地,這些令人難以置信的技術(shù)正在快速改變我們的生活。但相關(guān)領(lǐng)域安全事件也在快速增加,這使得研究人員和使用者對人工智能的安全性擔憂(yōu)不斷提高。人工智能應用帶來(lái)的紅利和其引發(fā)的安全隱患,猶如一個(gè)硬幣的兩面,需要全行業(yè)高度關(guān)注并找到有效的應對方法。


日前,安全研究人員梳理總結了目前人工智能技術(shù)在實(shí)踐應用中經(jīng)常要面對的7個(gè)數據安全威脅。


威脅1

模型中毒


模型中毒(Model poisoning)是一種對抗性攻擊形式,旨在操縱機器學(xué)習模型的結果。威脅行為者可以嘗試向模型中注入惡意數據,進(jìn)而導致模型對數據進(jìn)行錯誤分類(lèi)并做出錯誤的決策。例如,工程圖像可以欺騙機器學(xué)習模型,將它們分類(lèi)到與人類(lèi)最初分類(lèi)不同的類(lèi)別中(例如,將貓的圖像標記為老鼠)。研究發(fā)現,這是一種欺騙AI系統的有效方法,因為在輸出之前,不可能判斷特定的輸入是否會(huì )導致錯誤的預測。


為了防止惡意行為者篡改模型輸入,企業(yè)組織應該實(shí)施嚴格的訪(fǎng)問(wèn)管理策略來(lái)限制對訓練數據的訪(fǎng)問(wèn)。


威脅2

隱私泄露


隱私保護是一個(gè)敏感的問(wèn)題,需要額外的關(guān)注和重視,尤其是AI模型中包含有未成年人的數據時(shí),問(wèn)題就更復雜了。例如,針對青少年的一些借記卡選項,銀行必須確保其安全標準符合監管合規要求。所有以任何形式或途徑收集客戶(hù)信息的公司都需要制定數據保護政策。這樣,客戶(hù)就可以知道組織如何處理他們的數據。然而,用戶(hù)如何知道他們的數據是否流入了人工智能算法的應用中?很少(或者可以說(shuō)幾乎沒(méi)有)隱私策略包含這些信息。


我們正在步入人工智能驅動(dòng)的時(shí)代,對于個(gè)人來(lái)說(shuō),了解企業(yè)如何使用人工智能、人工智能的功能及其對數據的影響將變得非常重要。同樣地,攻擊者可能會(huì )試圖使用惡意軟件竊取包含信用卡號碼或社會(huì )安全號碼等個(gè)人信息的敏感數據集。企業(yè)組織必須定期進(jìn)行安全審計,并在人工智能開(kāi)發(fā)的所有階段實(shí)施強有力的數據保護實(shí)踐。隱私風(fēng)險可能發(fā)生在數據生命周期的任何階段,因此為所有利益相關(guān)者制定統一的隱私安全策略非常重要。


威脅3

數據篡改


數據操縱、暴露和篡改所帶來(lái)的風(fēng)險,在A(yíng)I規?;瘧帽尘跋抡诒徊粩喾糯?,因為這些系統需要基于大量數據進(jìn)行分析決策,而這些數據很容易被惡意行為者操縱或篡改。此外,算法偏見(jiàn)是人工智能規?;瘧弥兴媾R的另一個(gè)主要問(wèn)題。人工智能算法和機器學(xué)習程序應該是客觀(guān)和公正的,但事實(shí)卻并非如此。


人工智能算法的數據篡改威脅是一個(gè)巨大的問(wèn)題,這沒(méi)有簡(jiǎn)單的解決方案,但它需要引起重視。如何確保輸入算法的數據是準確、可靠且不被篡改的?如何確保數據不會(huì )以令人討厭的方式使用?所有這些問(wèn)題都是非?,F實(shí)的問(wèn)題,但目前行業(yè)還沒(méi)有找到明確的答案。


威脅4

內部威脅


就數據安全而言,來(lái)自?xún)炔客{無(wú)疑是最危險的一種,也是代價(jià)最高昂的一種類(lèi)型。根據最新的《內部威脅成本:全球報告》顯示,在過(guò)去兩年中,內部威脅事件的數量上升了44%,每起事件的平均損失成本為1538萬(wàn)美元。


內部威脅之所以如此危險,是因為他們的動(dòng)機不一定是金錢(qián),還可能是出于報復、好奇心或人為錯誤等其他因素。正因如此,它們比外部的攻擊者更難預測和阻止。


對于那些涉及公民健康的公司來(lái)說(shuō),內部威脅無(wú)疑是更有害的。以醫療保健服務(wù)商HelloRache為例,該公司使用了AI模式的虛擬記錄員(virtual scribes,協(xié)助醫生處理計算機相關(guān)任務(wù)的助手)工具,因此他們可以遠程協(xié)助醫生護理病人,做病情記錄工作。但如果內部人員找到了方法,可能會(huì )導致系統被錯誤連接,甚至可以監控獲取患者的醫療信息。


威脅5

針對性蓄意攻擊


一項研究數據顯示,86%的企業(yè)組織開(kāi)始將人工智能作為未來(lái)數字化發(fā)展的“主流”技術(shù),并加大投資各種數據驅動(dòng)的AI技術(shù),以幫助企業(yè)做出更好的決策、改善客戶(hù)服務(wù)并降低成本。但有一個(gè)問(wèn)題:對人工智能系統的蓄意攻擊正在增加,如果沒(méi)有適當的控制措施,它們可能會(huì )為組織帶來(lái)超百萬(wàn)美元的損失。


“蓄意攻擊”是指有目的地通過(guò)侵入人工智能系統來(lái)破壞一個(gè)組織的業(yè)務(wù)運作,目的是獲取領(lǐng)先于對手的競爭優(yōu)勢。在蓄意攻擊場(chǎng)景中,對AI和ML的數據安全威脅可能尤其具有破壞性。因為這些系統中使用的數據通常是專(zhuān)有的,具有很高的價(jià)值。當人工智能系統遭到針對性的蓄意攻擊時(shí),其后果不僅僅是數據被竊取,而是公司的競爭能力被破壞。


威脅6

大規模采用


人工智能是正在快速增長(cháng)的行業(yè),這意味著(zhù)它們仍然很脆弱。隨著(zhù)AI應用越來(lái)越受歡迎,并在世界范圍內被采用,黑客將會(huì )找到新的方法來(lái)干擾這些程序的輸入和輸出。AI通常是一套復雜的系統,以至于開(kāi)發(fā)人員很難知道他們的代碼在各種應用情況下會(huì )如何表現。當無(wú)法預測會(huì )發(fā)生什么時(shí),就很難阻止它的發(fā)生。


保護企業(yè)免受大規模應用威脅的最佳方法是結合良好的編碼實(shí)踐、測試流程,并在發(fā)現新漏洞時(shí)及時(shí)更新。當然,不要放棄傳統形式的網(wǎng)絡(luò )安全預防措施,例如使用托管數據中心來(lái)保護服務(wù)器免受惡意攻擊和外部威脅。


威脅7

AI驅動(dòng)的攻擊


研究人員發(fā)現,惡意攻擊者正在將人工智能武器化,幫助他們設計和實(shí)施攻擊。在這種情況下,“設計攻擊”指的是選擇一個(gè)目標,確定他們試圖竊取或破壞什么數據,然后決定一種傳輸方法。非法攻擊者可以使用機器學(xué)習算法尋找繞過(guò)安全控制的方法來(lái)進(jìn)行攻擊,或者使用深度學(xué)習算法,根據真實(shí)世界的樣本創(chuàng )建新的惡意軟件。安全專(zhuān)家必須不斷防御愈發(fā)智能的機器人,因為一旦他們阻止了一種攻擊,另一種新的攻擊就會(huì )出現。簡(jiǎn)而言之,人工智能使攻擊者在當前安全保障措施中尋找漏洞變得更容易。


我要咨詢(xún)