當攻擊者篡改用于訓練 AI 模型的數據時(shí),實(shí)際上會(huì )“中毒”。因為人工智能依賴(lài)于這些數據來(lái)學(xué)習如何做出準確的預測,所以算法生成的預測將是不正確的。
威脅行為者現在正在以可用于網(wǎng)絡(luò )攻擊的方式處理數據。例如,他們可以通過(guò)更改推薦引擎的數據來(lái)做很多事情。從那里,他們可以讓某人下載惡意軟件應用程序或單擊受感染的鏈接。
數據中毒是如此危險,因為它使用人工智能來(lái)對付我們。我們越來(lái)越相信人工智能對我們個(gè)人生活和工作的許多方面的預測。從幫助我們選擇要觀(guān)看的電影到告訴我們哪些客戶(hù)可能會(huì )取消他們的服務(wù),它無(wú)所不能。
威脅行為者也在使用數據中毒來(lái)滲透防御者用來(lái)發(fā)現威脅的工具。首先,他們可以更改數據或添加數據以生成不正確的分類(lèi)。此外,攻擊者還利用數據中毒來(lái)生成后門(mén)。
對 AI 工具的數據中毒攻擊的增加意味著(zhù)企業(yè)和機構可能會(huì )猶豫轉向這些工具。它還使防御者知道要信任哪些數據變得更具挑戰性。
針對使用人工智能 (AI) 和機器學(xué)習 (ML) 的安全軟件的數據中毒可能是下一個(gè)重大的網(wǎng)絡(luò )安全風(fēng)險。隨著(zhù)這種新威脅的迅速出現,防御者必須學(xué)習如何發(fā)現數據中毒攻擊以及如何預防它們。否則,將根據錯誤數據做出業(yè)務(wù)和網(wǎng)絡(luò )安全決策。作為捍衛者不能盲目相信擁有的工具和數據。應更加了解算法的工作原理并定期檢查異常數據將有助于我們提前防范攻擊。