全新算法助機器學習抵抗干擾


全新算法助機器學習抵抗干擾



機器學習模型受到攻擊將產生嚴重的后果 , 但如果對這一情形提前預防呢?就像人類針對即將到來的病毒去接種疫苗一樣 。 據澳大利亞聯邦科學與工業研究組織(CSIRO)官方網站消息 , 該機構的一個研究團隊 , 日前開發了一套人工智能(AI)最新算法 , 可幫助機器學習抵御可能遇到的干擾 。
機器學習是人工智能的核心 , 也是使計算機具有智能的根本途徑 。 機器學習主旨是讓計算機去模擬或實現人類的學習行為 , 以獲取新的知識或技能 , 并重新組織已有的知識結構 , 使之不斷改善自身的性能 。
機器學習雖然可以在大數據訓練中學到正確的工作方法 , 但它也很容易受到惡意干擾 。 通常攻擊者是通過輸入惡意數據來“欺騙”機器學習模型 , 導致其出現嚴重故障 。
此次 , 開發出新算法的研究團隊——“Data61”機器學習小組領導者理查德·諾克表示 , 攻擊者會在進行圖像識別時 , 在圖像上添加一層干擾波 , 達到“欺騙”的目的 , 從而讓機器學習模型產生錯誤的圖像分類 。
【全新算法助機器學習抵抗干擾】諾克及其團隊成員研發的新算法 , 通過一種類似疫苗接種的思路 , 可以幫助機器學習“修煉”出抗干擾能力 。 這是針對機器學習模型打造的防干擾訓練 , 譬如 , 在圖片識別領域 , 該算法能夠對圖片集合進行微小的修改或使其失真 , 激發出機器學習模型“領會”到越來越強的抗干擾能力 , 并形成相關的自我抗干擾訓練模型 。
經過此類小規模的失真訓練后 , 最終的抗干擾訓練模型將更加強大 , 當真正的攻擊到來之時 , 機器學習模型將具備“免疫”功能 。
總編輯圈點
用小伎倆干擾機器對圖像的識別 , 這種手段已經應用在網絡黑產中 。 人眼看起來并無明顯區別的圖片 , 覆上一層專門針對機器的干擾波 , 就能讓機器的判斷大失水準 。 所謂接種疫苗 , 其實也就是“以毒攻毒” , 讓機器先見識已經被微小修改的圖片 , 并在訓練中自我學習 , 從而最終能識破這層惡意干擾 , 揭開圖片的廬山真面目 。 機器的學習功能是強大的 , 教會它應對方法 , 它便能自我完善 。 但攻擊與防御總是相伴相生 , 這是一場沒有盡頭的技術博弈 。

    推薦閱讀