• 2018/11/2

欺騙AI圖像識別系統的新方法:隨機複製並粘貼

引用本文加入書籤轉寄本文
貼一隻大象到客廳,AI 的辨識系統怎麼就瞬間崩解了?

 

人工智慧的發展中,有一項很實用,也對於人類科技發展很重要的技術,就是圖像辨識系統。這套系統從識別照片中的物體,到裝在無人車上認路,都有著非常關鍵的角色。

這也是為什麼「對抗圖像」這項技術相對重要的原因。所謂的「對抗圖像」,就是可以干擾、甚至使 AI 圖像辨識系統完全失靈的圖案,這些圖案通常帶有的特點就是,人類在解讀這些有加上對抗圖像的畫面時,並不會有任何的辨識障礙,但卻會讓 AI 完全無法辨識出畫面裡的圖形,或是出現錯誤的辨識結果。

通常,這類辨識圖像的製作並不容易,需要研究人員事前針對辨識系統詳細研究,找出辨識系統辨識的方法,並且藉此加入經過設計的干擾雜訊,最終導致 AI 失靈。

不過現在研究人員發現,有更快的方法可以擾亂 AI ─ ─你只需要隨機複製貼上就好了。

突兀的物品隨機擺放,就能搞死 AI 的大腦

來自約克大學與加拿大多倫多大學的研究人員,最近發現了全新搞混神經網路的方法,只需要在一個畫面中加上與該畫面場景截然不同的圖案,就能導致神經網路錯亂,最終無法成功識別圖案。

研究人員舉例,一張圖片中有一個人,前方有一張桌子跟一檯筆記型電腦,AI 可以很正確的辨識出來,但是如果今天突然在圖片中加入一隻大象,AI 便完全無法辨識,而有很高的機率導致錯誤判斷。

會造成這樣的結果跟神經網路的學習方法有關。由於在早期大量學習的過程中,AI 從未看過大象出現在客廳的圖片,因此對 AI 而言,突然出現的一隻大象是它「不認識」的物體,因此只能夠透過聯想「客廳內可能會出現,長得跟大象很像」的物體來推估那頭大象代表的是什麼物件。
 

這種可以說是利用了 AI 學習的弱點進行的對抗圖像,藉由將一個場景的辨識目標複製貼上到另外一個場景中,導致 AI 無法順利辨識運作,研究人員稱這為「目標移植」。

當對抗圖像製作方法變簡單,AI 發展的未來岌岌可危

這樣的發現一方面代表著 AI 還有可以進步的空間,另一方面卻也代表著圖像辨識目前可能遭遇的危險。

由於過往對抗圖像的製作需要很高的技術,因此就算知道對抗圖像可以干擾 AI 的圖像辨識,通常也比較不擔心路上會有人利用這種技術來干擾智慧攝影機、無人車等裝置的運作;然而如今發現的方式卻相對簡單 ─ ─ 只需利用一些比較突兀的圖案就好。

若是這樣的研究成果遭到有心人士惡意利用的話,可以想見的是未來 AI 的圖像辨識系統將會遭遇到前所未有的挑戰,研究人員也必須要加把勁,想辦法及時解決這些問題才行。

0
0

複製引用網址

回應
共 0 筆

我要留言* 必填
鉅亨網【部落新世界Blog】 Email:
(建議填寫,版主回覆會用郵件通知您)
鉅亨網【部落新世界Blog】 記住我的個人資料:
鉅亨網【部落新世界Blog】 私密留言:僅提供會員使用,如欲使用私密留言請先 登入會員
鉅亨網【部落新世界Blog】 留言內容:【限制 1000 個字元】
鉅亨網【部落新世界Blog】 認證碼:

台灣玉山科技協會
  • 暱    稱:台灣玉山科技協會 
  • 部落分類:  
  • 我的好友們(0
  • 誰加我為好友(0
  • 我的收藏部落(0
  • 白天電話:02-27387415 
  • 地址:台北市復興南路 2 段 268 號 5 樓之 1  
  • 自我介紹:實踐全球華人知識經濟共同體之平台,以科技、創業及投資交流為主軸,吸引全球華人科技創業家之參與,並推動知識經濟,協助台灣之中小企業升級,透過創新技術、經營模式、或行銷包裝進行轉型,提昇被投資的價值。 

《MORE》

13

本日人氣:0
累積人氣:26963