您的位置:首頁 >新聞 > 熱點新聞 >

          為什么神經網絡會把烏龜識別成步槍?

          人工智能的快速發展的確值得欣喜,但快速發展的背后還有各種不完善的地方。比如,前不久麻省理工學院的一些學生,利用3D打印出來的烏龜,成功地讓谷歌的InceptionV3圖像分類器認為其是一個步槍。烏龜=步槍?這個差距還是非常巨大的。如果正在行駛的無人汽車,把一個停車標志看成了限速標志呢?這將會帶來多大的危險?近日,FastCodesign發表了一篇文章討論了這一問題,作者為Katharine Schwab,文章由36氪編譯。

          一輛自動列車在軌道上飛速行駛,它的攝像頭不斷地掃描著各種信號,以預測它的行駛速度應該有多快。它注意到了一個似乎需要提高速度的信號,然后照做了。幾秒鐘之后,火車險些出軌。后來,當一名人類調查員檢查出問題的標志時,他們得到的是一種截然相反的信號——是放慢速度,而不是加快速度。

          神經網絡能做的只能和它們所接受的信息一樣好。這導致了一些引人注目的例子,說明基于錯誤數據訓練的人工智能是有偏見的。

          這是一種極端的比喻,但它表明了當今機器學習面臨的最大挑戰之一。當一個神經網絡將圖像識別為一件事物時,就會出現一個對抗性的例子——人類看到的是另外一種東西。

          例如,一個圖像可能看起來像一只貓,但是當一個計算機視覺程序看到它時,它是一只狗。

          這一現象是在2013年發現的,當時一群來自谷歌和OpenAI的研究人員意識到,他們可以稍微改變圖像中的像素,使其看起來和人看到的一樣,但機器學習算法會將其歸類為完全不同的東西。

          為什么這種巧合如此重要——而且有潛在的風險?想象一下,如果一輛自動駕駛汽車正沿著街道行駛,它可能把停車標志看成限速標志。如果有人能設計出一種財務文件,當一個人看到它時,它是一種樣子,但當它被掃描進電腦時,卻顯示出完全不同的數字,這意味著什么呢?或者,如果某個充滿惡意的人發明了一種武器,當美國運輸安全管理局的攝像頭掃描、使用深度學習來處理圖像的時候,這種武器似乎是無害的——比如說,一只烏龜?

          當它們剛被發現的時候,對抗性的例子并不是令人擔憂的。許多研究人員認為這是一個極端案例,一個隨機的理論巧合。畢竟,在需要完全訪問算法內部的時候創建一個敵對的例子,它會欺騙用戶。研究人員只能用數字圖像來構建這些例子——如果你試圖打印出數字形式的圖像,那么你對圖像的超精確控制會立即被扭曲,因為打印機的分辨率無法在如此詳細的水平上捕捉像素的變化。例如,盡管你可以成功地騙過一種算法,讓你以為是狗的圖片在它看來是只貓,但如果你把圖像打印出來,并要求算法識別它時,它就不會被騙了。在現實世界中改變一個物體似乎更加困難。這似乎是一個不可能的挑戰,要創造出一個物體,在形狀方面有如此細微的變化,以至于人工智能會把它誤認為是別的東西。另外,即使你做到了,一旦改變了角度也不會奏效。

          或者說,學界的想法就是這樣的。但本月早些時候,麻省理工學院的一組學生成功用3D打印做了一個看起來像一只可愛的小烏龜的物體——但被機器學習算法當作步槍來分類。麻省理工學院的博士生Anish Athalye說:“我們已經證明了它們不是利用奇怪的角落或奇怪部件。實際上,你可以在現實生活中偽造這些物體,從而騙過機器學習算法。”

          學生們創建了自己的算法,無論模糊,旋轉,縮放,還是角度的任何變化(無論是打印出的2D圖像還是3D模型),都可以產生物理對抗性的例子。換句話說,他們的烏龜式步槍不只是一次性的。例如,他們用3D打印出的棒球,被電腦認為是濃縮咖啡。它可以可靠地騙過谷歌的InceptionV3圖像分類器——可以識別1000個不同的物體的圖像。這些算法已經存在于我們的手機和電腦上,使得照片庫可以被搜索到,并使得在網上可以很容易對圖片中對朋友進行標記。

          在被問到如何應對敵對的例子時,谷歌指出,谷歌的研究人員已經在著手解決這個問題,該公司正在進行一項競賽,目的是創建一種圖像分類算法,不會被對抗性例子所愚弄。

          這個3D打印的棒球,在電腦看起來就像是一杯濃縮咖啡。

          麻省理工學院的學生們的工作給將原本只存在于理論上的擔憂變成了現實。

          “風險很高,”Athalye說,他有計算機安全方面的背景。“我們還沒有打破真正的系統,但我們已經比人們想象的更接近這一步了。”

          并不是只有Athalye和他的同事們在這方面進行努力。來自華盛頓大學、密歇根大學、石溪大學和加州大學伯克利分校的一組學者能夠打印出貼紙,并將其附著在停止標記上,從而使圖像分類神經網絡將它們識別為別的東西。對停車標志的微小改動可能看起來像是給司機(或乘客)的涂鴉,但自動駕駛汽車會看到一個讓車標志或限速標志。除了擾亂交通,這可能是危險的:如果一輛車沒有看到停車標志,并穿過十字路口,它就會撞上另一輛車,讓人們的生命處于危險之中。

          在實際系統中,對抗性的例子應該是一個真正值得的問題。如果我們能做到這一點,壞人也能做到。

          Athalye說:“”

          部分問題在于,研究人員并不完全理解為什么會出現對抗性的例子——盡管很多人能自己創造出這方面的例子。

          如果沒有對這一現象的深刻理解,就很難建立起防御機制,使圖像分類器神經網絡不容易受到機器學習中最令人費解的特性的影響。

          但這并不意味著研究人員沒有嘗試。據加州大學伯克利分校的博士后研究員Bo Li說,目前已經有60多篇論文致力于在各種不同的語境中尋找對抗性的例子。他曾致力于制作貼紙,以改變算法對街頭標識的看法。

          一些人樂觀地認為,最終研究人員將能夠找到一個解決方案,并找到一種方法來預防這種對抗性。

          對于安全研究人員來說,將能夠通過特定的軟件解決方案來抵御特定的威脅,這一點仍然是積極的。這可能不是一個能保護所有攻擊的萬能工具,而是防范特定類型威脅的防御措施。

          Nicolas Papernot是賓夕法尼亞州立大學計算機科學研究生,他指出,研究人員正開始尋找解決方案,無論成果多么有限。他在電子郵件中告訴我:“我非常樂觀地認為,我們可以取得進步,最終實現強大的機器學習。”安全和機器學習社區也進行了卓有成效的交流。例如,今年3個不同的研究小組報告了對視覺模型進行基準測試的三個關鍵任務:手寫數字識別、街景房屋號碼識別,以及對象和動物的彩色圖像分類。

          最新動態
          相關文章
          跨村聯建產業園 推動文旅融合規范化促...
          各路豪杰搶灘氣泡水市場 各品牌誰能笑...
          原材料價格持續上漲 汽車零部件企業能...
          我國共有4.6萬家保險經紀相關企業 保險...
          核桃編程頻繁電話 短信騷擾用戶被多次...
          小電科技2020年凈利虧損1.1億元 分銷費...
          主站蜘蛛池模板: 中国女人内谢69xxx视频| 亚洲精品无码你懂的| 91精品视频免费| 国产精品视频第一区二区三区| а天堂中文最新版在线| 无码人妻精品一区二区在线视频| 亚欧洲精品在线视频免费观看| 欧美极品在线观看| 伊人久久大香线| 精品国产免费观看一区| 国产一级精品高清一级毛片| 高清成人爽a毛片免费网站 | 亚洲午夜久久久影院| 激情内射日本一区二区三区| 全彩里番acg海贼王同人本子| 美女被爆羞羞网站免费| 国产免费啪嗒啪嗒视频看看| 黑人巨茎美女高潮视频| 国产福利第一页| 永久黄色免费网站| 国产裸舞福利资源在线视频| 99精品热这里只有精品| 女人张开腿给男人桶爽免费| 一本加勒比HEZYO无码专区| 成人免费高清完整版在线观看| 丰满少妇高潮惨叫久久久| 日本免费网站在线观看| 久久国产色av| 日韩av无码成人精品国产| 久久精品国产一区| 日韩亚洲欧美综合一区二区三区| 亚洲AV无码成人精品区在线观看| 欧美三级电影免费| 亚洲乱码一区二区三区在线观看| 欧美性猛交xxxx乱大交蜜桃| 亚洲小说区图片区| 欧美日韩国产一区二区| 亚洲日韩欧洲无码av夜夜摸| 欧美最猛黑人xxxx黑人猛交98 | 精品性高朝久久久久久久| 同人本里番h本子全彩本子|