目前,研究人員們正在探尋和研究為什么計(jì)算機(jī)無法解析某些特定圖像。▲桌子上面的究竟是井蓋還是蜻蜓?(圖片獲?。篋anHendrycks)▲照片中的是一只藍(lán)鬣蜥,還是一只松鼠?(圖片獲?。篋anHendrycks)▲這是獨(dú)輪車,還是一只穿過馬路的鱷魚?(圖片獲?。篋anHendrycks)對(duì)人類而言,這些答案顯而易見。
然而,世界上最強(qiáng)勁的圖像識(shí)別人工智能卻還無法解決問題上述難題。之所以不會(huì)這樣,是因?yàn)槊恳粡堈掌冀?jīng)過精心挑選出,專門用來“愚弄”圖像識(shí)別技術(shù)。
這些照片來自一套專門的數(shù)據(jù)集,其中的7000張照片由加州大學(xué)伯克利分校、華盛頓大學(xué)以及芝加哥大學(xué)的研究人員們聯(lián)合整理已完成。加州大學(xué)伯克利分校計(jì)算機(jī)科學(xué)博士生、論文作者DanHendrycks回應(yīng):“目前的(機(jī)器學(xué)習(xí))模型還過于完備。雖然早已有不少研究嘗試?yán)萌斯?shù)據(jù)提高模型的能力,但我們找到,這些模型在面臨某些現(xiàn)實(shí)數(shù)據(jù)(來自現(xiàn)實(shí)照片)時(shí)往往不會(huì)經(jīng)常出現(xiàn)相當(dāng)嚴(yán)重且高度一致的錯(cuò)誤判斷。
為了說明這個(gè)問題的最重要意義,我們首先對(duì)圖像識(shí)別技術(shù)的發(fā)展做到一下總結(jié)。過去幾年以來,圖像識(shí)別工具早已顯得更加好,辨識(shí)速度也越來越快。
這在相當(dāng)大程度上要得益于斯坦福大學(xué)創(chuàng)立的,并且其規(guī)模仍在持續(xù)擴(kuò)展的對(duì)外開放數(shù)據(jù)集ImageNet。該數(shù)據(jù)集目前早已包括多達(dá)1400萬張照片,每張照片都備有“樹根”、“天空”之類的標(biāo)記。這個(gè)可觀的數(shù)據(jù)庫(kù)淪為人工智能最重要的訓(xùn)練素材子集,也可以作為新的AI系統(tǒng)的參照基準(zhǔn),用作訓(xùn)練系統(tǒng)展開圖像識(shí)別。
打個(gè)比方,它就看起來一本僅供幼兒自學(xué)新的單詞的看圖學(xué)話繪本。目前,利用ImageNet訓(xùn)練出有的人工智能享有極高的準(zhǔn)確率,其物體辨識(shí)精度平均95%,這一水平早已高于人類的圖像內(nèi)容辨別效果。然而,解決問題這最后5%的準(zhǔn)確度缺口是個(gè)極大的挑戰(zhàn)。
自2017年以來,計(jì)算機(jī)在辨識(shí)圖像的準(zhǔn)確度方面仍然較為羸弱。于是以因?yàn)槿绱?,研究人員們才嘗試探尋其中的原因——即計(jì)算機(jī)為什么無法解析某些特定圖像。
通過這套新的圖像子集,研究人員們以手工方式搜尋Flickr(雅虎旗下的圖片共享網(wǎng)站),找尋可能會(huì)令A(yù)I軟件陷于恐慌的照片。然后,他們利用由ImageNet數(shù)據(jù)集訓(xùn)練而出的AI模型展開測(cè)試,如果模型顯然無法辨識(shí)照片內(nèi)容,則將其加到到這套取名為ImageNet-A的新數(shù)據(jù)集內(nèi)(很顯著,這個(gè)名稱代表的就是鼓吹ImageNet之意)。在辨識(shí)這7000張照片時(shí),AI的準(zhǔn)確度從90%很快減少至2%。
是的,您沒看攏,世界上最先進(jìn)設(shè)備的視覺AI模型顯然無法準(zhǔn)確辨識(shí)其中98%的照片。至于AI系統(tǒng)為什么無法解讀這些圖像,則是個(gè)非常簡(jiǎn)單的問題。
目前的AI訓(xùn)練基本上就是把大量數(shù)據(jù)投放“黑匣子”當(dāng)中——換句話說,我們不能根據(jù)最后結(jié)果來辨別其準(zhǔn)確性。比如,如果“黑匣子”見過充足多樣的樹木圖像,它就不會(huì)開始在新的照片中見到樹木對(duì)象,而我們就指出訓(xùn)練獲得成功(這類反復(fù)任務(wù)被稱作機(jī)器學(xué)習(xí))。但問題是,我們并不知道AI是依賴哪些指標(biāo)辨識(shí)樹木的——是形狀?顏色?背景?質(zhì)地?還是說道樹木具備某種人類未曾意識(shí)到的統(tǒng)一核心幾何樣式?對(duì)于這個(gè)問題,目前科學(xué)家們也問沒法。
總而言之,AI能力的辨別由結(jié)果構(gòu)建,而非通過推理小說過程構(gòu)建。這意味著我們可能會(huì)從AI當(dāng)中找到種種令人意想不到的種族主義,而這又更進(jìn)一步影響到AI系統(tǒng)在無人駕駛汽車或者刑事司法領(lǐng)域的實(shí)際應(yīng)用于。除此之外,這也意味著圖像識(shí)別系統(tǒng)并不卻是確實(shí)構(gòu)建的智能化,而更加看起來一種強(qiáng)勁的給定工具。
建構(gòu)ImageNet-A數(shù)據(jù)集,正是為了“愚弄”AI,從而總結(jié)為什么這些圖像不會(huì)讓系統(tǒng)去找將近準(zhǔn)確答案。舉例來說,當(dāng)AI錯(cuò)把一張松鼠的圖片誤以為是海獅時(shí),其缺乏深層智慧與推理小說能力的問題就不會(huì)被必要曝露出來。該系統(tǒng)有可能僅有依賴這些動(dòng)物的紋理——而非對(duì)象的比較大小或形狀——展開辨識(shí)。Hendrycks回應(yīng):“那些必須根據(jù)物體形狀才能作出準(zhǔn)確辨別的照片,或許最有可能看穿AI模型。
”利用ImageNet-A,研究人員們順利從視覺AI當(dāng)中尋找7000個(gè)盲點(diǎn)。但是,這否意味著可以將這些圖像建構(gòu)成新的訓(xùn)練集,從而修繕AI模型的這個(gè)大毛病?答案難道是駁斥的。Hendrycks認(rèn)為,“由于現(xiàn)實(shí)世界中不存在著大量多樣性與復(fù)雜性因素,因此利用這些圖像展開訓(xùn)練有可能無法教會(huì)模型如何確實(shí)可信地管理全方位的視覺輸出信息。
比方說,或許搜集并標(biāo)記1萬億張圖像不足以解決問題一部分模型盲點(diǎn),但當(dāng)經(jīng)常出現(xiàn)新的場(chǎng)景或者環(huán)境發(fā)生變化時(shí),以往修繕的各個(gè)盲點(diǎn)可能會(huì)再度曝露出來。”換言之,非常簡(jiǎn)單將更加多照片加到到機(jī)器學(xué)習(xí)數(shù)據(jù)集當(dāng)中,無法解決問題AI模型在邏輯層面的核心缺失,卻是總會(huì)經(jīng)常出現(xiàn)計(jì)算機(jī)之前從未見過的圖像。那么,研究人員們?cè)撊绾谓鉀Q問題這最后5%的準(zhǔn)確性空白?Hendrycks說明稱之為,他們必須在現(xiàn)代機(jī)器學(xué)習(xí)范圍之外研發(fā)出有新的方法,從而創(chuàng)立起更為簡(jiǎn)單的AI系統(tǒng)。
而在他們構(gòu)建這一目標(biāo)之前,人類依然可以之后維持一點(diǎn)小小的優(yōu)越感——截至當(dāng)下,AI在某些方面仍無法與人類相匹敵。
本文來源:j9.com-www.cn-yipin.cn