土木界首篇人工智能論文出爐:用卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)結(jié)構(gòu)損傷視覺(jué)識(shí)別
機(jī)氣林智能科技2019提供自動(dòng)化零件,工控產(chǎn)品,工業(yè)機(jī)器人,以及機(jī)器人零部件。
機(jī)氣林智能科技有話說(shuō):
自從去年春天AlphaGo與李世石的一場(chǎng)鏖戰(zhàn),人工智能、機(jī)器學(xué)習(xí)、數(shù)據(jù)挖掘、深度學(xué)習(xí)、深度人工神經(jīng)網(wǎng)絡(luò)……類似的關(guān)鍵詞充斥著各大科技類新聞媒體,尤其是在互聯(lián)網(wǎng)、機(jī)器人等領(lǐng)域,簡(jiǎn)直就是爆屏一樣的存在。要知道這并不是全新的概念,十幾年甚至幾十年前就已經(jīng)有了神經(jīng)網(wǎng)絡(luò)、遺傳算法、蟻群算法這種“智能算法”的存在,只是其計(jì)算效果的不理想,一直被許多領(lǐng)域的科學(xué)家們?cè)嵅≈?。然而最近幾年,?dāng)許多人對(duì)其淡化關(guān)注的時(shí)候,一個(gè)算法的改進(jìn)讓它重獲新生。
我當(dāng)時(shí)在考慮一個(gè)事兒:這么高大上的新科技,應(yīng)當(dāng)不僅僅用在人臉識(shí)別、語(yǔ)音識(shí)別、智能助手、自動(dòng)駕駛等生活、工作輔助類的科技中,也應(yīng)當(dāng)在我們土木工程領(lǐng)域有所體現(xiàn)——土木工程是一個(gè)“古老”的行業(yè)不假,但我們的終極使命是改善人類的生活環(huán)境啊,這自然是不應(yīng)當(dāng)與最新科技絕緣的。
于是,我從去年下半年開始做了一些數(shù)據(jù)和資料方面的準(zhǔn)備,get了一些新技能,用一些小代碼做了些嘗試,覺(jué)得把智能算法用在橋梁領(lǐng)域,做一個(gè)“分類器”是完全可行的。但放眼各大數(shù)據(jù)庫(kù),竟沒(méi)能找到任何關(guān)于“新智能算法”(我的意思是以前用的神經(jīng)網(wǎng)絡(luò)等不算)文章。。。
然而就在今天早上,我很驚喜地看到了一篇發(fā)表在《Computer-Aided Civil and Infrastructure Engineering》上的文章:《Deep Learning-Based Crack Damage Detection Using Convolutional Neural Networks》!
如果我沒(méi)看錯(cuò),這應(yīng)該是“新智能算法”在土木工程領(lǐng)域的第一篇paper,加拿大曼尼托巴大學(xué)(University of Manitoba)的Young-Jin Cha和Wooram Choi教授,以及麻省理工的Oral Buyukozturk教授給我們講述了這么一個(gè)事兒:
以橋梁健康監(jiān)測(cè)為主要研究方向的Young-Jin Cha副教授指出,對(duì)于橋梁結(jié)構(gòu)性能隨時(shí)間變化的監(jiān)測(cè)是十分重要的,過(guò)去常用的手段是在橋梁上布置大量的傳感器,硬件成本較高,后期數(shù)據(jù)處理較為復(fù)雜。近年來(lái)又興起了基于視覺(jué)識(shí)別的結(jié)構(gòu)損傷識(shí)別技術(shù),即image processing techniques(IPTs)。目前已經(jīng)有不少研究成果可以得出結(jié)構(gòu)外觀狀態(tài)(裂縫分布與形態(tài)、變形變位等)與結(jié)構(gòu)損傷之間的聯(lián)系,因此對(duì)圖像進(jìn)行高效地識(shí)別,并根據(jù)裂縫對(duì)結(jié)構(gòu)損傷程度進(jìn)行判定是一項(xiàng)關(guān)鍵技術(shù)。
Cha老師用上了卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,簡(jiǎn)稱CNNs)——他在文中引用多篇LeCun的文章,LeCun正是Facebook人工智能實(shí)驗(yàn)室的負(fù)責(zé)人,還是Google創(chuàng)始人Page的老師。Google、微軟、Facebook、Twitter、百度等世界“AI巨頭”們目前爭(zhēng)相投入重金研究的課題,正是這個(gè)CNNs。Google用CNNs開發(fā)基于安卓系統(tǒng)的語(yǔ)音識(shí)別系統(tǒng),百度用CNNs開發(fā)視覺(jué)搜索引擎……
微軟的Leon Bottou說(shuō):“沒(méi)有人比LeCun更能推動(dòng)卷積神經(jīng)網(wǎng)絡(luò)發(fā)展了”;深度學(xué)習(xí)運(yùn)動(dòng)核心人物Geoffrey Hinton說(shuō):“是LeCun高舉著火炬,沖過(guò)了最黑暗的時(shí)代”——在多年前,神經(jīng)網(wǎng)絡(luò)這個(gè)工具并不好用,經(jīng)常出錯(cuò),直到計(jì)算機(jī)科學(xué)家LeCun對(duì)算法有了實(shí)質(zhì)性的推進(jìn)。如今我們有足夠的理由相信神經(jīng)網(wǎng)絡(luò)這個(gè)科技工具,至少我們相信那些把神經(jīng)網(wǎng)絡(luò)大規(guī)模應(yīng)用于銀行業(yè)務(wù)和ATM機(jī)上的銀行家們的選擇——他們往往是對(duì)技術(shù)很保守的一群人。
回到這篇文章,Cha老師首先掌握了332張用佳能單反相機(jī)拍攝的高清混凝土結(jié)構(gòu)表面裂縫照片,他把這些照片分為兩組,一組是277張分辨率為4928x3264的照片作為“訓(xùn)練組”,一組是55張分辨率為5888x3584的照片作為“驗(yàn)證組”。
人工神經(jīng)網(wǎng)絡(luò)的訓(xùn)練數(shù)據(jù)庫(kù)需要海量數(shù)據(jù),277這個(gè)數(shù)字顯然不夠,況且,當(dāng)一副照片中含有的信息越多,對(duì)神經(jīng)網(wǎng)絡(luò)而言,干擾就越多,就越不容易突出重點(diǎn)。于是Cha老師將這277張照片分割成4萬(wàn)張分辨率為256x256的小照片作為訓(xùn)練數(shù)據(jù)庫(kù)。
流程如下:
在CNNs神經(jīng)網(wǎng)絡(luò)中,圖像被視為由長(zhǎng)-寬-通道(包括紅黃藍(lán)三色)三個(gè)維度組成的數(shù)據(jù),經(jīng)過(guò)層層篩分,最終由程序做出判斷,給出是否含有裂縫的結(jié)論——類比一下“谷歌神經(jīng)網(wǎng)絡(luò)識(shí)別貓臉”的案例,這是一個(gè)較為漫長(zhǎng)的,讓神經(jīng)網(wǎng)絡(luò)建立自主判斷的過(guò)程,這個(gè)過(guò)程如下圖:
給出的樣本數(shù)據(jù)離散型比較強(qiáng),有的清晰,有的模糊;有的裂縫出現(xiàn)在照片中間,有的出現(xiàn)在照片邊角。但無(wú)論如何,人類都會(huì)輕易地指出裂縫的位置和開裂嚴(yán)重程度,但關(guān)鍵是要看機(jī)器能否也能精準(zhǔn)地看出來(lái)。
以下是識(shí)別的結(jié)果:
由此可見(jiàn),CNNs可以在一張陌生的圖片中識(shí)別出裂縫的位置,并且對(duì)裂縫進(jìn)行分類——這些目前還都是由人工完成的工作,將來(lái)有望被機(jī)器完全取代,真是令人興奮不已!
我忘了是哪位高人說(shuō)過(guò)類似的話:我們要把繁瑣和重復(fù)計(jì)算交給計(jì)算機(jī),我們留下創(chuàng)造力。
今天推薦的這篇文章是:Cha Y J, Choi W, Büyük?ztürk O. Deep learning-based crack damage detection using convolutional neural networks[J]. 2017.
有Reachgate賬號(hào)的同學(xué)請(qǐng)點(diǎn)擊本文底部左下角的“閱讀原文”鏈接,沒(méi)有的話可在留言區(qū)給我留言,或者給我發(fā)郵件都可以。
還記得前年和師兄聊起橋梁監(jiān)測(cè)機(jī)器人的發(fā)展現(xiàn)狀,尤其是那種用無(wú)人機(jī)攜帶照相機(jī)去梁底拍攝的裝備,當(dāng)時(shí)我的觀點(diǎn)是:“未來(lái)一定可以實(shí)現(xiàn)機(jī)器自動(dòng)識(shí)別,而不只是拍照片供人觀察”。今天Cha老師給同行們開了個(gè)頭,老司機(jī)開車?yán)?,大家別掉隊(duì)??!
機(jī)氣林轉(zhuǎn)自十千牛