中文字幕 另类精品,亚洲欧美一区二区蜜桃,日本在线精品视频免费,孩交精品乱子片免费

<sup id="3hn2b"></sup>

    1. <sub id="3hn2b"><ol id="3hn2b"></ol></sub><legend id="3hn2b"></legend>

      1. <xmp id="3hn2b"></xmp>

      2. 新聞中心

        EEPW首頁 > 智能計(jì)算 > 業(yè)界動(dòng)態(tài) > 谷歌推機(jī)器學(xué)習(xí)標(biāo)注圖片中物體界面 整體速度提高3倍

        谷歌推機(jī)器學(xué)習(xí)標(biāo)注圖片中物體界面 整體速度提高3倍

        作者: 時(shí)間:2018-10-25 來源:新浪科技 收藏

          10月24日上午消息,據(jù)中國臺(tái)灣地區(qū)媒體iThome.com.tw報(bào)道,Google在2018 ACM多媒體會(huì)議上,推出一種使用來標(biāo)注圖片界面,讓使用者快速為圖片中物體標(biāo)記出輪廓以及標(biāo)簽,提高整體標(biāo)記速度達(dá)三倍。

        本文引用地址:http://www.antipu.com.cn/article/201810/393356.htm

          由于現(xiàn)代基于深度學(xué)習(xí)電腦視覺模型的性能,取決標(biāo)簽訓(xùn)練資料的多少,越大的資料庫將能讓有更好的表現(xiàn)。Google在許多深度學(xué)習(xí)的研究都一再提到,高品質(zhì)的訓(xùn)練資料取得并不容易,而這個(gè)問題已經(jīng)成為發(fā)展電腦視覺的主要瓶頸,對(duì)于諸如自動(dòng)駕駛、機(jī)器人或是圖片搜尋等這類以像素為辨識(shí)基礎(chǔ)的工作更是如此。



          傳統(tǒng)的方法需要使用者手動(dòng)以標(biāo)記工具,圈出圖片中物體的邊界,Google提到,使用COCO加Stuff資料集,標(biāo)記一個(gè)圖片需要19分鐘,標(biāo)記完整個(gè)資料集需要53000個(gè)小時(shí),太過耗時(shí)沒效率。因此Google探索了全新的訓(xùn)練資料標(biāo)記方法-流體標(biāo)注(Fluid Annotation),能以幫助使用者快速找出圖片物體輪廓上標(biāo)簽。

          流體標(biāo)注從強(qiáng)語義分割模型的輸出開始,使用者能以自然的使用者界面,借由機(jī)器學(xué)習(xí)輔助進(jìn)行編輯和修改,界面提供使用者需要修正的物體以及順序,讓人們能夠?qū)P挠谀切C(jī)器尚無法辨識(shí)清楚的部分。為了標(biāo)注圖片,Google預(yù)先以約一千張具有分類標(biāo)簽和信任分?jǐn)?shù)的圖片訓(xùn)練了語意分割模型(Mask-RCNN),具有最高信心的片段(Segment)能被用于初始標(biāo)簽中。

          流體標(biāo)注能夠?yàn)槭褂谜弋a(chǎn)生一個(gè)短清單,透過點(diǎn)擊就能快速為物體上標(biāo)簽,而使用者也可以增加范圍標(biāo)記,來覆蓋沒被偵測(cè)出來的物體,并透過滾動(dòng)選擇最佳的形狀。另外,除了能夠增加,也能刪除既有的物體標(biāo)記或是變更物體深度順序。

          目前這一階段的流體標(biāo)注的目標(biāo)是讓圖像更快更容易,提高整體資料集標(biāo)記速度達(dá)三倍。接下來Google要改進(jìn)物體邊界標(biāo)記,并以更多的人工智能加速界面操作,擴(kuò)展界面以處理現(xiàn)在無法辨識(shí)的類別。



        評(píng)論


        相關(guān)推薦

        技術(shù)專區(qū)

        關(guān)閉