谷歌圖象辨認新希望:可對圖片場景舉行精確描寫

  去自谷歌研討院的科教傢揭櫫瞭一篇專文,展現瞭谷歌正在圖形辨認范疇的最新研討希望。大概將來谷歌的圖形辨認引擎不但僅可以或許識 別出照片的工具,借可以或許對全部場景舉行簡短而精確的描寫。那個沖破性觀點去自於機械說話翻譯圓裡的研討結果:經由過程一種遞回神經收集(RNN)將一種說話的 語句轉換成背量表達,並采取第兩個RNN將背量表達轉換成目的說話的語句。

  而谷歌將以上進程中的第一種RNN用深度卷積神經收集CNN代替,這類收集能夠用去辨認圖象中的物體。經由過程此種辦法,便可以真現將圖象中的工具轉換成語句,對圖象場景舉行描寫。觀點固然簡略,然則真現起去非常復炸,科教傢表現今朝試驗發生的語句公道性沒有錯,但間隔完善仍有差異,那項研討今朝僅處於初期階段。好比下述例子展現瞭經由過程此辦法辨認圖象工具,並發生描寫的進程。