概括來說,F(xiàn)usionNet是三種神經(jīng)網(wǎng)絡(luò)的融合,其中一種基于像素表達(dá),兩種基于物體的體素化表達(dá)。它利用了每一種網(wǎng)絡(luò)的強(qiáng)項(xiàng),提高了分類器性能。FusionNet中的每一個(gè)網(wǎng)絡(luò)組分都在對(duì)物體分類之前以多個(gè)角度、方向觀察物體。盡管從直覺來說,對(duì)物體的多角度觀察確實(shí)能比單角度觀察帶來更多信息,但是將信息整合到一起以提高預(yù)測(cè)精度并不顯而易見。我們使用了20個(gè)像素表達(dá)特征與60個(gè)CAD物體體素表達(dá)特征這么多信息用于進(jìn)行物體分類。FusionNet的效果超越了在Princeton ModelNet 40類數(shù)據(jù)集榜單上排名第一的提交方案,展示了其獨(dú)到的能力。