在线不卡日本ⅴ一区v二区_精品一区二区中文字幕_天堂v在线视频_亚洲五月天婷婷中文网站

  • <menu id="lky3g"></menu>
  • <style id="lky3g"></style>
    <pre id="lky3g"><tt id="lky3g"></tt></pre>

    (CVPR 2020)用于點云3D實例分割的學習目標邊界框

    (CVPR 2020)用于點云3D實例分割的學習目標邊界框

    Abstract

    我們提出了一種新穎的、概念上簡單的通用框架,用于在3D點云上進行實例分割。我們的方法稱為3D-BoNet,遵循每點多層感知器(MLP)的簡單設計理念。該框架直接回歸點云中所有實例的3D邊界框,同時預測每個實例的點級(point-level)掩碼。它由一個主干網(wǎng)絡和兩個并行網(wǎng)絡分支組成,用于1)邊界框回歸和2)點掩碼預測。3D-BoNet是單階段、anchor-free和端到端可訓練的。此外,它的計算效率非常高,因為與現(xiàn)有方法不同,它不需要任何后處理步驟,例如非極大值抑制、特征采樣、聚類或投票。大量實驗表明,我們的方法超越了ScanNet和S3DIS數(shù)據(jù)集上的現(xiàn)有工作,同時計算效率提高了大約10倍。綜合消融研究證明了我們設計的有效性。

    1 Introduction

    使機器能夠理解3D場景是自動駕駛、增強現(xiàn)實和機器人技術的基本必要條件。點云等3D幾何數(shù)據(jù)的核心問題包括語義分割、目標檢測和實例分割。在這些問題中,實例分割在文獻中才開始得到解決。主要障礙是點云本質上是無序的、非結構化的和不均勻的。廣泛使用的卷積神經(jīng)網(wǎng)絡需要對3D點云進行體素化,從而產(chǎn)生高計算和內(nèi)存成本。

    第一個直接處理3D實例分割的神經(jīng)算法是SGPN [50],它通過相似度矩陣學習對每個點的特征進行分組。類似地,ASIS [51]、JSIS3D[34]、MASC[30]、3D-BEVIS[8]和[28]將相同的每點特征分組pipeline應用于分割3D實例。 Mo等人將實例分割表述為PartNet[32]中的逐點特征分類問題。然而,這些proposal-free方法的學習片段不具有很高的對象性,因為它們沒有明確地檢測目標邊界。此外,它們不可避免地需要后處理步驟,例如均值偏移聚類[6]來獲得最終的實例標簽,這在計算上是繁重的。另一個pipeline是基于proposal的3D-SIS[15]和GSPN[58],它們通常依靠兩階段訓練和昂貴的非最大抑制來修剪密集目標proposal。

    在本文中,我們提出了一個優(yōu)雅、高效和新穎的3D實例分割框架,通過使用高效的MLPs的單前向階段,對物體進行松散但唯一的檢測,然后通過一個簡單的點級二進制分類器對每個實例進行精確分割。為此,我們引入了一個新的邊界框預測模塊以及一系列精心設計的損失函數(shù)來直接學習目標邊界。我們的框架與現(xiàn)有的基于proposal和proposal-free的方法有很大不同,因為我們能夠有效地分割所有具有高目標性的實例,但不依賴于昂貴且密集的目標proposal。我們的代碼和數(shù)據(jù)可在https://github.com/Yang7879/3D-BoNet獲得。

    圖 1:在3D點云上進行實例分割的3D-BoNet框架。

    邊界框預測分支是我們框架的核心。該分支旨在為single forward階段中的每個實例預測一個唯一的、無方向的矩形邊界框,而不依賴于預定義的空間anchors或區(qū)域proposal網(wǎng)絡[39]。如圖2所示,我們認為為實例粗略繪制3D邊界框是相對可以實現(xiàn)的,因為輸入點云明確包含3D幾何信息,而在處理點級實例分割之前非常有益,因為合理的邊界框可以保證學習片段的高度目標性。然而,學習實例框涉及到關鍵問題:1)總實例的數(shù)量是可變的,即從1到許多,2)所有實例沒有固定的順序。這些問題對正確優(yōu)化網(wǎng)絡提出了巨大挑戰(zhàn),因為沒有信息可以直接將預測框與ground truth標簽聯(lián)系起來以監(jiān)督網(wǎng)絡。但是,我們展示了如何優(yōu)雅地解決這些問題。這個框預測分支簡單地將全局特征向量作為輸入,并直接輸出大量固定數(shù)量的邊界框以及置信度分數(shù)。這些分數(shù)用于指示框是否包含有效實例。為了監(jiān)督網(wǎng)絡,我們設計了一個新穎的邊界框關聯(lián)層,然后是一個多標準損失函數(shù)。給定一組ground-truth實例,我們需要確定哪個預測框最適合它們。我們將此關聯(lián)過程表述為具有現(xiàn)有求解器的最優(yōu)分配問題。在框被最佳關聯(lián)之后,我們的多準則損失函數(shù)不僅最小化了配對框的歐幾里德距離,而且最大化了預測框內(nèi)有效點的覆蓋率。

    圖 2:粗略的實例框。

    然后將預測的框與點和全局特征一起輸入到后續(xù)的點掩碼預測分支中,以便為每個實例預測一個點級二進制掩碼。這個分支的目的是分類邊界框內(nèi)的每個點是屬于有效實例還是背景。假設估計的實例框相當好,很可能獲得準確的點掩碼,因為這個分支只是拒絕不屬于檢測到的實例的點。隨機猜測可能會帶來50%的修正。

    總體而言,我們的框架在三個方面與所有現(xiàn)有的3D實例分割方法不同。1)與proposal-free pipeline相比,我們的方法通過顯式學習3D目標邊界來分割具有高目標性的實例。2)與廣泛使用的基于proposal的方法相比,我們的框架不需要昂貴且密集的proposal。3)我們的框架非常高效,因為實例級(instance-level)掩碼是在單次前向(single-forward)傳遞中學習的,不需要任何后處理步驟。我們的主要貢獻是:

    • 我們提出了一個在3D點云上進行實例分割的新框架。該框架是單階段、anchor-free和端到端可訓練的,不需要任何后處理步驟。
    • 我們設計了一個新穎的邊界框關聯(lián)層,然后是一個多標準損失函數(shù)來監(jiān)督框預測分支。
    • 我們展示了對baselines的顯著改進,并通過廣泛的消融研究為我們的設計選擇提供了直覺依據(jù)。

    圖 3:3D-BoNet框架的一般工作流程。

    2 3D-BoNet

    2.1 Overview

    2.2 Bounding Box Prediction

    「邊界框編碼:」 在現(xiàn)有的目標檢測網(wǎng)絡中,邊界框通常由中心位置和三個維度的長度[3]或對應的殘差[60]以及方向來表示。相反,為簡單起見,我們僅通過兩個min-max頂點參數(shù)化矩形邊界框:

    圖 4:邊界框回歸分支的架構。在計算多標準損失之前,預測的個框與個ground truth框最佳關聯(lián)。

    為了解決上述最優(yōu)關聯(lián)問題,現(xiàn)有的Hungarian算法[20;21]應用。關聯(lián)矩陣計算:為了評估第個預測框和第個ground truth之間的相似性,一個簡單直觀的標準是兩對最小-最大頂點之間的歐幾里德距離。然而,它不是最優(yōu)的?;旧希覀兿MA測框包含盡可能多的有效點。如圖5所示,輸入點云通常是稀疏的,并且在3D空間中分布不均勻。對于相同的ground truth框#0(藍色),候選框#2(紅色)被認為比候選框#1(黑色)要好得多,因為框#2有更多的有效點與#0重疊。因此,在計算cost矩陣時,應包括有效點的覆蓋范圍。在本文中,我們考慮以下三個標準:

    圖 5:稀疏輸入點云。

    2.3 Point Mask Prediction

    表 1ScanNet(v2)基準(隱藏測試集)上的實例分割結果。度量標準是IoU閾值為0.5的AP(%)。于2019年6月2日訪問

    圖 6:點掩碼預測分支的架構。點特征與每個邊界框和分數(shù)融合,然后為每個實例預測一個point-level二進制掩碼

    2.4 End-to-End Implementation

    3 Experiments

    3.1 Evaluation on ScanNet Benchmark

    我們首先在ScanNet(v2) 3D語義實例分割基準[7]上評估我們的方法。與SGPN[50]類似,我們將原始輸入點云分成1mx1m塊進行訓練,同時使用所有點進行測試,然后使用BlockMerging算法[50]將塊組裝成完整的3D場景。在我們的實驗中,我們觀察到基于vanilla PointNet++的語義預測子分支的性能有限,無法提供令人滿意的語義。由于我們框架的靈活性,我們因此可以輕松地訓練一個并行SCN網(wǎng)絡[11]來為我們的3D-BoNet的預測實例估計更準確的每點語義標簽。IoU閾值為0.5的平均精度(AP)用作評估指標。

    我們與表1中18個目標類別的領先方法進行了比較。特別是,SGPN[50]、3D-BEVIS[8]、MASC[30]和[28]是基于點特征聚類的方法;RPointNet[58]學習生成密集目標proposals,然后進行點級分割;3D-SIS[15]是一種基于proposal的方法,使用點云和彩色圖像作為輸入。PanopticFusion[33]學習通過Mask-RCNN[13]在多個2D圖像上分割實例,然后使用SLAM系統(tǒng)重新投影回3D空間。我們的方法僅使用點云就超越了它們。值得注意的是,我們的框架在所有類別上的表現(xiàn)都相對令人滿意,而不偏愛特定的類,這證明了我們框架的優(yōu)越性。

    圖7:這顯示了一個包含數(shù)百個目標(例如椅子、桌子)的演講室,突出了實例分割的挑戰(zhàn)。不同的顏色表示不同的實例。同一個實例可能有不同的顏色。我們的框架比其他框架預測更精確的實例標簽。

    3.2 Evaluation on S3DIS Dataset

    我們進一步評估了我們框架在S3DIS[1]上的語義實例分割,其中包括來自6個大區(qū)域的271個房間的3D完整掃描。我們的數(shù)據(jù)預處理和實驗設置嚴格遵循PointNet[37]、SGPN[50]、ASIS[51]和JSIS3D[34]。在我們的實驗中,H設置為24,我們遵循6倍評估[1; 51]。

    我們與ASIS[51]、S3DIS上的最新技術和PartNet baseline[32]進行比較。為了公平比較,我們使用與我們框架中使用的相同PointNet++主干和其他設置仔細訓練PartNet baseline。為了評估,報告了IoU閾值為0.5的經(jīng)典指標平均精度(mPrec)和平均召回率(mRec)。請注意,對于我們的方法和PartNet基線,我們使用相同的BlockMerging算法[50]來合并來自不同塊的實例。最終分數(shù)是總共13個類別的平均值。表2顯示了mPrec/mRec分數(shù),圖7顯示了定性結果。我們的方法大大超過了PartNet baseline[32],并且也優(yōu)于ASIS[51],但并不顯著,主要是因為我們的語義預測分支(基于vanilla PointNet++)不如ASIS,后者緊密融合語義和實例特征以實現(xiàn)相互優(yōu)化。我們將特征融合作為我們未來的探索

    表 2:S3DIS 數(shù)據(jù)集上的實例分割結果。

    3.3 Ablation Study

    為了評估我們框架每個組件的有效性,我們在S3DIS數(shù)據(jù)集的最大區(qū)域5上進行了6組消融實驗。

    表3:S3DIS區(qū)域5上所有消融實驗的實例分割結果。

    「分析?!?表3顯示了消融實驗的分數(shù)。(1) box score子分支確實有利于整體實例分割性能,因為它傾向于懲罰重復的box預測。(2)與歐幾里得距離和交叉熵得分相比,由于我們的可微算法1,框關聯(lián)和監(jiān)督的sIoU成本往往更好。由于三個單獨的標準更喜歡不同類型的點結構,因此三個簡單的組合在特定數(shù)據(jù)集上,標準可能并不總是最優(yōu)的。(3)如果沒有對框預測的監(jiān)督,性能會顯著下降,主要是因為網(wǎng)絡無法推斷出令人滿意的實例3D邊界,并且預測點掩碼的質量相應下降。(4)與focal loss相比,由于實例和背景點數(shù)的不平衡,標準交叉熵損失對點掩碼預測的效果較差。

    3.4 Computation Analysis

    4 Related Work

    為了從3D點云中提取特征,傳統(tǒng)方法通常手動制作特征[5; 42]。最近基于學習的方法主要包括基于體素的[42;46; 41; 23; 40; 11; 4]和基于點的方案[37;19; 14; 16; 45]。

    「Semantic Segmentation」 PointNet[37]顯示了分類和語義分割的領先結果,但它沒有捕獲上下文特征。為了解決這個問題,許多方法[38; 57; 43; 31; 55; 49; 26; 17]最近被提出。另一個管道是基于卷積核的方法[55; 27; 47]?;旧希@些方法中的大多數(shù)都可以用作我們的骨干網(wǎng)絡,并與我們的3D-BoNet并行訓練以學習每點語義。

    「Object Detection」 在3D點云中檢測目標的常用方法是將點投影到2D圖像上以回歸邊界框[25;48; 3;56; 59; 53]。通過融合[3]中的RGB圖像,檢測性能進一步提高融合RGB圖像[3;54;36;52].。點云也可以分為體素用于目標檢測[9;24; 60]。然而,這些方法中的大多數(shù)都依賴于預定義的錨點和兩階段區(qū)域proposal網(wǎng)絡[39]。在3D點云上擴展它們是低效的。在不依賴anchors的情況下,最近的PointRCNN[44]學習通過前景點分割進行檢測,而VoteNet[35]通過點特征分組、采樣和投票來檢測目標。相比之下,我們的框預測分支與它們完全不同。我們的框架通過單次前向傳遞直接從緊湊的全局特征中回歸3D目標邊界框。

    「Instance Segmentation」 SGPN[50]是第一個通過對point-level嵌入進行分組來分割3D點云實例的神經(jīng)算法。ASIS[51]、JSIS3D[34]、MASC[30]、3D-BEVIS[8]和[28]使用相同的策略對點級特征進行分組,例如實例分割。Mo等人通過對點特征進行分類,在PartNet[32]中引入了一種分割算法。然而,這些proposal-free方法的學習片段不具有很高的目標性,因為它沒有明確地檢測目標邊界。通過借鑒成功的2D RPN[39]和RoI [13],GSPN[58]和3D-SIS[15]是基于proposal的3D實例分割方法。但是,它們通常依賴于兩階段訓練和一個后處理步驟來進行密集提議修剪。相比之下,我們的框架直接為明確檢測到的對象邊界內(nèi)的每個實例預測一個point-level掩碼,而不需要任何后處理步驟。

    5 Conclusion

    我們的框架簡單、有效且高效,可用于3D點云上的實例分割。但是,它也有一些限制,導致未來的工作。(1)與其使用三個準則的未加權組合,不如設計一個模塊來自動學習權重,以適應不同類型的輸入點云。(2)可以引入更高級的特征融合模塊來相互改進語義和實例分割,而不是訓練單獨的分支進行語義預測。(3)我們的框架遵循MLP設計,因此與輸入點的數(shù)量和順序無關。通過借鑒最近的工作[10][22],直接在大規(guī)模輸入點云上而不是分割的小塊上進行訓練和測試是可取的。

    原文鏈接:https://arxiv.org/abs/1906.01140

    References

    [1] I. Armeni, O. Sener, A. Zamir, and H. Jiang. 3D Semantic Parsing of Large-Scale Indoor Spaces. CVPR, 2016.

    [2] Y . Bengio, N. Léonard, and A. Courville. Estimating or Propagating Gradients Through Stochastic Neurons for Conditional Computation. arXiv, 2013.

    [3] X. Chen, H. Ma, J. Wan, B. Li, and T. Xia. Multi-View 3D Object Detection Network for Autonomous Driving. CVPR, 2017.

    [4] C. Choy, J. Gwak, and S. Savarese. 4D Spatio-Temporal ConvNets: Minkowski Convolutional Neural Networks. CVPR, 2019.

    [5] C. S. Chua and R. Jarvis. Point signatures: A new representation for 3d object recognition. IJCV, 25(1):63–85, 1997.

    [6] D. Comaniciu and P . Meer. Mean Shift: A Robust Approach toward Feature Space Analysis. TPAMI, 24(5):603–619, 2002.

    [7] A. Dai, A. X. Chang, M. Savva, M. Halber, T. Funkhouser, and M. Nie?ner. ScanNet: Richly-annotated 3D Reconstructions of Indoor Scenes. CVPR, 2017.

    [8] C. Elich, F. Engelmann, J. Schult, T. Kontogianni, and B. Leibe. 3D-BEVIS: Birds-Eye-View Instance Segmentation. GCPR, 2019.

    [9] M. Engelcke, D. Rao, D. Z. Wang, C. H. Tong, and I. Posner. V ote3Deep: Fast Object Detection in 3D Point Clouds Using Efficient Convolutional Neural Networks. ICRA, 2017.

    [10] F. Engelmann, T. Kontogianni, A. Hermans, and B. Leibe. Exploring Spatial Context for 3D Semantic Segmentation of Point Clouds. ICCV Workshops, 2017.

    [11] B. Graham, M. Engelcke, and L. v. d. Maaten. 3D Semantic Segmentation with Submanifold Sparse Convolutional Networks. CVPR, 2018.

    [12] A. Grover, E. Wang, A. Zweig, and S. Ermon. Stochastic Optimization of Sorting Networks via Continuous Relaxations. ICLR, 2019.

    [13] K. He, G. Gkioxari, P . Dollar, and R. Girshick. Mask R-CNN. ICCV, 2017.

    [14] P . Hermosilla, T. Ritschel, P .-P . V azquez, A. Vinacua, and T. Ropinski. Monte Carlo Convolution for Learning on Non-Uniformly Sampled Point Clouds. ACM Transactions on Graphics, 2018.

    [15] J. Hou, A. Dai, and M. Nie?ner. 3D-SIS: 3D Semantic Instance Segmentation of RGB-D Scans. CVPR, 2019.

    [16] B.-S. Hua, M.-K. Tran, and S.-K. Yeung. Pointwise Convolutional Neural Networks. CVPR, 2018.

    [17] Q. Huang, W. Wang, and U. Neumann. Recurrent Slice Networks for 3D Segmentation of Point Clouds. CVPR, 2018.

    [18] D. P . Kingma and J. Ba. Adam: A method for stochastic optimization. ICLR, 2015.

    [19] R. Klokov and V . Lempitsky. Escape from Cells: Deep Kd-Networks for The Recognition of 3D Point Cloud Models. ICCV, 2017.

    [20] H. W. Kuhn. The Hungarian Method for the assignment problem. Naval Research Logistics Quarterly, 2(1-2):83–97, 1955.

    [21] H. W. Kuhn. V ariants of the hungarian method for assignment problems. Naval Research Logistics Quarterly, 3(4):253–258, 1956.

    [22] L. Landrieu and M. Simonovsky. Large-scale Point Cloud Semantic Segmentation with Superpoint Graphs. CVPR, 2018.

    [23] T. Le and Y . Duan. PointGrid: A Deep Network for 3D Shape Understanding. CVPR, 2018.

    [24] B. Li. 3D Fully Convolutional Network for V ehicle Detection in Point Cloud. IROS, 2017.

    [25] B. Li, T. Zhang, and T. Xia. V ehicle Detection from 3D Lidar Using Fully Convolutional Network. RSS, 2016.

    [26] J. Li, B. M. Chen, and G. H. Lee. SO-Net: Self-Organizing Network for Point Cloud Analysis. CVPR, 2018.

    [27] Y . Li, R. Bu, M. Sun, W. Wu, X. Di, and B. Chen. PointCNN : Convolution On X -Transformed Points. NeurlPS, 2018.

    [28] Z. Liang, M. Yang, and C. Wang. 3D Graph Embedding Learning with a Structure-aware Loss Function for Point Cloud Semantic Instance Segmentation. arXiv, 2019.

    [29] T.-Y . Lin, P . Goyal, R. Girshick, K. He, and P . Dollar. Focal Loss for Dense Object Detection. ICCV, 2017.

    [30] C. Liu and Y . Furukawa. MASC: Multi-scale Affinity with Sparse Convolution for 3D Instance Segmentation. arXiv, 2019.

    [31] S. Liu, S. Xie, Z. Chen, and Z. Tu. Attentional ShapeContextNet for Point Cloud Recognition. CVPR, 2018.

    [32] K. Mo, S. Zhu, A. X. Chang, L. Yi, S. Tripathi, L. J. Guibas, and H. Su. PartNet: A Large-scale Benchmark for Fine-grained and Hierarchical Part-level 3D Object Understanding. CVPR, 2019.

    [33] G. Narita, T. Seno, T. Ishikawa, and Y . Kaji. PanopticFusion: Online V olumetric Semantic Mapping at the Level of Stuff and Things. IROS, 2019.

    [34] Q.-H. Pham, D. T. Nguyen, B.-S. Hua, G. Roig, and S.-K. Yeung. JSIS3D: Joint Semantic-Instance Segmentation of 3D Point Clouds with Multi-Task Pointwise Networks and Multi-V alue Conditional Random Fields. CVPR, 2019.

    [35] C. R. Qi, O. Litany, K. He, and L. J. Guibas. Deep Hough V oting for 3D Object Detection in Point Clouds. ICCV, 2019.

    [36] C. R. Qi, W. Liu, C. Wu, H. Su, and L. J. Guibas. Frustum PointNets for 3D Object Detection from RGB-D Data. CVPR, 2018.

    [37] C. R. Qi, H. Su, K. Mo, and L. J. Guibas. PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation. CVPR, 2017.

    [38] C. R. Qi, L. Yi, H. Su, and L. J. Guibas. PointNet++: Deep Hierarchical Feature Learning on Point Sets in a Metric Space. NIPS, 2017.

    [39] S. Ren, K. He, R. Girshick, and J. Sun. Faster R-CNN: Towards Real-time Object Detection with Region Proposal Networks. NIPS, 2015.

    [40] D. Rethage, J. Wald, J. Sturm, N. Navab, and F. Tombari. Fully-Convolutional Point Networks for Large-Scale Point Clouds. ECCV, 2018.

    [41] G. Riegler, A. O. Ulusoy, and A. Geiger. OctNet: Learning Deep 3D Representations at High Resolutions. CVPR, 2017.

    [42] R. B. Rusu, N. Blodow, and M. Beetz. Fast point feature histograms (fpfh) for 3d registration. ICRA, 2009.

    [43] Y . Shen, C. Feng, Y . Yang, and D. Tian. Mining Point Cloud Local Structures by Kernel Correlation and Graph Pooling. CVPR, 2018.

    [44] S. Shi, X. Wang, and H. Li. PointRCNN: 3D Object Proposal Generation and Detection from Point Cloud. CVPR, 2019.

    [45] H. Su, V . Jampani, D. Sun, S. Maji, E. Kalogerakis, M.-H. Y ang, and J. Kautz. SPLA TNet: Sparse Lattice Networks for Point Cloud Processing. CVPR, 2018.

    [46] L. P . Tchapmi, C. B. Choy, I. Armeni, J. Gwak, and S. Savarese. SEGCloud: Semantic Segmentation of 3D Point Clouds. 3DV, 2017.

    [47] H. Thomas, C. R. Qi, J.-E. Deschaud, B. Marcotegui, F. Goulette, and L. J. Guibas. KPConv: Flexible and Deformable Convolution for Point Clouds. ICCV, 2019.

    [48] V . V aquero, I. Del Pino, F. Moreno-Noguer, J. Soì, A. Sanfeliu, and J. Andrade-Cetto. Deconvolutional Networks for Point-Cloud V ehicle Detection and Tracking in Driving Scenarios. ECMR, 2017.

    [49] C. Wang, B. Samari, and K. Siddiqi. Local Spectral Graph Convolution for Point Set Feature Learning. ECCV, 2018.

    [50] W. Wang, R. Y u, Q. Huang, and U. Neumann. SGPN: Similarity Group Proposal Network for 3D Point Cloud Instance Segmentation. CVPR, 2018.

    [51] X. Wang, S. Liu, X. Shen, C. Shen, and J. Jia. Associatively Segmenting Instances and Semantics in Point Clouds. CVPR, 2019.

    [52] Z. Wang, W. Zhan, and M. Tomizuka. Fusing Bird View LIDAR Point Cloud and Front View Camera Image for Deep Object Detection. arXiv, 2018.

    [53] B. Wu, A. Wan, X. Y ue, and K. Keutzer. SqueezeSeg: Convolutional Neural Nets with Recurrent CRF for Real-Time Road-Object Segmentation from 3D LiDAR Point Cloud. arXiv, 2017.

    [54] D. Xu, D. Anguelov, and A. Jain. PointFusion: Deep Sensor Fusion for 3D Bounding Box Estimation. CVPR, 2018.

    [55] Y . Xu, T. Fan, M. Xu, L. Zeng, and Y . Qiao. SpiderCNN: Deep Learning on Point Sets with Parameterized Convolutional Filters. ECCV, 2018.

    [56] G. Yang, Y . Cui, S. Belongie, and B. Hariharan. Learning Single-View 3D Reconstruction with Limited Pose Supervision. ECCV, 2018.

    [57] X. Ye, J. Li, H. Huang, L. Du, and X. Zhang. 3D Recurrent Neural Networks with Context Fusion for Point Cloud Semantic Segmentation. ECCV, 2018.

    [58] L. Yi, W. Zhao, H. Wang, M. Sung, and L. Guibas. GSPN: Generative Shape Proposal Network for 3D Instance Segmentation in Point Cloud. CVPR, 2019.

    [59] Y . Zeng, Y . Hu, S. Liu, J. Y e, Y . Han, X. Li, and N. Sun. RT3D: Real-Time 3D V ehicle Detection in LiDAR Point Cloud for Autonomous Driving. IEEE Robotics and Automation Letters, 3(4):3434–3440, 2018.

    [60] Y . Zhou and O. Tuzel. V oxelNet: End-to-End Learning for Point Cloud Based 3D Object Detection. CVPR, 2018.

    鄭重聲明:本文內(nèi)容及圖片均整理自互聯(lián)網(wǎng),不代表本站立場,版權歸原作者所有,如有侵權請聯(lián)系管理員(admin#wlmqw.com)刪除。
    用戶投稿
    上一篇 2022年6月23日 12:11
    下一篇 2022年6月23日 12:12

    相關推薦

    • 分享4條發(fā)微商朋友圈的方法(微商朋友圈應該怎么發(fā))

      對于微商朋友來說,朋友圈的重要性不言而喻了。 那么微商的朋友圈到底該怎么發(fā)呢? 為什么同樣是經(jīng)營一個朋友圈,有的微商看起來逼格滿滿,實際效果也不錯;而有的卻動都不動就被屏蔽甚至拉黑…

      2022年11月27日
    • 短視頻策劃內(nèi)容的3個要點(短視頻策劃內(nèi)容怎么做)

      短視頻在制作時,內(nèi)容框架非常重要。如果直奔主題,然后結束,聚卓告訴你,這樣的短視頻已經(jīng)過時了。現(xiàn)在的短視頻需要框架的,但不是任何框架,它需要一種易于理解和消化的框架。而且,現(xiàn)在大多…

      2022年11月27日
    • 計算機網(wǎng)絡技術論文(計算機網(wǎng)絡技術論文七千字)

      今天小編給各位分享計算機網(wǎng)絡技術論文的知識,其中也會對計算機網(wǎng)絡技術論文七千字進行解釋,如果能碰巧解決你現(xiàn)在面臨的問題,別忘了關注本站,現(xiàn)在開始吧! 計算機網(wǎng)絡方面的論文3000字…

      2022年11月26日
    • 《寶可夢朱紫》夢特性怎么獲得?隱藏特性獲取方法推薦

      寶可夢朱紫里有很多寶可夢都是擁有夢特性會變強的寶可夢,很多玩家不知道夢特性怎么獲得,下面就給大家?guī)韺毧蓧糁熳想[藏特性獲取方法推薦,感興趣的小伙伴一起來看看吧,希望能幫助到大家。 …

      2022年11月25日
    • 《寶可夢朱紫》奇魯莉安怎么進化?奇魯莉安進化方法分享

      寶可夢朱紫中的奇魯莉安要怎么進化呢?很多玩家都不知道,下面就給大家?guī)韺毧蓧糁熳掀骠斃虬策M化方法分享,感興趣的小伙伴一起來看看吧,希望能幫助到大家。 奇魯莉安進化方法分享 奇魯莉安…

      2022年11月25日
    • 手機上怎么買世界杯彩票(手機上怎么買世界杯輸贏)

      現(xiàn)在手機已經(jīng)成為大家生活中非常重要的工具之一,只要一部手機就可以解決衣食住行,最近世界杯火熱進行,一些小伙伴想要買彩票,那么,手機上可以買世界杯彩票嗎?世界杯買球軟件是真的嗎?手機…

      2022年11月25日
    • 什么是內(nèi)容營銷策略如何策劃一套成功的內(nèi)容營銷策略

      很多時候,營銷人員會在創(chuàng)作營銷內(nèi)容時感到沮喪,這也是很多企業(yè)至今沒用好數(shù)字化營銷工具的重要原因之一。 舉個例子,您可能會花上數(shù)小時期待制作一些令人驚嘆的東西,實際卻是得到很少的受眾…

      2022年11月25日
    • 成都健康碼崩了是怎么回事(成都健康碼系統(tǒng)崩了)

      健康碼是大家出行必備的工具,有小伙伴反映自己健康碼崩了,上不了地鐵,那么成都健康碼崩了是怎么回事?成都健康碼怎么突然崩了?成都健康碼崩了是怎么辦?下面小編為大家?guī)沓啥冀】荡a崩了原…

      2022年11月24日
    • rnm退錢是什么意思網(wǎng)絡用語(rnm退錢是什么人)

      最近關于網(wǎng)絡用語使用還是有不少咨詢的,隨著卡塔爾世界杯的開啟,網(wǎng)上也出現(xiàn)了不少新的網(wǎng)絡流行用語,其中rnm退錢的梗也引發(fā)不少網(wǎng)友的好奇。rnm退錢是什么意思?很多網(wǎng)友對此好奇,rn…

      2022年11月24日
    • 關公繞后什么意思網(wǎng)絡用語(睜眼關公什么意思)

      關于一些網(wǎng)絡用語使用大家也都是比較關注的,最近關于關公繞后這個梗也是挺火的,不過還是有很多網(wǎng)友對關公繞后這個梗的含義不是很了解,關公繞后什么意思?這個梗說的是什么呢?下面來看下網(wǎng)絡…

      2022年11月24日

    聯(lián)系我們

    聯(lián)系郵箱:admin#wlmqw.com
    工作時間:周一至周五,10:30-18:30,節(jié)假日休息