pixelSplat:用于可擴展3D重建的圖像對的3D高斯splat(CVPR2024)

          2024-11-18 17:15| 發(fā)布者: 我什么都不知道 1375 1

          摘要: 文章首發(fā)微信公眾號:小小cv筆記論文題目pixelSplat: 3D Gaussian Splats from Image Pairs for Scalable Generalizable 3D Reconstruction1、簡介pixelSplat是一個前饋模型,它學習從圖像對中重建三維高斯基元參數(shù) ...

          pixelSplat:用于可擴展3D重建的圖像對的3D高斯splat(CVPR2024)-5455

          文章首發(fā)微信公眾號:小小cv筆記

          論文題目

          pixelSplat: 3D Gaussian Splats from Image Pairs for Scalable Generalizable 3D Reconstruction

          1、簡介

          pixelSplat是一個前饋模型,它學習從圖像對中重建三維高斯基元參數(shù)化的三維輻射場。模型具有實時和內存高效渲染,可擴展的訓練以及在推理時快速的3D重建。為了克服稀疏和局部支持表示所固有的局部最小值,我們預測了3D上的密集概率分布和該概率分布的樣本高斯均值。通過一個重參數(shù)化技巧使這個采樣操作可微,允許我們通過高斯飛濺表示反向傳播梯度。在現(xiàn)實世界的RealEstate10k和ACID數(shù)據(jù)集上對方法進行了寬基線新視圖合成的基準測試,其中我們優(yōu)于最先進的光場轉換器,并在重建可解釋和可編輯的3D輻射場時將渲染速度加快了2.5個數(shù)量級。

          2、背景

          1)單場景新穎視圖合成。早期的方法采用體素網格和學習的渲染技術,最近,神經場和體渲染已經成為事實上的標準。然而,這些方法的一個關鍵障礙是它們的高計算需求,因為渲染通常需要對每條光線進行數(shù)十次神經場查詢。離散數(shù)據(jù)結構可以加速渲染,但在高分辨率下無法實現(xiàn)實時渲染。3D高斯噴濺解決了這個問題,它使用3D高斯分布來表示輻射場,可以通過柵格化有效地渲染。然而,所有的單場景優(yōu)化方法都需要幾十張圖像來實現(xiàn)高質量的新視圖合成。

          2)基于先驗的三維重建和視圖合成。可概括的新穎視圖合成旨在從每個場景的少數(shù)圖像中實現(xiàn)3D重建和新穎視圖合成。如果代理幾何(如深度圖)可用,機器學習可以與基于圖像的渲染相結合,以產生令人信服的結果。

          3)在這項工作中,訓練神經網絡在單個前向傳遞中僅從兩張圖像中估計3D高斯原始場景表示的參數(shù)。我們的方法呈現(xiàn)出兩全其美的效果:它以3D高斯形式推斷出可解釋的3D場景表示,同時與光場變壓器相比,渲染速度加快了三個數(shù)量級。

          3、方法

          1)給定一對圖像及相機參數(shù),可推斷出底層場景的三維高斯表示,可以渲染產生看不見的視點的圖像。方法包括一個雙視圖圖像編碼器(解決尺度模糊性)和一個像素對齊的高斯預測模塊。


          pixelSplat:用于可擴展3D重建的圖像對的3D高斯splat(CVPR2024)-6771

          2)雙視圖圖像編碼器,論文使用兩張圖像進行新視角合成,將兩個參考視圖表示 為I1和 I2 。對I1中的每個像素,利用I2來中對應的外極線,來標注I1相應的深度。深度值是根據(jù)I1和 I2 的相機位姿計算出來的 。編碼器通過外極注意力(epipolar attention)找到每個像素的對應關系,并記憶該像素的相應深度。如果在 I2 中沒有對應的像素的深度,則通過每幅圖像的自注意來修復。合成新視角基本都需要補充信息,常見的是加入深度信息,本文也是通過兩幅圖像計算出深度信息作為補充??


          pixelSplat:用于可擴展3D重建的圖像對的3D高斯splat(CVPR2024)-9375

          3)在兩個不同的視圖(圖像)中捕獲(投影)時,如何使用三角測量來計算點 (X) 的深度。在此圖中,C1 和 C2 分別是左右攝像頭的已知 3D 位置。x1 是左相機捕獲的 3D 點 X 圖像,x2 是右相機捕獲的 X 圖像。x1 和 x2 稱為對應點,因為它們是同一 3D 點的投影。我們使用 x1 和 C1 找到 L1,使用 x2 和 C2 找到 L2。因此,我們可以使用三角測量來找到 X,


          pixelSplat:用于可擴展3D重建的圖像對的3D高斯splat(CVPR2024)-1853

          4)像素對齊的高斯預測模塊,提出了像素對齊高斯函數(shù)的概率預測。對于輸入特征圖中的每個像素特征F[u],神經網絡f預測高斯原語參數(shù)Σ和s,高斯位置μ和不透明度α不能直接預測,這將導致局部最小值。相反,f預測深度p?(z)上的每像素離散概率分布,由φ參數(shù)化。然后采樣產生高斯基元的位置。每個高斯的不透明度被設置為采樣深度桶的概率。最后一組高斯原語可以使用3DGS飛濺算法從新的視圖中渲染出來。


          pixelSplat:用于可擴展3D重建的圖像對的3D高斯splat(CVPR2024)-1349

          5)像素對齊高斯的概率預測,需要:深度桶b∈RZ,像素坐標u處的特征F[u],參考視圖的相機原點o,射線方向du。1、預測深度概率φ和偏置δ,協(xié)方差Σ,球諧波系數(shù)S,2、樣本深度桶指數(shù)z從離散概率分布參數(shù)化的φ,3、通過解投影計算高斯平均值μ,深度bz由桶偏移量δz調整,4、根據(jù)采樣深度的概率設置高斯不透明度α


          pixelSplat:用于可擴展3D重建的圖像對的3D高斯splat(CVPR2024)-8925

          4、實驗

          1)和其他方法的性能對比


          pixelSplat:用于可擴展3D重建的圖像對的3D高斯splat(CVPR2024)-8264

          2)和其他方法的可視化對比


          pixelSplat:用于可擴展3D重建的圖像對的3D高斯splat(CVPR2024)-1249

          3)消融實驗


          pixelSplat:用于可擴展3D重建的圖像對的3D高斯splat(CVPR2024)-2536


          路過

          雷人

          握手

          鮮花

          雞蛋
          《微軟模擬飛行2024》主要優(yōu)勢在于對本地存儲空間要求較小,只需要50GB,推薦配置里32GB的內存要求也不過分,但是最佳配置里要求64GB內存可是要比絕大部分玩家的PC要高得多。
          2024-11-19 21:12

          返回頂部
          主站蜘蛛池模板: 中文字幕一区二区三区精华液| 一区二区三区无码高清视频| 视频在线一区二区| 视频一区精品自拍| 日本一区中文字幕日本一二三区视频 | 激情内射亚洲一区二区三区爱妻| 国产欧美一区二区精品仙草咪| 精品国产一区二区三区色欲| 日韩一区二区三区在线观看 | 丰满人妻一区二区三区视频53| 无码国产精成人午夜视频一区二区| 免费在线观看一区| 亚洲日本va一区二区三区| 亚洲视频在线观看一区| 国产成人AV一区二区三区无码 | 夜夜精品无码一区二区三区| 一本一道波多野结衣一区| 五月婷婷一区二区| 无码国产精品一区二区免费虚拟VR| 风间由美性色一区二区三区 | 精品一区狼人国产在线| 亚洲国产欧美日韩精品一区二区三区 | 国语对白一区二区三区| 成人精品视频一区二区| 日韩久久精品一区二区三区| 激情久久av一区av二区av三区| 精品无码综合一区二区三区| 色综合视频一区中文字幕| 麻豆AV天堂一区二区香蕉| 尤物精品视频一区二区三区 | 糖心vlog精品一区二区三区| 日韩精品一区二区三区中文| 人妻久久久一区二区三区| 国产福利一区二区三区在线观看| 无码人妻久久久一区二区三区| 麻豆一区二区在我观看| 中文字幕日韩一区二区不卡| 精品亚洲福利一区二区| 精品伦精品一区二区三区视频| 日本精品一区二区三区在线观看| 一区二区三区视频在线|