ECCV 2020 | 云端參會攻略之Oral篇,前排占位、強勢圍觀!
2020-07-23 10:35
將門創(chuàng)投
關注
下圖顯示了問題的流程,下采樣過程使用了小波變換,并通過網絡得到了包含丟失信息的分布和對應的低分辨圖像。
針對視角合成問題,來自伯克利、谷歌和UCSD的研究人員提出了將場景表示為神經輻射場的過來進行合成。利用全連接深度網絡來表示場景,其輸入為5D的空間位姿坐標、輸出為體密度和空間位置視角相關的輻射。通過在相機方向上查詢5D坐標并利用經典的渲染技術將輸出顏色和密度映射到圖像上。
還有來自CMU和Argo AI關于自動駕駛中延時造成場景流理解的研究,并提出了流精度的概念來將處理延時和精度進行了整合。
以及谷歌研究人員對于非監(jiān)督光流進行系統(tǒng)的研究,并構建包括代價空間歸一化、遮擋梯度截止、光流場上采樣平滑以及尺度變化過程中的自監(jiān)督來改進光流估計的結果。
除了這些論文,還有非常多有趣的精彩的研究成果在Oral中呈現(xiàn),更多的論文和代碼也在逐漸放出,我們將持續(xù)追蹤后續(xù)放出的研究成果,及時為小伙伴們呈現(xiàn)更多高水平的研究成果。

聲明:
本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。
請輸入評論內容...
請輸入評論/評論長度6~500個字