摘要: link Framework Occupancy 模型结构比较像ICCV 2023的OccNet的做法,不过还会额外预测Suface以及NeRF state,预测可行驶区别suface的好处是可以辅助Planning&Control给出更加准确的运动速度等信息(比如,上下坡可根据suface坡度做更 阅读全文
posted @ 2024-06-11 23:49 fariver 阅读(10) 评论(0) 推荐(0) 编辑
摘要: Planning-oriented Autonomous Driving link 时间:23.03 机构:Shanghai AI Laboratory && SenseTime TL;DR 将 感知、预测 以及 规划 模块整合成为一个E2E的网络结构。该工作是CVPR2023的Best Paper 阅读全文
posted @ 2024-06-05 20:20 fariver 阅读(26) 评论(0) 推荐(0) 编辑
摘要: MOTR: End-to-End Multiple-Object Tracking with Transformer link 时间:22.07 机构:Megvii TL;DR 传统MOT通过motion与appearance来建模,有复杂的后处理难以E2E。a56爆大奖在线娱乐基于DETR设计出MOTR算法,通过 阅读全文
posted @ 2024-05-30 23:12 fariver 阅读(26) 评论(0) 推荐(0) 编辑
摘要: FlashOcc: Fast and Memory-Efficient Occupancy Prediction via Channel-to-Height Plugin link 时间:23.11 机构:houmo.ai 后摩智能 TL;DR 当时比较流行的OCC方案内存与计算复杂度较高,a56爆大奖在线娱乐提出 阅读全文
posted @ 2024-05-29 20:52 fariver 阅读(13) 评论(0) 推荐(0) 编辑
摘要: Scene as Occupancy link 时间:23.06 机构:Shanghai AI Lab && SenseTime && CUHK TL;DR 提出使用3D Occupancy来表征3D物理场景,相对于3D检测框,3D Occ可提供更细粒度细节。提出OccNeta56爆大奖在线娱乐多目级连的时序模型, 阅读全文
posted @ 2024-05-22 17:17 fariver 阅读(14) 评论(0) 推荐(0) 编辑
摘要: BEVFormer: Learning Bird’s-Eye-View Representation from Multi-Camera Images via Spatiotemporal Transformers link 时间:22.07 机构:Nanjing University && Sha 阅读全文
posted @ 2024-05-20 21:44 fariver 阅读(9) 评论(0) 推荐(0) 编辑
摘要: PETR: Position Embedding Transformation for Multi-View 3D Object Detection PETR: Position Embedding Transformation for Multi-View 3D Object Detection 阅读全文
posted @ 2024-05-15 16:58 fariver 阅读(14) 评论(0) 推荐(0) 编辑
摘要: BEVDet: High-Performance Multi-Camera 3D Object Detection in Bird-Eye-View BEVDet 时间:21/12 机构:PhiGo(鉴智机器人) TL;DR a56爆大奖在线娱乐BEV空间做detection的方法,构建了新颖的数据增强方法以及更新 阅读全文
posted @ 2024-05-14 14:12 fariver 阅读(12) 评论(0) 推荐(0) 编辑
摘要: OFT Orthographic Feature Transform for Monocular 3D Object Detection OFT Orthographic Feature Transform for Monocular 3D Object Detection 时间:18.11 机构: 阅读全文
posted @ 2024-05-07 21:22 fariver 阅读(9) 评论(0) 推荐(0) 编辑
摘要: 名称 Lift, Splat, Shoot: Encoding Images from Arbitrary Camera Rigs by Implicitly Unprojecting to 3D 时间:20.08 机构:NVIDIA TL;DR 后融合方法将每一目感知结果通过相机参数转换到BEV空 阅读全文
posted @ 2024-05-06 22:58 fariver 阅读(16) 评论(0) 推荐(0) 编辑