3D

优惠 3D模型框架Interactive3D:它允许用户通过交互式操作来精确控制3D对象的生成过程

  • 3D模型框架Interactive3D:它允许用户通过交互式操作来精确控制3D对象的生成过程
    AI
  • 来自香港科大、香港中文大学、 商汤科技和上海人工智能实验室的研究人员推出创新框架Interactive3D,它允许用户通过交互式操作来精确控制3D对象的生成过程。这个框架特别适用于那些需要高度个性化和定制化3D模型的场景。例如,你想要创建一个“骑在喷火龙上的黑暗骑士”的3D模型。使用Interactive3D,你可以先... 阅读全文

    优惠 英伟达推出NeRF-XL:利用多个GPU来扩展神经辐射场(NeRFs)的规模,从而使得训练和渲染具有更大容量的NeRFs成为可能

  • 英伟达推出NeRF-XL:利用多个GPU来扩展神经辐射场(NeRFs)的规模,从而使得训练和渲染具有更大容量的NeRFs成为可能
    AI
  • 英伟达、加州大学伯克利分校和多伦多大学的研究人员推出NeRF-XL,它能够利用多个GPU来扩展神经辐射场(NeRFs)的规模,从而使得训练和渲染具有更大容量的NeRFs成为可能。NeRFs是一种用于3D场景重建和新视角合成的技术,它可以通过一系列的2D图像来重建出3D场景,并从新的视角生成图像。 例如:我们想要从数千张... 阅读全文

    优惠 ACE0:从2D图像中恢复出3D场景的结构

  • ACE0:从2D图像中恢复出3D场景的结构
    AI
  • Niantic和牛津大学的研究人员发布关于如何从一组图像中估计相机参数的论文,特别是在没有预先设定的相机姿态(即“未摆好姿势”的图像)的情况下。这个过程被称为结构从运动(Structure-from-Motion,简称SfM),是计算机视觉中的一个基础任务,它允许我们从2D图像中恢复出3D场景的结构。 例如,你是一名建... 阅读全文

    优惠 3D场景重建和新视角合成方法3D Gaussian Splatting

  • 3D场景重建和新视角合成方法3D Gaussian Splatting
    AI
  • 来自西蒙弗雷泽大学、不列颠哥伦比亚大学、多伦多大学和谷歌 DeepMind的研究人员推出3D场景重建和新视角合成方法3D Gaussian Splatting,这种方法因其高质量的结果和与硬件光栅化的兼容性而受到关注。然而,Gaussian Splatting对高质量的点云初始化(通过结构从运动,Structure-f... 阅读全文

    优惠 3D场景修复MALD-NeRF,针对那些在图像中不可见或需要编辑的区域

  • 3D场景修复MALD-NeRF,针对那些在图像中不可见或需要编辑的区域
    AI
  • 来自Meta、 加州大学默塞德分校和马里兰大学学院公园分校的研究人员推出MALD-NeRF,它是一种用于3D场景修复的方法,特别是针对那些在图像中不可见或需要编辑的区域。例如,你有一张包含某个物体的照片,但你想在不改变背景的情况下移除这个物体。使用MALD-NeRF,就可以在不留下任何痕迹的情况下,如魔法般地移除或替换... 阅读全文

    优惠 新型3D场景表示方法CompGS:将3D场景分解为一系列高斯分布的点(3D Gaussians)来表示场景,并在渲染时将这些点投影到视图上

  • 新型3D场景表示方法CompGS:将3D场景分解为一系列高斯分布的点(3D Gaussians)来表示场景,并在渲染时将这些点投影到视图上
    AI
  • 来自香港城市大学、密苏里大学堪萨斯城分校和岭南大学的研究人员推出新型3D场景表示方法CompGS(压缩高斯点渲染),高斯点渲染(Gaussian Splatting)是一种在3D图形学中用于渲染质量出众且效率很高的技术,它通过将3D场景分解为一系列高斯分布的点(3D Gaussians)来表示场景,并在渲染时将这些点投... 阅读全文

    优惠 新型神经辐射场(NeRF)方法MonoPatchNeRF:旨在通过单目引导来改进3D模型的几何精度

  • 新型神经辐射场(NeRF)方法MonoPatchNeRF:旨在通过单目引导来改进3D模型的几何精度
    AI
  • 来自伊利诺伊大学厄巴纳-香槟分校和亚马逊推出新型神经辐射场(NeRF)方法MonoPatchNeRF,旨在通过单目引导来改进3D模型的几何精度。NeRF是一种用于从一组图像重建场景3D结构的技术,它能够从任意新视角渲染出高质量的图像。然而,现有的NeRF方法在处理多视角立体(MVS)基准测试时,往往无法准确重建几何结构... 阅读全文

    优惠 视觉基础模型是否具有对三维结构的认识能力

  • 视觉基础模型是否具有对三维结构的认识能力
    AI
  • 密歇根大学和谷歌研究的研究人员发布论文探讨探讨了视觉基础模型(visual foundation models)是否具有对三维结构的认识能力。这些模型通过大规模的预训练,已经展现出了强大的图像分类、分割和生成等能力。但是,尽管它们能够处理二维图像中的对象,我们仍然不清楚这些模型是否能够理解和表示这些对象在三维空间中的结... 阅读全文

    优惠 Urban Architect:根据文本描述和3D布局信息生成可控制的3D城市场景

  • Urban Architect:根据文本描述和3D布局信息生成可控制的3D城市场景
    AI
  • 同济大学、上海人工智能实验室、密歇根大学、香港中文大学和CPII的研究人员推出Urban Architect,它能够根据文本描述和3D布局信息生成可控制的3D城市场景。例如,如果你是一个城市规划师,你可以通过简单的文本描述和一些基本的3D布局元素(比如建筑物、道路和汽车的简化模型)来创建一个详细的城市模型,并且可以随意... 阅读全文

    优惠 3D模型生成RealmDreamer:根据文本描述生成三维场景

  • 3D模型生成RealmDreamer:根据文本描述生成三维场景
    AI
  • 加州大学圣地亚哥分校和宾夕法尼亚大学的研究人员推出RealmDreamer,它能够根据文本描述生成三维场景。想象一下,如果你给RealmDreamer一个描述,比如“一个有着瀑布的幽静森林”,它就能创建出一个你可以从多个角度观察的3D模型的森林场景。 主要功能和特点: 文本驱动的3D场景生成: RealmDreamer... 阅读全文

    优惠 创新框架DreamScene360:根据文本提示生成360度全景的3D场景

  • 创新框架DreamScene360:根据文本提示生成360度全景的3D场景
    AI
  • 加州大学洛杉矶分校、德克萨斯大学奥斯汀分校和DEVCOM ARL的研究人员推出创新框架DreamScene360,它能够根据文本提示生成360度全景的3D场景。例如,如果你只需要描述一个场景,比如“一个有瀑布的优胜美地国家公园”,DreamScene360就能够创建出一个全方位的、可以自由探索的3D环境。这就是它的神奇... 阅读全文

    优惠 基于文本编辑NeRF(神经辐射场)场景DATENeRF:从2D图像中重建3D场景

  • 基于文本编辑NeRF(神经辐射场)场景DATENeRF:从2D图像中重建3D场景
    AI
  • Adob​​e推出DATENeRF,它用于基于文本编辑NeRF(神经辐射场)场景。NeRF是一种可以创建和渲染3D环境的技术,它通过从2D图像中重建场景的3D表示来实现。DATENeRF的关键特点是它能够利用场景的深度信息来指导基于文本的图像编辑,从而在保持视角一致性的同时,实现更真实和详细的编辑结果。 例如,如果你有... 阅读全文