要同时对 ECCV 和机器人社区有帮助,研究的必须是:一个“视觉表示层面的结构性问题”,但这个问题在机器人中会“不可避免地被遇到”。
以 ECCV 的方式提出问题,用机器人作为“必然应用场景”来证明其重要性
ECCV 的最低要求
1 提出 新的表示 / 学习问题
2 给出 清晰、可复现的分析或方法
3 结论具有 普适性 不依赖具体机器人
机器人社区真正关心的
1 揭示 真实系统中一定会发生的失败 / 偏置 / 不确定性
2 能回答机器人研究者的一个长期困惑,例如:
“为什么这个系统在某些场景总是不稳定?”
“什么时候我该相信这个感知模块?”
同时被 ECCV 和机器人“尊重”的问题类型
可预测性边界(Predictability Boundary)
Which aspects of 3D structure are predictable in a single forward pass?
对机器人意味着什么?
哪些几何可以用于:
抓取
避障
哪些一定不可靠,必须:
多视角
重感知
主动探索
不可辨识性(Identifiability)与歧义
What ambiguities are intrinsic to pose-free or feed-forward 3D perception?
对机器人意味着什么?
对称物体
反射 / 玻璃
缺视角结构
告诉机器人:这些情况不能被感知模块解决。
不确定性是否被显式表达?
Does the representation expose epistemic uncertainty, or hide it?
对机器人意味着什么?
决策系统能否知道:
“我看到的 3D 是不可靠的”
是否应该触发:
replan
move camera
ask human
表示偏置(Representation Bias)
What inductive bias does a feed-forward 3D representation impose?
对机器人意味着什么?
为什么模型“总是更相信某些形状 / 尺度 / 结构”
为什么在某些环境里表现很好,在另一些里完全崩溃
上下文依赖性(Context Requirement)
How much visual context is required to infer stable 3D structure?
对机器人意味着
决定:
相机运动策略
是否需要主动感知
决定:
feed-forward 是否足够
何时必须进入 mapping / optimization