自动驾驶中可解释AI综述和未来研究方向
-
cause filters -
content type -
model -
system type -
interactivity -
concrete scope
1 感知
2 定位
3 规划
-
基于算法 Algorithm-based explanations -
基于模型 Model-Based Explanations -
推理调和 Inference Reconciliation -
模型调和 Model Reconciliation (user mental model) -
基于规划 Plan-based explanations
-
Social -
Contrastive -
Selective -
Local -
Global -
Abstraction -
User Study
4 控制
-
可解释的视觉(包括因果解释和基于计算的并发解释)
-
基于强化学习(RL)的可解释状态-动作映射(自动驾驶基于MDP的轨迹串行决策)
Dyna的规划过程从最初提供的假想(imaginary )状态创建预测的未来轨迹。基于这种结构,模型投影生成最优行为,同时生成预测状态和预测奖励。最后两个组件可以被可视化和分析,作为解释的基础,帮助理解为什么智体喜欢在特定的时刻选择特定的动作。由于自动驾驶的每个(关键)动作可能需要直观的解释,因此,Dyna体系结构和基于模型的RL,通常可以通过其可解释性功能提供巨大的益处。
-
知识表征的预测知识(在RL框架下)
-
在动作中包含常识知识(包括时域问题和问题驱动的软件分层结构)
点赞 1 评论 1 收藏