不透明性和自主性导致人类无法明晰自动驾驶系统决策的具体过程
更新日期:2022-03-06     浏览次数:142
核心提示:(一)生产者承担过失责任的理论依据不明确作为人工智能产品,自动驾驶系统的自主性而引发的因果关系模糊与主体异位问题削弱了生产者对其行为引发结果

(一)生产者承担过失责任的理论依据不明确

作为人工智能产品,自动驾驶系统的自主性而引发的因果关系模糊与主体异位问题削弱了生产者对其行为引发结果的预见可能性,造成对以结果预见可能性为逻辑起点的过失犯罪归责构造的冲击,导致不得不重新审视过失犯论。

有学者指出,算法黑箱已经改变了事实因果关系的模型。[4]算法黑箱是指观察者可以看到这些复杂非线性过程的输入和输出,却无法看到内部工作。[6]因此算法黑箱存在难以判断运算逻辑与运算过程的特点。由于自动驾驶系统是根据研发人员输入的数据库,通过黑箱进行自主学习而生成决策,不透明性和自主性导致人类无法明晰自动驾驶系统决策的具体过程,也无法对自动驾驶车辆所做出的行为进行解释,导致造成危害结果后,归责主体难以明确。

2024-11-29• 城市轨道交通全自动驾驶车辆场景分析
审稿意见一、文章概述本文题为《城市轨道交通全自动驾驶车辆场景分析》,由刘明坤、崔文成、汪阳撰写,旨在通过分析城市轨道交通全自动驾驶车辆的各类...
2020-03-19• 自动驾驶车辆混行集聚MAS控制模型
《自动驾驶车辆混行集聚MAS控制模型》为作者:梁军最新的研究成果,本论文的主要观点为随着车路协同技术和自动驾驶技术的不断发展,越来越多的网联自...