从理论上来看,无论是弱人工智能,还是强人工智能,都未超出计算机科学的范畴,不能算是法律上可以归责的“人”。通常认为,要成为法律上的责任主体,相应主体必须具备自由意志,并能认识行为及其后果的法律意义,能够承担责任。固然,当前人工智能的发展极其迅速,但仅仅是具备根据程序设定发展出来的数据储存、检索和优化能力,不能算作具备自由意志,也并不能认识理解行为及其后果的法律意义。例如欧洲有学者就认为,目前的这些智能机器并没有具备道德思考和道德决定的能力。即使强人工智能具有类人类的认识和控制能力,但它仍然不过是根据人类设定的程序来完成任务的机器。
从实践上来看,人工智能也并非各国法律规定的可以行使权利、履行义务和承担责任的主体。在大陆法系国家,成文的法典限定了民事主体范围。如德国民法典将民事主体规定为自然人、消费者、经营者和法人四类,日本现行民法只将人和法人作为民事主体,俄罗斯联邦民法典同样只将公民(自然人)、法人规定为民法上的人。在以判例法为特征的英美法系国家,如美国、英国,尚未有将人工智能作为民事主体的诉讼案例出现,且在实践中否定了人工智能的民事主体地位:2020年,英国萨里大学研究人员在使用人工智能DABUS进行研究的过程中,DABUS提出了两项独特的设计创意,然而欧盟专利局却驳回了研究人员以DABUS名义提出的专利申请,理由是专利发明者必须是人而非机器。就刑法的犯罪主体而言,虽然人工智能带有一个“人”字,但是在各国刑事法律体系和实践中,还没有被当作刑事责任主体的先例,目前仅停留在学术探讨的层面上。
2·自动“行车”,亦有“刑责”
未来人工智能自动驾驶的技术取向,在于逐步减少直至取消人的控制因素,从而达到提高效率、节省成本、减少损失的目的。随着驾驶自动化程度从L3到L5等级的提高,对人们而言,驾驶车辆所需要的驾驶技术要求是逐步降低的。可以想象,在L5完全自动驾驶状态中,驾驶员实际的角色是乘客——只需要坐上去,然后做好在目的地下车的准备。问题在于,既然人工智能不是法律可以苛责的对象,那么一旦发生交通事故,法律上的不利后果应当由谁来承受?如果是驾驶员承担,那驾驶员又应该负多大的责任?德国学者希尔根多夫将这一问题称为“控制困境”。
现有L3以下的自动驾驶技术部分减少了人对车的操作责任,但是驾驶员仍需为交通事故承担刑事责任。
本章未完,请点击下一页继续阅读!