机器人犯错,谁负法律责任?人工智能可以替代法官判案吗?
人工智能在为人类生活带来便利的同时,对社会提出了新的挑战。著名理论物理学家霍金曾说过:“发明AI(人工智能)可能会成为人类历史上最大的灾难,如果管理不善,会思考的机器可能会为(人类)文明划上句号。”
人工智能的研究、开发、应用涉及社会多个方面,也冲击着法律与社会伦理,该以何种恰当形式进行合理规范和引导,以便将这些技术真正推向前行并最终服务于全人类?
法律界人士认为,从法律视角考察人工智能发展和应用,关键是主体性与归责方式。主体性,即是否有必要在法律上承认人工智能应用主体(通俗意义的机器人)的法律主体地位;归责方式,即到底谁该为智能机器人的非人为预期的行为负责。比如利用医疗智能机器人发生医疗事故、自动驾驶造成交通事故、智能交易引发重大失误等问题,该归咎于技术故障、操作不当、设计缺陷,还是机器制造者的失误、主观故意,甚至是智能机器人的自主意识?法律该如何约束智能机器人的研发、制造与应用?又该如何判定机器人的法律责任?人工智能在未来是否可以替代理性思考者,比如法官?
近年来,上海学者率先对人工智能的相关法律问题开展研究,形成了一批有影响的研究成果。人工智能与法律领域“独角兽法学精品·人工智能”丛书,涵盖人工智能、大数据、区块链、算法等与法律交叉领域的最新学术前沿内容。该丛书即将在今年上海书展期间推出第三辑,包括《数据的边界:隐私与个人数据保护》《驯服算法:数字歧视与算法规制》《人工智能与法律的对话2》三本译著。
7月9日至11日,世界人工智能大会2020云端峰会将在上海举办,“法治”正是分论坛主题之一。围绕法治分论坛主题“人工智能的权利义务与法治实践”,本月,上海人民出版社发起“人工智能与法治”专题月读书会,以“让人民在每一个司法案件中都能感受到公平正义”“人工智能、大数据与社会治理”为题的两场读书会,7月3日、4日分别举办。
如何让人民群众在每个司法案件中感受到公平正义?经过三年时间努力,上海政法系统以一套软件的投入使用回答了这一问题。“上海刑事案件智能辅助办案系统”(简称“206系统”)的诞生,是运用人工智能新技术破解司法难题、推动司法改革的成功实践,《人工智能与司法现代化》一书记录了这一推动司法现代化实践的全过程。
“206系统”依托大数据、云计算等现代科技手段,充分运用图文识别(OCR)、自然语言理解(NLP)、智能语音识别、司法实体识别、实体关系分析、司法要素自动抽取等人工智能技术,实现对刑事案件证据标准、证据规则的统一指引和对证据进行校验、把关、提示、监督。上海市法学会党组书记、会长,二级大法官崔亚东指出,尽管“206系统”的智能性使其从工具变成了助手,但并不能替代民警办案、法官判案。人工智能的发展需要法治作为保障,建立人工智能法治体系。目前阶段,将这套辅助办案系统由刑事推广至民商事、行政领域,在民法典颁布实施的背景下,意义深远。只有主动拥抱新科技、运用新技术,走好融合发展的道路,才能促进司法文明与公正。
人工智能会给政府治理带来革命性影响,可称之为“政府效率革命”。长远来看,人工智能大量应用会减少行政成本,但短期来看却未必,新基础设施的投入使用会造成数据存储成本和运行成本的增加。华东政法大学人工智能与大数据指数研究院院长高奇琦提出了一个问题:数据是否越多越好?“不仅仅是企业之间,政府各部门间也存在某种意义上的数据竞争。数据集中有利于效率,但太过集中可能会导致权力的滥用;数据分散则会形成一定的平衡,但可能会造成彼此‘扯皮’。”
尽管目前的人工智能尚是一种弱人工智能,但并不意味着没有治理风险。上海交通大学凯原法学院副教授、上海数据治理与安全产业专业委员会专家何渊分析了人工智能的五大治理风险:隐私保护、数据泄露、伦理问题、数据战争和国家能力。消费者在入住酒店时发现“同房同天不同价”,实际上是酒店根据消费者数据形成的用户画像,提供了不同价格。这就是涉及数据伦理的典型例子。此外,基于数据的算法推荐会使人们看到的世界变得片面、不完整。
当数据成为一种财富,企业之间、国家之间的数据争夺战屡见不鲜。何渊提出,国家数据能力是未来国家不可或缺的治理能力。要避免互联网公司的数据技术能力替代国家的认证能力,假使互联网没有法律的约束,个人隐私将不复存在;若无监管,互联网公司恐会变成国家无法控制的“巨兽”。