避免同案不同判,海南来了位AI“法官”( 二 )


国务院在《新一代人工智能发展规划》中提出 , “建立人工智能法律法规、伦理规范和政策体系 , 形成人工智能安全评估和管控能力” 。 为智能社会划出法律和伦理道德的边界 , 让人工智能服务人类社会 。 这也是世界范围内的一项共识 。
李正才认为 , 人工智能技术在专业法律领域的最大隐患是由人工智能技术替代法官进行了价值判断 , 这是绝对不行的 , 最终的价值判断还是必须由法官做出 。
“在公共领域 , 由于当前我国基层法律服务极度欠缺 , 人工智能技术恰好可以发挥其快速甄别、智能联想等优势 , 以达到一个初、中级律师的能力水平 , 让基层群众24小时全天候随手获取法律服务 , 人工智能技术在法律界这个方向最能发挥其优势 。 技术是把双刃剑 , 若提供服务的企业不能很好地将AI技术与法律业务进行深度融合的话 , 可能会带来错误的咨询意见或错误的引导 。 ”李正才说 。
清华大学电子工程系博士谢耘也向采访人员表示 , 人工智能在法律界或者说政府公共决策上只能做辅助作用 , 不能承担政策制定的责任 , 这是原则 。
【避免同案不同判,海南来了位AI“法官”】谢耘认为 , 人工智能的隐忧在于人对它的盲目信任 , 以及我们对人工智能的可信边界不清楚 , 或者说缺少经验积累 。 人工智能应该用科学技术的方法来分析 , 而不是使用艺术的方法来想象 , 不应强加给人工智能根本不具备的特征、性质、属性等 。 (王祝华 江东洲 刘 昊)

推荐阅读