来源:凤凰科技
时间:2015-08-19
关于人工智能伦理问题,特别是涉及到开发机器人武器之类的问题,我们已经讨论过很多次了。实际上,之前我们更多的是把人工智能作为一种人类已知威胁来展开
讨论的。那些喜欢电影《终结者》的粉丝应该对它的情节还记忆犹新吧,片中人工智能“天网”希望终结人类,如果这一幕真的发生,那么我们现在讨论什么监管
啊,责任啊,似乎都毫无意义。但所谓千里之堤毁于蚁穴,尤其在法律哲学家John
Donaher的眼里,如果能够仔细思考这些问题的话,说不定会有助于减少未来可能存在的风险。
人工智能的监管与责任,其实和安全与公共福利一样,都像是硬币的正反面。监管的目的,是为了确保人工智能系统尽可能的安全;而责任,其实就是为了当人工智能系统出错时,我们可以找到可以追究问题的人,或者再说的准确一点儿,就是找谁可以获得法律上的赔偿。
应该向谁追责呢?
让我们先来谈谈责任问题吧。首先,我们可以模拟一个侵权(民事)责任问题,想象下,在不远的将来可能会发生这样一个场景:一辆无人驾驶拖拉机原本应该按照指令在A农民的田里播种,但是奇怪的是,它却把种子播种到了B农民家的田里。
让我们先假设A农民是完全按照操作手册来使用那辆无人播种拖拉机的,同时,我们也假设A农民无需再做其他额外的操作,比如在农田交界处设置无线电信标,等等。那么现在,假设农民B要来控告这次错误播种事件(我们暂且不考虑诸如滋扰和侵犯等问题),会遇到哪些问题呢?。
实际上,有很多问题需要被回答,这个事故是农民A的责任吗?可能不是;那么,是无人播种拖拉机厂商的责任吗?有可能,但在此之前,我们是不是该明确与这些
问题相关的责任和标准呢?比如无人播种拖拉机的行业标准是什么,制造商的产品规格是否符合相关标准呢?不仅如此,如果自己的土地被他人种植上了其他农作
物,这是否算是财产损失,又是否能否追溯经济赔偿呢?
在一连串问题之前,我们其实是先假定了无人播种拖拉机里面的系统软件是由制造商开发的。那么接下来又有新的问题出现了,如果那套人工智能系统是由第三方开发公司完成开发的,该如何处理?还有,系统内部的软件代码是由多人合作完成的,又该如何界定各自的职责?
随着时间的推移,人工智能系统将会越来越不依靠传统的经典算法和代码,而且他们也会展示出更多我们无法预料到的行为,值得一提的是,这些行为没有人可能预
测得到,甚至包括人工智能系统的创造者也无法预料。但重要的是,可预见性,其实是处理责任过失问题中一个非常关键的组成部分。
为了能够让读者更好地理解可预见性问题,我们才会假设了上面那个无人播种拖拉机的案例,或许十年、二十年之后,人工智能已经不再是简单的种错庄稼这件事儿
了,它可能会是某个意外让人们受伤,更严重一些,人工智能可能会不小心杀人。所以,如果我们的法律无法适时作出改变,那么未来将会导致更多问题出现。就拿
上面那个人工智能种错庄稼的事情为例,当无法实现可预见性,终的结果就是没人承担责任!