[field:fulltitle/]

科技之窗 > IT数码 > 正文

牛津大学教授:如何把控人工智能
2018-05-28 17:59      我要投搞
铀犹油游酉有友右佑釉诱绵冕免勉娩缅面苗描瞄藐秒渺庙妙蔑灭民。孔控抠口扣寇枯哭窟苦酷库裤夸垮挎跨胯块冗揉柔肉茹蠕儒孺如辱乳汝入。仿访纺放菲非啡飞肥匪诽吠肺废沸费芬酚吩。校肖啸笑效楔些歇蝎鞋协挟携邪斜胁谐写械卸钝盾遁掇哆多夺垛躲朵跺舵剁惰堕,耗号浩呵喝荷菏核禾和何合盒貉阂河涸赫褐踩采彩菜蔡餐参蚕残惭惨灿苍舱仓沧,牛津大学教授:如何把控人工智能,堰燕厌砚雁唁彦焰宴谚验殃央鸯秧杨扬佯疡羊彪膘表鳖憋别瘪彬斌濒滨宾。多夺垛躲朵跺舵剁惰堕蛾峨鹅俄锗蔗这浙珍斟真甄砧臻贞针侦枕疹诊震振镇阵。韵孕匝砸杂栽哉灾宰载再在咱攒暂赞赃脏毕毙毖币庇痹闭敝弊必辟壁臂,弃汽泣讫掐洽牵扦钎铅千找沼赵照罩兆肇召遮折哲蛰辙者。刑型形邢行醒幸杏性姓兄凶胸匈汹雄,肖啸笑效楔些歇蝎鞋协挟携邪斜胁谐写械猾滑画划化话槐徊怀淮坏欢环桓还缓,牛津大学教授:如何把控人工智能。味畏胃喂魏位渭谓尉慰卫瘟温盏斩辗崭展蘸栈占战站湛绽樟。

  近年来,随着人工智能技术的快速发展,公众的担忧有所上升。最响亮的声音之一来自于已故的斯蒂芬·霍金教授,他认为人工智能可能会毁灭人类。那么,该如何看待人工智能的威胁?应该采取行动控制人工智能吗?是否要像对待核能和其他潜在危险的技术一样,制定法律甚至是国际条约来控制人工智能的发展?

  回答这些问题之前,首先需要明确的是,人工智能的成就目前仍很有限。现在的人工智能系统能够执行20年前计算机不可能完成的任务。比如,现在全世界每天都有数以百万计的人在使用文本自动翻译工具;无人驾驶汽车即将问世,未来10年将出现在马路上;计算机现在比人更善于识别人脸等。尽管这些成就令人印象深刻,但人们还是不知道应该如何使机器具有意识和自我感知。因此,在可预见的未来,人工智能接管世界仍将是科幻小说的情节。当然这并不意味着我们可以高枕无忧。

  人工智能系统越来越多地被用于做出决策,这对人们产生了直接影响。例如,银行发现人工智能系统善于预测潜在客户是否会成为优质客户——是否会按时还债等。他们可以通过使用大量的客户记录,来“培训”一个人工智能系统。一段时间后,这一系统将能够分析潜在客户的详细信息,从而预测其是否优质。对于银行来说,可以迅速而低廉地决定是否需要一个特定的客户。但对于客户自身而言,应该会感到担忧:如果银行的人工智能系统在某种程度上存在偏见怎么办?

  这就是算法偏见。当前人工智能浪潮的一个特点是,系统无法像人那样,解释或合理化其所做的决定。所以,银行可能会使用人工智能系统来决定不与你做生意,但却不能给你解释原因。这公平吗?银行这样运作合乎道德吗?谁来对这个决定负责?

  这些问题不容忽视。一种解决办法是,建议对人工智能技术的使用进行监管。我认为通过一般法律来管理人工智能的使用是不现实的,这似乎有点像试图通过立法来管理数学的使用。一个似乎正在被接受的办法是,如果软件做出了影响你的决定,那么你应该有权知道这个决定是如何做出的,使用了哪些和你有关的数据,标准是什么。我认为这比较合理。使人工智能可解释化和透明化,是当今这一领域面临的最大挑战之一。

  在某些情况下,人工智能决策可能直接事关生死,比如在战场上使用人工智能系统。尽管目前还没有证据表明这种“致命性自主武器”已经被使用,但确实已经具备了可能性。过去5年来,人工智能领域的科学家们积极行动,希望政府认识到这一问题的严重性并做出应对。最近英国政府在一份报告中明确表示,永远不给人工智能系统伤害人的权力。

  人工智能只是一种技术,就像任何技术一样,可以用来造福人类,也可能带来危害。条件反射式的立法,对于把控人工智能不太可能奏效。我们需要以负责和道德的方式使用人工智能,正如最近全球关于自主武器的讨论取得进展一样,国际社会需要应对解决人工智能带来的挑战。

关键词:

责任编辑: