-
马平:李世石败了,要警惕人工智能吗?
关键字: 围棋谷歌围棋AlphaGo李世石人工智能AI强AI弱AI自动控制制造工具诚然,艾柯卡的观点很理性,但是,我也在理性上很相信智能防撞系统救命的概率远远大于阻碍我逃命的概率,但作为一个凭借自由意志生存了上百万年的物种,我还是希望能时刻拥有最终决策的权力。所以,在这个问题上讲概率论并不能绝对“服人”,安全设施的推行除了要靠法律强制,更要在心理上给人“选择权”,即随时关闭自动设备的权力。当年美国能够立法强制使用安全带,也是因为在模拟火灾、爆炸环境下做反复实验,证明了安全带可以迅速解开,让乘客摆脱捆绑状态,这才最终说服公众接受安全带。(未必)
实际上,火灾逃生实验本来并无必要,因为即便在火灾条件下,安全带也更有利于乘客逃生。2012年8月26日,包茂高速公路安塞段发生客车与运送甲醇货车追尾碰撞事故,引发甲醇泄漏并导致两车起火,造成36人遇难,3人受伤。事后经验尸发现,由于未使用安全带,大多数乘客因为碰撞而昏迷,在起火之前已经丧失了逃生能力。而在仅有的几名逃生乘客中,恰恰有一位女士因系安全带而保持了行动能力,从而抓住了紧迫的十几秒逃生时间。可见安全带挽救生命,和解开安全带需要的时间关系不大。
然而,公众就是需要这样的实验,我也必须确信能随时切断AI的电源,在踏板上控制刹车,才能从心理上接受自动防撞系统。这就是我们人类毫无理由的自信。不过,即便是感性认识,也是可以用理性去分析的。看到这个问题之后,我开始审视自己的感性判断——我到底恐惧的是什么?是AI太“强大”么?
仔细思考之后我发现,恐惧的来源并非是AI太聪明,并非AI可以和我的大脑相连,而是正好相反——问题的源头在于AI不够聪明,不能和大脑相连。
比如说,本来汽车已经配备了侧向和后方的测距雷达,但只用来点亮告警灯,不能成为AI判断的参数。如果AI能够“考虑”到这些外界条件,在其他方向有明显威胁的时候允许我撞向前方,我就可以允许AI获得更多的汽车控制权。如果AI能直接把警告输入我的大脑,让我在打瞌睡的时候忽然“看到”撞击的可能性,并通过大脑决策来实现刹车,自然也不必为了节约反应时间而直接控制刹车系统,不给人类做选择的机会。总而言之,至少在现阶段,一个更“强”的AI会让人类更放心。阿西莫夫也在短篇科幻小说《理性》(又译为《推理》)中描写过类似的情节。(全文请点击链接)

在这篇小说中,“出生”在空间站的机器人开始思考自己的存在理由,并创立了一套宗教解释自己的工作。人类工作者对此先是表示恐惧,但发现机器人并不会因此影响工作后反而欣然接受:
-
本文仅代表作者个人观点。
- 请支持独立网站,转发请注明本文链接:
- 责任编辑:陈轩甫
-
转折点到了,卡尼想要的经贸多元化,“中国是关键” 评论 32
欧洲派兵1+2+13… 白宫:呵,已阅 评论 261
明抢!美商务部长:台湾四成半导体供应链搬到美国 评论 230
“美国下滑,中国跃升,高等教育正‘变天’” 评论 113最新闻 Hot-
转折点到了,卡尼想要的经贸多元化,“中国是关键”
-
不装了,“台湾必须哄我们的总统高兴,懂吧”
-
“中国第一,美国紧随其后”
-
欧洲悄悄讨论反击:切断合作、收回美军基地
-
先是格陵兰,然后是冰岛?
-
“38万亿美元的美债,迟早会反噬”
-
欧洲派兵1+2+13… 白宫:呵,已阅
-
贝森特“敲打”韩国:韩元不对劲
-
贺娇龙母校发文悼念
-
1人、2人、13人...德国还在吹:北约能扛得住中俄
-
普京也察觉,“世界太危险了”
-
首位“80后”院士刘若川,任北京大学数学学院院长
-
美国施压意大利:中企合同,给我撤了
-
明抢!美商务部长:台湾四成半导体供应链搬到美国
-
“美国发出危险信号,中国必须行动起来”
-
又拍马屁:诺奖奖章送特朗普,我们高度亲美
-

观察员

上海市互联网违法与不良信息举报中心