-
乔恩·阿斯科纳斯、弗拉基米尔·波波夫:关于人工智能的常识
最后更新: 2023-11-30 09:10:34要完全减轻基于人工智能的存在风险,需要采取什么措施?一种共识指出,我们必须大幅度且有意地减缓发展的速度,特别放缓部署新的大语言模型。然而,由于人工智能提供了经济和军事优势,任何一国的单方面的禁令都存在落后于其他国家的风险,这再次落入了军备竞赛的情境。因此有观点认为,解决方案是开发和使用与人工智能安全目标一致的全球形式的权力(包括军事力量)。
在美国《时代》杂志上的一篇文章中,机器智能研究所创始人尤德科夫斯基(Eliezer Yudkowsky)写道:“如果情报显示一个未参加[人工智能安全]协议的国家正在建设图形处理器(GPU)集群(译者注:GPU作为一种高性能计算硬件,在人工智能应用中具有显著的优势),那么不要对国家之间的冲突感到害怕,而要担心各国违反停火协议;要允许我们通过空袭摧毁一个流氓数据中心。”
尽管尤德科夫斯基的立场处于的激进边缘,但更主流的人物提出了可能更极端的解决方案。在关于长期技术风险的“脆弱世界假设”的一篇文章中,畅销书《超级智能》(Superintelligence : Paths, Dangers, Strategies)作者、牛津大学未来人类研究所创始主任博斯特罗姆(Nick Bostrom)提出了“无处不在的监视或单极世界秩序”的发展趋势:允许未经许可的技术发展(包括通用人工智能、生物技术和纳米材料)可能对人类生存造成灾难性后果的发展,而不是通向物种长寿。但是,要实现这样的制度首先要建立前所未有的全球治理。
在关于人工智能长期取代人类的前景的最近一篇论文中,人工智能安全中心主任亨德里克斯(Dan Hendryks)得出了类似的结论。如果人工智能的优越性是命中注定的,那么人类生存的一条道路可能是积极建立一个“人工智能利维坦”,其中对人类友好的人工智能可以驯服或消灭所有其他潜在不友好的模型。
人文学者都应该对这些论点感到非常担忧——围绕技术发展来建立全球极权政治秩序,这似乎是可怕的未来。即便是在这个方向上的一些边缘尝试,也可能导致人类自由的急剧下降。如果尝试遏制人工智能的风险,如果构想不好,甚至可能会加剧其他灾难性风险。任何试图赋予一个有力的“拦阻者”(katechon)的尝试都有可能辩证地导致相反结果,变成一个“不情愿的加速者”。(注:在《圣经》帖撒罗尼迦后书2:6-8中,保罗谈及末日时提及了“拦阻者”Katechon的概念。按照保罗的字面含义,拦阻者阻挡在了上帝和不法者之间,似乎拦阻者只要不被移除,末日就不会降临,上帝就不会消灭这不法者。拦阻者也成为西方传统中一个重要的形象,许多西方思想家如施密特和施特劳斯以各自的方式应对他们的挑战,拦阻他们心中必须被拦阻的邪恶势力。施密特似乎认为,至关重要的是对政治本身的保护——对政治的保护,反对它被自动化技术本身的升级所威胁的中立化。)
在这种情况下,建立一个全球政府来停止无许可技术进步,反而会立即加剧气候变化和人口减少等迫在眉睫的文明风险。使用末日论调来构建全球政治制度将减缓全球经济增长,使未来看起来更加可怕,并且进一步抑制生育率。一个老龄化的社会往往创新更少,需要更多的年轻人照顾老年人,并且没有资源、能源和技术来减少碳排放并改善碳捕捉,从而加剧气候变化。世界末日的人工智能奇点仍属于科幻领域,但在当下,人类显然有能力创建一个全球的极权政治框架,扼杀未来并引发文明自杀。
三、人工智能安全的常识方法
因此,如果人工智能存在着真正的、严重的、难以把握的风险,但许多用来遏制这些风险的提案可能同样具有潜在的破坏性,那么我们能否找到一条前进的道路,既承认了风险,又促进了人工智能系统的改进呢?
接下来,我们将提出一种实现人工智能安全的“常识”方法,重点是迅速利用人工智能带来的生产力提升,同时减轻了日益复杂模型带来的某些危险。
人工智能的迅速发展可以沿两个轴线来看待:纵轴与横轴。纵轴指的是开发更大更强的模型,这带来了许多未知和潜在的生存风险。相比之下,横轴强调将当前模型集成到经济的各个角落,相对风险较低,回报较高。
对人工智能的任何监管都必须仔细区分这两个发展维度。虽然基于当前基于人工智能的各类应用也不是没有风险的,但与构建超级人工智能所带来的风险相比,两者在性质上有着质的不同。从算法偏见到深度伪造,这些较小的人工智能风险都可以通过加速研究来解决,而不是通过减慢研究进程。
恶意行为人将需要利用开源人工智能模型,因为这些活动显然违反了像OpenAI这样的头部企业的服务条款。幸运的是,开源模型在技术上往往落后于OpenAI等封闭技术。因此,善意行为人在对抗由人工智能生成的垃圾邮件的竞赛中具有优势。监管不应该限制善意行为人的努力,尤其是当恶意行为人并不会遵守监管规则时。
然而,监管是必要的,以防止强大的模型变成开源。以Meta公司的强大LLaMA模型为例,这是一个类似于ChatGPT的文本生成人工智能。Meta打算以受控的方式向研究人员提供LLaMA的访问权限,但该模型在宣布后仅一个星期就被泄露到了互联网上。在缺乏与此类安全漏洞相关的法规或罚款的情况下,Meta的公开回应相当于一个大大的“糟糕”。
第二类可管理风险源于生成式人工智能创造的大量输出。从“智能律师”到用简单的文本描述生成原创艺术,不管我们喜欢与否,大门已经敞开。幸运的是,在互联网时代,我们已经逐步养成了应对“信息海啸”的经验。以数字千年版权法(DMCA)下的受版权保护作品问题为例,尽管其远非完美,但它为解决在线版权争议提供了一个非法律程序的框架,因此有助于防止法律体系不被破坏。除了狭义的版权问题之外,我们需要对传统机构进行改革,以应对更高信息吞吐量的需求。
人工智能在纵轴上的研究是事情变得更复杂的地方。使用更多数据训练的更大、更强功能的模型,但这种训练的方向不可预测。只有少数几家大型公司有资源来推动人工智能前沿,而它们的行为力度取决于竞争压力。政府可以通过将最大的参与者聚集在一起,合作制定共享的安全协议,来阻止这些军备竞赛。这可以包括要求公开宣布和批准大规模训练运行的规定,以及通过国家标准和技术研究所创建安全测试的行业标准。像微软投资的OpenAI和谷歌投资的Anthropic这样的主要参与者,已经进行了深入的安全和“对齐(Alignment)”的研究。但重要的是,他们对人工智能对齐的见解不应成为商业机密。
对齐研究中最有前途的领域之一是“机械可解释性”(mechanistic interpretability)。机械可解释性可以被视为人工智能大脑的神经科学。通过严格研究人工神经网络中特定神经回路,研究人员可以了解“黑盒子”模型如何做到这一点。不幸的是,解释性研究仍然是一个相对新兴的领域,对于像GPT-4这样的大型模型的理解远远滞后。(译者注:机制可解释性对人工智能对齐具有重要意义。首先,可解释性方法可用于审计大模型,特别是在部署大模型之前。可以检查LLM的对齐功效,识别不对齐和错误的输出,并阐明它为什么会产生这样的输出。其次,可解释性评估指标可以作为优化人工智能对齐的奖励函数,以激励人工智能系统保持目标透明度,例如避免欺骗对齐。第三,除了检查/架构的透明度之外,还可以加强训练过程的透明度,能够了解和监控人工智能系统训练过程中发生的事情和变化,例如涌现行为/能力。)
机器学习模型的可解释性(图源:网络)
最重要的解释性研究需要再次投入大量资金,进而培训和重新培训模型变种。这本身是一个潜在的市场失败,因为对于人工智能公司而言,投入资金用于没有下游商业目的的模型的动机非常有限。不过,政府可以通过创建自己的超级计算集群来解决这些访问和成本问题。一个大规模的机械性可解释性研究测试平台将有助于推动该领域的发展,并使研究人员更容易访问大型模型的内部。此外,政府可以要求大型人工智能公司发布解释性和安全标准,以改善人工智能安全方面的知识共享。
此外,公共采购先进芯片将有助于国会实现建设美国国内半导体能力的目标,而先进芯片的公共所有权可能更为重要——这是作为对人工智能发展导致企业权力失控的一种保险。事实上,如果没有一个安全的平台来训练符合政府需求的模型,我们可能有一天会发现,国家的繁荣和安全将落入几个私人行为者的支配中。
四、结语
通过潜在的人工智能安全政策的几个示例,我们希望公众不要过度关注极端的尾部风险。相反,我们应该制定措施,进而改善我们可能部署的系统的安全性和可靠性,并且以尊重西方科技治理传统的方式来实施。
发展人工智能安全的关键在于,我们应吸纳各类型的知识和专家参与讨论。正如经济学家考恩(Tyler Cowen)所指出的,关于“人工智能暂停公开信”的一个令人震惊的事实是,除了计算机科技领域的领袖之外,其他领域的领导人几乎完全没有参与其中,着与核时代的类似公开信显然不同。多年来,人工智能的安全研究一直属于被理论计算机科学主导的隐匿领域,偶尔有一些分析哲学和物理学的参与。
如今,强大的人工智能已经出现,但相应的安全讨论却受到了学科的限制,尽管许多当前问题必然涉及其他类型的专业知识。安全研究的不足是经典的公共产品(public good)问题,因此经济学家可能会有一些看法。此外,对导致通用人工智能的军备竞赛的预测和分析,可能从国际关系学者那里获得启发。OpenAI的关于安全风险的白皮书有数十名技术研究人员,但其中的社会科学家和人文学者用一只手就数过来。为了制定既可获得又可实现的人工智能安全措施,我们需要整合来自人类所有知识领域的见解,而不是依赖在互联网留言板上无来由的科幻寓言。
- 原标题:OpenAI激烈内斗,曝光遏制派和加速派都无力应对的困局? 本文仅代表作者个人观点。
- 责任编辑: 周子怡 
-
0.1微米!超精密加工利器来了
2023-11-30 08:15 中国精造 -
打造世界一流科技期刊,中国底气在哪里?
2023-11-29 14:00 -
中国载人航天工程办公室:盼港澳航天员进驻祖国空间站
2023-11-29 10:19 航空航天 -
中国空间站第一组全构型工作照发布
2023-11-28 16:58 航空航天 -
中国首颗高精度地磁场探测卫星投入使用
2023-11-28 15:02 航空航天 -
朝中社:朝鲜加快“万里镜-1”号侦察卫星微调进程
2023-11-27 18:54 朝鲜现状 -
如果未来20年“机器人女友”成为现实,人类能收获AI爱情吗?
2023-11-27 17:41 -
高林:发展人工智能应坚持“智能向善”
2023-11-27 15:03 人工智能 -
刘伯超:真诚希望中美双方深化人工智能技术交流与合作
2023-11-27 15:03 人工智能 -
突破“卡脖子”难题,我国首次成功研发!
2023-11-27 14:59 中国精造 -
我国首张,初步建成!完整覆盖国土全境
2023-11-27 10:33 航空航天 -
95后天才少年曹原将赴伯克利任教,曾发现石墨烯超导角度轰动国际学界
2023-11-27 09:26 -
代表世界最高水平!这一核心装备研制成功
2023-11-26 18:36 -
中外合作获得高精度月表化学成分分布图
2023-11-25 19:17 -
金正恩观看侦察卫星拍摄的首尔等重要目标地区图片
2023-11-25 07:21 朝鲜现状 -
“墨子”发现潜在威胁小行星!
2023-11-24 13:14 航空航天 -
全球首个商用海底数据中心今日下水,为什么要沉入海底?
2023-11-24 10:48 科技前沿 -
首只全流程国产克隆猫降生!克隆技术全流程国产化意味着什么?
2023-11-24 06:54 -
颜宁回应当选中科院院士
2023-11-23 15:25 -
名单公布!46人当选2023年两院外籍院士
2023-11-23 13:41
相关推荐 -
以军持续轰炸,“为攻打拉法”要求更多平民撤离 评论 43新战线还是佯攻?俄军南北两线同时行动 评论 252来华试乘后,“凭啥中国人要永远买西方车?” 评论 221“照你说的,我们是输给中国了吧?”,她被问住了 评论 394联大通过涉巴勒斯坦“入联”决议 评论 443最新闻 Hot
-
她被问住:照你说的,我们是输给中国了吧
-
“西班牙、爱尔兰等国本月承认巴勒斯坦,后续还有更多”
-
联大通过涉巴勒斯坦“入联”决议
-
“电动汽车关税将升至100%,还要对医疗器械下手”
-
美国认了,又没认…
-
“美国想玩权游,中国会反击”
-
最后一天,印度从马尔代夫全部撤军
-
美欲对中国联网车下手,韩国又紧张了
-
为对付中国,他称美国得向印度取经
-
他向美媒“告洋状”,想蹭乌克兰却忘了……
-
乌克兰称俄军可能在北部开辟新战线
-
拜登都承认了,“布林肯报告仍将嘴硬”
-
“韩国得自卫,不然美军赢不了中国”
-
“对于联大第2758号决议,美国只有严格遵守的义务”
-
上万人抗议以色列,她也现身了
-
美议员举例广岛长崎支持向以供武,日外相:不可接受
-