知名AI专家约舒亚·本乔:人工智能可能“与人类反目”
参考消息网12月11日报道 据美国消费者新闻与商业频道网站11月21日报道,著名计算机科学家约舒亚·本乔——人工智能先驱——发出警告,提醒谨防这项新兴技术对社会的潜在负面影响,并呼吁深入研究,降低风险。
本乔是蒙特利尔大学教授、蒙特利尔学习算法研究所所长,因在深度学习领域的研究多次获奖。深度学习是人工智能的一个子集,它试图模仿人类大脑活动,学习如何识别数据的复杂模式。
可能造成动荡
但是,本乔为这项技术感到担忧,并提醒谨防一些拥有“强大权力的”人甚至可能希望看到人类被机器替代。
在蒙特利尔举行的世界青年领袖峰会上,本乔告诉消费者新闻与商业频道记者塔妮娅·布莱尔:“展望我们未来面临很多方面与自己一样聪明的机器的情景及其那对社会意味着什么,这确实很重要。”
他说,机器可能很快具备人类的大部分认知能力;通用人工智能(AGI)是一项旨在达到或超越人类智力的人工智能技术。
他说:“智慧赋予力量。那么,谁将控制那种力量?让知识量超过大部分人类的系统落入坏人之手,可能带来危险,并在地缘政治或恐怖主义层面造成更大动荡。”
本乔认为,能够负担得起制造强大的人工智能机器的组织或政府数量是有限的,而且人工智能系统规模越大,其智能程度越高。
他说:“你知道,建造和训练这些机器需要巨额成本,只有极少数组织机构和国家有能力完成。现在已然如此。”
“会出现力量集中:可能对市场不利的经济实力集中,以及对我们这个星球的地缘政治稳定不利的军事实力集中。因此,我们需要尽快仔细研究并开始缓解大量有待解决的问题。”
他说,几十年内就可能出现这种结果。
他还说:“但是,如果是五年,那么我们还没准备好……因为我们没办法保证这些系统不伤人或是与人类反目……我们不知道如何保证。”
本乔说,有观点认为目前正在训练的人工智能机器“将产生与人类反目的系统”。
制定防护措施
他说:“此外,有人可能想滥用那种力量,也有人可能乐于看到人类被机器替代。我的意思是,这是少数人,但是这些人可能把持很大权力,而且如果我们不立即制定适当的防护措施,他们就能做到(滥用)。”
本乔为6月份的一封题为《关于对尖端人工智能提出警告的权利》的公开信签名背书。这封信得到了开放人工智能研究中心(OpenAI)现任和前任雇员的签名支持。
公开信就人工智能进步带来的“重大风险”提出警告,呼吁科学家、决策者和公众制定指导意见以降低风险。过去几个月,OpenAI一直受日益严重的安全担忧的困扰,今年10月解散了“通用人工智能准备就绪”团队。
本乔告诉消费者新闻与商业频道记者:“政府要做的第一件事就是制定规章,强制(公司)在建造此类最大的、需要数以亿计美元进行训练的前沿系统时必须注册登记。政府应当知道它们在哪儿,知道这些系统的详情。”
本乔说,随着人工智能如此迅速地发展,政府必须“要有一点创造性”,制定能够适应技术变化的立法。
这位计算机科学家认为,研发人工智能的公司还必须对其行为担责。
他说:“担责也是强制(公司)规范行为的另一个工具,因为……如果涉及公司的钱财,担心受到起诉——那会促使它们朝着保护公众的方向行事。如果它们知道自己不会被起诉,因为眼下那就是某种灰色地带,那么它们就不一定会表现良好。(公司之间)互相竞争,而且它们认为率先实现通用人工智能的公司将占据主导。因此,这是一场竞赛,而且是一场危险竞赛。”
本乔说,保证人工智能安全的立法程序将类似于其他技术制定规则的流程,比如飞机或汽车。他说:“为了享受人工智能的有益之处,我们必须制定规则。我们必须设置防护栏。我们必须就如何发展这项技术实行民主监督。”
降低潜在风险
随着人工智能的发展,虚假信息,尤其是关于选举的虚假信息成为日益严重的关切。今年10月,OpenAI说,它干扰了“世界各地20多次试图利用我们的模型开展的活动和欺诈性网络”,包括美国和卢旺达选举前出现的虚假账号在社交媒体上发的帖子。
本乔说:“一个短期而言最严重、但是会随着我们朝着功能更强大的系统发展而日益严重的担心就是虚假信息、错误信息、人工智能影响政治与舆论的能力。随着我们向前发展,我们会拥有能够产生更逼真的图像、听起来更逼真的声音模仿、更逼真的视频的机器。”
本乔说,这种影响或许会延伸到与聊天机器人的互动。他指的是意大利和瑞士研究人员发表的一项研究报告。该报告显示,OpenAI的大语言模型GPT-4可能会比真人更能说服人们改变主意。
本乔说,“最困难的问题”是,“如果我们创造了比我们还要聪明并拥有自身目标的实体,那对人类意味着什么?我们身处危险之中吗?”
本乔说:“这些都是非常棘手且重要的问题,而我们没有答案。我们需要加强研究与预警,降低潜在的风险。”
他说:“现在就引导社会和人类朝着积极有益的方向发展还不算太晚。”本乔说:“但是,为此,我们需要有足够多的人理解其优势与风险,我们需要足够多的人探索解决方案,它可以是技术上的,可以是政治……政策,但是我们必须立即朝那些方向付出足够的努力。”
(审核:欧云海)