(资料图)
人工智能是否会失控?如何防止人工智能对人类造成伤害?日前,在第十届世界和平论坛大会上,中国科学院院士、清华大学人工智能研究院名誉院长张钹就“安全的人工智能”这一主题发表了演讲。他表示,由于现阶段算法存在不安全、不可靠等风险,因此即便人工智能只是发展到初级阶段,但仍存在不确定性和危险性。
张钹还表示,虽然现如今不必担忧有人利用智能机器人打造杀人武器,但人工智能被误用、滥用也会导致“仿声”“换脸”深度伪造的问题,这类技术往往以假乱真、难以分辨。而且由于技术难度小、惩治力度小,也大大降低了造假成本。
现阶段人工智能是否威胁人类安全?
人工智能是否会失控呢?包括霍金在内的很多学者秉持的基本观点是,如果人类一旦研制出有自我意识的超智能机器,那么人类将无法对它进行控制,这可能会对人类造成灾难性后果。但目前人类是否能制造出超级智能机器在学术界还存在争议,现阶段无法回答这一问题。因此,对于人工智能的安全问题,张钹认为不仅要有远虑,更要考虑近忧。
现阶段人工智能不会对人类造成威胁吗?张钹否认了这一点,他认为到现在为止,人工智能虽然只发展到初级阶段,但实际上也已出现一些安全问题,原因在于现阶段人工智能算法还存在不安全、不可信等风险。
张钹表示,现阶段给大家展示的人工智能的决策结果往往是经过精心挑选后的最好结果。但实际上大多数情况下,一些人工智能很难给出合意的结果。他举例说明了这一观点:“当我问人工智能,人有多少只眼睛时?它第一次回应称左眼100个,右眼99个;当我再次提问时,它又给出另一个回答称,人有2.8万个眼睛;如果再问它同一问题,它会说,经测算白日里有4亿颗眼睛,是夜里的20多倍。”
“试想一下,如果我用这个系统帮助我做决策,那它可能会经常做出错误的决策。”张钹说。
数据安全也是目前面临的重大安全问题。张钹指出,当前大数据对人工智能产生了较大的影响。第一,数据呈现几何级增长,而现在也倾向于搜集全部数据来代替数据采样;第二,重视数量,而不是重视质量;第三,强调数据的关联关系,而非因果关系。
张钹认为这三种转变给人工智能带来了较严重的安全问题。2016年微软曾推出一款聊天机器人,由于不重视数据质量,后来这一款聊天机器人发表了一系列种族歧视、性别歧视的言论。此外,目前有一种攻击人工智能系统的方法——“数据下毒”,通过为人工智能提供错误的训练数据影响人工智能。
深度伪造声音、面貌,造假代价低、真假难分辨
针对防止人工智能被误用、滥用的问题,大多数人可能想得比较长远,比如利用智能机器人打造杀人武器。但实际上,当下人工智能也可能被滥用;如果被滥用,后果也极为严重。
张钹介绍了深度伪造这一问题,他指出现阶段用人工智能算法来伪造视频、照片、语音已不存在技术难题。为了更生动地阐明这一点,他在会议上播放了某主播的原声与合成音。记者发现,这两个声音极为相似,几乎难以识别。
张钹表示,这两个讲话有一个是假的,一个真的,很难辨别。于是我们用机器判定,但两个机器的检验结果却都是错误的。第一个检验结果认为A是假的,B是真的,第二个检验结果是两个都是假的。但实际上A是真的,B是假的。
“试想一下,如果将来你没讲过的话,被别人造谣为你讲过的,而且后期技术也难分辨真假,那这对社会的危害是极大的,因此对于这一问题各方都应重视。”张钹说。
除了声音以外,“换脸”技术也足以以假乱真。张钹谈到通过换脸技术可以把视频中的“脸”置换,而且这一技术非常容易,但后期却很难判断真假。“原来视频上的人不是你,把你的脸放上去,你没做过的事情也归你了。”
张钹还表示,现在造假代价太低,很难找到始作俑者,而且惩治力度也较低。
如何防止人工智能出现失控的状态?
科幻作家阿西莫夫曾提出了机器人三原则。第一,机器人不能伤害人类,而且在人类受伤害时不能袖手旁观;第二,机器人必须服从人类的命令,除非这个命令违反了第一个原则;第三,机器人要保护自己不受伤害,但是不能违反前两个规则。
张钹表示,但由于现阶段机器人行为是不可预测的,因此我们不知道这一行为是否会伤害到人类,因此也很难去执行这一原则。对此,他重申要“发展第三代人工智能”。第三代人工智能的中心思想是以人类的安全为出发点,为人工智能提供了安全渗透、评估、加固、防火墙等方法,发展可信、可靠、可扩展的人工智能。
“我们现在提的方案很简单,就是把人类的智慧加进去。人类的智慧是什么?知识。现在数据驱动的方法只强调数据、算法、算力是不够的,还必须要把知识加进去。”张钹说。
张钹呼吁:“如今发展安全的人工智能已是当务之急。作为人工智能研究者,我们必须把精力集中在发展以人类安全为核心的安全的人工智能。我也希望全世界可以团结起来,通过国际合作来让技术服务人类需要,让人工智能健康发展,造福全人类。”