澳大利亚将考虑对人工智能的发展引入强制性“护栏”,试图在这项新技术带来的生产力效益与传播虚假信息等潜在风险之间做些平衡。
当地时间周三,澳大利亚工业和科学部部长艾德·胡锡克(Ed Husic)宣布,计划成立一个专家小组,以权衡限制人工智能的使用和研究的选择。
该部门正在考虑的其他限制规定包括:设立低风险应用程序的自愿安全标准,要求人工智能创建内容加上水印等。
胡锡克在新闻发布会上谈到人工智能技术时表示:“我们确实需要有那些强制性的护栏,告诉你这些是你不能越过的红线。”
他还提到,政府“清楚地听到,澳大利亚人希望有更强的护栏来管理高风险的人工智能。”
澳大利亚政府于2023年6月开始对人工智能的“安全和负责任”使用进行审查,并在收到500多份相关方的意见书后决定延长回应期。
澳政府表示,在政府咨询期间标记的AI风险中,存在诸如不准确、带有偏见和缺乏透明度等问题。从审查中可以清楚地看出,对人工智能发展自愿做出限制是不够的。胡锡克表示,将“立即”开始制定人工智能法规。
在全球范围内,AI技术既被视为提高生产力的驱动因素,也被各国政府视为潜在风险因素,包括可能助长虚假信息的传播。
在澳大利亚,预计到2030年,采用人工智能和自动化每年将为经济产出增加多达6000亿澳元(约合3970亿美元)。
澳大利亚政府表示,他们的目标是限制人工智能高风险应用的危险,同时允许低风险的人工智能应用“蓬勃发展”。
虽然政府没有详细说明高风险可能包括什么,但胡锡克在接受采访时将其定义为“任何影响人们生命安全,或某些人未来工作或法律前景的因素”。
在国际人工智能安全峰会之后,澳大利亚是去年11月在英国签署布莱切利宣言的27个国家之一,该宣言致力于在人工智能测试方面进行全球合作。
这是世界各国和地区(特别是欧盟、美国、中国和英国等)为迅速制定人工智能法规而采取的日益增长的行动的一部分。但这些措施只是开始,从今年开始,人工智能技术将在各国面临更多的监管考验。