人工智能领域最具影响力的四家公司将联手成立行业机构,负责监督该领域最先进模型的安全开发。
据英国《卫报》7月26日报道,谷歌、微软、OpenAI及Anthropic将组建“前沿模型论坛”(The Frontier Model Forum),该行业组织将专注于“安全、负责任地”开发人工智能前沿模型。
报道称,“前沿模型”是指能力超过最先进的现有模型、能够执行各种任务的人工智能模型。所有开发前沿模型的组织均有资格成为“前沿模型论坛”成员。
微软总裁布拉德史密斯(Brad Smith)表示:“开发人工智能技术的公司有责任确保其安全性及可靠性,并使其始终处于人类控制之下。这一倡议希望将科技界团结起来,负责任地推进人工智能发展并应对挑战,从而造福全人类。”
“前沿模型论坛”成员表示,其主要目标是推进人工智能安全方面的相关研究,如制定评估人工智能模型的标准、与政治家和学者探讨人工智能的安全风险、帮助探索人工智能在气候问题及癌症检测等多领域的积极作用等。
在AI四巨头成立行业机构的同时,推进人工智能技术监管工作的步伐也在加快。7月21日,“前沿模型论坛”成员及其他多家科技公司在白宫与美国总统拜登会面后,同意采取新的人工智能保障措施。据悉,科技公司将允许独立专家测试人工智能模型,同时还将为人工智能内容添加水印,帮助人们更好地辨别通过深度伪造等技术形成的误导性内容。
《卫报》报道称,白宫及科技公司的上述承诺遭到了一些活动人士的质疑。他们认为,科技行业“有不遵守此类承诺的历史”。
英国萨里大学人工智能研究所博士安德鲁·罗戈斯基(Andrew Rogoyski)警告称,对人工智能的监管不应完全由科技公司主导。
“我非常担心政府已经将人工智能领域的主导权拱手让给了私营部门,这很可能造成无法挽回的后果。人工智能是一项潜力巨大的技术,该技术的监管者应当能够代表未来将受到该技术影响的人、经济与社会,给出独立的判断与见解。”