11月11日消息,在世界互联网大会分论坛“人工智能与数字伦理”上,人工智能与数字科技领域的知名专家学者以及企业负责人共同探讨了人工智能技术、应用和产业发展过程中的安全风险治理与数字伦理建设。
在数智化时代,人工智能与云计算、区块链等技术一样,是基础设施的重要组成。人工智能充当着“大脑”的角色,在目标性能的实现、设施运维的智能化和设施安全保障等方面发挥着重要作用。近年来,随着算法的快速发展,算力、数据等资源的日益丰富,人工智能产业呈现快速发展态势。
对于发展第三代人工智能的思路,清华大学人工智能研究院名誉院长、中国科学院院士张钹认为:“人工智能的研究和治理都需要全世界不同领域的人员参与和合作,除从事人工智能的研发和使用人员之外,还需要法律、道德、伦理等不同领域人员的参与,我们需要明晰伦理道德的标准,什么是符合道德和伦理的?不同国家、民族团体和个人,都有不尽相同的认识,因此需要全球范围的合作,共同制定出一套符合全人类利益的标准。”
之江实验室主任、中国人工智能产业联盟副理事长朱世强则认为,人工智能是人类智能在机器领域的延伸,真正的主动权仍然是掌握在人身上。“现在任何一项技术只要是人开发出来的,总有人能够控制它,所以技术并没有原罪,但是技术的应用是有正邪的。”
朱世强表示,在当前发展阶段,最重要的任务仍然是发展技术。据他介绍:“我们正构建之江实验室预防人工智能危害社会的技术图谱,试图用一种先进的技术来阻止人工智能的滥用和恶意的违法应用。”
站在企业的角度,蚂蚁集团首席技术官倪行军认为,科技伦理应该融入到公司业务和产品生命周期中,企业应秉承对用户、行业、社会负责任的态度,更好地服务于数字经济高质量发展和高水平安全。
据倪行军介绍,蚂蚁集团已经在无障碍和适老化改造、保证算法公平性、增强算法普惠等方面做了一些工作。
同时,瑞莱智慧CEO田天表示,放眼未来,人工智能若要实现高质量发展,需要突破伦理规则和技术安全两大关键问题。即进行伦理规则建设,加大技术路径优化。田天强调,人工智能企业应在产业高质量发展格局中,积极发挥探索者和践行者的作用。