人民网

深度学习技术引发信任危机?构建可信AI正当时

来源:第一财经

  在自动驾驶场景中,通过修改锥桶的形状,就能让汽车感知模块失效,径直撞上去;通过在T恤上打印含特殊的花纹,就能让目标检测系统捕捉不到穿这件衣服的人,实现“隐身”。

  在自动驾驶场景中,通过修改锥桶的形状,就能让汽车感知模块失效,径直撞上去;通过在T恤上打印含特殊的花纹,就能让目标检测系统捕捉不到穿这件衣服的人,实现“隐身”;制作带有特制花纹的眼镜,就能刷开数十部商用手机的人脸解锁等。

  上述案例已经被研究团队用来证明人工智能面临“信任危机”,人们需要更加“可信”的人工智能

  在9月1日举办的2022年世界人工智能大会(WAIC)的一场可信AI论坛上,中国信通院联合京东探索研究院等近30家政产学研单位共同发布《可信人工智能产业生态发展报告》,对人工智能产业融合可信要素的发展态势进行总体分析,研判发展趋势并提出措施建议,为社会各界提供借鉴和参考,推动可信人工智能产业生态发展。

  自2021年以来,欧盟和美国先后发布了《人工智能法案》和《2022算法问责法案》。在中国,深圳、上海等地也相继推动人工智能立法条例。各国针对人工智能算法的监测、人工智能应用的审查的相关监管法规不断增加,人工智能治理已进入建章立制阶段。

  《可信人工智能产业生态发展报告》指出,技术研究上,提升人工智能系统稳定性、隐私保护技术占据可信人工智能技术研究主流,可解释性、公平性等技术研究紧随其后。

  学界普遍认为,从应用的角度来看,以数据驱动的深度学习技术潜力接近“天花板”的原因是,深度学习的本质是利用没有加工处理过的数据用概率学习的“黑箱”处理方法寻找规律。这一方法本质上不可解释,非常脆弱,带来了新的风险和问题。如“对抗样本攻击”, 通过在输入数据中添加扰动,即可使系统做出错误判断。

  当前以对抗训练、梯度屏蔽为代表的人工智能系统稳定性技术稳步发展;以同态加密、多方安全计算、差分隐私等为代表的隐私安全技术发展迅速;可解释性增强技术研究当前仍处于初期阶段,科技巨头推出多个AI可解释性工具及服务;提升人工智能公平性主流方法为通过构建完整异构数据集及引入公平决策量化指标算法,以减轻决策偏差。

  清华大学人工智能研究院名誉院长、瑞莱智慧首席科学家张钹院士提出“第三代人工智能”,要求综合运用知识、数据、算法、算力四个要素,在实现高水平安全的前提下,为人工智能高水平发展提供动力和支撑。

  蚂蚁集团大安全机器智能部总监、蚂蚁集团技术委员会可信AI联合工作组组长王维强表示,可信AI的主要属性有四个,分别是鲁棒性、可解释性、隐私保护和公平性。

  可信AI正在走向工业级应用时代,意味着真正的大规模应用,需要从数据可信,到模型可信,到平台可信,到运营可信的工业化生产环境全链路的可信,让可信成为AI技术发展中的一个内在属性,带领AI走向更健康、更加可持续的未来,这需要产业界、学术界一起合作。

  产业生态上,伦理、法律研究也在进一步深入。瑞莱智慧合伙人、高级副总裁朱萌对第一财经记者表示,应该加强安全领域的三方面能力建设。“首先是,发掘现有AI安全风险、预判AI潜在风险;二是针对风险建设治理体系,包括建立AI治理理论、构建治理运转机制、探索技术实践路径等;三是在治理体系框架下,重点探寻伦理法规的技术落地方案。”朱萌说道。

深度学习技术引发信任危机?构建可信AI正当时

免责声明:本文来自网络投稿,观点仅代表作者本人,不代表芒果财经赞同其观点或证实其描述,版权归原作者所有。转载请注明出处:https://www.mgcj.net/930544.html
温馨提示:投资有风险,入市须谨慎。本资讯不作为投资理财建议。