打开算法黑箱,腾讯发布国内首份可解释AI报告

2022/1/21 17:06:23 5593 
 

,立法和监管宜遵循基于风险的分J分类分场景治理思路,在鼓励科技创新、追求科技向善、维护社会公共利益之间找到平衡点。

第二,探索建立适应不同行业与场景的可解释性标准。

第三,探索可解释的替代性机制,多举措共同实现可信、负责任AI。

第四,增强算法伦理素养,探索人机协同的智能范式。开发者和使用者是AI生态的核心参与者,需要提升他们的算法伦理素养。

第五,引导、支持行业加强可解释AI研究与落地。

由于AI技术的快速发展迭代,可解释AI的工作应主要由企业与行业主导,采取自愿性机制而非强制性认证。因为市场力量(market force)会激励可解释性与可复制性,会驱动可解释AI的发展进步。企业为维持自身的市场竞争力,会主动提G其AI相关产品服务的可解释程度。



附件:腾讯研究院丨2022可解释AI发展报告:详解打开算法黑箱的理念与实践



 
上一篇   下一篇
 
返回顶部
  技术支持
  关于创泽
  隐私条款
咨询热线
 
销售咨询
4006-935-088 / 4006-937-088
 
客服热线
4008-128-728

版权所有 @ 创泽智能机器人集团股份有限公司
运营中心 / 北京市·清华科技园九号楼5层
生产中心 / 山东省日照市开发区太原路71