![]() |
![]() |
打开算法黑箱,腾讯发布国内首份可解释AI报告 |
||
2022/1/21 17:06:23 | ![]() |
|
,立法和监管宜遵循基于风险的分J分类分场景治理思路,在鼓励科技创新、追求科技向善、维护社会公共利益之间找到平衡点。 第二,探索建立适应不同行业与场景的可解释性标准。 第三,探索可解释的替代性机制,多举措共同实现可信、负责任AI。 第四,增强算法伦理素养,探索人机协同的智能范式。开发者和使用者是AI生态的核心参与者,需要提升他们的算法伦理素养。 第五,引导、支持行业加强可解释AI研究与落地。 由于AI技术的快速发展迭代,可解释AI的工作应主要由企业与行业主导,采取自愿性机制而非强制性认证。因为市场力量(market force)会激励可解释性与可复制性,会驱动可解释AI的发展进步。企业为维持自身的市场竞争力,会主动提G其AI相关产品服务的可解释程度。
![]()
|
||
上一篇 下一篇 |
返回顶部 ∧ |
技术支持 |
关于创泽 |
隐私条款 |
|
版权所有 @ 创泽智能机器人集团股份有限公司 运营中心 / 北京市·清华科技园九号楼5层 生产中心 / 山东省日照市开发区太原路71 |