![]() |
![]() |
人本智能的产业实践:经历了三个阶段,原则爆发,共识寻求,伦理实践 |
||
2024/12/7 15:58:00 | ![]() |
|
人本智能的深化发展将建立在创新变革、安全规范等多重维度的平衡之上。这需要通过有效的治理策略来实现平衡, 规避 AI 繁荣背后潜藏的风险。由此引出的 AI 治理和实践,不仅是技术层面的问题,更是社会问题,需要全社会共同 面对。作为目前 AI L域主力军的头部科技企业亦纷纷拥抱 AI 伦理和治理,并努力将“人的因素”纳入产业布局和实 践当中。 根据腾讯研究院GJ研究员曹建峰的总结 ,2016 年至今,从原则到实践,AI 科技伦理成为“必选项”经历了如下三 个阶段。 原则爆发阶段:各大行业和一些知名企业及研究机构提出了自己的 AI 伦理原则。2016 年,谷歌、微软、亚马 逊、Facebook、IBM 等五大科技公司联合成立了“人工智能伙伴关系”(Partnership on AI),旨在促进 AI 技术的公 益、安全、可信、透明和可理解性,以及保护人类的社会和文化价值。2017 年,欧盟委员会发布了《欧洲人工智能战 略》,提出了“人本”的 AI 愿景,强调 AI 技术应该尊重人类的尊严、自由、民主、平等、法治和人权,并提出了一系列 的行动计划和措施。 共识寻求阶段:加强 AI 国际治理,OECD 等机构主张推动建立国际公认的伦理框架准则。2019 年,联合国教科文 组织发布了《人工智能伦理问题报告》,提出了“人类中心”的 AI 原则,强调 AI 技术应该以人类的尊严和权利为核心, 以人类的多样性和包容性为基础,并提出了一系列的伦理指导和建议。 伦理实践阶段:很多企业都在探讨如何将 AI 原则贯彻到日常技术实践中。例如,Google Cloud 采取措施打造负责 任的 AI;微软设立负责任 AI 办公室,多面推进负责任 AI 的落地实施。 已有的行业实践包括设立伦理委员会,组织培训和审查,以确保在设计活动中考虑伦理要求;构建“AI 模型说明书”, 推动 AI 算法的透明性和可解释性。例如,谷歌推出的“模型卡”工具集(Model Card Toolkit),以及 IBM 的 AI 事 实清单等。行业实践还包括以伦理工具方式呈现的“伦理即服务”,针对可解释、公平、安全、隐私等方面的伦理问 题,研发并开源技术工具。例如,IBM 根据其 AI 伦理的五大支柱——可解释性、公平性、鲁棒性(稳健性)、透明性、 隐私性,提出了 5 种针对性的技术解决方案
|
||
上一篇 下一篇 |
返回顶部 ∧ |
技术支持 |
关于创泽 |
隐私条款 |
|
版权所有 @ 创泽智能机器人集团股份有限公司 运营中心 / 北京市·清华科技园九号楼5层 生产中心 / 山东省日照市开发区太原路71 |