关注AI伦理,软件绿色联盟发布《可信人工智能产业标准研究报告》

发布时间:2019-09-18 00:39:00

随着人工智能技术的发展,人工智能技术被广泛运用在医疗、交通、金融、电子商务等各个领域。在带来巨大变革的同时,人工智能也引起了社会各界对人工智能在伦理和安全方面的担忧,构建人工智能伦理相关规范的紧迫性日益彰显。

2018年11月16日,软件绿色联盟AI伦理创新工作组正式成立,旨在联合国内优秀企业共同制定AI伦理规范指南,引导行业内AI伦理的健康发展。

通过参考中、欧、美等国家及一些主要国际组织中的可信AI产业政策、立法动态和标准体系,软件绿色联盟AI伦理创新工作组正式对外发布《可信人工智能产业标准研究报告》。

报告包括人工智能整体概况、隐私与数据管理、安全性与可靠性、公平性与透明性、以及其他因素等五个主要部分,对国内外主要的可信AI产业标准进行了研究分析。

报告指出,当前世界各国和相关国际组织已开始致力于推动人工智能伦理与社会问题的研究,积极建立规范与指南,其中海外包括标准组织ISO/IEC JTC1 SC42,研究机构IEEE,国家机构欧盟网络信息安全局,欧盟HLEG等,国内包括国家人工智能标准化总体组-人工智能与社会伦理道德标准化研究专题组、中国人工智能产业发展联盟(AIIA)和中国信息通信研究院等。对于可信AI的研究,主要包含安全性、可靠性、公平性、透明性以及人类福祉,对环境的影响等。

从技术和产业影响来说,目前对于安全性、可靠性等方面的研究更加深入,有一些配套的技术标准或方案可以供产业进行落地实施;在公平性、透明性、对人类与环境的影响等方面,目前整体还处于相对偏原则和理论探索的阶段。

此外,在各类产业标准的讨论中,较多认为应该针对人工智能基础应用的场景,因地制宜的确定具体的可信标准要求,并充分考虑产业链和消费者双方的实际意见。

相比于海外,目前国内对于可信AI的标准研究正处于起步阶段,软件绿色联盟期望通过本报告的研究分析,帮助更多业界伙伴了解和参与国内可信人工智能的产业标准讨论,共同促进人工智能技术与产业的健康发展。

各位开发者可以通过

未来AI伦理创新工作组的专家将致力于AI伦理研究,并推进制定AI伦理规范指南,引导行业内AI伦理的健康发展。

分享:
请先后留下您的评论
热门评论
没有更多评论了
合作咨询
申请加入会员
请选择您企业的所属类别