财联社8月12日讯(编辑 牛占林)根据日经新闻周五的报道,日本政府计划在今年晚些时候推出人工智能(AI)指导方针,以消除与这项技术相关的偏见和滥用行为。

鉴于生成式人工智能的发展速度,日本方面对实施严格的控制策略犹豫不决。

据悉,这计划中的指导方针没有法律约束力,对违规行为也不会进行处罚。

与此相反,欧盟计划为该技术制定详细规则,明确开发人员和用户的法律责任。

在美国,包括谷歌和OpenAI在内的七家顶级人工智能公司承诺负责任地开发人工智能技术,而白宫正在积极制定管理人工智能使用的行政命令。

日本政府拟定AI指导方针:仅供参考,不具约束力

然而,日本政府只打算提供指导方针供企业在开发和使用人工智能时参考。

为了鼓励企业采用这些指导方针,日本政府将建立一种认证机制,证明这些企业正在遵循规范行为。

政策制定者还设想要求企业在竞标政府合同时遵守这些指导方针。

总之,在对待人工智能的态度上,日本和欧美存在较为明显的差异。

据分析称,日本对人工智能的积极拥抱与少子老龄化问题息息相关,日本政府期待通过人工智能技术解决劳动力短缺、医疗保健等挑战。

此前,日本政府重申不会对人工智能训练中使用的数据实施版权保护,显示了日本的明确立场。

该政策允许人工智能使用任何数据,无论是非营利或商业目的,复制以外的行为,或从非法网站或其他途径获取的内容。

接下来,日本经济产业省等部门将与约100名专家合作,制定具体的指导方针以供各部门和企业参考。

据悉,指导方针草案分为两部分,第一部分是适用于所有企业的人工智能规则。

该部分包括指导操作人员意识到生成式人工智能程序可能出错或存在偏见风险的基本原则。

企业将开发遵守法律、并考虑到人权的服务,并敦促管理人员建立内部风险管理结构。

草案的第二部分概述了针对五类企业的具体规则。

这五类企业分别是为生成式人工智能开发基础模型的企业、使用数据训练人工智能的企业、系统开发商、服务提供商和使用人工智能服务的企业。

负责人工智能开发和机器学习运营的公司应保持透明度,披露其人工智能项目的功能、目的和风险。

此外,企业还应该披露用于训练生成式人工智能程序的数据类型。

生成式人工智能模型的训练需要大量数据和计算资源,因此避免包括有危害或偏见内容的初始数据十分重要。

了解初始数据的性质也有助于人工智能服务提供商更好地决定是否采用某个程序。

这些披露还将有助于调查与人工智能程序相关的任何问题。

日本政府将探索使用外部审计,以确保企业保持透明度。