财联社8月12日讯(编辑 牛占林)据日经新闻周五报道,日本政府计划于今年晚些时候推出人工智能(AI)指导方针,旨在消除与该技术相关的偏见和滥用行为。

考虑到生成式人工智能的快速发展速度,日本政府对于实施严格的控制策略还存在犹豫。

据悉,这份指导方针并没有法律约束力,也不会对违规行为进行处罚。

相比之下,欧盟计划制定详细规则,严格界定从开发者到用户的法律责任。

在美国,包括谷歌和OpenAI在内的七家顶级人工智能公司已承诺负责任地开发人工智能技术,而白宫也正在积极制定一项“管理人工智能使用”的行政命令。

相比之下,日本政府仅打算提供指导方针,供企业在开发和使用人工智能时参考。

为了鼓励企业采用这些指导方针,日本政府将建立一种认证机制,证明这些企业正在遵循规范行为。

政策制定者还设想要求企业在竞标政府合同时遵守这些指导方针。

总之,日本与欧美在对待人工智能的态度上存在较为明显的差异。

据分析称,日本积极拥抱人工智能与少子老龄化问题有着紧密的关系,日本政府期待通过人工智能技术解决劳动力不足和医疗保健挑战等问题。

此前,日本政府重申不会对人工智能训练中使用的数据进行版权保护,这一立场明确可见。

该政策允许人工智能使用任何数据,无论是出于非营利还是商业目的,无论是复制还是从非法网站或其他途径获得。

接下来,日本经济产业省等部门将与约100名专家合作,制定具体的指导方针,供各部门和企业参考。

据悉,指导方针草案分为两部分。第一部分包括适用于所有企业的人工智能规则。

该章节包括指导操作人员意识到生成式人工智能程序的错误信息或偏见风险的基本原则。

企业将开发符合法律并考虑人权的服务,并督促管理人员建立内部风险管理结构。

草案的第二部分概述了针对五类企业的具体规则。

日本政府发布AI指导方针:仅作“参考”,不具法律约束力

这五类企业分别是:生成式人工智能基础模型开发企业、使用数据训练人工智能的企业、系统开发商、服务提供商和使用人工智能服务的企业。

负责人工智能开发和机器学习的运营商应保持一定程度的透明度,披露其人工智能项目所涉及的功能、目的和风险。

此外,企业还应该披露用于训练生成式人工智能程序的数据类型。

生成式人工智能模型的训练需要大量的数据和计算资源,因此避免初始数据中包含有偏见或有害内容至关重要。

了解初始数据的性质也将帮助人工智能服务提供商更好地决定是否采用某个程序。

这些披露还将有助于调查与人工智能程序有关的任何问题。

日本政府将探索使用外部审计机制,以确保企业的透明度。