财联社8月12日讯(编辑 牛占林)日经新闻周五报道称,日本政府计划在今年晚些时候推出人工智能(AI)指导方针,以消除与该技术相关的偏见和滥用行为。

鉴于生成式人工智能的迅猛发展,日本政府对实施严格的控制策略存在犹豫不决的情况。

据了解,这一指导方针的计划不具备法律约束力,也不会对违规行为进行处罚。

相比之下,欧盟计划为该技术制定详细规则,严格界定开发者和用户之间的法律责任。

在美国,包括谷歌和OpenAI在内的七家顶级人工智能公司承诺负责任地开发人工智能技术,而白宫正在积极制定一项行政命令来管理人工智能的使用。

而日本政府打算提供指导方针,供企业在开发和使用人工智能时参考。

为了鼓励企业采用这些指导方针,日本政府将建立一种认证制度,以证明企业正在遵循规范行为。

政策制定者还计划要求企业在竞标政府合同时遵守这些指导方针。

总之,日本与欧美在对待人工智能的态度上存在明显的差异。

据分析称,日本积极拥抱人工智能与其面临的少子老龄化问题有紧密关系,日本政府期望通过人工智能技术解决劳动力不足和医疗保健挑战等问题。

此前,日本政府明确表示不会对人工智能训练中使用的数据进行版权保护,显示了日本在这一问题上的明确立场。

该政策允许人工智能使用任何数据,无论是出于非营利还是商业目的,无论是通过复制还是从非法网站或其他方式获取内容。

据悉,接下来,日本经济产业省等部门将与约100名专家合作,制定具体的指导方针,供各部门和企业参考。

这些指导方针的草案分为两部分,第一部分包括适用于所有企业的人工智能规则。

这一章节包括指导操作人员意识到生成式人工智能程序的错误信息或偏见风险的基本原则。

企业将开发遵守法律并考虑人权的服务,并敦促管理人员建立内部风险管理结构。

草案的第二部分概述了针对五类企业的具体规则。

这五类企业分别是:为生成式人工智能开发基础模型的企业、使用数据训练人工智能的企业、系统开发商、服务提供商和使用人工智能服务的企业。

负责人工智能开发和机器学习的运营商应该保持一定程度的透明度,披露其人工智能项目涉及的功能、目的和风险。

此外,企业还应该披露用于训练生成式人工智能程序的数据类型。

训练生成式人工智能模型所需的数据和计算资源非常庞大,因此确保初始数据不包含有害或有偏见内容至关重要。

了解初始数据的性质也有助于人工智能服务提供商更好地决定是否采用某个程序。

这些披露还将有助于调查与人工智能程序有关的任何问题。

日本政府制定AI指导方针,仅供参考,无法强制执行

日本政府将探索使用外部审计,以确保企业保持透明度。