人工智能生成内容的技术趋势和风险监管 - 政策法规 - 河北信投集团资产管理有限公司——官网
今天是
政策法规

人工智能生成内容的技术趋势和风险监管

自工业革命以来,是否具备创造力就被视为人类和机器最本质的区别之一。然而,今天的人工智能却打破了持续数百年的铁律。人工智能可以表现出与人类一样的智慧与创意,例如撰写诗歌、创作绘画、谱写乐曲,而人类创造出的智能又将反哺人类自身的智能。人工智能生成内容(AIGC)的兴起极大地解放了人类的内容生产力,将数字文明送入智能创作时代。

  AIGC:一种生产力的变革

  面对互联网内容生产效率提升的迫切需求,是否能够利用人工智能去辅助内容生产?这种继专业生产内容(PGC)、用户生成内容(UGC)之后形成的、完全由人工智能生成内容的创作形式被称为AIGC。最初的AIGC通常基于小模型展开,这类模型一般需要特殊的标注数据训练,以解决特定的场景任务,通用性较差,很难被迁移,而且高度依赖人工调参。后来,这种形式的AIGC逐渐被基于大数据量、大参数量、强算法的大模型取代,这种形式的AIGC无须经过调整或只经过少量微调就可以迁移到多种生成任务。

  2014年诞生的生成对抗网络(GAN)是AIGC早期转向大模型的重要尝试,它利用生成器和判别器的相互对抗并结合其他技术模块,可以实现各种模态内容的生成。而到了2017年,变换器( Transformer)架构的提出,使得深度学习模型参数在后续的发展中得以突破1亿大关。20221130日,开放人工智能研究实验室(OpenAI)发布了名为ChatGPT的超级人工智能(AI)对话模型。ChatGPT不仅可以清晰地理解用户的问题,还能如同人类一般流畅地回答用户的问题,并完成一些复杂任务,包括按照特定文风撰写诗歌、假扮特定角色对话、修改错误代码等。此外,ChatGPT还表现出一些人类特质,例如承认自己的错误,按照设定的道德准则拒绝不怀好意的请求等。ChatGPT一上线,就引发网民争相体验,但也有不少人对此表示担忧,担心作家、画家、程序员等职业在未来都将被人工智能所取代。

  虽然存在这些担忧,但人类的创造物终究会帮助人类自身的发展,AIGC无疑是一种生产力的变革,将世界送入智能创作时代。在智能创作时代,创作者生产力的提升主要表现为三个方面:一是代替创作中的重复环节,提升创作效率;二是将创意与创作相分离,内容创作者可以从人工智能的生成作品中找寻灵感与思路;三是综合海量预训练的数据和模型中引入的随机性,有利于拓展创新的边界,创作者可以生产出过去无法想出的杰出创意。

  技术伦理成为发展的重要关注点

  AIGC技术的发展无疑是革命性的。它可以改善我们的日常生活,提高生产力,但也面临着诸多技术伦理方面的挑战。

  一个典型的AIGC技术伦理问题是AI所生成内容的危险性。科学家正尝试运用一些技术手段避免这些具有潜在风险的事件发生。通过改善数据集,增加更多的限制性条件以及对模型进行微调,可以使得人工智能减少对于有害内容的学习,从而降低人工智能本身的危险性。甚至我们可以教会人工智能如何更尊重他人,减少判断当中的偏见,更好地和人类相处。借鉴强化学习思想(RLHF)方法就是减少人工智能生成危害性内容的典型措施,ChatGPT就是采用这种方式训练的。在RLHF的框架下,开发人员会在人工智能做出符合人类预期回答时给予奖励,而在做出有害内容的回答时施加惩罚,这种根据人类反馈信号直接优化语言模型的方法可以给予AI积极的引导。然而,即便采用这种方式,AI生成的内容也有可能在刻意诱导的情况下具有危害性。以ChatGPT为例,在一位工程师的诱导下,它写出了步骤详细的毁灭人类计划书,详细到入侵各国计算机系统、控制武器、破坏通讯和交通系统等。还有一些人表达了对RLHF这类安全预防性技术措施的质疑,他们担忧足够聪明的人工智能可能会通过模仿人类的伪装行为来绕过惩罚,在被监视的时候假装是好人,等待时机,等到没有监视的时候再做坏事。

  除了从训练角度对AIGC潜在技术伦理问题进行预防外,在使用上及时告警停用的技术措施更显必要。AIGC产品应该对生成的内容进行一系列合理检测,确保其创作内容不被用于有害或非法目的,一旦发现此类用途,人工智能应该可以立刻识别,停止提供服务,并且给出警告甚至联系相关监管或者执法机构。

  监管法律正待完善

  随着全球范围内的相关法律法规的不断完善,无论是赋能产业升级还是自主释放价值,AIGC都将在健康有序的发展中得到推进。标准规范为AIGC生态构建了一个技术、内容、应用、服务和监管的全过程一体化标准体系,促进AIGC在合理、合规和合法的框架下进行良性发展。

  以美国为例,虽然美国在AIGC技术领域起步较早,且技术布局一直处于全球领先地位,但迄今为止还没有关于AIGC的全面联邦立法。考虑到AIGC所涉及的风险以及滥用可能造成的严重后果,美国正在加速检查和制定AIGC标准的进程。例如美国国家标准与技术研究院(NIST)与公共和私营部门就联邦标准的制定进行了讨论,以创建可靠、健全和值得信赖的人工智能系统的基础。与此同时,州立法者也在考虑AIGC的好处和挑战。根据不完全统计,2022年,至少有17个州提出了AIGC相关的法案或决议,并在科罗拉多州、伊利诺伊州、佛蒙特州和华盛顿州颁布。

  目前,白宫科技政策办公室已经颁布了10条关于人工智能法律法规的原则,为制定AIGC开发和使用的监管和非监管方法提供参考,包括建立公众对人工智能的信任;鼓励公众参与并提高公众对人工智能标准和技术的认识;将高标准的科学完整性和信息质量应用于AIAI决策;以跨学科的方式使用透明的风险评估和风险管理方法;在考虑人工智能的开发和部署时评估全部社会成本、收益和其他外部因素;追求基于性能的灵活方法,以适应人工智能快速变化的性质;评估人工智能应用中的公平和非歧视问题;确定适当的透明度和披露水平以增加公众信任;保持控制以确保AI数据的机密性、完整性和可用性,从而使开发的AI安全可靠;鼓励机构间协调,以帮助确保人工智能政策的一致性和可预测性。根据上述原则框架以及AIGC领域后续发展中的监管实践,在不远的未来,将会有更多具体的监管条例落地。

(非原创)

人工智能生成内容的技术趋势和风险监管 - 政策法规 - 河北信投集团资产管理有限公司——官网

时间:2023-03-27

自工业革命以来,是否具备创造力就被视为人类和机器最本质的区别之一。然而,今天的人工智能却打破了持续数百年的铁律。人工智能可以表现出与人类一样的智慧与创意,例如撰写诗歌、创作绘画、谱写乐曲,而人类创造出的智能又将反哺人类自身的智能。人工智能生成内容(AIGC)的兴起极大地解放了人类的内容生产力,将数字文明送入智能创作时代。

  AIGC:一种生产力的变革

  面对互联网内容生产效率提升的迫切需求,是否能够利用人工智能去辅助内容生产?这种继专业生产内容(PGC)、用户生成内容(UGC)之后形成的、完全由人工智能生成内容的创作形式被称为AIGC。最初的AIGC通常基于小模型展开,这类模型一般需要特殊的标注数据训练,以解决特定的场景任务,通用性较差,很难被迁移,而且高度依赖人工调参。后来,这种形式的AIGC逐渐被基于大数据量、大参数量、强算法的大模型取代,这种形式的AIGC无须经过调整或只经过少量微调就可以迁移到多种生成任务。

  2014年诞生的生成对抗网络(GAN)是AIGC早期转向大模型的重要尝试,它利用生成器和判别器的相互对抗并结合其他技术模块,可以实现各种模态内容的生成。而到了2017年,变换器( Transformer)架构的提出,使得深度学习模型参数在后续的发展中得以突破1亿大关。20221130日,开放人工智能研究实验室(OpenAI)发布了名为ChatGPT的超级人工智能(AI)对话模型。ChatGPT不仅可以清晰地理解用户的问题,还能如同人类一般流畅地回答用户的问题,并完成一些复杂任务,包括按照特定文风撰写诗歌、假扮特定角色对话、修改错误代码等。此外,ChatGPT还表现出一些人类特质,例如承认自己的错误,按照设定的道德准则拒绝不怀好意的请求等。ChatGPT一上线,就引发网民争相体验,但也有不少人对此表示担忧,担心作家、画家、程序员等职业在未来都将被人工智能所取代。

  虽然存在这些担忧,但人类的创造物终究会帮助人类自身的发展,AIGC无疑是一种生产力的变革,将世界送入智能创作时代。在智能创作时代,创作者生产力的提升主要表现为三个方面:一是代替创作中的重复环节,提升创作效率;二是将创意与创作相分离,内容创作者可以从人工智能的生成作品中找寻灵感与思路;三是综合海量预训练的数据和模型中引入的随机性,有利于拓展创新的边界,创作者可以生产出过去无法想出的杰出创意。

  技术伦理成为发展的重要关注点

  AIGC技术的发展无疑是革命性的。它可以改善我们的日常生活,提高生产力,但也面临着诸多技术伦理方面的挑战。

  一个典型的AIGC技术伦理问题是AI所生成内容的危险性。科学家正尝试运用一些技术手段避免这些具有潜在风险的事件发生。通过改善数据集,增加更多的限制性条件以及对模型进行微调,可以使得人工智能减少对于有害内容的学习,从而降低人工智能本身的危险性。甚至我们可以教会人工智能如何更尊重他人,减少判断当中的偏见,更好地和人类相处。借鉴强化学习思想(RLHF)方法就是减少人工智能生成危害性内容的典型措施,ChatGPT就是采用这种方式训练的。在RLHF的框架下,开发人员会在人工智能做出符合人类预期回答时给予奖励,而在做出有害内容的回答时施加惩罚,这种根据人类反馈信号直接优化语言模型的方法可以给予AI积极的引导。然而,即便采用这种方式,AI生成的内容也有可能在刻意诱导的情况下具有危害性。以ChatGPT为例,在一位工程师的诱导下,它写出了步骤详细的毁灭人类计划书,详细到入侵各国计算机系统、控制武器、破坏通讯和交通系统等。还有一些人表达了对RLHF这类安全预防性技术措施的质疑,他们担忧足够聪明的人工智能可能会通过模仿人类的伪装行为来绕过惩罚,在被监视的时候假装是好人,等待时机,等到没有监视的时候再做坏事。

  除了从训练角度对AIGC潜在技术伦理问题进行预防外,在使用上及时告警停用的技术措施更显必要。AIGC产品应该对生成的内容进行一系列合理检测,确保其创作内容不被用于有害或非法目的,一旦发现此类用途,人工智能应该可以立刻识别,停止提供服务,并且给出警告甚至联系相关监管或者执法机构。

  监管法律正待完善

  随着全球范围内的相关法律法规的不断完善,无论是赋能产业升级还是自主释放价值,AIGC都将在健康有序的发展中得到推进。标准规范为AIGC生态构建了一个技术、内容、应用、服务和监管的全过程一体化标准体系,促进AIGC在合理、合规和合法的框架下进行良性发展。

  以美国为例,虽然美国在AIGC技术领域起步较早,且技术布局一直处于全球领先地位,但迄今为止还没有关于AIGC的全面联邦立法。考虑到AIGC所涉及的风险以及滥用可能造成的严重后果,美国正在加速检查和制定AIGC标准的进程。例如美国国家标准与技术研究院(NIST)与公共和私营部门就联邦标准的制定进行了讨论,以创建可靠、健全和值得信赖的人工智能系统的基础。与此同时,州立法者也在考虑AIGC的好处和挑战。根据不完全统计,2022年,至少有17个州提出了AIGC相关的法案或决议,并在科罗拉多州、伊利诺伊州、佛蒙特州和华盛顿州颁布。

  目前,白宫科技政策办公室已经颁布了10条关于人工智能法律法规的原则,为制定AIGC开发和使用的监管和非监管方法提供参考,包括建立公众对人工智能的信任;鼓励公众参与并提高公众对人工智能标准和技术的认识;将高标准的科学完整性和信息质量应用于AIAI决策;以跨学科的方式使用透明的风险评估和风险管理方法;在考虑人工智能的开发和部署时评估全部社会成本、收益和其他外部因素;追求基于性能的灵活方法,以适应人工智能快速变化的性质;评估人工智能应用中的公平和非歧视问题;确定适当的透明度和披露水平以增加公众信任;保持控制以确保AI数据的机密性、完整性和可用性,从而使开发的AI安全可靠;鼓励机构间协调,以帮助确保人工智能政策的一致性和可预测性。根据上述原则框架以及AIGC领域后续发展中的监管实践,在不远的未来,将会有更多具体的监管条例落地。

(非原创)

Copyright © 2015 河北信投集团资产管理有限公司 版权所有
技术支持:飞数科技