2月16日,OpenAI公司在其官网发布了“文生视频”工具——Sora。这是自2022年底该公司发布对话式大型语言模型ChatGPT后的又一项新的技术。从官网的介绍看,用户只需要输入简单的文字描述,Sora即可生成视频内容。该项技术应用领域非常广泛,发展前景不可限量,无疑再一次拓展了生成式人工智能的应用边界。
由于生成式人工智能技术意在比肩人类智慧,具有与自然人类似的主观能动性,所以,面临一系列的法律问题和社会问题,亟待积极治理。2023年7月10日,国家网信办发布《生成式人工智能服务管理暂行办法》,首次针对生成式人工智能进行专项立法。这一立法工作的全面开启,既体现了我国直面科技挑战的决心,亦为世界各国贡献了中国方案。
促进生成式人工智能健康发展十分必要
生成式人工智能是一种基于深度学习的人工智能技术,可以用于语音合成、图像生成等各种应用场景。虽然生成式人工智能技术给人类生活带来了诸多便利,但也存在不可小觑的风险和挑战。
生成式人工智能技术会引发技术滥用。利用生成式人工智能技术生成的文本和图像极有可能被滥用和误用。如用于电信网络诈骗、煽动民族仇恨、煽动国家分裂等犯罪活动。因此,有必要制定相应的监管措施,确保生成的内容真实、准确、合法。
生成式人工智能技术会威胁隐私安全。生成式人工智能是在整合大量数据,并反复适配的基础上生成。这些数据可能涉及个人敏感信息,如地址、电话、信用卡等。一旦泄露,必然对个人隐私造成极大威胁。
生成式人工智能技术会产生负面影响。由于生成式人工智能可以被用来创造和传播诸如种族、性别、政治、宗教等存在争议的信息,倘若这些信息被广泛传播和接受,极易对文化、道德、政治产生负面影响。
由此可见,促进生成式人工智能健康发展是非常必要的。既可以保护人类社会免受不良信息的侵害,也可以防止生成式人工智能技术被滥用。
生成式人工智能引发风险的原因
生成式人工智能作为一种新型技术,在推动人类社会发展的同时,也带来了各种风险和挑战。其风险产生原因主要包括以下几个方面:
技术的不确定性问题。生成式人工智能处于探索和研发阶段,技术尚不成熟。当前,生成式人工智能的应用场景和适用领域仍在不断扩展,相关技术也在不断升级,因此较难预测生成式人工智能的未来发展和潜在影响。例如,某些生成式人工智能技术可能会发展出具有违法性和破坏性的功能,这些风险很难被预测和防范。
数据和算法的质量问题。生成式人工智能的训练和运行端依赖于数据和算法,其质量问题是导致风险产生的重要原因。一方面,数据质量直接影响生成式人工智能的输出结果。不完整或者错误的数据会导致模型训练失败或者产生误差。另一方面,算法质量影响生成式人工智能的整体性能。一些生成式人工智能算法可能会产生歧义和错误,并导致严重后果。
操作和管理的不当问题。生成式人工智能的开发、部署和维护过程,涉及数据采集、模型训练、算法选择、运行调试等诸多环节。如果这些环节存在操作不当或管理不善,就极易产生风险。例如,模型的参数设置不当可能会导致模型的泄露和滥用;模型的运行环境不稳定可能会导致模型的运行失败或者输出错误结果等等。
法律规范和道德标准的缺失问题。随着生成式人工智能的快速发展和广泛应用,法律缺失和道德无力问题逐渐显现。倘若不加管控,仍由生成式人工智能技术肆意发展,极易危害国家安全,侵害个人权利。
综上所述,生成式人工智能产生风险的根源是多方面的,不仅涉及技术缺陷、数据精度和算法谬误,还涵括管理不善和规范不足等影响因素。欲应对这些风险,需多管齐下,多方协同,以实现不同场景和适用领域的针对性治理。
多方合力促进生成式人工智能健康发展
生成式人工智能的风险和挑战是多方面的,创新生成式人工智能的发展,必须整体规划、统筹协调,以确保生成式人工智能的发展和应用能够最大限度地造福人类。
第一,加强顶层设计,贡献生成式人工智能治理方案。联袂法律、监管、网商平台等多方力量协同攻关,精准确定生成式人工智能技术的法律边界,有效规范生成式人工智能技术的应用过程。针对生成式人工智能可能引发的危害后果,建立全方位、立体化的预警机制,及时阻遏生成式人工智能的犯罪趋向,保驾生成式人工智能的健康发展。
第二,加强法律保障,推动生成式人工智能合法发展。立足行政法、民法、刑法等规范的通力合作,建立健全涉及生成式人工智能上市应用、合规审查、责任追究等方面的立法。推动对生成式人工智能的技术开发、应用监管。如明确对生成式人工智能技术的知识产权保护、隐私保护等方面的规定。提高对生成式人工智能的违规纠察力度,提高违规处罚后果,通过提高违规成本,阻遏违规行为。
第三,加强企业自律,促成生成式人工智能合规检测。生成式人工智能企业在技术研发和应用过程中,应遵守法律法规、恪守伦理准则,建立逐层报备的合规检测机制。合规检测应重点关注数据审查,针对数据的价值导向、是否涉及国家秘密、个人隐私等问题进行排查,并将数据及时反馈给监管机关备案。完善生成式人工智能企业的内部评估机制,对于现存问题及时解决,对于未来困难及时预警。
第四,加强公众监督,着力生成式人工智能科学评估。鼓励公众参与生成式人工智能的监督,通过公众意见征集、听证会议等方式,提高公众对于生成式人工智能的监督意识,促进生成式人工智能的理性发展。引入独立的第三方评估机构,重点对涉及公共利益、伦理道德等方面的生成式人工智能技术和应用进行科学评估,以此保障生成式人工智能的数据安全。
扫一扫在手机上查看当前页面