生成式人工智能是一种基于算法、模型等生成新内容(如图片、文本、声音、视频等)的数字技术。生成式人工智能与日常生活场景的深度结合,在给人们带来便利的同时,也会产生大量“虚假需求”,对经济社会带来一定风险与危机。因此,我们要秉持正确的伦理观念,积极做好对相关技术的引导和规制,以审慎的态度促进生成式人工智能的健康可持续发展。
发展机遇
生成式人工智能所引领的持续创新与产业革命,为数字化、智能化发展带来了新的机遇。一方面,网络中时刻产生着的海量数据,为生成式人工智能的训练和升级提供了必要的数据养料。另一方面,大量资源和人才投入生成式人工智能的技术研发与市场竞争,使越来越多的人得以接触和了解相关技术应用,增强了社会对相关技术的接受度和包容度。
无论对国家还是个人来说,生成式人工智能的蓬勃发展都意义非凡。从宏观层面来看,未来的国际竞争和国家治理在很大程度上可能会由新兴科技主导(如人工智能、量子计算、基因编辑、室温超导、核聚变等)。比如,在国家治理领域,生成式人工智能与大数据技术相结合,能够为治理行动者提供更优的策略选择,通过大数据和小数据的统计分析,在计算和算法模型的基础上对某种行为和社会现象进行趋势预测。从微观层面来看,在文本内容生产、图片视频合成以及社交互动等领域,生成式人工智能能够为用户提供精准化、个性化的产品服务。以人工智能语音合成技术为例,该技术基于机器学习生成自然流畅的语音,被广泛用于智能客服、智能广播和智能导航当中,可以在一定程度上提高用户与机器的交互体验。
安全隐忧
技术的发展并不总是按照既定的轨道前行,人们在现实中所接触到的信息亦具有不对称性。生成式人工智能的发展,使人们面临由不确定性、复杂性等带来的风险与隐忧,这引起了人们的警惕和重视。
生成式人工智能会对经济社会带来一定风险。首先,该技术会对经济市场造成一定冲击,并对一些传统行业和工作岗位进行替代。生成式人工智能可以根据一段描述或一个算法命令,实现自动写作、绘画乃至研究决策。这不仅会造成失业、传统产业衰败和技术发展不平衡等问题,还会带来一系列社会治理问题。其次,该技术存在一定的法律道德风险。比如,生成式人工智能根据要求“创作”的产品或服务,在知识产权法、民法、经济法以及网络安全法等法律上的规定尚不明晰;技术的滥用会带来内容抄袭、图片视频伪造、假新闻和谣言大肆传播以及社会信任危机等次生风险;有关产品与服务在供给过程中的算法歧视、资本垄断以及群体极化现象时有发生;等等。最后,生成式人工智能具有潜在的“安全隐患”。在有关大模型的研究过程中,对数据的大规模采集训练和更新,不可避免会对个人隐私与信息安全带来一定威胁。此外,数据投毒攻击、数据重构、模型劫持攻击等诸多安全威胁也是大模型面临的风险与挑战。以数据投毒攻击为例,不法分子可能会向大模型的训练数据库中加入恶意篡改的样本与有害信息,从而操控程序在推理阶段的输出结果。生成式人工智能可能会带来“单向度”的个体与社会。马尔库塞(Herbert Marcuse)在《单向度的人:发达工业社会意识形态研究》中认为,技术的繁荣进步往往并没有给人们带来想要的幸福和快乐,在“丰裕”的物质生活背后是精神生活的匮乏,创造性和否定性会逐渐消失。“单向度”的人是指那些没有否定性认识和批判性思维的人,他们毫无实践的创造性可言。生成式人工智能则可能加剧这种“单向度”,甚至会使整个社会走向“单向度”。人们可以使用生成式人工智能进行文字创作、绘画甚至决策。从表面上看,生成式人工智能可以提高相关工作的工作效率,但从更深层次来看,一旦人们对此产生依赖而缺乏多样化思考和选择自由,这些本应具有创造性的劳动则可能被技术所取代而使相关劳动者变为“单向度”的人,甚至整个社会都有可能因此逐渐被技术所支配而缺乏活力。并且,生成式人工智能和技术理性会“创造”出大量“虚假需求”。比如,很多人可能并不需要多么“智能”的操作或服务,但是技术的更新换代与广泛应用,会把所有人都卷入这个数字化、智能化的浪潮当中,使很多人被迫去适应和学习。所以,生成式人工智能可能加快“单向度”的人与社会的形成。
应对之策
当前,日趋成熟的人工智能技术已广泛应用于教育、环保、交通、医疗等各个领域,使人们的生活与工作越发便捷。不过,要使生成式人工智能得到更好的发展与应用,则需要进一步引导技术的向善发展,使技术之面向不断从“虚假需求”走向“真实需求”。
第一,加快生成式人工智能的场景应用落地。我们要结合现实情况不断深化和拓展生成式人工智能的应用场景,从而更好地提升人们生活的幸福感与获得感。一是制定更为系统全面的智能技术创新规划。在生成式人工智能的具体应用场景中,需要政府引导相关企业和研究者制定一套系统全面的创新规划和技术标准。二是成立专门协调性机构或协会,推进生成式人工智能技术的健康发展。这需要专业的研究力量,跟踪生成式人工智能的发展趋势和最新应用,并加强技术应用的伦理审查,促进不同行业和科研机构参与研究,使应用场景与现实需求紧密结合。三是加强知识产权保护力度。生成式人工智能涉及文本、图片、声音、视频等的“生成”甚至“创作”,其训练数据库以及作品的知识产权归属和划分有诸多争议之处。加强知识产权保护力度,规范交易主体操作,则能够为相关技术营造公开透明的创新环境,同时也能够鼓励企业和研究人员之间的交流合作,促进较深层次的技术开发和场景应用。
第二,完善生成式人工智能技术的法律法规覆盖和兜底。相关主体要加快对人工智能的伦理学与法学研究,适时制定相关法规保障智能技术的安全应用,防范潜在风险。具体而言,我们要基于伦理学和法学的有关研究,全面盘点现有法律法规,及时做好有关大数据、算法、人工智能等新技术的法律法规废改立释纂工作。对于新技术、新现象带来的不确定性风险,要设置研究限制和禁区,做好安全立法的兜底,并且要不断健全生成式人工智能安全风险等级评估和预防机制。由于生成式人工智能的发展面临一些安全漏洞,所以需要加强对于相关潜在风险的评估和预防机制建设,从而使其发展安全可控。
第三,推进生成式人工智能治理安全与发展的平衡。生成式人工智能发展的治理取向,应在发展中保护、在保护中发展,在坚守技术安全秩序的同时调动市场活力。一方面,应联合科技企业、高校和专家学者对生成式人工智能进行系统性研究和监管,制定公共政策分类保护数据,确保技术创新在获取数据的同时不侵犯个人权利或损害国家安全。另一方面,应构建社会多主体参与的分级治理框架。目前,生成式人工智能已涉及人的社会关系和生产生活方式的诸多领域,可以考虑在技术治理和算法规制中引入政府、市场、社会、个人等多方力量参与,并根据数据、技术、道德、主体等进行分级分类治理,将“以人为本”的观念贯穿治理全过程,真正做到让技术为满足人民群众美好生活需要服务。
总而言之,技术应是人们摆脱物质贫困和精神匮乏的手段而非目的。我们需要从实际出发,系统反思当前智能技术的伦理治理与法律规范,以更加包容谨慎的态度引导技术革新,从而实现新兴技术与人民群众美好生活需要的双向互动、耦合发展。