郑戈:大模型不“关心”真理和事实,但我们也不宜过早立法干预

来源:观察者网

2023-04-17 09:25

郑戈

郑戈作者

上海交通大学凯原法学院教授、博士生导师

【文/观察者网专栏作者 郑戈】

机器学习大模型是人工智能技术经过60余年累积而绽放出的应季花朵,令观赏者赞叹不已。由于当下的多模态大模型不仅可以生成文字影音内容(AIGC),甚至可以生成实物(借助3D打印技术,比如商汤“日日新”大模型体系中的“格物”),所以被认为是生成式人工智能的突破性进展。

从技术上讲,大模型并非基于任何知识上的创新,而是基于算力、算法和数据的规模升级,是摩尔定律和梅特卡夫定律所揭示的技术的政治经济效应的表现。换句话说,大模型依靠的“暴力计算”,即高性能GPU运行千亿级参数模型通过海量数据进行预训练。

用OpenAI首席科学家伊利亚·苏茨克沃的话来说:“如何解决难题?使用大量训练数据以及一个大型神经网络。这样,你可能得到的唯一结果就是成功。”为此,OpenAI的主要投资者微软投入数亿美元资金为OpenAI打造了一套超算系统,由上万颗单价为数万美元英伟达A100芯片组成,这套系统为训练ChatGPT提供了3640PF-days的算力消耗(即假如每秒计算一千万亿次、连续计算3640天)。

资料图来源:Shutterstock

由此可见,大模型训练是一个烧钱的游戏和耗能的游戏,充满着重资本的味道,一点儿也不节能环保。这时,我们就需要对大模型的商业和社会应用进行一番成本-收益分析,看看它所带来的收益是否大于成本以及收益的归属和成本的分担。在进行这种分析的时候,我们应当注意到尚未被计入成本的那些外部性,比如实际上由公众承担成本的环境损害。

·系统性风险

大模型能够带来的好处似乎是显而易见的。

虽然训练成本高昂,但一经训练成功,它就可以产生巨大的生产力,自动化地生产文字、图像和音视频内容,比如帮助文字工作者生成文案和文学作品,帮助医生了解病人的病史和症状描述并形成诊断和治疗方案,帮助老师、科研人员和学生阅读大量文本并提取关键知识点和主要论点,帮助法律职业者审阅法律文件、分析法律问题并形成初步法律意见书等等。

进一步,当细分领域的专业化大模型出现的时候,它可以改变各行各业的生产方式和组织形态,大幅度提升制造业、交通运输业、农业乃至任何我们能够想到的行业的自动化程度和生产率。

以商汤的“日日新”大模型体系为例,它包含:

作为对话和文本内容生成平台的“商量”(SenseChat),可以像ChatGPT那样跟人进行多轮对话,可以写广告语、文案、故事、小说和程序代码;

如果用于智慧医疗,可以提供随访、健康咨询、互联网问诊和辅助医疗服务,这些功能已经在上海新华医院、郑州郑大一附院、成都华西医院得到实际应用;

它还包含根据文字生成图像的“描画”,可以生成图文并茂的文案、漫画并辅助其他形式的艺术创作;

还有生成元宇宙3D虚拟场景的“琼宇”,可以实现对虚拟空间和虚拟物体的复刻与交互,比如耗时两天即可生成具有厘米级复刻精度、还原场景的真实细节和光照效果的100平方公里虚拟城市,可用于数字孪生、建筑设计、影视创作、文旅宣传和电商展示等场景;

以及“格物”,即连接3D物体生成与3D打印,将自动生成的物体制造成实物,可用于制造业。

这些都是大模型商业模式的从业者向我们展示的美好前景,在丝毫不否认这些场景都有可能在近期实现的前提下,我想指出其另外一面,以便我们的公共选择能够促成一种普惠的现实,而不是让技术成为“割韭菜”的工具,在给少数人带来巨大收益的同时让多数人承担成本而只得到极微小的、甚至是虚幻的好处。

首先,正如前面已经暗示的那样,现有的大模型训练方案是对人类已有的创造成果的规模化学习,所产生的结果是已有内容的新的表达形式,它不会带给我们关于事实的新知。

已有的实操都显示出,ChatGPT更善于回答“主观题”,而在“客观题”方面则无法给我们提供准确的答案。也就是说,大型语言模型学会了人类的油嘴滑舌和政治正确,却丝毫不“关心”真理和事实。

这倒是与语言本身的功能高度吻合。按照悉尼大学语言学教授恩菲尔德(N. J. Enfield)的说法,语言是人类社会生活的产物,它的首要功能不是再现现实,而是维系社会系和协调社会行动。

借助语言,我们不仅对其他人产生影响,而且与其他人一起来影响社会。在使用语言时,我们不仅考虑要不要表达自己的真实想法,还要考虑其他人会怎么理解我们所表达的内容,以及他们在按照自己的理解消化了我们所表达的内容后会如何回应我们。

语言的功能塑造着语言的形态,导致所有的人类语言中都包含大量表示人类主观感受的词汇,而描述自然事实的词汇却缺乏精准性。比如,人眼可以辨别几百种颜色,但描述颜色的词汇在任何人类语言中都只有屈指可数的几个。

他最后的结论是:语言对律师而言是好的,对科学家而言却是糟糕的。

刘慈欣的《三体》也呈现了人类语言的这种特点。

三体人不借助语言来交流,所想即所见,这种特点可能是使他们的科技远远领先于地球人的原因之一。毕竟地球人耗费于揣摩心思、编制花言巧语、维系社会关系上的时间和精力远远多于用来认识客观世界的时间和精力。甚至更专注于事实世界的人会被认为不合群、不正常,因此会在社会选择中被淘汰。

但人类思想的不透明也令三体人感到害怕,你永远无法从一个地球人说的话里判断出他的真实想法。地球人也正是利用自己的这个比较优势(或比较劣势)制定出了面壁者计划。面壁者被假定是城府最深的人,他们所说所做的一切都是“计划的一部分”,但这种计划完全是私密的、不为外人所知的。

语言大模型的运行机理不是透过话语的表象来呈现人的内心,更不是超越语言来帮助人类认识现实,而是熟练地使用语言表象本身,使表象更加表象,乃至可以自动化地生成。

以下就是我跟ChatGPT两段对话的截屏,从中我们可以看出ChatGPT是如何的“虚伪”,如何的不关注事实,但又如何的圆滑和政治正确,而且这种政治正确是以它所学习的语料中呈现出的主流价值观为标准的。

对话一:关于价值判断的主观题

对话二:关于简单事实的客观题

在社会交往中策略性地使用语言是人本身就很擅长的,我们所需要的人工智能是能够为我们理解真实世界提供可靠信息的助手,而不是能够模仿我们熟练使用社交语言的“社牛”。在这一点上,大型语言模型还不如搜索引擎。

进而,如果人们觉得大型语言模型支撑的各种聊天工具比真人说话更“动听”,便会减少与亲人、朋友、同事或同学的语言交流,沉浸于跟机器聊天。这将进一步加剧社交媒体兴起以来人在自己主观世界中的沉浸和共同体意识的缺失。“信息茧房”、“过滤气泡”和“回音室”等概念都描述了这样一种数字化时代普遍现实。

对于平台企业来说,这是一个巨大的商机,因为利用人人都有的弱点才能实现规模化,而激励人克服弱点的产品和服务却不可能为大众所乐于消费。资本不负责教育人积极向上,这是一个基本事实。但人毕竟生存在真实世界中,这个世界的客观事实总会检验人的主观认知,一旦面临生存考验,沉浸于主观满足感的人类就会显得十分脆弱。

·专门的立法干预为时过早

由此我们可以看到,大模型可能的对社会有益的应用方向,是那些不需要新知识的领域,或者说是那些以保守为正面价值的领域,比如文化、宣传、法律和常规医疗。法律的主要功能在于维护既定的社会秩序,它不需要创新,但需要在既定规则的大前提下处理大量信息,这恰恰是大型语言模型所擅长的。

这些领域恰恰是当下国际关系新格局中中美两大阵营竞争至为激烈的领域。

如前所述,大型语言模型不会帮助人们明辨真伪,但会体现和灌输特定的价值观,并因此产生巨大的社会动员效力。如果多数中国人使用的由大型语言模型驱动的搜索引擎、聊天软件、社交媒体和生产力工具是基于敌视中国的语料训练而成的,那么便会使国家从内部瓦解。比如,有不少测试者都发现,在回答涉及我国的钓鱼岛、新疆和南海等事务的问题时,ChatGPT的回答明显体现了美国立场。

但是,我国也不能完全采取防御策略,比如禁止本国公民使用境外机构研制的相关产品,而是应当积极鼓励本国企业研发和推出用中国语料训练的大模型。

正是在这样的背景下,网信办于4月11日公布了《生成式人工智能服务管理办法》(征求意见稿)。该文本明确将维护国家安全、体现社会主义核心价值观、维护公民的个人信息权益、保护包括知识产权在内的合法权益作为主要目的。

但在生成式人工智能技术刚刚取得实质性突破、应用场景和商业模式尚在探索阶段、可能产生的风险和法律问题尚不明确的时候骤然立法,时机显然很不成熟,甚至有可能扼杀或至少阻碍我国相关企业在大模型领域的研发投入或落地探索,并因此导致与立法初衷背道而驰的结果。

首先,该“征求意见稿”第三条虽然表示“国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源”,但所有的其他条款都是限制性的而不是鼓励性的,这些限制性条款一旦得到严格实施便可能阻碍相关技术和产业的发展。

我们可以看到,美国在人工智能领域的立法没有任何一项是在限制本国人工智能技术和产业的发展,倒是有很多试图限制中国相关技术和产业发展条款,包括《无尽前沿法案》和《芯片法案》等等,对本国相关企业几乎全是支持和鼓励,所有的限制都指向中国。

其次,该征求意见稿对生成式人工智能提出了从预训练到客户端服务的全流程规制,没有考虑到技术和商业模式发展本身的内在需求。在成熟的技术和商业模式其实尚未出现的情况下,这种规制实际上有可能导致相关的产业在我国不会出现。

比如,第七条对预训练数据的合法性要求可能导致相关开发者无法获得足够多的训练数据来完成预训练过程。而预训练本身实际上不会对公民权益和公共利益产生可见的影响,严格地限制在这个阶段,无论从发展角度还是从权利保护角度来看都是毫无必要的。

第三,到了商业化运行阶段,生成式人工智能的确会对用户、对社会、对国家利益产生影响,但这种影响的方式、性质和程度目前都无法判断,只能是基于猜想。这种提前立法介入的做法不符合法律发展的规律。

法律是一种回应性的机制,它必须是回应公民的真实诉求和社会的秩序需要,针对尚未出现的问题制定具体的规则,只能使萌生状态的有利有弊的技术在充分展现其利弊之前就走完了自己的生命周期。

第四,至于使生成式人工智能在不损害国家的宪法价值和国家安全利益的前提下发展的框架性制度约束,其实已经存在,包括《网络安全法》《个人信息保护法》《数据安全法》以及网信办此前主导制定的《互联网信息服务推荐算法管理规定》和《互联网信息服务深度合成管理规定》。对于生成式人工智能发展初期可能出现的各种问题,这些现有法律法规和部门规章都足以应对。

最后,并非所有的问题都需要法律去介入。

比如,征求意见稿第十二条的反歧视规定,产业界本身就高度重视,并且已经有了专有名词,叫做人工智能生成内容的“毒性”。降低毒性是业界的普遍追求,因为一旦生成内容表现出了毒性,就会损害开发者的公共形象,并直接导致巨大的财务损失。

如前所述,目前已有的大模型如果在什么方面做得最好的话,那就是政治正确。比如,我曾经试图诱导ChatGPT作出带有明显种族歧视倾向的回答,但未能成功。

对话三:种族歧视

结语

综上所述,生成式人工智能是当下的舆论热点,但冷静的思考使我们发现,一方面,这种技术不像马斯克所担忧的那样会导致人工智能脱离人类控制甚至导致人类灭绝,恰恰相反,它不足以带来任何会令人类真正吃惊的创新。另一方面,它的确可能在人类语言已经覆盖的疆域范围内极大提高效率,带来生产力和生产方式的巨大变革。

在目前这个阶段,专门的立法干预为时过早。法律不应当追逐热点,而是应当秉持回应性和谦抑性的品格,等问题浮现出来之后再去介入。

本文系观察者网独家稿件,文章内容纯属作者个人观点,不代表平台观点,未经授权,不得转载,否则将追究法律责任。关注观察者网微信guanchacn,每日阅读趣味文章。

责任编辑:李泠
观察者APP,更好阅读体验

以色列警告美国:一旦逮捕令下发,我们就对它动手

涉及俄罗斯,美国又对中企下黑手

内塔尼亚胡警告布林肯:以色列不会接受

“这是美国自信心下降的表现”

“美国没料到遇上中国这样的对手,出现战略失误”