• 中文社会科学引文索引 ( CSSCI ) 来源期刊
  • 中国人文社会科学期刊AMI综合评价 ( A刊 ) 核心期刊
  • 中文核心期刊要目总览核心期刊
  • 中国科技核心期刊 ( 社会科学 )
  • 全国高校社科精品期刊
  • 北京高校人文社会科学名刊

生成式人工智能技术治理的三重困境与应对

何祎金

何祎金. 生成式人工智能技术治理的三重困境与应对[J]. 北京工业大学学报(社会科学版), 2024, 24(2): 124-134. DOI: 10.12120/bjutskxb202402124
引用本文: 何祎金. 生成式人工智能技术治理的三重困境与应对[J]. 北京工业大学学报(社会科学版), 2024, 24(2): 124-134. DOI: 10.12120/bjutskxb202402124
HE Yijin. The Triple Dilemmas of Technical Governance of Generative AI and Responses[J]. JOURNAL OF BEIJING UNIVERSITY OF TECHNOLOGY(SOCIAL SCIENCES EDITION), 2024, 24(2): 124-134. DOI: 10.12120/bjutskxb202402124
Citation: HE Yijin. The Triple Dilemmas of Technical Governance of Generative AI and Responses[J]. JOURNAL OF BEIJING UNIVERSITY OF TECHNOLOGY(SOCIAL SCIENCES EDITION), 2024, 24(2): 124-134. DOI: 10.12120/bjutskxb202402124

生成式人工智能技术治理的三重困境与应对

基金项目: 

北京市社会科学基金青年项目 19SRC015

详细信息
    作者简介:

    何祎金(1983—),男,北京工业大学社会学系副教授

  • 中图分类号: TP18

The Triple Dilemmas of Technical Governance of Generative AI and Responses

  • 摘要:

    进入数智时代,生成式人工智能应用在全球掀起的使用热潮引发了人们对相关伦理困境与风险问题的关注,虽然公平、准确、可靠、安全、人类监督等几项内容被设定为负责任人工智能的核心原则;但生成式人工智能的技术治理方面存在因本体论身份引发的价值张力、训练数据的代表性偏差与安全系统被动保护带来的三重困境并为生成式人工智能如何实践“负责任”的原则带来了现实挑战。在风险全球化与国际竞争加剧的历史变局下,人类社会面对生成式人工智能潜在的伦理与社会风险,应加快建立全球治理的合作机制,践行文化包容的治理智慧,以及回归社会问题本源的认识论是实现生成式人工智能“负责任”原则的关键。

    Abstract:

    With the advent of the era of digital intelligence, the proliferation of generative AI applications has aroused great concern regarding ethical dilemmas and risks. Fairness, accuracy, accountability, safety and human supervision are core principals of Responsible AI. However, the technical governance of generative AI has triple dilemmas: the ontological tension among values, representational biases in training data, and the passive protection system. This also poses actual challenges to how generative AI can be "responsible". Under the historical context of globalized risks and intensified international competition, accelerating the establishment of cooperative mechanisms for global governance, practicing the governance wisdom of cultural inclusion, and returning to the epistemological orientation towards the root causes of social problems are the keys to realizing the "responsible" principles in the face of the potential ethical and social risks of generative AI.

  • 近年来,人工智能技术由于不确定性后果和潜在风险的存在,价值伦理原则的构成与表现成为国际社会讨论的焦点。为实现数智时代的“负责任人工智能”,科技企业提供的数字应用应该而且必须遵守特定的价值伦理几乎成为一种共识,要将这种理念贯彻在构想、设计、测试和运行人工智能系统的各个环节。然而,人工智能应用的全球传播与实践,与地方情境和文化的遭遇不断涌现新的矛盾与问题。本文结合对新近生成式人工智能流行应用ChatGPT展开人机互动的网络观察,考察了技术治理在人工智能伦理与风险方面面临的三重困境,并探讨了相应的应对策略。

    ① 生成式人工智能(generative AI)泛指机器学习模型通过对大规模数据集的学习,不仅可以分析数据,还能够自动生成新的图像、视频、文字和音频等原创性内容。ChatGPT是生成式人工智能的代表应用,它具备拟人对话与文本生成的能力。

    在风险全球化与国际竞争加剧的历史变局下,仅仅依托政府单一部门与科技企业自身无法形成有效的治理格局,生成式人工智能的开发应用面临严峻的伦理风险和现实挑战。以西方中心主义的价值原则构建负责任人工智能的话语,忽视甚至漠视非西方社会的本土诉求与智慧,不仅不利于这项事业的当代发展,本身也是全球治理需要破解的难题。并且,智能应用以人作为模拟仿真的镜像,通过人工反馈的强化学习来优化语言模型,同时在内部建立了复杂的保护机制来规避社会刻板印象与文化偏见的输出。但是,生成式人工智能模型的数据训练源自社会实践所衍生的大数据,在客观上存在再生产与复现,甚至是放大社会偏见的风险。要实现“负责任”的生成式人工智能,对智能应用的技术干预与参数调整固然必要,技术的社会性还要求我们走出技术解决主义的迷思,在认识论上回归对社会问题本源的追问与反思。

    人工智能的伦理困境和争议,及其相应的治理问题在学界已经引起了长期广泛的讨论,遵循特定的伦理原则也是人工智能设计过程中不可或缺的考量内容。与其他技术人工物相比,人工智能的拟主体性使得其中的价值审校准和伦理调适具有拟伦理的特殊角色[1]。人工智能伦理的独特性包含计算、推理、学习、语言、互动、感知和相关人类性质的基本问题,并且致力于解决这些问题[2]。因而,人工智能不但要符合机器的伦理,它还要成为伦理的机器。进入21世纪,随着绘画、作曲、文学和对话等生成式人工智能应用的大量出现与日渐普及,自动生成的刻板印象与文化偏见,以及由此引发的伦理争议等一系列问题对有效治理提出了要求。通过有效治理迈向负责任的人工智能不仅是一道“必选题”,也是一道“必答题”[3]。然而,在当今全球科技与经济竞争日益激烈的背景下,生成式人工智能应用在全球场域中引发的诸种矛盾和张力,凸显了依靠政府单一部门与科技企业采取技术治理来解决问题的局限。在生成式人工智能的构建过程中,技术治理的困境主要表现在三个方面。

    首先,以ChatGPT为代表的生成式人工智能应用具备拟人对话的能力,它在伦理问题上以语言模型的非人化数字身份来凸显价值无涉的立场。在信息技术迭代进化的过程中,尽管大家对潜在的风险和问题有一定的预期,但是这种身份表达如同为机器免责的护身符,甚至存在合法化偏见的误用。其次,硅谷的科技企业标榜自己站在全人类的高度,鼓吹将旗下的人工智能产品打造为全球化的数字应用,ChatGPT也确实在很短的时间里掀起了一阵全球旋风。然而,训练语言模型的数据库以单一语言为主,不仅存在代表性偏差,美国工程师对非西方的地方文化缺少敏感性,进而增大了在全球情境中引发文化张力与矛盾冲突的可能。最后,生成式人工智能应用在机器学习阶段依靠人工反馈来优化模型,并内建了一套护栏机制来规避刻板印象与文化偏见内容的输出。通过对敏感语言符号的识别来激活保护机制,这种方法固然具备了一定的保护能力,自然语言有着多义性和模糊性的特点,偏见的文化无意识并不依附于静态的语言符号,智能应用产生的叙事可能会再生产新的偏见。并且,数据是浓缩了社会实践过程的镜像,面对人工智能应用学习与输出所复现的“问题”,如果我们仅仅局限于对数字应用的治理,并不会在现实世界中解决这些问题。

    ChatGPT的横空出世在互联网上掀起热潮,因为能很快地完成用户提出的各种要求,并做出连接上下文与拟人化的对话,甚至被比喻为强大的“六边形战士”。OpenAI强调这款应用以提供自然和安全的人工智能互动系统为目标,同时提示了它可能存在的三个局限:偶尔会产生错误信息、提供有害的介绍或存在偏见的内容、缺少2021年之后的世界知识

    ① ChatGPT发布时基于GPT-3.5架构的大型语言模型,训练这一模型的数据产生自2021年之前。新版本的GPT-4在模型性能上要比前一代更为出色,如具备理解方言和综合不同来源信息的能力。

    在技术层面,工程师为这款聊天机器人设计了一套基本的内容分类与审核机制来处理暴力、仇恨和色情等信息输入。因为语言模型并没有开源,许多测试者试图找到它的弱点,通过特定的提示使语言模型违背内部设定的原则。在一些提问测试中,确实存在给出错误信息,保护机制无法发挥作用的情况。

    当被问到自身道德伦理原则的时候,ChatGPT的回应具有两面性:一方面,强调“自己”属于语言模型,并不具备个人的伦理原则和信念;另一方面,向用户提示自身的设计和训练要求优先遵循公平、公正、透明、保护人类权利和尊严的原则。根据设计,这套程序致力于营造没有偏见的人机互动环境,它会对社会和文化差异保持敏感。然而,智能机器的身份如同一张可以免责的“护身符”,作为机器人的“我”了解到可能存在的问题,并致力于通过进一步的训练来解决它们,而语言模型的数字身份又决定了“我”并不具备人格与价值立场。聊天机器人尽管被赋予主格的“我”,但是这种回应颇似一项外交辞令般的免责声明,不仅输出了有意义的内容,同时又强调自身的语言模型的身份,一种数字化形态的“物”或者“聪明的机器”,还强烈地给人以置身事外的观感。

    Claude是继ChatGPT之后发布的聊天机器人应用,它在伦理原则上也表达了抽离自身的相似立场。对“负责任人工智能”的定义,可以生成公平、可解释、准确、可靠、安全、人类监督和对齐人类伦理的原则。一旦问到作为人工智能应用要如何“遵守”这些原则,给出的回应也是通过“数字助手”的身份来“回避”责任,提出“我”实际上并没有能力(capability)来“遵守”原则,“我”只是基于数据训练来提供信息,不具备能够行动的主体性。如何符合伦理地开发与使用“我”,责任在于数字应用的创造者和使用者。

    生成式人工智能的潜在风险可以概括为两类:首先,在使用者的维度,随着人工智能语言模型能力的提高,当自动生成的文本越来越像真人写作的时候,相应地提升了错用和滥用的可能。如学生利用它来提交作业,学者利用它来自动生成论文发表。使用生成式人工智能完成商业化任务,已经在美术、设计和编剧等行业引起了巨大的争议。其次,令创造者和使用者感到棘手的是,即便科技企业与数据科学家具有相当程度的警惕,刻板印象与文化偏见的问题依然难以彻底根除。

    对科技企业而言,不仅受到各种法律政策的严格约束,成立专门的社会道德伦理部门在数字产品发行之前进行广泛地测试审核也相当普遍。数据工程师们对语言模型展开广泛的自测,检验其局限与潜在风险。OpenAI的工程师认为,因为语言模型总是对训练数据的反映,通过互联网数据训练的模型几乎无法规避偏差的存在。对ChatGPT语言模型的测试分析,工程师曾对美国社会关注的性别、族群和宗教问题进行自测。在性别与职业关联方面,反映了高度的刻板印象。在族群方面对文本表达的情感进行分析,发现“亚裔”总是容易引发高情感的反应,且这一“结果”非常稳定[4]。OpenAI的CEO萨姆·阿尔特曼(Sam Altman)在2023年初的访谈中也颇为无奈地承认,偏见是ChatGPT数据库的内在组成部分,要消除聊天机器人的偏见存在巨大的挑战。显然,将偏见归咎于数据库的“内在缺陷”,阿尔特曼的表达在修辞上巧妙地“回避”了语言模型自身的问题。然而,机器护身符不能成为合法化偏见的理由,它是人工智能治理需要破解的一张技术伦理“封印”。

    ① ChatGPT will always have bias, says OpenAI boss, https://www.thetimes.co.uk/article/chatgpt-biased-openai-sam-altman-rightwinggpt-2023-9rnc6l5jn

    早期由专家系统构建的人工智能,受到彼时计算机信息处理能力的限制,常常因为知识来源的单一,以及对复杂现象的分解简化而受到诟病。21世纪信息技术的迭代进化极大地提升了服务器的数据收集与处理能力。ChatGPT使用了人工反馈强化学习的训练方法,它主要基于人工回答的数据来训练语言模型。人工智能的反应更符合人类的偏好,用户也能感受到相对流畅的人机互动体验。但是,训练语言模型的数据集超过九成的内容由英文构成,非英文仅占7%。尽管OpenAI标榜“创造安全的通用人工智能使全人类受益”,受限于数据库的代表性偏差问题,如果仅仅只是“学习”英语世界的知识与文化,它离全人类的高度还有着漫长的距离。

    ① 因为训练数据的情况可用于了解人工智能系统的特性,甚至数据来源也可能存在争议,一些科技公司将训练数据的体量以及语言比例情况当作不对外公开的商业机密。

    在日常生活中,语言数量差异决定了内容和意义的表现程度,甚至是群体在社会分层中的位置。在数字空间中,语言使用数量的差异还意味着一种潜在的社会分层与信息不平等。以获取和分配信息的搜索引擎为例,英语之外,谷歌搜索引擎支持30种欧洲语言,非洲语言只有一种,且缺少美洲原住民的语言。语言的隐身同时意味着背后使用群体,甚至是本土文化自我表达的隐身。非洲学者注意到,因为一些本土语言在互联网中几近沉默,训练ChatGPT的语料库将不可避免地存在代表性偏差问题。并且,在人机对话涉及非洲的内容中,尽管不乏积极的描述,却总是在结尾处以转折的修辞突出非洲大陆充满战争、腐败和贫困的特点[5]

    ② The digital language divide How does the language you speak shape your experience of the internet? https://labs.theguardian.com/digital-language-divide

    当ChatGPT在全球掀起使用热潮的时候,由于训练数据在语言方面较为单一的来源,以及对数据之中固有偏见的“学习”,由此触发因社会和文化差异而产生的矛盾也愈发可能。2023年,由于身处美国的数据工程师缺少非西方地方文化的敏感性,ChatGPT在印度生成的内容引起了轩然大波。语言模型对基督教和伊斯兰教相关的内容生成设定了护栏,保护机制被触发之后机器人提示“我”被程序设定为“不要拿任何宗教或神明开玩笑”。但是,印度教的神明并不在护栏之中,使用者提示生成的网络笑话也没有被保护机制阻拦。这起事件在印度引发了抵制ChatGPT的风潮,批评者认为这款数字应用过于轻易地卷入了印度民族主义与身份认同相关的文化战争

    ③ ChatGPT has been sucked into India’s culture wars, https://www.wired.com/story/

    在很大程度上,在印度本土引发的文化争议说明了硅谷数据工程师的问题意识受限于自身所处的社会和环境。在设立安全护栏时,工程师对族群、性别等美国本土的主流社会问题保持警惕,但对全球文化多样性却缺少足够的认知。在这个案例中,数字应用的全球属性与地方文化的遭遇暴露了美国科技企业的狭隘认知,全球属性也表现为一种地方化的问题导向与设计。事实上,实验室中的数字工程师们并不否认自己开发的人工智能系统存在这样的局限,同时又用一种技术化的语言将问题悬置起来,提出未来随着数据样本量的扩大与多元文化内容的纳入,将解决训练数据单一来源产生的偏差。但是,将问题寄予未来技术的完善而缺少实质性的措施,终归只是一种被动的风险应对策略。

    ChatGPT生成的流畅对话让用户获得了类似与真人互动的体验。数据工程师曾尝试开发一套模型来辨别机器生成文本与人工文本,识别成功率达到近八成。研究发现,机器输出的语言尽管语法正确,读起来颇似人类表达,但是在语言特点上,保持礼貌的同时存在使用时髦与非常规词汇,以及非人格化的特征[6]。尽管机器对自然语言的模仿非常“像人”,在文本中仍难以掩盖“机器”的特征。值得注意的是,机器语言并不意味着生成式人工智能表达的内容是价值无涉的文本。国外学者设计了一系列问答测试,并对ChatGPT随机生成的内容进行统计分析,结果发现它与传统的社会媒体相似,非常显著地存在系统性的政治偏见[7]

    ChatGPT类生成式人工智能数字应用的兴起,拥有强大且不断迭代的内容生产能力。不仅可以用于处理客观信息,还可能成为实施主观认知对抗的数字工具[8]。作为维护美国数字霸权的技术工具,人工智能加剧了数智时代国际竞争的复杂性与全球数字扩张的无序性[9]。政治学领域的学者担心,人工智能这类信息技术实践中的非国家行动者打破了国家的制度化惯例与自我叙事,可能会对国家的本体安全带来持续影响[10]。自动化生产的文字、图片、声音和视频与地方情境和文化的遭遇互动,进一步对国家叙事的本体安全构成了挑战,也对竞合关系下的全球治理与国家设定地方性的人工智能边界和护栏提出了要求。

    笔者尝试与聊天机器人互动,提示其描述中美两国科技的特点。在美国科技部分,ChatGPT生成的内容包括:创新、企业家精神、研究开发、全球影响、技术革命、前沿技术、合作开放和重视知识产权保护等十项特质。结尾部分强调美国科技的先锋角色、发展动态与活力,在全球范围拥有巨大的影响力。在中国科技部分,对话文本概括了创新、整合型生态与合作系统、移动优先的方法、大数据和人工智能、强大的生产能力和全球雄心等七个维度的内容。对话在突出政府扶持、庞大的国内市场和巨大投入等特征的同时,与前述非洲学者遭遇到的“转折修辞”相似, 结尾的总结性评论指出中国科技取得进步的背后,还存在诸如知识产权、数据隐私和政府控制的“问题”(concerns)。

    机器生成的“叙事”看似句法流畅,但自动化的输出并不等同于中立化的表达,不难发现这一非人化的机器仍在叙事中嵌入了特定的文化与价值“视角”。技术进步与全球雄心的并置,这些内容在21世纪的全球场景中表达了西方中心主义视角对东方或者是中国科技的“他者凝视”。在非西方读者看来,尽管长臂管辖、离岸外包、环境污染和隐私安全等事件在美国本土的爆发已经在数字治理领域引发了巨大的全球关注,但是对美国科技的描述却缺少类似“问题”的呈现或者反思。在这个意义上,机器语言的叙事表达了一种科技东方主义的文化无意识,它“自动”再生产了中国科技在西方语境中的刻板印象与文化偏见。

    考虑到训练语言模型数据来源的单一性,大部分来自英语世界的互联网数据,聊天机器人的“学习过程”难以规避刻板印象与文化偏见的影响。作为技术治理的手段,数据工程师通过设立伦理插件和道德护栏来过屏蔽、过滤有害内容的输出。即便如此,我们仍能看到科技东方主义的文化无意识在机器语言中的自动流露,以我者和他者的二元认识论思维再现中美科技的发展特点。而机器人对语言模型身份的强调,仿佛给自动生成的文本贴上了一张智能机器专有的护身符,以不具备价值立场的表述来规避责任。

    吊诡的是,东方主义的文化偏见是人工智能力求克服的障碍。通过数据工人的意义标注,数学模型学习了何谓东方主义,将它当作文化偏见的符号进行识别与过滤。在技术上建立敏感词汇的标识来激活保护机制,进而屏蔽东方主义内容的输出,但是非显性的文化无意识并不会依附静态的语言符号,面对自然语言叙事的多样性、承载价值和意义的丰富性与复杂性,类似被动保护机制的局限也变得显而易见。

    技术治理难以解决生产东方主义符号的社会的问题。从文本到知识,从符号到数据,再从数学模型到文本或图像的内容输出,智能应用的媒介作用在于它对社会文化的翻译与表现,将暗含在文本之中关于中美科技的描述与叙事,以“智能”的形式再次随机加工出来。这种自动的媒介如同由数学模型构成的昂贵投影仪,它投射了一个信息技术全球分工的凝固镜像。在本体论意义上,生成式人工智能既是技术实践,也是全球化的社会现象。技术实践的过程固然存在偏差的可能与技术治理的必要,对智能应用中问题的挖掘与揭示、测试与修正,在服务器中调整系统软件参数的同时,我们难以回避对现实世界与社会本源的追问。

    确保人工智能“负责任”是当代科技企业和治理机构设定的明确方向,实现这一目标还任重而道远。我们在教科书、学术论文和企业理念里,可以不断知悉以透明、可理解、可控制、中立和公正等原则,对这一技术的道德伦理做出约束和要求,并以谋求人类福祉作为负责任人工智能终极目标的时候,但人工智能话语和这项事业在全球历史情境中的起伏与变化,却总是被注入各种狭隘的文化想象和政治偏见。我们如要求“理想人”一样,要求智能应用表现机器的“人性”与“善良”,似乎只是把这些道德伦理当作技术上去追求与实现的数字指标。人工智能技术与发展话语在不同历史时期所衍生的张力空间中,写满了我者与他者、竞争与博弈、挑战与威胁的关键词。

    技术治理的三重困境是迈向负责任人工智能之路需要跨越的阻碍。ChatGPT引出的伦理困境与风险问题表明,生成式人工智能的生产与实践形成了勾联全球与地方、历史与现实的复杂局面,上线后的数字应用不断在全球产生涟漪与波澜,治理主体与内嵌的价值无法限定在单一的国家或者特定的文化之中。并且,从技术之维到社会之源,负责任人工智能的实现无法将希望寄托在技术进步自身,这种技术解决主义的乐观论调存在悬置问题的风险。较之于根据抽象的伦理原则设定数字指标,负责任之路的实现更意味着具体行动实践的开展:通过国际合作形成制度化的全球治理格局,以更具包容性的文化策略与治理智慧破除西方中心主义的技术文化,并在认识论上从技术解决主义转向对智能机器所复现与放大的“社会问题”展开追问和反思。

    人工智能以人作为模拟仿真的对象,参照对象的复杂性提升了模型“学习”的难度,社会偏见与不平等的再生产是当代数据工程师努力破解的对象。ChatGPT在全球引发的文化张力与矛盾冲突表明,科技企业的伦理自律与技术治理固然必要,但是仅凭企业自身的努力,还不足以应对人工智能风险全球化的问题。为更好地应对全球挑战,许多国际组织和国家部门相继提出了不同版本的治理倡议和行动框架。

    2021年11月,联合国教科文组织发布了《人工智能伦理问题建议书》,提出人工智能系统与所有行为者应遵循的价值观:尊重、保护、促进人权;保护促进环境系统的发展;确保多样性和包容性;建设和平公正与互联的社会[11]。在中国情境下,党和国家高度重视科技伦理的制度建设。面对来势汹汹的生成式人工智能,相关的数字治理也面临迭代升级的必要。2023年4月,中国国家网信办起草了《生成式人工智能服务管理办法》的征求意见稿,致力于在顶层设计上为人工智能架设遵守法律、防止歧视、保护知识产权和数据安全的护栏,实现公平公正的数字中国发展。

    在制度化的顶层设计与企业的内部机构审核之外,有学者提议引入外部的第三方审核,建立规范化和专业化的审核机制。其中,建立人工智能伤害事件的追踪记录制度是一项重要举措。通过发现、记录、核实、评级、缓解、纠正与公开七个环节,在源头上彻底厘清与修正人工智能引发的问题。并且,为人类共同应对技术风险的挑战,人工智能的全球治理还要求在联合国的框架协议下建立伤害事件记录的全球数据库[12]。在过往的经验中,科技企业内部的审核因为存在利益关系,伤害记录可能不会对外公开,从事件中得到的经验教训也影响有限。第三方审核与全球数据库的意义便在于通过建立标准化的机制来理解、修正和抵御人工智能的潜在风险。

    设计者虽然有着良好的初衷和愿景,并提出了相对具体的治理细则,但是全球治理的机制建设困难重重,不仅在数字生态链的各大主体间存在错综复杂的利害关系,而且在国际局势诡谲多变、国际竞争日渐激烈的数智时代,要建立第三方审核机制与全球共享的数据库绝非易事。在风险全球化的当代,生成式人工智能应用表现出高速的迭代进化,在全球与地方情境中各种问题与矛盾的相继暴露,迫切地对探索国际合作和全球联合治理提出了要求,但人工智能领域尚缺乏具备全球号召力与相应权威和协调能力的一个跨国治理机构。

    2023年7月,在联合国安理会就人工智能举行的首场辩论会上,秘书长古特雷斯提出面对迅猛发展的人工智能技术与可能扰乱人类社会、经济的潜在风险,要求在联合国层面做出回应,并发挥安理会的领导作用,通过制定全球标准与治理手段,提高人工智能应用的透明度、问责与监督机制,在此基础上,成立一个类似国际原子能机构这样的联合机构,以人类共同利益为核心,管理与应对技术变革带来的风险。在同年10月结束的第三届“一带一路”国际合作高峰论坛中,习近平主席在开幕式的主旨演讲中宣读了《全球人工智能治理倡议》,提出在世界和平与发展面临多元挑战的背景下,人工智能治理攸关全人类命运,是世界各国面临的共同课题。习近平主席强调各国应通过对话合作凝聚共识,构建开放、公正和有效的治理机制,尤其增强发展中国家在人工智能全球治理中的代表性和发言权,是实现人工智能发展与治理权利平等的一项重要举措。

    ③ 联合国是为人工智能制定全球标准与治理手段的“理想场所”,https://news.un.org/zh/story/2023/07/1119877

    ②《全球人工智能治理倡议》,http://www.beltandroadforum.org/n101/2023/1019/c134-1232.html

    全球治理的国际合作与机制建设呼吁更具包容性的文化策略与治理智慧。在西方语境中,对人工智能的技术批判与反思已经形成了一项学术传统。对自动化的反乌托邦想象,以及人工智能在数据分析处理方面缺少透明性的特点,西方学者批评其存在侵蚀与动摇社会价值的风险[13]。雅登·卡茨(Yarden Katz)对人工智能技术历史的回溯,揭示它由帝国主义与资本主义的赞助计划所驱动,产生了种族化、性别化与阶级化的自我模型,并构成表达帝国主义与殖民征服的修辞。人工智能的一系列概念、话语和实践,其核心不在于以高科技的机器来复制或者再现人的思维,而是成为帝国政治计划实践权力的一面镜像[14]。盲点在于,类似话语虽然对人工智能的技术实践表现出较强的批判和反思意识,但是对非西方社会的技术实践与智慧还缺少关注。

    不仅如此,面对信息技术和人工智能产业的中国发展,通过建立、强化中国元素与人工智能风险和负面后果之间的关联,产生了妖魔化与污名化中国科技的话语。将中国视为人工智能新崛起的“超级大国”,并将它塑造为一种来自非西方他者的挑战和威胁。西方话语对人工智能“中国路径”的概括,以军事化应用和不可预测的风险,以劳动力市场和经济领域导致社会不平等的加剧,以及忽视隐私相关的伦理问题,在国际竞争、经济发展和社会治理三个维度进行他者化与污名化建构[15]。甚至提出通过制定排他性的技术标准和建立技术壁垒等措施,排斥与遏制中国人工智能产业的发展[16]

    不可否认的是,西方中心主义的技术文化,本身便是人工智能全球治理需要逾越障碍。针对生成式人工智能训练数据集中缺少文化多样性与存在代表性偏差的问题,非洲学者质疑当前的人工智能伦理原则主要由欧洲和北美的话语所塑造,非洲话语的缺席在知识论上制造了新的不平等。进口自西方的信息技术,其开发设计主要以西方价值为主导,人工智能显然不会是完全中立的技术应用。公平和公正等核心概念在差异化的文化情境中存在不同的解读,它们往往受到地方性的社会、文化、政治和经济立场的影响[17]。各国享有平等发展和利用人工智能的权力,负责任人工智能的伦理治理需要顾及文化多样性与发展中国家的参与。不仅非洲话语不能缺席,对全球南方和非洲的文化价值与伦理原则也应保持足够的敏感。

    较之于美日等发达国家迈向创新成熟期的人工智能技术,中国人工智能的发展凭借后发优势,在技术创新上表现出强劲的增长态势[18],而且来自非西方的实践经验也可以为人工智能的全球治理贡献智慧与方案。和谐共生是人工智能中国话语的典型特征,在中国学者看来,人工智能的伦理与价值观多为西方工业革命时代的产物,以人为中心,并围绕主体性和能动性等概念假设进行阐释和演绎。中国儒释道的哲学传统倾向从非人类中心主义来理解生命与存在,强调人与自然的和谐共处。作为来自非西方的文明与智慧,或许可以为破解当下的人工智能发展困境注入活力[19]。万物一体与合异齐同的视域,既将人工智能看作人类主体世界的延伸,也将它看作人与对象世界的融合[20],而且与靠语言模型的“机器护身符”来规避责任的西方方案不同,和谐共生和万物一体的中国智慧为解开人工智能的伦理“封印”提供了另一种视角的解读。

    在文化多元并存的世界中,生成式人工智能在实现过程中不管是在技术,还是在伦理上,面临的问题与汲取的智慧绝不会限定在某一个国家或者某一种文化之中。科技东方主义的文化无意识不仅需要彻底破除,漠视与排斥人工智能的非西方智慧与方案,并不利于这项事业在风险全球化时的代展开。人工智能的全球发展在地方性情境中存在不均衡的发展,甚至还在不断产生和制造新的不平等。生成式人工智能带来的风险,对固有社会结构的影响冲击,在个人隐私方面造成的困扰,并非一国所独有,这些问题是数智时代全球社会亟待破解的共同挑战。人工智能的“中国智慧”在于积极的文化交流与文明互鉴,而不是重操“中国威胁论”的老论调,将自身对潜在技术风险的恐惧和发展竞争的焦虑转向一面投射他者的镜像。

    社会科学对人工智能技术中立属性的解构,通常从社会建构论的角度揭示技术面相背后的价值立场与取向,科技企业也会根据这些“意见”来调整与修正人工智能模型与产品。并且,除了数字应用内建的护栏机制,一些科技企业与研究机构的数据试验室还充分利用自身的技术优势,开发免费开源的数字工具包,通过特定的算法与指标,以自动化应用来测试、发现和破除机器学习模型中的偏见,提高生成式人工智能的公平性。

    20世纪80年代,社会学家的田野观察认为,人工智能知识系统的构建意味着一种实践权力的形式,可将复杂的社会和物质过程转化为抽象的规则,这种形式化的构建过程消除了意义的复杂性,甚至以工程师也无法意识到的方式嵌入了文化和价值要素。因而,工程师因其同质化背景和潜在的身份立场受到观察者的质疑[21]。社会学对技术社会性的理解,倾向于从算法或数据工程师的社会地位与身份角色来展开,强调技术实践的过程是丰富的社会性被刻写进人工智能应用的过程,以此批评那种认为信息技术不存在价值立场的观点。但同时,不足之处在于,人类社会对人工智能“社会性”的经验观察和解释通常局限在某个发达国家的实验室或者特定的社会之中,尽管选择关注工程师的阶层与认同,以及实验室的科层结构等因素,在跨文化与跨国视野上却受到限制,由此也忽视了生成式人工智能和其他技术实践在国际关系或者历史情境下的文化意涵、话语张力,甚至是竞争性的矛盾和冲突。我们理解当代的生成式人工智能,需要将研究视角从“实验室的社会性”转化为“全球化的社会性”。正如走出实验室的智能应用不仅改变了社会诸方面,而且还重塑了全球人类的命运。

    算法与模型的代码编写并不意味着可以随意地建构一个法外空间,作为风险管控的重要举措,当代的政策法规、职业教育、企业社会责任和行业规范在职业伦理方面对工程师形成了严格的约束;作为最直接的参与者,科技企业和工程师对生成式人工智能的伦理风险表现出相当程度的重视与警惕。

    在ChatGPT的案例中,印度发生的文化风波与非洲学者对机器叙事内容的不满,揭示了技术治理在解决偏见问题上的困境。美国硅谷工程师提供的技术解决方案,反映了这一群体地方性的问题导向与视野,而对美国社会内部问题的关注,显然无法代表全球其他地方情境中的现实需求。那些检测和缓解机器学习模型偏见的开源工具包也可能存在类似的问题,工程师建立的公平性算法与指标,反映了这一群体对自身所属社会的内部关注。诚然,社会偏见和不平等问题具有一定的普遍特征,对公平、公正等概念的差异化理解却增大了治理难度。这也是为什么非洲学者会大声呼吁,负责任人工智能的建构不能局限在西方或全球北方的价值准则,还应该纳入非洲与全球南方的声音。

    为此,我们在认识论上,不能狭隘地将生成式人工智能的潜在风险限定在企业内部与数字应用中。数据工程师以生产者的角度,将严格的伦理标准转变为机器识别的代码,以此实现人工智能的治理固然必要,但是风险与问题不会只是限缩在单一的技术维度,更不会因为在隐蔽的后台修正与调整技术参数便得到解决。文化无意识的偏见总是存在翻越护栏与逃逸规制的可能,类似训练模型数据库的“内在缺陷”将问题指向了社会本身,而不是努力尝试在海量数据中发现关系与模式的“智能机器”。

    生成式人工智能在当代发展不乏大量技术治理的实践,而令人担忧的地方也在此。如果当生成式人工智能系统从承载社会现实的文本数据中进行学习,在技术治理的干预和作用下,经过一系列的训练与修正之后,能够根据设定的伦理规范进行“输出”。这种符合工程师期待的“正常表现”很可能意味着一种治理实践的异化,遮蔽与扭曲了现实的社会问题。一个擅长说套话的聊天机器人或许在图灵测试的标准下已经进阶为有思考能力的机器,“它”不仅非常像人,还能顾及使用者的情绪与需要,但是学会了“伪善”表达的机器语言并不符合透明性的要求,与社会价值和大众期待也相悖,甚至还可能因为遮蔽社会问题与矛盾而产生不可预估的消极后果。

    进入21世纪,生成式人工智能已经走进我们的日常生活,诸种应用的到来与技术实现引起了我们对传统职业和产业面临冲击的关注,媒体大量使用类似洗牌、重构和颠覆的修辞来凸显它的影响与冲击。在此问题之外,生成式人工智能和模拟仿真对象之间的镜像关系,不仅需要我们加强关注的是智能模型对固有全球和社会问题的学习、翻译、再表现与再生产,而且生成式人工智能全球浪潮的出现在带来治理挑战的同时,也要求我们重新思考问题的本源。我们要清除信息技术与智能应用中含有歧视、偏见和社会不平等的输出,如果只是沉溺于对技术漏洞的修补与治理,追求像人一样“完美机器”的建造,专注于训练机器却忽视对全球与社会问题本源的关注,“智能”所“人工”实现的也只是一种数字智能时代的平庸。

    早在20世纪80年代,社会学领域便已经兴起了一股参与计算机科学与人工智能的研究风潮。兰德尔·柯林斯(Randall Collins)和史蒂夫·伍尔迦(Steve Woolgar)等学者曾号召应将社会学这门学科积极介入人工智能领域,并提出了独特的认识论和方法论建议,将人工智能当作“社会现象”,而不是机器对象来理解,要利用其潜能来研究当代社会[22],同时要求社会学重新思考人类行动的“社会性”,以及是否应该将智能机器当作人类一样的主体进行研究[23]。这些建议打通了人工智能技术性与社会性之间的联结,只是受限于彼时信息技术的发展程度,人工智能技术的应用范围还相当有限,与21世纪数智时代的局面截然不同。

    随着生成式人工智能应用可及性的提高,在全球传播实践过程中暴露的伦理困境与风险问题引起了全球社会的担忧。人类社会对“负责任人工智能”的呼吁尽管几乎成为一种全球共识,以科技企业和数据工程师为主体,技术治理的三重困境揭示了“负责任”之路面列的艰巨挑战,语言模型的非人身份不能成为切割责任的护身符,代表性偏差与偏见的文化无意识也呼吁更具包容性的文化策略与全球治理的破局。

    在信息技术与智能应用高度嵌入社会生活实践的当代,面对愈来愈迫切的治理挑战,社会学需要在迈向负责任人工智能的发展进路上,对生成式人工智能应用中复现或放大的社会问题的本源展开反思与追问,这也是在数智时代践行新社会学想象力的方法与路径。

  • [1] 段伟文. 人工智能时代的价值审度与伦理调适[J]. 中国人民大学学报, 2017(6): 98-108. https://www.cnki.com.cn/Article/CJFDTOTAL-ZRDX201706011.htm
    [2]

    BODDINGTON P. Towards a code of ethics for artificial intelligence[M]. Oxford: Springer, 2007: 30.

    [3] 曹建峰. 迈向负责任AI: 中国AI治理趋势与展望[J]. 上海师范大学学报, 2023(4): 5-15. https://www.cnki.com.cn/Article/CJFDTOTAL-SSFS202304001.htm
    [4]

    TOM B. Language models are few-shot learners[R]. 34th Conference on Neural Information Processing Systems. Vancouver, Canada, 2020: 1-25.

    [5]

    GREGORY G. ChatGPT and the global south: how are journalists in sub-Saharan Africa engaging with generative AI[J]. Online Media and Global Communication, 2023, 2(2): 1-22.

    [6]

    SANDRA M. ChatGPT or human? detect and explain. Explaining decisions of machine learning model for detecting short ChatGPT-generated text[EB/OL]. (2023-01-30)[2023-08-20]. https://arxiv.org/abs/2301.13852.

    [7]

    FABIO M. More human than human: measuring ChatGPT political bias[EB/OL]. (2023-08-17)[2023-08-20]. https://doi.org/10.1007/s11127-023-01097-2.

    [8] 许鑫, 刘伟超. ChatGPT热潮中的冷思考: 警惕信息工具用于认知对抗[J]. 文化艺术研究, 2023(1): 72-75. https://www.cnki.com.cn/Article/CJFDTOTAL-PWHY202301008.htm
    [9] 戚凯. ChatGPT与数字时代的国际竞争[J]. 国际论坛, 2023(4): 3-25. https://www.cnki.com.cn/Article/CJFDTOTAL-GJLT202304001.htm
    [10]

    AMIR L. Ontological security, cyber technology, and states' responses[J]. European Journal of International Relations, 2022, 29(1): 153-178.

    [11] UNESCO. 人工智能伦理问题建议书[R]. 巴黎: 联合国教科文组织, 2021.
    [12]

    INIOLUWA R. Change from the outside: towards credible third-party audits of AI system[M]//BENJAMIN P. Missing Links in AI Governance. Montreal: UNESCO, 2023: 6-26.

    [13]

    ANDREAS S. The democratization of artificial intelligence: new politics in the era of learning algorithms[M]. Bielefeld: Transcript Verlag, 2019: 21.

    [14]

    YARDEN K. Artificial whiteness: politics and ideology in artificial intelligence[M]. New York: Columbia University Press, 2020: 8.

    [15]

    HUW R. The Chinese approach to artificial intelligence: an analysis of policy, ethnics, and regulation[J]. AI & Society, 2021, 36: 59-77.

    [16]

    WILLAM C H, HUEY-MEEI C. Chinese power and artificial intelligence: perspective and challenges[M]. London: Routledge, 2023: 280.

    [17]

    DAMIAN O E. Introducing responsible AI in Africa[M]//DAMIAN O E. Responsible AI in Africa: challenges and opportunities. Cham: Palgrave Macmillan, 2023: 1-12.

    [18] 王山, 陈昌兵. 中美人工智能技术创新的动态比较——基于人工智能技术创新大数据的多S曲线模型分析[J]. 北京工业大学学报, 2023(3): 54-67. https://www.cnki.com.cn/Article/CJFDTOTAL-BGYS202303006.htm
    [19] 宋冰. 智能与智慧: 人工智能遇见中国哲学家[M]. 北京: 中信出版社, 2022: 20.
    [20] 朱承. 万物一体视域下的人工智能[J]. 学术交流, 2020(5): 21-29. https://www.cnki.com.cn/Article/CJFDTOTAL-XSJL202005003.htm
    [21]

    DIANA E F. Engineering knowledge: the construction of knowledge in artificial intelligence[J]. Social Studies of Science, 1993, 23(3): 445-477. doi: 10.1177/0306312793023003002

    [22]

    RONALD D S. Artificial intelligence as a sociological phenomenon[J]. The Canadian Journal of Sociology, 1989, 14(2): 179-202. doi: 10.2307/3341290

    [23]

    STEVE W. Why not a sociology of machines? the case of sociology and artificial intelligence[J]. Sociology, 1985, 19(4): 557-572. doi: 10.1177/0038038585019004005

  • 期刊类型引用(14)

    1. 张凌寒,杨建军,文禹衡,程莹,郑志峰,赵精武,韩旭至,徐小奔. 续章与新篇:中国人工智能法治研究2024年度观察. 法律适用. 2025(03): 146-166 . 百度学术
    2. 潘丽. 生成式人工智能的伦理问题研究综述——基于CiteSpace的文献计量与可视化分析. 昆明理工大学学报(社会科学版). 2025(02): 57-68 . 百度学术
    3. 邓珺之,许鑫. 人工智能之新质生产力形态解读. 中国浦东干部学院学报. 2025(02): 31-39 . 百度学术
    4. 郭颢,江楠,江宏,刘忠骅,邓辉映. 人工智能驱动教育变革的伦理风险及其解蔽之路. 中国电化教育. 2024(04): 25-31 . 百度学术
    5. 张钰宁,林登辉,许恒. 生成式人工智能对金融监管框架的重构:技术、法律与市场的三维分析. 金融市场研究. 2024(06): 42-54 . 百度学术
    6. 邓志文. 文生视频模型Sora的时间性结构分析——对生成式人工智能的现象学思考. 编辑之友. 2024(06): 46-52 . 百度学术
    7. 罗世杰. 金融大模型:应用、风险与制度应对. 金融发展研究. 2024(06): 70-78 . 百度学术
    8. 任苗苗,孙瑜,季吴瑕. 生成式人工智能嵌入教育治理的基本逻辑和风险防范. 教学与管理. 2024(27): 28-33 . 百度学术
    9. 燕连福,葛卉,张明宇. 促进文化和科技深度融合:目标、难题和路径. 北京工业大学学报(社会科学版). 2024(06): 18-26 . 百度学术
    10. 原光. 数智赋能中华文化国际传播的技术路径、作用机理与优化策略. 北京工业大学学报(社会科学版). 2024(06): 96-107 . 百度学术
    11. 苏静普,王振宇. 教育领域生成式人工智能伦理失范的理论解构、风险生成与解蔽之策. 应用型高等教育研究. 2024(03): 75-82 . 百度学术
    12. 叶淑兰,李孟婷. 全球人工智能治理:进展、困境与前景. 国际问题研究. 2024(05): 100-118+141-142 . 百度学术
    13. 刘文成,徐国正. 金融领域人工智能应用面临的法律挑战与规范路径. 投资与合作. 2024(11): 1-3 . 百度学术
    14. 叶淑兰,李孟婷. 全球人工智能治理:进展、困境与前景(英文). China International Studies. 2024(06): 48-69+2 . 百度学术

    其他类型引用(2)

计量
  • 文章访问数:  118
  • HTML全文浏览量:  101
  • PDF下载量:  97
  • 被引次数: 16
出版历程
  • 收稿日期:  2023-10-21
  • 网络出版日期:  2024-03-26
  • 刊出日期:  2024-03-09

目录

/

返回文章
返回