• 中文社会科学引文索引 ( CSSCI ) 来源期刊
  • 中国人文社会科学期刊AMI综合评价 ( A刊 ) 核心期刊
  • 中文核心期刊要目总览核心期刊
  • 中国科技核心期刊 ( 社会科学 )
  • 全国高校社科精品期刊
  • 北京高校人文社会科学名刊

生成式人工智能的责任机制:溯源、挑战与构建路径

王明, 陈建兵

王明, 陈建兵. 生成式人工智能的责任机制:溯源、挑战与构建路径[J]. 北京工业大学学报(社会科学版), 2025, 25(3): 111-122. DOI: 10.12120/bjutskxb202503111
引用本文: 王明, 陈建兵. 生成式人工智能的责任机制:溯源、挑战与构建路径[J]. 北京工业大学学报(社会科学版), 2025, 25(3): 111-122. DOI: 10.12120/bjutskxb202503111
WANG Ming, CHEN Jianbing. The Responsibility Mechanism of Generative Artificial Intelligence: Origins, Challenges, and Pathways to Construction[J]. JOURNAL OF BEIJING UNIVERSITY OF TECHNOLOGY(SOCIAL SCIENCES EDITION), 2025, 25(3): 111-122. DOI: 10.12120/bjutskxb202503111
Citation: WANG Ming, CHEN Jianbing. The Responsibility Mechanism of Generative Artificial Intelligence: Origins, Challenges, and Pathways to Construction[J]. JOURNAL OF BEIJING UNIVERSITY OF TECHNOLOGY(SOCIAL SCIENCES EDITION), 2025, 25(3): 111-122. DOI: 10.12120/bjutskxb202503111

生成式人工智能的责任机制:溯源、挑战与构建路径

基金项目: 

国家社会科学基金重点项目 2020MYB038

详细信息
    作者简介:

    王明(1990—),女,东北财经大学马克思主义学院讲师

    陈建兵(1976—),男,西安交通大学马克思主义学院副院长,教授,博士生导师

  • 中图分类号: B82-057;TP8

The Responsibility Mechanism of Generative Artificial Intelligence: Origins, Challenges, and Pathways to Construction

  • 摘要:

    对生成式人工智能进行监管治理,是推动这种技术被广泛应用及持续创新的根基,使其“负责任”,即对人类负责任已经成为此技术发展的“根本诉求”。构建生成式人工智能责任机制的关键目标是推动这种技术对人类产生正面影响,其底层逻辑是“以人为本”。生成式人工智能责任机制,在社会层面面临着多元价值冲突的挑战、在技术层面面临着“算法黑箱”的挑战、在人工智能行业层面面临着非规范化研发应用的挑战。人类亟须在应对中构建生成式人工智能责任机制的路径,包括通过促进人机共融,以“人性之善”引导“技术向善”、解构“算法黑箱”提升技术透明、优化政府治理规范以增强弹性监管、协调利益平衡强化人工智能企业的社会责任。

    Abstract:

    Regulating and governing generative artificial intelligence is fundamentally crucial for forstering its broad adoption and continuous innovation. Eusuring the technology is responsible, which is answerable for human interests, has emerged as a essential requirement for its advancement. The primary goal of establishing a responsibility mechanism for generative artificial intelligence is to bring a positive impact to human, based on a "human-centered" logic. At the societal level, the responsibility mechanism faces challenges from conflicted values; at the technical level, it confronts challenges of algorithmic opacity; and within the generative artificial intelligence industry, it is challenged by unregulated research and application. It is imperative for humanity to construct thr pathways to the responsibility mechanism of generative artificial intelligence, including promoting human-machine integration to guide technology toward benevolence, deconstructing algorithmic opacity to enhance technical transparency, optimizing government governance standards to strengthen resilient regulation, balancing interests, and reinforcing the social responsibility of artificial intelligence enterprises.

  • 人工智能领域“技术之热”正在遭遇“科技伦理之冷”。一方面,生成式人工智能对于提高生产效率具有强大潜能,人类希望这种技术能够持续创新且为人类创造更多福祉;另一方面,应用这种持续创新的技术正在使得人类遭受伤害。目前来看,人类无法舍弃生成式人工智能创造的巨大社会福祉与商业价值,与此同时,人类也在应用这种技术时被恐惧情绪所裹挟。因此,人类亟须构建生成式人工智能责任机制。例如,2023年3月,包括埃隆·马斯克(Elon Musk)和尤瓦尔·赫拉利(Yuval Noah Harari)在内的1 000余名人工智能业界领袖与学者,联名呼吁立即停止训练比GPT-4更强的人工智能模型[1]。2023年7月10日,中国国家互联网信息办公室发布《生成式人工智能服务管理暂行办法》,鼓励优先选择安全可信的软件。2024年3月13日,欧洲通过的《人工智能法案》旨在确保人工智能技术发展符合欧洲价值观,如人类监管、安全隐私、社会福祉和环境友好等要素。

    https://www.gov.cn/zhengce/zhengceku/202307/content_6891752.htm

    https://news.cctv.cn/2024/03/14/ARTIcZWNmYwcWSlosDpkRZ1A240314.shtml

    可见,发展负责任人工智能、构建生成式人工智能责任机制在全球范围内已形成初步共识。但由于其所面临的挑战诱因复杂,既有来自于价值观的冲突,也有“算法黑箱”问题,还有行业非规范研发应用引发的问题。因此,为确保生成式人工智能的发展和应用符合科技伦理规范与社会期望,本文在厘清学界关于“负责任人工智能”的概念及生成式人工智能责任机制的构建原则和研究目标的基础上,比较分析不同国家和地区在生成式人工智能发展和应用中的伦理规范和责任机制,以发现最新实践,并研判其实际影响和潜在伦理问题,进而研究如何从人工智能理念、技术发展、政府监管、企业社会责任等方面,寻找生成式人工智能的责任机制构建新路径,以应对生成式人工智能应用诱发的潜在风险。

    “负责任”是推进人类和谐交往及此种关系维系的情感基石,生成式人工智能对人类负责任,是推动这种技术被广泛应用且被允许持续创新的根基。为此,利益相关方开始了对生成式人工智能责任的讨论,尤其是对负责任人工智能的概念、生成式人工智能责任机制构建的原则及目标进行研究,这加强了人类对生成式人工智能“责任”的认知,从而帮助人类形成科学认识理解应对生成式人工智能责任机制构建挑战的理论基础。

    在能否信任人工智能的问题上,两种学说已被开启:乐观主义和悲观主义。乐观主义关注生成式人工智能的潜力,而悲观主义关注生成式人工智能诱发的各种风险挑战。

    一方面,人工智能的乐观主义坚持认为生成式人工智能对人类发展具有重大意义。2023年6月6日,知名SaaS企业Opsware的创始人马克·安德森(Marc Andreessen)在《为何人工智能能拯救世界》的文章中指出,“人工智能非但不会毁灭世界,而且还可能拯救世界。”[2]美国著名未来学家雷·库兹韦尔(Ray Kurzweil)在《奇点临近》中提到,“人工智能这项关键技术,将让人类得以应对各种迫在眉睫的挑战,包括克服疾病、贫穷、环境退化及人类的所有弱点。”[3]

    另一方面,人工智能的悲观主义坚持认为生成式人工智能可能会摧毁人类文明。悲观主义主要代表人物是人工智能专家及企业家,包括约书亚·本吉奥(Yoshua Bengio)、杰弗里·辛顿(Geoffrey E. Hinton)、萨姆·奥尔特曼(Samuel Harris Altman)、埃隆·马斯克(Elon Musk)等。例如,2023年11月1日,在首届人工智能安全峰会上,包括中国、美国与英国在内的28个国家和欧盟签署了《布莱切利宣言》,这一宣言强调“人工智能模型所具备的最重要的功能会造成严重的甚至是灾难性伤害,无论是有意还是无意”[4]。2024年,约书亚·本吉奥(Yoshua Bengio)和杰弗里·辛顿(Geoffrey E. Hinton)联合其他专家发表的文章中指出,“不受控制的人工智能发展,可能会造成大规模生物圈破坏与生命损失,甚至是人类被边缘化乃至灭绝。”[5]此外,牛津大学人类未来研究院院长尼克·波斯特洛姆(Nick Bostrom)在其著作《超级智能》中提到,“人工智能最糟糕的风险不在于人工智能本身,而在于人类可能忽视这种风险的发生。”[6]

    自2019年“负责任人工智能”概念被提出以来,随着人工智能技术不断迭代创新,尤其是以ChatGPT为标志的生成式人工智能技术的出现及应用,使得负责任人工智能的内涵和外延不断丰富拓展。例如,2019年5月,经济合作与发展组织(OECD)成员国批准了全球首个由各国政府签署的人工智能原则,即负责任地管理可信人工智能。此项原则包括以人为本、公平、透明、可解释、稳健、安全可靠、包容性增长、可持续发展、为人类提供福祉及负责任[7]。2023年4月4日,微软公司在《什么是负责任AI》中提出,负责任人工智能是一种以安全、可靠与合乎道德的方式开发、评估和部署人工智能系统的方法。此外,麻省理工学院物理系终身教授及未来生命研究所创始人迈克斯·泰格马克(Max Tegmark),在其著作《生命3.0》中认为,“对人类负责任的人工智能要为其发展框定一些共识与规则,确保未来即使人工智能达到甚至超过人类智慧,其仍然会与人类目标一致。”[8]综上可知,政府、人工智能企业及学界关于“负责任人工智能”概念初步形成共识。本文也由此认为,“负责任人工智能”指人类在设计和应用人工智能时,需要充分考虑到其社会影响与科技伦理问题,以确保人工智能透明、可解释、安全、可靠、公正及对人类负责。此外,特别需要强调两点:一方面,人工智能“责任”的界定,不仅指“事后”责任,同时还指“事前”与“事中”责任;另一方面,要求利益相关方均需对这种技术的研发和应用负责。

    https://learn.microsoft.com/zh-cn/azure/machine-learning/concept-responsible-ai?view=azureml-api-

    构建生成式人工智能责任机制需要遵循一些原则。例如,2019年4月,欧盟发布《可信赖的人工智能伦理准则》,强调“可信赖的人工智能”必须遵循合法、合乎伦理、稳健的原则。2019年6月17日,中国发布《致力发展负责任的人工智能 中国发布八大治理原则》,明确提出负责任人工智能要遵循“和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理”[9]等八项原则。

    http://world.people.com.cn/n1/2019/0411/c1002-31023490.html

    利益相关方就负责任人工智能并未形成固定原则,但是已经初步形成雏形,主要包括六个方面:第一,公正平等原则,确保人工智能设计和应用不偏向任何特定个体或群体,并避免产生或强化不平等现象;第二,透明和可解释性原则,确保人工智能的决策能够被用户理解并对做出决策的依据说明解释;第三,隐私和安全原则,确保用户在使用人工智能产品和服务时,数据安全与用户隐私能够得到恰当保护;第四,账户与责任原则,确保人工智能使用主体的责任能够被清晰界定与追溯;第五,公开与合作原则,促进人工智能企业公开技术,通过推进信息共享和知识交流来推动人工智能技术的发展;第六,可持续发展原则,确保人工智能设计和应用符合社会、环境和经济可持续发展原则,避免产生不必要负面影响。

    目前,对生成式人工智能责任机制构建目标的界定主要产生于学界,学界对这种技术的责任机制构建探索具有重要学术价值。

    一方面,学界相关组织机构积极界定生成式人工智能责任机制构建的目标。例如,2019年3月,斯坦福大学组织来自人文、工程、医学、艺术等多个基础学科领域科研人员展开合作研究,建立了以人为本的人工智能研究机构,并提出“以人为本的人工智能”概念,指出人工智能的未来不仅在于技术,还在于人文和道德,人工智能必须关乎人类福祉,其落脚点必须在于增强人的能力。这一研究机构认为以人为本的人工智能必须遵循三个目标:第一,以人为本的人工智能需要深度反映人类智能特征,提升而不是取代人的能力;第二,以人为本的人工智能应该满足人类需求,服务于人类福祉和繁荣;第三,以人为本的人工智能应该考虑人类文化、价值观及科技伦理标准,同时遵守法律规范,确保这种技术发展不会对人类造成负面影响。目标一经提出,引起了政府、人工智能企业、学界的关注与认可,从而奠定了生成式人工智能责任机制构建目标的基础。当下,各国政府监管人工智能企业对照的标准大多与此相似。

    另一方面,有学者尝试性地提出生成式人工智能责任机制构建的目标。例如,雷·库兹韦尔(Ray Kurzweil)认为,“人工智能应该被设计能够遵循人类意愿和目标,而不仅仅优化某个项目目标。如果人工智能仅追求某个预定目标,而不考虑人类意愿和目标,那么系统就会产生不可预见的后果,甚至会危害人类。”[10]2024年9月,以色列哲学家尤瓦尔·赫拉利(Yuval Noah Harari)在其新著《智人之上:从石器时代到AI时代的信息网络简史》中明确指出,“为了实现人类设定目标,计算机采用的方法可能完全出乎人类意料,这可能会造成未曾预见的危险后果。”[11]基于此,他提出了一种设计思路,即在理论上人类设计人工智能时就该为其确定一个终极目标,并且永远不允许人工智能系统忽视或更改这个目标。

    本文认为,构建生成式人工智能责任机制的核心目标是确保该技术的发展推动社会进步,真正服务于人类福祉。其底层逻辑是“以人为本”,即生成式人工智能在技术设计、开发、部署和使用的各环节,需要以人类需求和价值为中心,保障人类隐私、安全、尊严与社会公平。此责任机制应能有效监督和规制技术行为,防止数据偏见、算法歧视及信息操控等风险,同时要求算法透明和可解释,使生成式人工智能决策过程对用户和社会公众可说明。在此基础上,生成式人工智能技术开发者和使用者须共同承担科技伦理责任与社会责任,以应对这种新技术带来的潜在科技伦理挑战与社会风险。在“以人为本”目标下,这种责任机制不仅能弥补生成式人工智能技术的局限性,而且还能为构建更智能、更包容和更可持续的技术生态提供保障。

    德国著名社会学家乌尔里希·贝克(Ulrich Beck)在其著作《风险社会: 新的现代性之路》中认为“现代社会是一个风险社会”[12]。生成式人工技术的突飞猛进推动人类进入生成式人工智能时代,这使得现代社会更是一个恐惧风险的时代。为了抵御日益强大的生成式人工智能技术诱发的风险挑战,人类正在努力构建生成式人工智能责任机制。然而,多元价值冲突挑战生成式人工智能决策机制一致性,“算法黑箱”难题增加了生成式人工智能责任机制构建的复杂性,生成式人工智能行业非规范化研发应用严重冲击技术伦理,这些问题都正在挑战这种机制的构建。

    阻碍构建生成式人工智能责任机制的根源在于技术的“一致性”难题。生成式人工智能时代,技术权力已经远远超过任何人类组织机构,如果未来超级人工智能与人类目标不一致,可能将为人类招致前所未有的灾难。此外,人类价值观多元且动态变化,进一步加剧了生成式人工智能责任机制构建的难度。

    大语言模型往往基于特定数据集和算法进行训练。这些数据集和算法可能包含了人类偏见,而大语言模型在学习和模型人类语言及行为时,可能会吸收并放大训练数据中的偏见。如果缺乏相应机制去平衡和纠正这些偏差,可能会导致它们在价值观表达上缺乏多样性和包容性。以“电车难题”为例,迄今为止尚未找到完美解决方案。在“电车难题”争论中,道德绝对主义者坚持保全岔道上一位陌生行人生命而牺牲被捆绑在铁轨上无法逃脱的五人生命,这种选择饱受争议。其之所以遭受诟病,是因为在本质上违背了普遍社会价值观,即牺牲绝大多数人利益以保全小部分人利益。显然,这种价值观与人类主流价值不符。如果用于训练大语言模型的数据集包含道德绝对主义思想,可能会导致大语言模型出现一些问题。第一,偏见倾向。一方面,这可能会导致大语言模型对某些特定价值观过于偏向,从而忽视其他价值观,这使得生成式人工智能系统决策时在特定领域上可能会产生偏见。另一方面,这可能会导致大语言模型仅仅反映特定时间或特定地区公众观点,而生成式人工智能决策系统会进一步反映并强化这些偏见,从而无法引领社会走向包容进步。第二,缺乏适应性。这可能会导致大语言模型缺乏适应性与灵活性,表现为难以处理复杂问题,从而导致生成式人工智能决策系统不合理或产生固执反应,进而无法根据不同情境和用户需求进行相应调整。

    道德功利主义与道德绝对主义相对。由于道德功利主义训练的大语言模型侧重于最大化效用和结果,这可能会忽视个体权益保护。同样是面对“电车难题”,道德功利主义坚持牺牲岔道一位陌生行人生命而保铁轨上被捆绑无法逃脱的五人生命。通常,这一抉择符合社会普遍共识但伤害个人利益,缺乏对个人最基本的人文主义关怀。因此,使用道德功利主义数据集训练大语言模型也会导致一些问题。一方面,道德功利主义的关注点是结果并非情感,其训练的大语言模型可能只关注如何最大程度地获取利益,这可能会导致生成式人工智能在做出决策时仅追求结果最大化,从而缺乏对个体的人文关怀,进而忽视保护个体权益。另一方面,使用道德功利主义数据集训练的大语言模型可能会导致生成式人工智能决策系统作出社会资源分配不公正的决策,也意味着一些特殊个体或弱势群体可能会遭受不公平对待。

    构建生成式人工智能责任机制最根本的挑战在于“算法黑箱”难题。“算法黑箱”指“算法在输入、运行及输出过程中不公开、不可知、不可解释、不确定的状态”[13]。“算法黑箱”的诱因包括两个方面:一方面,算法复杂导致大语言模型不可解释,这类问题存在于深度学习算法中;另一方面,由于算法设计者不向用户公开其算法原理与运行机制,导致用户对算法特征与运算过程毫不知情[14]。因此,算法技术逻辑与应用方式非透明导致的人工智能生成内容(Artificial Intelligence Generated Content,AIGC)不能完全被用户所知、所信及可信赖,从而导致了“生成式人工智能尚无法被信任、监督、难以追责等治理困境”[15]

    算法决策过程和逻辑不公开且无法追踪,这种不透明性使得用户和监督者很难验证算法决策的合法性与合理性,从而影响了公众对生成式人工智能技术的信任。这源于算法输入过程的非透明性,具体包括五个方面。第一,数据收集方式非透明。通常情况下,人工智能企业缺乏对算法输入的数据如何收集、从哪些来源获取的公开说明。例如,部分人工智能企业可能从用户的浏览记录、搜索习惯等隐蔽数据中收集数据,然而用户并不清楚这些数据的具体获取方式和范围。第二,数据处理与数据选择非透明。在算法运行前,输入的数据通常会经过筛选和预处理,人工智能企业也不会公开这些处理规则和细节。例如,哪些数据被视为噪音而被排除、哪些数据被优先考虑等都是算法设计者的内部策略。第三,输入数据的特征工程过程非透明。特征工程是指从原始数据中提取特征并作为算法输入,这一过程可能涉及复杂的运算转换、归一化、类别编码等步骤。这些操作的具体细节和逻辑通常是算法开发团队的商业机密。第四,输入数据的加权机制非透明。算法通常会对输入数据中的不同特征赋予不同权重,但这些权重如何确定及背后逻辑并不公开。例如,在算法推荐系统中,算法可能会根据用户历史数据给某些输入特征更高权重,从而影响推荐结果,但用户并不知道具体权重分配。第五,隐私数据使用的非透明。某些算法可能会利用用户敏感信息作为输入(如用户位置、用户社交关系等),但这些数据使用并未提前明确告知用户,或者即使告知用户其也不清楚这些数据的具体使用方式。因此,这种算法输入过程的“非透明”,可能会导致算法决策过程和输出结果无法被用户了解并接受相关部门监督,从而易引发数据泄露、隐私侵犯和算法歧视等问题。

    算法运行过程中的算法逻辑和模型结构等不可观测,导致监管机构难以对算法的输出结果进行有效监督和责任归属,也无法验证算法是否遵循科技伦理和法律规范,从而无法确保算法是否诱发不公正或歧视性结果。这些由算法运行过程的不可观测性引发,具体包括六个方面。第一,算法逻辑和模型结构不可观测。算法在运行过程中具体运用逻辑、模型结构、计算步骤不可观测。例如,深度学习模型中的神经网络层数、激活函数、参数设置等详细信息,对于用户来说都是黑箱操作。第二,决策过程不可观测。深度学习算法虽然能够给出准确结果,但难以解释其决策过程,这意味着即使算法得出结论,用户也无法理解其因果关系。例如,在人脸识别系统中,算法如何识别出某张照片中的个体,但用户对其背后的计算步骤和逻辑并不清楚。第三,动态调整和实时学习不可观测。某些算法会根据新数据进行实时学习和动态调整。例如,推荐算法系统会根据用户的即时行为调整推荐结果,然而“推荐算法不过是迎合某种价值观念的技术手法,是服务于某种意识形态的工具手段”[16]。因此,这种动态学习过程使得用户无法获知其变化机制,甚至可能都察觉不到算法调整。第四,参数优化和调节过程不可观测。在算法运行时,可能会涉及大量参数调优,但这些具体的参数优化方法和过程没有对外公开。例如,大语言模型可能会根据某些特征表现进行自适应权重调整,但用户看不到具体调整策略和优化目标。第五,分布式处理和多模型协同的不可观测。一些复杂的系统会在后台运行多个算法模型,并通过协同方式得出最终结果。用户无法知晓每个模型分别做了何种决策,多个模型之间如何协同及分布式处理如何进行。第六,数据流和数据路径不可观测。算法在运行过程中,数据如何在系统中流转、哪些步骤会对数据进行操作,这些细节对用户而言不可观测。尤其在复杂的云计算环境中,数据可能会被分发到多个节点处理,用户很难掌握具体路径和处理逻辑。

    “人类通过算法认识的世界并不是‘完整’的世界,而是‘算’出来的世界。”[17]然而,这样的计算过程通常不可解释,具体包括六个方面。第一,算法结果无法追溯到具体输入数据和计算逻辑。算法的输出结果是基于复杂计算过程得出,但用户无法从输出结果追溯到具体的输入数据和中间计算步骤。例如,大语言模型可能会给出一个分类或预测结果,但无法解释具体输入特征在多大程度上影响了这个结果。第二,黑箱模型的结果难以解读。特别是在神经网络等深度学习模型中,模型的内部参数和结构非常复杂,即便是模型的设计者也难以直接解释每个输出结果背后的原因。这些黑箱模型缺乏透明性,直接导致用户无法了解结果是如何产生的。例如,一个图像识别模型在判断一张图片是猫还是狗时,无法清晰解释根据哪些特征形成这个判断。第三,决策逻辑的不可解释。一些算法会在输出时给出建议或决策,但用户无法知道背后的决策逻辑。例如,信贷评分系统会根据用户的信用信息给出贷款是否批准的结果,但具体评分模型和每个特征的影响权重都没有公开,这使得用户很难理解为什么被拒绝或被批准。第四,缺乏对中间步骤和权重的可视化。算法在得出最终输出时,可能会经历多个中间步骤和计算层次,每一步都有特定的计算逻辑和权重分配,但这些中间信息对用户是不可见的。例如,在自然语言处理算法中,算法会通过多层嵌套的计算过程得出情感分析结果,但用户无法看到各层的计算细节。第五,预测结果的原因难以解释。尤其在预测性分析中,算法输出一个未来事件发生的概率,但很难解释是什么因素和模式导致了这个预测结果。例如,股票预测模型可能会预测股价上涨,但具体哪些因素导致模型做出这种预测,用户则难以理解。第六,结果的多义性和随机性。算法的输出可能带有随机性或偶发性,但这种随机性和偶发性背后的原因无法解释清楚。例如,在生成内容的模型中,如生成文本或图像,相同的输入可能会得到不同输出,用户很难知道算法是如何进行选择和改变。因此,这种不可解释性会给算法的透明性和可靠性带来挑战,尤其在涉及安全性、伦理性和法律合规的场景下,会影响用户对生成式人工智能的信任和接受。

    生成式人工智能造福人类还是伤害人类?这在很大程度上取决于人工智能企业开发和使用这种技术的动机,也从根本上对人工智能企业研发应用的行业规范提出更高要求。目前,生成式人工智能行业非规范化研发应用问题已经出现,主要包括四个方面:人工智能企业无序过度收集数据引发用户权益受损,人工智能企业伦理失范引发的技术信任危机,生成式人工智能技术使用范围不明晰加剧的技术焦虑,生成式人工智能技术的恶意使用可能诱发新型社会犯罪,这些问题正在冲击科技伦理。

    人工智能企业无序过度收集数据引发用户权益受损已经成为生成式人工智能责任机制构建面临的重大挑战之一。人工智能企业无序过度收集数据可能基于三个方面的原因。第一,数据不足。训练大语言模型是人工智能企业增强竞争力的核心方式,而数据对于训练大语言模型至关重要。对于初创人工智能企业而言,大规模的数据使用意味着其需要付出更高昂的资金成本,因此在无法获得足够合法数据的情况下,这些企业可能会无序过度收集未被授权的数据。第二,数据多样性需求。训练大语言模型需要多样性数据以提升其性能和泛化能力,有些人工智能企业可能在特定领域或特定类型数据上收集能力受限,为了获取多样性数据,这些人工智能企业可能会通过无序过度收集提高数据多样性。第三,机密信息。部分人工智能企业可能希望获得竞争对手的商业数据或机密,以便在竞争中获取更多优势,因此他们可能会无序过度收集竞争对手的数据。

    人工智能企业这些无序过度收集数据的行为可能导致用户权益受损,主要包括四个方面。第一,泄露用户隐私。部分人工智能企业无序过度收集数据侵犯了用户隐私权,特别是涉及用户敏感信息时,可能会导致用户身份失窃,甚至引发用户遭到电信诈骗等严重后果。第二,增加用户数据安全风险。未经授权的数据收集往往没有得到适当保护,容易遭到黑客攻击,从而危害用户数据安全。第三,算法偏见与歧视。部分人工智能企业无序过度收集的数据往往缺乏合规性,其可能包含不准确或携带偏见的数据,从而导致生成式人工智能产生不公平和歧视性决策。第四,用户信任缺失。部分人工智能企业无序过度收集数据行为被曝光后,可能会影响用户对这些企业的信任,从而导致企业品牌声誉受损,甚至引发用户对其提供产品和服务的抵制。这些问题警示人工智能企业:应当在数据收集和使用方面严格遵守人工智能科技伦理规范与法律法规,确保数据收集的合伦理性与合法性。

    “历史一再证实,人类有了权力或能力就可能滥用。”[18]354然而,生成式人工智能应用的潜在风险正源于技术滥用而引发的技术“异化”[19]。部分人工智能企业为了追求商业利益最大化,决定降低技术伦理问题优先级,这引发了公众对生成式人工智能技术滥用的担忧。例如,2023年4月,ChatGPT遭遇大面积封号,而OpenAI公司没有对此作出解释或声明,这令用户感到担忧。这些问题可能对生成式人工智能可持续发展造成两方面的负面影响。第一,削弱市场信任。如果公众普遍认为人工智能企业对用户缺乏人文关怀,这将导致用户对该企业相关产品与技术服务不信任。这种信任危机会阻碍生成式人工智能的推广和商业应用,累积到一定程度会减缓人工智能行业整体创新速度。第二,平衡成本投入。人工智能企业伦理失范的累积效应可能会引发监管机构加强对生成式人工智能的监管。例如,政府可能出台更严格的隐私保护法案和内容生成审核规定,这将增加人工智能企业的合规成本,并在一定程度上限制生成式人工智能技术的自由创新。

    生成式人工智能技术争议不断的原因之一,是这种技术使用范围尚未被清晰界定。当下,以对话者形式出现的人工智能聊天机器人、虚拟助手及智能音箱等[20],正在丰富生成式人工智能的应用场景,然而其滥用风险也随之增加。欧盟《人工智能法案》(简称《法案》)对“不可接受”的技术进行了明确界定,严格禁止“对人类安全造成不可接受风险的人工智能系统”,包括有目的地操纵技术、利用人性弱点或根据行为、社会地位和个人特征等要素进行评价的系统等。同时,《法案》对高风险人工智能用途也进行了明确规定,包括关键基础设施、教育和职业培训、就业、基本私人和公共服务(如医疗保健、银行)、执法、移民和边境管理、司法和民主程序(如影响选举)。此外,《法案》强调此类系统必须经评估和降低风险,维护使用日志,并确保透时准确和受人工监督[21]

    即便如此,《法案》对于低风险领域的使用尚无明晰界定。本文由此推断,全球范围内最为严格的人工智能立法尚未对于低风险领域生成式人工智能技术的使用范围进行清晰界定,这进一步导致了生成式人工智能在尚未明确可用范围中的争议性应用,由此也更容易引发公众的技术焦虑。技术焦虑是“机器人、人工智能新技术革命已经使经济发展和劳动力市场发生了革命性的变化”[22]的副产品。然而,相当一部分人工智能企业在推广新技术时,往往优先考虑新技术带来的商业价值,却忽视技术的使用范围,尤其在备受争议的领域盲目使用该技术,使得用户更容易出现技术焦虑。因此,在自动驾驶、智能医疗等领域,人工智能企业应减少在争议中盲目使用该技术,从而缓解公众的技术焦虑,为促进生成式人工智能可持续发展营造良好舆论氛围。

    生成式人工智能技术可能被用于助长社会性犯罪,其根源不在于这种技术本身的属性,而在于犯罪团体对此种技术的恶意使用。尤其是由非法组织或不法分子操纵的恶意人工智能大语言模型,其直接目的是用于各类非法行为。例如,2024年8月,中国公安部在“推动高质量发展”系列主题新闻发布会上公布:近年来累计抓获缅北涉诈嫌疑人5万余名[23],而这些多与诈骗团伙操纵恶意人工智能大语言模型相关。同月,大量利用深度伪造技术制作色情合成物的“电报”聊天群在韩国社交媒体上曝光,受害者遍布全韩国,涉及明星、军人、老师、护士、学生等不同群体。生成式人工智能“向善”还是“致恶”?“缅北诈骗”正在以高危险性的反人类行为威胁社会安全稳定,韩国“电报”聊天群事件引发了人类对生成式人工智能技术的恐慌。如果公众的技术恐慌情绪无法得到及时疏解,人工智能企业没有及时引导公众建立对生成式人工智能技术的信任,可能会引发公众对该技术的抵制情绪。

    构建生成式人工智能责任机制,推动生成式人工智能技术在对人类“负责任”的轨道上前进,是推动这种技术持续创新发展的必由之路。为此,利益相关方应协同努力,促进人机共融,以“人性之善”引导“技术向善”;解构“算法黑箱”,提升技术透明;优化政府治理规范,增强弹性监管;协调利益平衡,强化人工智能企业社会责任。

    促进人机共融,以“人性之善”引导“技术向善”是构建生成式人工智能责任机制的前提。虽然人工智能更懂策略、更有知识且更会创作,但是它们的外表不像人,其不但具有理性无法进入的黑箱性[24]24,而且还具有被人类“教坏”的风险。人类是善恶价值观的承载者与践行者,应有责任通过“人性之善”引导“技术向善”。

    人工智能企业应当秉持“以人为本”的理念,将对科技伦理的考量纳入生成式人工智能技术开发部署的全过程,坚决捍卫人类尊严和福祉。想要设计人本主义导向的生成式人工智能,需要做好两个方面的工作。一方面,设计伦理嵌入式算法。在生成式人工智能技术设计中需引入科技伦理指导原则,如透明性、公平性、公正性等。通过这样的指导原则可以减少算法歧视与偏见,增加生成式人工智能决策对所有用户群体公平公正的概率。另一方面,提升用户体验与增强共情设计。生成式人工智能产品的设计需要关注用户的情感和心理需求,增强生成式人工智能对人类情感的理解,体现共情能力,以减少用户在技术使用中的不适感和焦虑,从而推动人机交互更自然、更人性化,进而促进人机共融。

    促进真正的人机共融,一方面,要增强协同与优势互补。通过将生成式人工智能的计算、分析优势与人类智能、情感和创造性优势相结合,实现“一加一大于二”的协同效果。例如,在医疗领域中,生成式人工智能可以进行大数据分析,而人类医生能够提供关键性的诊断判断,采取人机协同合作,可以提升医疗质量。另一方面,进行多模态人机交互。这需要发展自然语言处理、计算机视觉和语音识别等多模态交互技术,使生成式人工智能能够理解并回应用户多种信息输入,有助于打破人机之间的技术障碍,从而打造更智能流畅的交互体验,促进更顺畅的人机交互。

    解构“算法黑箱”,提升技术透明度是构建生成式人工智能责任机制的关键。“智能算法推荐具备工具理性、科技理性的条件与特征,精准快速高效体现了人类技术进步。”[25]而智能算法推荐中的“算法黑箱”问题导致的非透明性、不可观测性、不可解释性等,正在阻碍生成式人工智能责任机制构建。

    设计可解释算法需要做好三项工作。第一,选择可解释模型。算法工程师在设计算法时需要选择自身可解释模型,如线性回归、决策树和规则基础模型等,这些模型本身的结构使其决策过程容易理解。此外,对于复杂模型,如深度神经网络,需要采用集成方法和透明化策略(如集成学习和特征重要性评估),以提供相对简洁的解释。第二,采用可解释性增强技术。一方面,采用后处理可解释性方法,如局部可解释模型;另一方面,采用基于代价函数的解释方法,从而对任意黑箱模型进行局部解释,展示特定输入对输出的贡献。第三,对抗性训练。在大语言模型训练过程中引入对抗样本,以增强其对输入变化的敏感性,同时确保可解释性,有助于揭示生成式人工智能的决策逻辑。

    做好算法透明性与文档化工作。第一,采用明确的透明框架,定义算法的各个组成部分,包括数据来源、模型训练过程和决策逻辑,透明地列出使用的数据集、模型参数及对训练过程的描述。第二,使用数据字典和模型文档来详细说明输入特征、输出预测、算法的假设条件,以及潜在偏见和局限性。第三,生成全面的技术文档和合规性报告,以便于内部评估和外部审查。这些文档应包括算法的目标、实现方法、测试结果和潜在风险。此外,还需要定期进行算法审计与评估,以确保算法的透明度和合规性,而审计结果也应向公众公开。

    搭建用户友好的可互动性界面。第一,搭建用户友好的可解释性界面,开发可视化工具,使用户能够直观理解大语言模型的决策过程。例如,利用可视化图表和交互式界面展示特征重要性、决策树路径或预测的原因,从而增强用户对大语言模型的理解。第二,提供旨在研究机器学习模型的交互式可视化工具,允许用户通过修改输入特征来观察大语言模型输出的变化,以帮助用户理解其行为的底层逻辑。第三,在系统中建立用户反馈机制,让用户在使用过程中能够报告不准确的预测结果,或提供能够提升大语言模型透明度的建议,并收集反馈以帮助大语言模型改善可解释性和提高透明度。

    优化政府治理规范,增强弹性监管是构建生成式人工智能责任机制的保障。目前,即使生成式人工智能技术发展进入了黄金时期,然而由于“其在伦理和政治上引发的诸多争议,已经使得人类主观放慢对这种技术的创新速度”[18]379。例如,2023年9月,在美国召开的人工智能洞察论坛(AI Insight forum)上,埃隆·马斯克(Elon Musk)主张人工智能企业需要一名仲裁员来确保公司采取安全且符合公众利益的行动。2024年3月13日,欧盟通过的《人工智能法案》在部分专家看来其监管过于严苛,这或许会挫伤人工智能企业的积极性,导致部分人工智能企业因顶不住欧盟监管压力而退出欧洲市场。因此,为了在生成式人工智能创新与监督间取得平衡,需要优化政府治理规范,增强弹性监管。

    优化政府治理规范需要采用“关键算法系统分类”的监管方式。一方面,通过行政传票授权,进行算法审查和审计。相关监管机构将被授权通过行政传票收集必要的数据、文档、代码和模型对象,算法决策系统的开发商和部署者都可能受到行政传票约束。监管机构有权使用这些行政传票对单个算法决策系统进行算法审计。此外,对某个算法系统类别的影响进行审查也需要被授权。另一方面,创建新式监管工具,授权监管机构在法定权限内发布和执行针对社会重点领域算法系统的法规,主要包括三个方面。第一,算法风险的认定。例如,使用算法系统对关键资源或服务构成的各类风险,如金融、安全、紧急或社会服务等,监管机构需予以证明。第二,算法影响规模及覆盖范围的认定。监管机构需证明已经部署的某一类别的算法系统会影响居民,或已经对特定的公众(如特定受保护群体或特定职业者)中超过一定比例(如25%或更多)的群体产生了影响。第三,算法授权范围的认定。监管机构需证明某一类别算法系统作出决策或影响的程序由相关机构进行监督。

    https://aiig.tsinghua.edu.cn/info/1442/1959.htm

    协调利益平衡,强化人工智能企业社会责任是构建生成式人工智能责任机制的重要补充。“大语言模型的信任问题,实则是人彼此之间的信任问题。”[24]30因此,人工智能企业需要赢得公众信任成为推动此种技术被信任及可持续性发展的重要因素。

    协调利益平衡,强化人工智能企业社会责任,需要做好四个方面工作。第一,透明沟通。人工智能企业应该与用户积极沟通,向用户解释生成式人工智能的工作原理,以及可能诱发的应用风险。这包括需要在部署生成式人工智能系统时对用户提供清晰说明,告知用户哪些数据被收集和被如何使用。第二,公开算法。用户对于算法设计、运行方式、决策过程及决策结果高度关注并表示担忧,人工智能企业应该尽可能地公开其算法的基本原理和大语言模型训练过程,使用户能够更透明地了解算法设计的依据、算法运作的工作原理及决策过程。第三,加强与专家合作。人工智能企业应该积极寻求与专家合作,专家参与有助于减少生成式人工智能决策的潜在偏见与错误判断。第四,加强人工智能知识宣传与普及。人工智能企业应当加强关于人工智能技术的知识宣传,尤其要加强宣传生成式人工智能技术的优势和缺陷,加强公众对人工智能企业及其所开发技术的了解,帮助公众理性审视技术的利与弊,提升公众人工智能素养。

    人工智能技术在增进人类福祉的同时,也带来空前复杂的伦理风险和治理难题。构建生成式人工智能责任机制,推动生成式人工智能技术对人类“负责任”,是技术持续创新发展的必然选择。

    第一,“负责任人工智能”指人类在设计和应用人工智能时,需要充分考虑到其社会影响与科技伦理问题,以确保人工智能透明、可解释、安全、可靠、公正及对人类负责。生成式人工智能责任机制构建的原则包括公正平等、透明和可解释、隐私和安全、账户与责任、公开与合作、可持续发展。此外,构建生成式人工智能责任机制的核心目标是确保此技术的发展能真正服务于人类福祉,推动社会进步。

    第二,生成式人工智能责任机制构建面临多重挑战。首先,多元价值冲突挑战生成式人工智能决策机制一致性,包括道德绝对主义训练的大语言模型存在价值观狭隘、道德功利主义训练的大语言模型漠视人文主义。其次,“算法黑箱”难题增加了生成式人工智能责任机制构建的复杂性,包括算法输入过程的非透明性形成的不公开、算法运行过程的不可观测性形成的不可知、算法输出过程的不可解释。最后,生成式人工智能行业非规范化研发应用对科技伦理造成冲击,包括人工智能企业无序过度收集数据引发用户权益受损、人工智能企业伦理失范引发的技术信任危机、生成式人工智能技术使用范围不明晰加剧的技术焦虑、生成式人工智能技术违法滥用诱发的社会性犯罪风险。

    第三,构建生成式人工智能责任机制必须探索新路径。首先,促进人机共融,以“人性之善”引导“技术向善”,包括设计人本主义导向的生成式人工智能、增强人机协同与互补。其次,解构“算法黑箱”,提升技术透明,包括设计具有可解释性的算法、算法透明性与文档化、搭建用户友好的可互动性界面。再次,优化政府治理规范,增强弹性监管。最后,协调利益平衡,强化人工智能企业社会责任,包括透明沟通、公开算法、加强与专家合作、加强人工智能知识宣传与普及。

    及时有效构建生成式人工智能的责任机制,有助于推动生成式人工智能技术更广泛地应用于生产生活各个领域,并同时确保其受到充分监管和合规制约。生成式人工智能迈向通用人工智能的速度愈来愈快,“未来更加强大且通用人工智能模型是否可能导致灾难性风险或极端风险的问题也受到了更多关注。”[26]为此,构建生成式人工智能责任机制已迫在眉睫,人类应当积极探索更多新路径,持续性地推动这种技术对人类“负责任”。

  • [1] 马斯克率一众科技圈大佬发声: 应暂停训练比GPT- 4更强大的AI系统[EB/OL]. (2023-03-29)[2024-10-18]. https://baijiahao.baidu.com/s?id=1761688767716274674.
    [2]

    ANDREESSEN M. Why AI will save the world[EB/OL]. (2023-06-07)[2024-11-03]. https://fortune.com/2023/06/07/marc-andreessen-ai-manifesto/.

    [3]

    KURZWEIL R. The singularity is nearer: when we merge with AI[M]. London: The Bodley Head, 2024: 285.

    [4] 首届人工智能安全峰会发布《布莱奇利宣言》[EB/OL]. (2023-11-03)[2024-11-03]. http://www.news.cn/world/2023-11/03/c_1129955096.htm.
    [5]

    BENGIO Y, HINTON G, YAO A, et al. Managing AI risks in an era of rapid progress[J]. Science, 2024, 384(6689): 842-845.

    [6] 尼克·波斯特洛姆. 超级智能[M]. 张体伟, 张玉青, 译. 北京: 中信出版社, 2015: 8.
    [7] 经合组织发布人工智能原则评析[EB/OL]. (2019-06-05)[2024-10-20]. http://www.secrss.com/articles/11178.
    [8] 迈克斯·泰格马克. 生命3.0[M]. 汪婕舒, 译. 浙江: 浙江教育出版社, 2018: 54-55.
    [9] 发展负责任的人工智能: 我国新一代人工智能治理原则发布[EB/OL]. (2019-06-17)[2024-11-03]. https://www.gov.cn/xinwen/2019-06/18/content_5401128.htm.
    [10] 雷·库兹韦尔. 人工智能的未来[M]. 盛杨燕, 译. 杭州: 浙江人民出版社, 2016: 208.
    [11] 尤瓦尔·赫拉利. 智人之上: 从石器时代到AI时代的信息网络简史[M]. 林俊宏, 译. 北京: 中信出版社, 2024: 160-197.
    [12] 乌尔里希·贝克. 风险社会: 新的现代性之路[M]. 张文杰, 何博闻, 译, 南京: 译林出版社, 2018: 6.
    [13] 张楠, 闫涛, 张腾. 如何实现"黑箱"下的算法治理?——平台算法推荐监管的测量实验与策略分析[J]. 公共行政评论, 2024(1): 25-44.
    [14] 孟天广, 李珍珍. 治理算法: 算法风险的伦理原则及其治理逻辑[J]. 学术论坛, 2022(1): 9-20.
    [15] 贾开. 人工智能与算法治理研究[J]. 中国行政管理, 2019(1): 17-22.
    [16] 蒋俊明. 推荐算法影响下主流意识形态传播的挑战及应对策略[J]. 马克思主义研究, 2024(3): 143-154, 156.
    [17] 刘伟兵. 算法的意识形态与意识形态的算法[J]. 深圳大学学报(人文社会科学版), 2024(1): 152-160.
    [18] 尤瓦尔·赫拉利. 人类简史: 从动物到上帝[M]. 林俊宏, 译. 北京: 中信出版社, 2017.
    [19] 王海威. 人工智能诱发隐性意识形态风险的逻辑机理及化解策略[J]. 马克思主义研究, 2024(4): 124-133.
    [20] 黄文森, 狄丰琳, 余佳慧等. 全面认识平台: 2022年全球传播学研究综述[J]. 新闻界, 2023(1): 21-38.
    [21] 欧盟人工智能立法取得进展[EB/OL]. (2023-12-14)[2024-10-14]. http://www.xinhuanet.com/tech/20231214/0503612e2f8f43d1b8b7bfa6253ba733/c.html.
    [22] 屈小博, 吕佳宁. 机器人、人工智能对中国劳动力市场的效应及异质性分析[J]. 北京工业大学学报(社会科学版), 2025(2): 146-162. doi: 10.12120/bjutskxb202502146
    [23] 张天培. 安全指数连续保持高水平——人民群众安全感不断提升(推动高质量发展·权威发布)[N]. 人民日报, 2024-08-28(02).
    [24] 吴冠军. 再见智人: 技术-政治与后人类境况[M]. 北京: 北京大学出版社, 2024.
    [25] 陈昌风, 石泽. 技术与价值的理性交往: 人工智能时代信息传播——算法推荐中工具理性与价值理性的思考[J]. 新闻战线, 2017(17): 71-74.
    [26] 曹建峰. 大模型背景下的人机对齐[EB/OL]. (2024-10-29)[2024-11-02]. https://cssn.cn/skgz/bwyc/202410/t20241029_5797216.shtml.
  • 期刊类型引用(1)

    1. 陈默,王宇,赵文婷,杨清元,陆智辉,黄萃. 全球人工智能治理的监管模式差异化分析及其优化策略——基于代表性国家政策文本的内容分析. 信息技术与管理应用. 2025(02): 30-42 . 百度学术

    其他类型引用(0)

计量
  • 文章访问数:  0
  • HTML全文浏览量:  0
  • PDF下载量:  0
  • 被引次数: 1
出版历程
  • 收稿日期:  2024-07-09
  • 网络出版日期:  2025-05-09
  • 刊出日期:  2025-05-09

目录

/

返回文章
返回