今天:
当前位置: 首页 > 学报动态 > 重点文章推荐 > 哲社版 > 正文
哲社版
重点推介:喻国明 陈雨婷 席一帆|AIGC下社会信任重建的逻辑可能与实践路径
作者: 来源: 发布时间:2025-11-19 阅读量:

喻国明  陈雨婷  席一帆.AIGC下社会信任重建的逻辑可能与实践路径[J].辽宁大学学报(哲学社会科学版),2025,(05):1-7.


DOI:10.16197/j.cnki.lnupse.20250827.001


AIGC下社会信任重建的逻辑可能与实践路径

喻国明 陈雨婷 席一帆


摘 要:伴随着生成式人工智能(即AIGC)的引爆式流行和广泛讨论,媒介技术与社会之间的复杂关系再一次被推向前台。重建社会信任作为现代社会的关键议题,在AIGC的概念内涵与外延中焕发出新的生机。AIGC或将成为重建社会信任的全新契机与抓手,但也带来了新的警示性问题。文章研究认为,AIGC在修复、强化特殊信任与一般信任、建立陌生人信任等方面存在逻辑可能,在重建制度信任层面具备技术可供性。同时,研究也不断反思在重建社会信任过程中可能存在的或是已经存在的信任危机,并在协同进化与多方共治的视角下,提出建立人机共生下的动态信任、实现信任网络中的分布式责任治理等实践路径。

关键词:社会信任;制度信任;AIGC;可解释的人工智能;分布式责任治理

  

一、问题的提出


我们的时代比过去任何一个时代都迫切需要信任,因为“我们已经从依赖于命运的社会发展到了由人的行动而推动的社会。为了积极而建设性地面对未来,我们需要运用信任”。随着信息通信技术的持续发展与生成式人工智能的迅速扩张,传统社会的人际信任、制度信任在新的技术环境中面临着新的挑战,后真相问题愈演愈烈。所谓“后真相”,更大程度上是传统信任关系的解体与共识机制达成的迷茫,当没有新的权威机制与信任抓手时,如何凝聚共识、如何重建信任显得尤为重要。从哲学层面看,真相似乎有着多面性,但从媒体角度来说,准确描述、判断和呈现一些基本事实,仍是必需的。如蓝江所说,我们需要“重建一个可以接近客观性标准的框架”。后真相问题的化解和社会信任的重建需要新的思路,需要新的数字参与文化和多元力量的共振。基于算法、算力、数据的智能化整合的AIGC(Artificial Intelligence Generated Content,生成式人工智能)在信息支持方面拥有全新的力量,为我们在后真相时代进行真相追寻与社会信任的建立提供了新的选择。基于此,本文试图探讨AIGC作为一种新的技术体,会为社会信任问题的重建带来怎样的可能?在这一过程中又可能存在怎样的信任危机,我们应当如何利用技术,去解决技术产生的问题,来建立人与人之间更稳健的信任关系?


二、技术嵌入型信任:AIGC 重建社会信任的逻辑可能


信任模式与特定的社会结构、文化传统等息息相关,探究AIGC何以重建社会信任,就必须厘清现代社会的信任模式。对于社会信任,可以从两个方面进行类型划分:抽象系统的制度信任和以人格特征为基础的人际信任。对AIGC赋能人际信任和制度信任的讨论也将根据这一划分来分别展开。


(一)从被动到主动:现代社会的信任模式转型

英国著名社会学家吉登斯(Anthony Giddens)将信任界定为:个人“对一个人或一个系统之可依赖性所持有的信心,在一系列给定的后果或事件中,这种信心表达了对诚实或他人的爱的信念,或者,对抽象原则(技术知识)之正确性的信念。”其中,社会系统特指现代社会系统,主要是指抽象系统,即由象征标志和专家系统所组成的社会系统。从吉登斯关于一般信任的定义,我们可以看出吉登斯将信任划分为两种基本类型:一种是“人对人的信任”,即个体对他人特质的具体信任;一种是“人对系统的信任”,指的是个体对系统的正确原则的抽象信任。与建立在血缘共同体之上、在较为封闭的熟人社会圈子中、在信任双方诚信的持续回报中不断生成和增强的传统社会信任不同,现代风险社会中“人对人的信任”将逐渐被“人对系统的信任”所取代,被动的信任建立将逐渐变成积极或主动的信任。积极或主动的信任并不是一种新的信任类型,而是指无论是人际信任还是人对系统的信任都必须由个体积极主动地去创造或建立。正如吉登斯所说:“在人为不确定的情况下,这里有争议的是产生积极信任的问题——对别人或机构(包括政治机构)的信任,必须积极地创造和建立。”与只是被动依赖制度化角色的传统信任模式不同,积极主动的信任强调了个体在信任建立过程中的自主性和多样性。


(二)人际信任:以人格特征为基础的差异化信任模式

纵观中国社会的人际信任模式,大致经历了以血缘关系为核心的特殊信任到新中国成立后“单位制度”模式下的一般信任,以及改革开放之后现代化进程加速推进下建立起的对现代社会“脱域机制”的普遍信任。互联网的出现与发展,尤其是社交媒体的普遍应用,使个体的信任关系也发生新的变化。强连接下的时刻在场能够强化个体的特殊信任与一般信任,弱连接打破传统社交范围限制,则能够使得个体与个体之间发展出普遍信任,并通过多模态的交流方式走向一般信任甚至是特殊信任。一方面,对于一般信任(周围人信任)、普遍信任(陌生人信任)而言,依托“Bigger and Smarter(更大规模与更智能化)”战略,在高效率、高产能、多元化、低门槛的内容生产模式下,AIGC以人机协同参与的数字内容生成方式,打破了人、机器与信息资源之间的边界,重塑了信息资源生成和使用范式。在这一背景下,AIGC化身中立协调者,成为节点与节点之间的桥梁与纽带,借由强大的数据整合能力搭建了一个隐形的超级网络,显示出过去单一技术所不具备的涌现性。例如,在对某一事件的争议中,AIGC引入专家学者解读数据、民众诉说生活困扰、媒体反馈舆论焦点等环节,通过流畅转译、梳理各方观点,有助于全面、多样性地呈现信息,打破信息茧房与同温层效应造成的隔阂,推动各方在技术搭建的“对话”中实现倾听理解,在交流中重建对个体的信任。另一方面,AIGC在弥合广泛存在的代际鸿沟,修复、强化特殊信任(亲近人信任)方面也存在逻辑可能。AIGC能够以插件的形式嵌入不同的APP、智能设备当中,帮助长辈及时解答问题,并且以多模态的形式进行呈现。2021年,OpenAI发布了多模态模型CLIP(Contrastive Language-Image Pre-Training),它使用LAION-400M进行超大规模的图文训练,能够分别提取文本特征和图片特征进行相似度对比,通过特征相似度计算文本与图像的匹配关系,从而实现跨模态的相互理解。通过提供精准聚焦个体需求的文本、图片、视频等多媒体内容,AIGC既能够在一定程度上减轻长辈对子辈的信息需求,减缓被忽视的失落感,也能够为长辈了解子辈的生活、工作、学习提供接口,为彼此的沟通交流提供社交谈资。例如,长辈或子辈可以通过AI(人工智能)修复老照片或合成新的家庭照片,以此唤醒彼此之间温馨的亲情记忆。此外,利用云查询记录,子辈也可以了解长辈目前存在的疑惑和困难,及时给予情感抚慰和物质支持,修复和强化加速社会和智能时代下代际信任关系。最后,对于AIGC这样一种中介技术,人们往往怀有正向的机器启发式信念,认为相对于人类,机器在处理信息和进行判断时,不具备复杂的动机推理,不存在受到自身动机、愿望、情感、价值观等因素的影响,是更加客观的、中性的、一致的和安全的,对其有更高的信任度。比起以往一对多的大众传播,AIGC的对话式、全天候、即时性的回复给个体带来安全感和确定性,这种类似人际传播的私域人机传播,更容易形成一种情感上的亲密性,进而在这种亲密的基础上形成价值共振,使得基于付出—回报的信任链能够实现良好的循环,达成对智能时代人际信任的补充。


(三)制度信任:以“最小信任”为前提的全流程信任参与

在任何情况下,信任都是一种社会关系,社会关系本身从属于特殊的规则系统。当我们对某位陌生人、某个组织、某个事件表示信任的时候,是对其背后指示的某种规则、制度的信任,而不仅局限在表面对具体的人的信任。我们不是信任医生,而是相信大多数医生都能够掌握专业的医学知识和手术操作,也就是符合中华人民共和国国家卫生健康委员会设置的医生执业资格规则;我们通过网上支付与卖家进行交易,不是因为我们信任卖家,而是我们相信大多数卖家都能够遵守商务部发布的《第三方电子商务交易平台服务规范》和《中华人民共和国消费者权益保护法》等法律制度……如果缺乏对制度的“最小信任”,即“建立在制度基础上的稳定的心理预期要以信任制度为前提,尤其是对于自上而下实施的外在制度,以及以实施这些制度为目的的正式组织而言,人们要判断是否信任制度本身”,人们将失去对个体认知行为、个体间交往规则以及整个社会秩序的基本共识。AIGC通过大规模语料特征,以及多模态融合与转换、跨场景生成与应用等技术特征,也为制度信任的重建提供了可供性。信任制度的前提是理解制度。从海量的数据库中进行自主学习,再通过评估机制进行自我优化,AIGC能够在一次次的对话中对用户需求实现更精准的洞察和回应,成为公众意见和建议的收集器与“晴雨表”。通过分析、定位问题所属机构,生成式人工智能不仅可以向民众提供具体反馈渠道,还可以将数据库中同类的问题意见进行提炼和总结,向有关部门及时反馈,督促其关注并解决,同时还能将晦涩难懂的政策制度以个性化、生动化的呈现方式向公众传达,促进个体对制度政策的正确和充分理解,提供制度信任基础。信任制度的关键是利用制度,个体在信息接触过程中存在着一种选择性心理,并由此引导选择性行为。美国传播学者施拉姆(Wilbur Schramm)针对这一现象提出了著名的或然率公式,即选择或然率=报偿的保证/费力的程度。以ChatGPT为代表的生成式人工智能拥有约等于人类所有知识的海量的语料库和1750万亿个参数以上的计算,并且还在持续地从与人类的交流中进行自主学习,它可以化身为经济、法律、艺术、音乐等诸多领域的专家,以极低的成本向用户提供信息,为用户的认知、态度和行为提供参考。例如,当个体陷入法律纠纷等境地时,与支付高昂的法律咨询费相比,个体能够通过先向AIGC描述自己所遇到的问题,来询问法律判断。AIGC通过对诸如中国裁判文书网中相似案件的法院裁决进行整合分析,为用户提供参考意见与判决原因,拉近法律与个体生活的距离,从而推动用户更好地理解法律、利用法律制度来维护自己的合法权益,这种在运用制度过程中建立的信任会更加稳定和具有韧性。


三、信任鸿沟:在下游应用程序中回荡的信任风险

  

正如美国媒体文化学者尼尔·波兹曼在《技术垄断:文化向技术投降》中提到的,“每一种技术既是包袱也是恩赐,不是非此即彼的结果,而是利弊同在的产物”。在AIGC重建社会信任的过程中,如果存在威胁“信任链”良性循环的风险,甚至是负反馈时,信任惯性就会崩塌,转而成为不信任惯性。因此,有必要对AIGC参与社会信任重建存在的风险进行讨论和探究,明确问题所在,不断对其进行调适和升级,使得AIGC真正成为当下、未来的社会信任抓手。


(一)作为“镜子”的AIGC:“偏差”还是“幻觉”

AIGC进行预训练和深度学习的巨量数据和海量参数来源于人类社会,其表达方式、语言习惯、情感表达等都可以看作是对人类的模仿甚至是模拟。“当我们在ChatGPT面前嘲笑其回答多么愚蠢的时候,其实真正愚蠢的是人类自己,因为在问答环节,ChatGPT学习到的不仅是我们用文字提供的问题,也学习到了人类嘲笑它的态度和反应。”例如,在豆包、DeepSeek、Kimi等国内比较常用的AIGC对话框中,输入“请你生成手拿针管的护士形象”与“请你生成正在看诊的医生形象”的指令,三个AIGC很快给出了回应,但是均存在着性别与职业的刻板印象,生成的护士图片中,均为年轻女性,而生成的医生图片中,则均为年轻男性。由此可见,无论是对于美德的传承,还是对缺陷与错误的沿袭,机器都是人类既有文化的放大镜与推广者。如果训练使用的数据集本身具有地区、种族、性别等偏差,数据多样性的缺乏也会导致输出的答案具备不同程度的系统性偏差。而信任是在个体交往过程中对互利互惠的预期,只要预期损益是可计算的,便可通过“抵押物”来对冲风险。这种内嵌于技术中的偏差可能会加深个体对特定人群、职业等的刻板印象,降低对对方的回报预期,而当预期损益的计算出现偏差,则不利于个体间的信任建立。就AI幻觉这一风险而言,可以追溯到1936年,英国数学家艾伦·图灵(AlanTuring)在《计算机器与智能》一书中提出测试“计算机是否具有智能”的方法,即“图灵测试”。它需要计算机骗过与它对话的人类,让人类认为自己是在和真实的人类对话而不是一台机器,实质上这就是一种“欺骗游戏”。AIGC本身也继承和延续了这种“欺骗游戏”,它可以模拟人类的口吻和语言风格,在深度思考中向个体展示自己的逻辑自洽,最后提供一个看似有理有据、逻辑严谨,实则毫无根据,甚至是胡编乱造的答案,也就是“AI幻觉”。通过生成令人信服但具有误导性的新闻信息、图片、视频,利用深度伪造技术进行深加工,再通过社交机器人进行病毒式传播,这将会严重削弱公众对政府、媒体、机构的信任。总之,无论是“偏差”还是“幻觉”,这都是AIGC在重建社会信任过程中始终存在的风险与挑战,在重建社会信任的过程中必须得到有效的规制。


(二)作为“技术物”的AIGC:“监视”还是“控制”

法国技术哲学家吉尔贝·西蒙东(GiIbert Simondon)认为技术物的存在方式让人不可避免地变成其中的附属物和能量,而这一点进一步被现代国家的官僚制所利用,从而成为坚固的技术治理体制,即真正统治数字技术下人的生存方式的,并非数字技术本身,而是通过数字技术得到增强和巩固的官僚制的技术体系。著名的德国哲学家韩炳哲在《非物:生活世界的变革》一书中也具有类似的观点,他认为不是人类在使用智能手机,而是智能手机在使用我们,真正的能动者是智能手机,“我们受到这台信息泄露设备的支配,在这台设备的背后有不同的能动者在驾驭着我们、控制着我们转向”。在这样一个数据、算法、人工智能无处不在的数字时代,AIGC虽然能够为个体的生存提供更丰富的信息资源,扩大个体的实践自由度,但是其巨大的资金需求和技术门槛,使其掌握在少数互联网科技公司手中,表面上我们在使用AIGC,实际上我们只是被“售卖”的对象,这次我们给予的不仅仅是稀缺的注意力,还包括我们的隐私数据。这些隐私数据既包括我们主动交付的,即在注册AIGC相关应用程序时主动填写的身份信息、电话号码等,还包含我们在使用过程中输入的问题、上传的文件等,这些信息一经输入就会被纳入生成式人工智能的训练池中,成为日后其对个体进行画像和定位的依据,或是回答其他用户问题的参考,其中隐藏着巨大的信任危机。个体被迫调整自己的生活习惯、思维方式,使自己符合技术的逻辑,成为技术发展进程中的零件。不论是人际信任还是制度自信,都具有较强的张力,这是因为人们在信任建立的过程中是相对主动、自由、显性的。但在与机器的交流过程中,人们在智能应用中的行为都会被记录和计算,成为被监视的对象。基于这个背景所建立的信任关系存在天然的不平等,其产生的负面信任反馈所导致的信任危机也是破坏性的,甚至是颠覆性的。因为在这一轮人工智能革命中,权力结构并没有完全退场,而是戴上了技术中立的面具,实现新一轮更全面的控制。如果其对人类的监视和控制超出了社会公众可接受的最低限度,那么制度的“最小信任”也会受到毁灭性的打击。


(三)基于“概率计算”的AIGC:答案式的信息获取与千人千面的信息呈现

AIGC可以被看成基于网络模态演进和人工智能技术发展产生的新的生成式网络信息内容,兼具内容特征和技术特征。基于大数据语料库和高精度训练集的AIGC通过对提出的任务指令进行初步的0和1的转化,变成计算机所能够理解的语言,然后对训练集和语料库中的内容进行概率计算,获得最大排序可能的答案,在这个过程中机器并不理解它所组织和输出的内容代表着什么,它只关注形式而忽视内容。和AIGC之间的交流看似是与一个知识渊博的主体在交流,但实际上我们是在和被AIGC中介的机器交流,机器的计算不可避免地会忽视诸多细节,而细节作为琐碎的信息对个体的思考和判断有时也会起到补足线索、推动决策的作用。久而久之,机器这种机械、追求效率和概率的表述形式和思维方式会在人的身上进行自我投射,使人对真相的认知也变得机械、缺少逻辑。个体之间关于公共事件的讨论也只会流于表面,难以建立深层次的社会共识。此外,为了使AIGC能够更精准、有效地识别出用户的指令意义,用户常常需要对指令做其他的具体说明、增加更多的信息,从而使AIGC能够获得更多的判断与分析指标,给出提问者想要的答案。所以在运用AIGC的过程中,提问变得尤为重要。通过连续有效的追问,机器充分调动多个领域的语料库,针对提问和追问进行分析和计算,在短时间内给出回答。对于真相的认知而言,个体的提问方式不同、添加的提示词不同,也会使AIGC提供的内容呈现不同程度的差别,甚至同样的提问在不同时间段提出,得出的结果也会有所区别。因此,如果将完全依赖AIGC计算逻辑得出的信息内容作为判断真相的抓手,不对基本事实真相进行标注的话,千人千“真相”的风险也是可能存在的。无论是“答案式”的信息获取,还是千人千面的信息呈现,社会信任的建立和维护都需要建立在对事件的基本一致的共识基础之上,就这一问题而言,无论是AIGC还是人类自己都有很长的路要走。


四、实践路径:AIGC 时代的信任生态共建


随着AIGC技术的发展,以人类为中心的传统主体性哲学框架被打破,信任体系的建构基础随之发生根本性变革,从“人类独白”转向“人机共生”。正如法国社会学者拉图尔(Bruno Latour)的行动者网络理论所揭示的,AIGC时代的信任重建,依赖于人类与非人类行动者的协同进化与分布式责任共治。从动态发展的角度看,人与技术相互影响与塑造,社会信任的建立需要二者达成某种“势均力敌”的平衡。而从多元共治的角度来看,人—机—环境是一个复杂的有机整体,信任系统的运转需要内外力量的协作运行,才能获得韧性发展。


(一)协同进化:人机共生下的动态信任

德国社会学家齐美尔(Georg Simmel)提出“信任是社会中最重要的凝聚力之一”。传统信任是人类主体之间基于理性、伦理和社会契约的共识。在智能媒介社会中,AIGC作为一种新的“非人类行动者”,在重塑信息生产传播格局的同时,以“准主体”的身份参与信任博弈,冲击着传统以人类为中心的信任体系。而“红皇后假说”(RedQueen Hypothesis)为理解这一过程提供了全新视角——正如物种必须持续进化以维持生态位平衡,人与AIGC的信任关系也需通过动态协同实现稳定。人与机器并非简单的创造与被创造、主宰与被主宰的关系,而是类似两种不断进化、相互影响和塑造的生命间的共生关系。在这一背景下,重建社会信任:一方面,人类需要重构信任认知模式,形成“增强化信任”,发展科学合理的信任素养;另一方面,AIGC需在“以人为本”的前提下实现价值对齐。

1. 信任素养:增强化信任与信任校准

认知、接纳是建立信任的前提。智能传播时代,AIGC在彰显强大能力的同时,也存在着生产虚假信息、冲击就业岗位等问题,在一定程度上引发了人们排斥、恐惧、抵触的负面情绪。“从主客关系到共生关系,人类与机器的界限日益模糊,人机交互的安全距离被逐渐打破,这导致人类主体的未知性与失控感”。但正如麦克卢汉所言,“媒介是人的延伸”,AIGC作为一种新技术,超越了人类眼、耳、鼻、舌等感觉器官的延伸,是人脑与思维的延伸。由此,人们可以将AIGC视为一种技术赋能下的“人类增强”,消解“AI取代人类”的恐惧,通过与AIGC的动态协作,建立技术可供性下的增强化信任。与此同时,人们的智能媒介信任素养与智能技术的发展程度处于动态变化中,过度或滞后的信任素养都不利于形成广泛的社会共识,反而成为智能技术发展的掣肘。在协同进化的视角下,人们需形成与技术发展相匹配的大模型信任素养、智能技术信任素养等,对AIGC建立科学、合理、审慎、适切的信任。这不仅需要人们发展对技术能力的理性认知,明确AIGC的本质是建立在语言组合概率基础上的内容输出模式,而非人类所拥有的那种“思想”或者“思考”,打破对A“I 全知全能”的误解或崇拜,防止过度信任;还需要人们积极主动地拥抱新技术带来的变革,在实践中认识AI的潜力,例如,麻省理工学院(MIT)推出免费AI教学平台“Day of AI”,提供AI素养课程,搭建AI与人对话的桥梁,减少因无知带来的恐惧。

2. 价值对齐:原生式嵌入与迭代式对齐

价值对齐(Value Alignment)的核心思想可追溯至牛津大学人类未来研究院院长尼克·波斯特洛姆(NickBostrom)的早期研究。他提出的“回形针制造机”(Paperclip Maximizer)揭示了未对齐价值观的超级智能可能对人类造成的灾难性后果:若AI被设定“最大化生产回形针”这一简单目标,它可能不惜摧毁地球资源以实现目标。这一思想奠定了价值对齐的理论基础,强调AI系统需要与人类伦理和价值观保持一致。价值对齐的核心在于“令人工智能在行动上体现出与人类价值观相协调的逻辑,使其在与人类的协作中保持安全、互信和可靠”。AIGC若与人类价值观偏离,可能导致“技术主导叙事”的异化,例如算法基于历史数据生成歧视性内容、为追求效率最大化生成虚假信息等。为约束技术目标,确保其服务于人类福祉,本文依照AIGC开发应用的路径提出实现价值对齐的思路。一是原生式嵌入,即在模型开发阶段嵌入合法、合理的价值观,如人工智能初创公司Anthropic通过“宪法AI(Constitutional AI)”的训练方法,为Claude聊天机器人提供明确的“价值观”,要求AI遵守预设伦理规则;在数据预处理阶段剔除偏见性样本,采用公平性约束算法,如IBM研究院开发Al Fairness 360(简称AIF360)工具包,用于检测和缓解机器学习模型中的偏见。二是迭代式对齐,即基于人类反馈强化学习(RLHF),AIGC通过用户对生成内容的数据反馈持续优化输出,使模型偏好逐步接近人类价值观;在模型中内置安全审核机制,如OpenAI提供Moderation API,用于审核和过滤内容中的不合规信息,如暴力、仇恨言论等,确保输出内容符合规范。


(二)多方共治:信任网络中的分布式责任治理

“智能是一个复杂系统,厘清各个主体之间的关系,需要利用主体责任的思维来看”。智能系统不仅仅是代码和数据,还是人类和非人类行动者的集合——“制度上的代码、实践和规范,通过最低限度的可观察到的、半自主的行动,创造、维持和表示人与数据之间的关系”。在AIGC背景下重建社会信任网络,关键是要打造可信的人工智能,这不仅需要作为源头的技术开发者承担核心责任,还需要政府、监管机构、用户等外部力量协同治理。

1. 技术开发者:可解释人工智能与审核优化

技术开发者作为AIGC技术的源头,需要在技术设计、内容生成与传播的全链条中承担核心责任。AIGC的“黑箱”特性是公众信任缺失的重要根源,因此,信息的可解释性和透明性是解决信任问题的关键因素之一。解释本身的存在通过将黑盒变成玻璃盒来帮助用户解释AI的结果,作为一种暗示,揭示了某种程度的透明性和问责制。AIGC在生成内容或作出决策时,可以记录并公开关键的算法步骤和参数设置,显化“思考”过程,标注数据来源,做到“白箱化”输出,例如DeepSeek的“深度思考”模式通过呈现内容生成逻辑,增强内容的说服力与可信度,医疗AI诊断报告在提供诊断结果时可以附上依据(如相似病例统计、文献引用)等。此外,AIGC可以利用智能合约、区块链等技术实现内容全生命周期存证与动态溯源,自动追踪内容修改记录并标注版本变更,在形成“技术自证”的同时,便于用户通过链上数据快速验证内容真实与责任归属,从而构建可信的内容生成与传播机制,夯实社会信任。例如,腾讯“至信链”已支持AI生成内容的时间戳固化与哈希值存证。在审核方面,技术开发者需强化自主责任意识,构建“事前—事中—事后”的全流程内容审核体系,针对AIGC可能加剧的虚假信息传播,设计传播链路的验证节点,在内容分发前嵌入AI检测工具,减少虚假信息流通,做到“预判式过滤”;在生成内容的过程中即时与权威数据库、信息档案等进行交叉验证对比分析,将核查结果实时反馈至生成过程,做到自我纠偏;建立用户举报通道,为用户提供标记有害、虚假内容的接口,通过众包机制弥补技术短板,打造可解释、可验证的信任闭环机制。

2. 外部力量:从政策规制到公众参与

AIGC时代的社会信任重建是一个系统性问题,不仅需要技术开发者,还需要政府、有关部门、监管机构与普通公众协同参与,形成分布式的治理合力。政府作为顶层设计者,应着眼于制度与政策建设,通过动态立法填补监管空白,引导推动AIGC向上、向善发展。例如,我国政府多部门在2023年联合公布《生成式人工智能服务管理暂行办法》,明确AIGC服务提供者的内容安全责任,要求算法备案与安全评估,为技术应用画定红线;2025年联合发布的《人工智能生成合成内容标识办法》,旨在规范人工智能生成合成内容的标识管理,推动构建安全可信的生成式人工智能生态;欧盟《人工智能法案》根据风险等级对AI系统实施分级监管,以平衡人工智能的创新发展与安全规范,为我国AI治理提供启示。监管机构应构建跨部门协同监管机制,定期对AIGC平台实施评估和检查,行业协会应以专业视角,集合智库力量,制定自律准则,推动标准共建与监督管理。而普通公众既是AIGC的使用者,也是信任网络的节点,可以通过交互界面实时修正AI输出,在“生成—反馈—迭代”的循环中获得对技术的可控感,还可以利用平台提供的标记机制参与到治理建设中,在赋能赋权中共建良性发展的AIGC生态,强化社会信任。


五、结论与讨论


本文首先讨论了现代社会信任的基本模式,即以人格特征为基础的差异化信任模式和以抽象系统为基础的制度信任,AIGC依托高效率、高产能、多元化、低门槛的内容生产模式,在修复和强化特殊信任、一般信任,建立普遍信任等方面具有逻辑可能,并通过全流程、全天候在场协助重建制度信任。在重建信任的过程中,作为“镜子”“技术物”的AIGC也存在偏差、幻觉、监视和控制的信任威胁,其基于概率游戏的计算逻辑也影响着社会共识这一信任基础的形成。AIGC时代的社会信任重建,需要跳出传统“主体—客体”的二元框架,在技术可供性与伦理约束之间,构建“人机共生”的信任新范式。需要强调的是,我们的最终目标不是让人工智能“更像人”,而是让人类在技术加持下,成为更理性、更包容、更具反思性的信任共同体。


文章出处:《辽宁大学学报(哲社版)》2025年第5期


文章链接:

https://kns.cnki.net/kcms2/article/abstract?v=hQtzIo_70oGRdcvnZaMmWQEkFu-jdCORCCs_-NNSVO5-N0JF2q85oha7SBedWjLMjvWdKJhkSVXhWxijcrLRe3GQvyz5-lV0XNEbibWANiWYVr96DvOhJ5y4TRk3CaY2oz5WKJeNn5VeEVC8V4bBJ9tcI6pPpVQIJ0nCbdFZmuf-5_WwGMd8Rw==&uniplatform=NZKPT&language=CHS



作者简介



喻国明教授,1957年9月生,上海人。1989年中国人民大学研究生毕业,获法学(新闻学)博士学位。1989—2016年于中国人民大学新闻学院任教,2006年获聘中国人民大学首批国家二级教授。现为北京师范大学新闻传播学院执行院长、博士生导师,国家级人才项目特聘教授(2014年评定)。

喻国明教授是中国新闻传播学领域的著名学者、传播学实证研究的领军者、中国传媒经济与管理学科的奠基人之一,中国认知神经传播学的开创者。新媒体研究,舆论学、传媒经济与社会发展,传播学研究方法等领域是他的主要研究方向。

喻国明教授是国务院评定的对国家建设做出突出贡献的、享受国务院政府特殊津贴的专家,曾两度获得教育部人文社会科学研究科研成果奖(一等奖一次,二等奖一次),两度获得中国新闻奖学术论文奖,五度获得北京市哲学社会科学优秀科研成果奖(其中一等奖一次),获教育部“宝钢奖”全国优秀教师,曾赢得了“中国传媒十大创新人物”、“中国媒介发展思想人物”、“共和国60年传媒十大影响力人物”等荣誉。

此外,喻国明教授还兼任第七届国务院学位委员会新闻传播学学科评议组成员、北京市社会科学联合会副主席、中国传媒经济与管理学会会长、中国传播学会副会长、中国电视艺术家协会高校委员会副会长、《中国传媒发展指数(蓝皮书)》主编、《中国社会舆情年度报告(蓝皮书)》主编等职务。


陈雨婷,北京师范大学传播创新与未来媒体实验平台研究助理,从事人机传播和智能传播研究。



席一帆,北京师范大学传播创新与未来媒体实验平台研究助理,从事人机传播和智能传播研究。