|
|
【作者简介】龚为纲,武汉大学社会学院/人工智能学院教授;黄思源,武汉大学社会学院博士研究生(湖北 武汉 430072)。
【文章来源】《人大复印报刊资料》2025年第8期
【内容提要】大语言模型(LLM)在社会科学中的应用日益广泛,其生成数据是否能反映真实社会图景仍存争议。以中国综合社会调查(CGSS2021)为基准,构建多模型对比实验框架,系统评估不同LLM生成“硅基样本”的拟合度与偏差特征,可发现,主流模型可较好复现宏观变量间的统计关系,但存在表征偏差,易强化主流话语、忽略边缘声音。通过引入思维链(Chain-of-Thought)分析,发现模型在生成评分理由时呈现出标准化的因果推理结构,反映其潜在的社会观念建构路径。此外,提示策略与微调机制可能无形中影响模型对公共议题的认知方式。LLM在社会测量中既存在潜能也有局限,建议未来应提升数据多样性、模型可解释性,并推动社会科学领域的专用大模型发展。
【关 键 词】大语言模型(LLM)/ 整体事实/ 数据偏误/ 对齐机制/ CoT/ Large Language Models(LLMs)/ algorithmic fidelity/ data bias/ alignment mechanism/ Chain-of-Thought(CoT)/
【基金项目】本文系国家社会科学基金项目“基于大数据的社会情绪风险与网络集群事件治理研究”(22BSH024)、武汉大学社会科学数智创新研究团队项目“大国竞争背景下的战略情报分析”的阶段性成果。
【全文链接】https://hffaz89a1d8c8d150461choxuxb0nu6ook6bu0ghhb.libproxy.ruc.edu.cn/qw/detail?id=894447