"揭秘表情包中的说服艺术:语言模型与释义增强的融合探索"

Analyzing Persuasive Strategies in Meme Texts: A Fusion of Language Models with Paraphrase Enrichment

摘要

本文由Kota Shamanth Ramanath Nayak和Leila Kosseim撰写,来自加拿大蒙特利尔康考迪亚大学的计算语言学实验室(CLaC)。论文主要探讨了在表情包文本中识别说服技巧的多标签分类问题。研究团队通过微调BERT、XLM-RoBERTa和mBERT等语言模型,并结合ChatGPT生成的释义数据增强,提出了一种基于平均聚合的集成模型。该研究不仅提高了模型在英语数据上的表现,还展示了其在多语言环境下的零样本学习能力。论文通过实验验证了数据增强和平衡训练集对模型性能的积极影响,同时也指出了不同分布释义引入的潜在噪声问题。

原理

论文的核心在于通过微调预训练的语言模型(如BERT、XLM-RoBERTa和mBERT)来识别表情包文本中的说服技巧。这些模型通过学习大量的文本数据,能够捕捉到语言的深层特征。研究团队进一步采用了平均聚合的集成方法,将多个模型的预测结果结合起来,以提高分类的准确性。此外,通过ChatGPT生成的释义数据增强了训练集,使得模型能够接触到更多样化的表达方式,从而更好地识别和分类不同的说服技巧。

流程

研究团队首先对输入的文本进行预处理和标记化,然后分别微调三个不同的语言模型。每个模型输出一个概率分布,表示文本属于各个说服技巧的可能性。这些概率分布随后通过平均聚合方法合并,形成最终的预测结果。为了处理多语言数据,模型在测试阶段采用了机器翻译的零样本学习方法,将非英语文本翻译成英语后进行分类。论文还详细描述了数据增强的具体步骤,包括使用外部数据集和自动生成释义,以及如何通过调整分类阈值来优化模型性能。

应用

该研究的应用前景广泛,特别是在社交媒体分析、舆情监控和广告效果评估等领域。通过有效识别和分类表情包中的说服技巧,可以帮助研究人员和从业者更好地理解网络传播策略,优化信息传播效果。此外,该技术还可以用于教育和培训,帮助人们识别和分析不同类型的说服技巧,提高批判性思维能力。