核心概念
提出了一种基于对比语言-图像预训练的自适应提示学习方法(APNE-CLIP),利用文本信息同时缓解域偏移和类别偏移问题,提高通用多源域适应的分类性能。
摘要
本文提出了一种自适应提示学习方法APNE-CLIP,用于解决通用多源域适应(UniMDA)分类任务。具体来说:
-
利用自适应提示学习,APNE-CLIP能够从多个源域中获取类别语义和域表示信息,从而帮助模型识别未知样本并缓解域偏移问题。
-
设计了一种新的全局实例级对齐目标,利用负面文本语义增强图像-文本对的对齐,提高分类精度。
-
提出了一种基于能量的不确定性建模策略,通过扩大已知和未知样本之间的边界距离,有助于更准确地检测未知样本。
-
在三个图像分类基准数据集上的实验结果表明,APNE-CLIP在通用多源域适应设置下优于现有方法。
统计
通过自适应提示学习,APNE-CLIP能够从多个源域中获取类别语义和域表示信息。
新的全局实例级对齐目标利用负面文本语义增强图像-文本对的对齐,提高分类精度。
基于能量的不确定性建模策略通过扩大已知和未知样本之间的边界距离,有助于更准确地检测未知样本。
引用
"提出了一种基于对比语言-图像预训练的自适应提示学习方法(APNE-CLIP),利用文本信息同时缓解域偏移和类别偏移问题,提高通用多源域适应的分类性能。"
"设计了一种新的全局实例级对齐目标,利用负面文本语义增强图像-文本对的对齐,提高分类精度。"
"提出了一种基于能量的不确定性建模策略,通过扩大已知和未知样本之间的边界距离,有助于更准确地检测未知样本。"