A Preliminary Empirical Study on Prompt-based Unsupervised Keyphrase Extraction

预训练的大型语言模型可以通过 conditioning 于人类设计的提示来进行自然语言处理下游任务。然而,基于提示的方法通常需要 “提示工程” 来设计不同的提示,主要通过费力的人工尝试和错误来手工创建,需要人类干预和专业知识。在构建基于提示的关键词提取方法时,这是一个具有挑战性的问题。因此,我们研究了不同提示对关键词提取任务的有效性,以验证选择性提示对提取关键词性能的影响。在六个...

read more..

Incremental Pseudo-Labeling for Black-Box Unsupervised Domain Adaptation

Black-Box无监督领域适应(BBUDA)仅通过从源模型的预测目标数据中学习知识,而无需访问源数据和源模型,试图减轻数据隐私和安全问题的担忧。然而,由于跨域差异,源模型生成的预测中存在大量的错误伪标签,这可能大大降低目标模型的性能。为解决这个问题,我们提出了一种新颖的方法,通过逐步选择高度置信度的伪标签来提高目标模型的泛化能力。具体来说,我们首先使用源模型生成伪标签,并使用普通的BBUDA...

read more..

Federated Unsupervised Domain Generalization using Global and Local Alignment of Gradients

我们在无监督设置中首次解决了联邦领域泛化问题。首先,我们理论性地建立了无监督联邦学习中和向量转移和梯度对齐之间的关系,并证明了在客户端和服务器级别对梯度进行对齐可以促进模型对新(目标)领域的泛化。在此基础上,我们提出了名为FedGaLA的新方法,它将在客户端水平对梯度进行对齐,以鼓励客户端学习领域不变的特征,并在服务器水平对全局梯度进行对齐,以获得一个更加泛化的聚合模型。为了实证评...

read more..

USD: Unsupervised Soft Contrastive Learning for Fault Detection in Multivariate Time Series

多元时间序列的无监督故障检测对于保持复杂系统的完整性和效率至关重要,现有方法主要集中在统计和机器学习技术上。然而,这些方法通常基于数据分布符合高斯模型的假设,忽视了正常和异常状态中模式的多样性,从而降低了判别性能。我们的创新通过引入数据增强和软对比学习来解决这个限制,特别设计来更准确地捕捉状态行为的多样性。数据增强过程通过丰富数据集中正常状态的多样化表示来丰富数据集,而软对...

read more..

MultiParaDetox: Extending Text Detoxification with Parallel Data to New Languages

文本去毒是一种文本风格迁移(TST)任务,其中从具有恶意的文本形式(例如包含粗言的文本)将其转移到中立语域。最近,文本去毒方法在各种任务中的应用得到了发现,例如对大型语言模型(LLMs)的净化(Leong et al., 2023; He et al., 2024; Tang et al., 2023)和社会网络中的有毒言论对抗(Deng et al., 2023; Mun et al., 2023; Agarwal et al., 2023)。所有这些应用都非常重要,以确保现代数字世界中...

read more..

Cooperative Students: Navigating Unsupervised Domain Adaptation in Nighttime Object Detection

无监督领域适应(UDA)在良好的光照条件下显示出在物体检测方面取得了显著的进展;然而,在低可见性场景下,其性能显著下降,尤其是在夜间,这给自动驾驶车辆的可适应性和可靠性带来了挑战。为解决这个问题,我们提出了一个创新性的“合作学生”(CoS)框架,该框架采用了全局-局部变换(GLT)和基于代理的目标一致性(PTC)机制来有效捕捉昼夜场景中的空间一致性,从而在上下文之间显著缓解领域迁移。在此基...

read more..

Bridging Language, Vision and Action: Multimodal VAEs in Robotic Manipulation Tasks

在这项工作中,我们关注机器人操作领域中的无监督视觉-语言-动作映射。最近,为了这个任务,提出了多种采用预训练大型语言和视觉模型的方法。然而,它们在计算上较为复杂,需要对产生的输出进行仔细的微调。一种更轻量级的解决方案是实现多模态VAE,正如在图像-图像或图像-文本数据上最先进的模型所展示的那样,它可以提取数据的潜在特征并将它们集成到一个联合表示中。因此,我们探讨在模拟环境中是否可以...

read more..

VLRM: Vision-Language Models act as Reward Models for Image Captioning

在这项工作中,我们提出了一种使用强化学习以及像CLIP和BLIP2-ITM这样的视觉语言模型作为奖励模型的自监督方法,用于增强图像标注模型(在我们的案例中,BLIP2)。强化学习的模型能够生成更长的和更全面的描述。我们的模型在MS-COCO Carpathy测试集上的R@1分数达到了令人印象深刻的0.90。权重现可在此链接处获取:https://www.example.com/weights。In this work, we present an unsupervised method for e...

read more..

RAVE: Residual Vector Embedding for CLIP-Guided Backlit Image Enhancement

在本文中,我们提出了一种新颖的对于无监督反光照像增强任务的 Contrastive Language-Image 前馈(CLIP)指导。我们的工作基于最先进的 CLIP-LIT 方法,该方法通过在 CLIP 嵌入空间中约束提示(负样本/正样本)与相应图像(反光照像/良好光照图像)之间的文本-图像相似性来学习提示对。学习到的提示 then 指导图像增强网络。基于 CLIP-LIT 框架,我们提出了两种新颖的 CLIP 指导方法。首先,我们证明了直接...

read more..

Guidelines for Cerebrovascular Segmentation: Managing Imperfect Annotations in the context of Semi-Supervised Learning

医学影像中的分割是一个在图像处理链中至关重要的初始任务,推动了设计稳健分割算法的大量努力。监督学习方法在获得足够数量的有标签数据时表现优异。然而,这样的标签通常需要大量的时间、错误和昂贵地制作。相反,半监督学习方法利用有标签和无标签数据,在只有少量数据标注的情况下非常有用。特别是在脑血管分割方面,因为标注单个卷积管需要几个小时的经验专家,所以半监督学习方法尤为重要。此外,还...

read more..