When Learning Is Out of Reach, Reset: Generalization in Autonomous Visuomotor Reinforcement Learning

经验复习(Episodic Training)是每次成功或失败都会重置代理环境的训练方法,是训练有机体强化学习(RL)代理的事实上的标准。该假设环境可以轻松重置是Practically限制的,因为在现实世界中重置通常需要人类努力,并且在模拟中计算成本很高,而哲学上,我们希望智能代理能够连续学习而不需要干预。没有重置的工作(即 Reset-Free RL,RF-RL)具有前途,但面临着不可逆过渡的问题(例如,一个物体断裂),这导致学...

read more..

Iterative Prompt Learning for Unsupervised Backlit Image Enhancement

我们提出一种 novel 的非监督暗光图像增强方法,缩写为 CLIP-LIT,通过探索对比语言-图像预训练(CLIP)在像素级别图像增强方面的潜力。我们表明,开放世界的 CLIP 先前不仅可以帮助区分暗光和明亮的图像,还可以感知具有不同亮度的异质区域,促进增强网络的优化。与高级和图像操纵任务不同,直接应用 CLIP 到增强任务是一个巨大的挑战,因为很难找到准确的提示。为了解决这一问题,我们设计了一个提示学习框...

read more..

Removing supervision in semantic segmentation with local-global matching and area balancing

在语义分割中移除监督仍然是一项棘手的任务。当前的方法可以处理常见的分类模式,但仍然采用了多级架构。我们设计了一个全新的端到端模型,利用局部-全局匹配来预测对象的分类、良好的定位、区域和形状,以进行语义分割。该局部-全局匹配是由最优运输计划满足区域限制 near a solution for exact shape prediction 被迫的。我们的模型在弱监督语义分割方面达到了最先进的水平,仅使用图像标签,在PascalVOC...

read more..

A BERT-based Unsupervised Grammatical Error Correction Framework

语法错误纠正(GEC)是自然语言处理技术中的挑战性任务。虽然这种方法更多地用于英语或中文等通用语言,但对于资源有限的语言来说,做相对较少的工作,因为没有大型注释 corpora。在资源有限的语言中,目前基于语言模型评分的 unsupervised GEC 表现良好。然而,在这种情况下,仍需要探索预训练语言模型。本文提出了基于 BERT 的 unsupervised GEC 框架,将GEC视为多类分类任务。框架包含三个模块:数据流构...

read more..

Few-shot Geometry-Aware Keypoint Localization

监督的关键点定位方法依赖于大型手动标注的图像数据集,这些物体可以变形、 articulate 或 occlusion。然而,创建这样的大型关键点标签需要时间和成本,而且由于不一致的标注常常导致错误。因此,我们希望有一种方法可以学习少数但 consistently 标注的图像,以满足不同物体类别的关键点定位。我们提出了一种新 formulation,学习语义一致性的关键点定义,即使对于 occlusion 区域也不例外,为多种物体类别...

read more..

C-SFDA: A Curriculum Learning Aided Self-Training Framework for Efficient Source Free Domain Adaptation

无监督域转换方法(UDA)专注于将标记源域的训练模型转换为未标记的目标域。UDA方法有一个强有力的假设,即源数据在转换期间是可用的,这在许多现实世界场景中可能无法实现,因为隐私和设备资源限制的问题。在这方面,无标记域转换(SFDA) excels,因为在转换期间不再需要访问源数据。最近,SFDA领域的最新前沿技术主要关注基于伪标签的自我训练,这种自我训练通常面临两个问题:第一,不可避免的噪声伪标签可...

read more..