在少样本学习场景中,模型无关的元学习(Model-Agnostic Meta-Learning,MAML)以其独立于特定基模型的灵活性和适用性而闻名。然而,MAML及其变体缺少对任务特定的特征(如特征通道)进行适应性调整,它们依赖全局初始参数,固定内环步数,训练过程缺乏可解释性。本文提出一种使用逻辑回归和通道注意力的快速可解释且自适应的方法(Meta-Learning with Logistic Regression and Channel Attention, ML-LRCA),目标是通过适应性调整任务特定的通道权重和利用逻辑回归快速适应任务自适应损失函数来增强框架的自适应性和可解释性。在多个开源数据集上的实验结果表明,ML-LRCA方有助于提升在少样本分类、少样本回归以及跨域学习等场景的性能。
暂无评论