Site cover image

Site icon imageSen(Qian)’s Memo

This website is Donglin Qian (Torin Sen)’s memo, especially about machine learning papers and competitive programming.
Domain Adaptation

2023-NIPS-[GIW]Generalizing Importance Weighting to A Universal Solver for Distribution Shift Problems

2024-CVPR-Adaptive Random Feature Regularization on Fine-tuning Deep Neural Networks

2019-AAAICAI-Covariate Shift Adaptation on Learning from Positive and Unlabeled Data

2021-PR-[DFA]Discriminative Feature Alignment: Improving Transferability of Unsupervised Domain Adaptation by Gaussian-guided Latent Alignment

2022-DSAA-Positive-Unlabeled Domain Adaptation

Covariance Shiftがあって、ソースはFull Supervised。ターゲットは大量にあって、PUであるという問題設定。 毎ステップ、識別の最後の層の中間表現が大きく変わらないように正則化している。また、Domain Shiftでは、同じところへ写像するようにEncoder-Decoderモデルを使っている。

2020-PRL-[PURE]Positive-unlabeled learning for open set domain adaptation

2020-NIPS-[aPU]Learning from Positive and Unlabeled Data with Arbitrary Positive Shift

abs-puを開発。これはnnPUの式のmaxを絶対値に。 全体的な流れは、N in U in train, N in testが同分布という仮定。 まずはtrain同士でPU learningして、そこからp(y=-1|x)から比率で変換して、うまくUからN in Uを抽出する。 そして、test domainにあるデータとNUかPNU Learningする。

2013-IEEE-Transfer Feature Learning with Joint Distribution Adaptation

2021-Survey-A Comprehensive Survey on Transfer Learning (Part2) Feature Transformation Strategy

Introduction, Related Work, Overview, Instance Weighting Strategy

2020-NIPS-[DIW]Rethinking Importance Weighting for Deep Learning under Distribution shift

密度比推定はDNNではうまく働かない。この論文では、識別器の内部表現をもとに線形予測器で密度比を予測した。ただそれだけでは性能が低下するので、予測した密度比で学習し、その損失をbackwardすることで識別器を密度比予測に使われている線形識別器ごと訓練している。 他方、先ほどの手法にも限界はあり、もう1つは損失の比を予測するという提案。こちらの方がやりやすいし良い結果につながる。