Sen(Qian)’s Memo
This website is Donglin Qian (Torin Sen)’s memo, especially about machine learning papers and competitive programming.
Single-Training-Set
2024-10-03
2021-TPAMI-[LBE]Instance-Dependent Positive and Unlabeled Learning With Labeling Bias Estimation
グラフィカルモデルによって、ground truthのyiは隠れ変数であり、ラベルがついているかsiとインスタンスxiは明示されている変数である。 モデルとして、多層パーセプトロンかロジスティック回帰を使っている。これで、グラフィカルモデルに従って必要なp(yi|xi)やp(si|xi, yi)を定義する。 学習自体はEMアルゴリズムで行っている(変分推論ではない)
2024-08-21
2019-IJCAI-[PULD]Positive and Unlabeled Learning with Label Disambiguation
Noisy Labelの手法で、以下のような、ラベル書き換えを盛り込む 1. 周辺のラベルと違いすぎないようなラベルとする。 2. 毎イテレーションではラベルがあまり書き換わらないようにする。 3. SVMでこれらの条件をもとにマージンを最大化 解くときは線形計画問題として交互に最適化していく。離散値をとるものでも計算の便利のために連続最適化とする。
2024-05-22
2019-ECML PKDD-[PWE]Beyond the Selected Completely At Random Assumption for Learning from Positive and Unlabeled Data
BiasつきのPUについて、数理的に考察をし手法も提案した論文。propensity scoreという量を導入し、それを損失関数の重みに寄与させることでbiasを考慮できるとした。それをRiskの式に導入したのちに、推定の手法として2つの変数があるので(propensity scoreと本体の推定器)、EMアルゴリズムで交互に最適化をしていた。
2024-05-11
2016-CVPR-Multi-label Ranking from Positive and Unlabeled Data
マルチラベルでのPUのフレームワークを提案している。1つのサンプルには複数のラベルがつくが、付いているラベル以外のラベルを含まないとは限らない。こういう条件で、Rank Lossの形をPU2014のように、Ramp損失を導入した。また、PUで計算するときの目的関数についても導出をした(マルチラベルでは結構重要なので見るといいかも)
2024-01-03
2023-JMLR-Risk Bounds for Positive-Unlabeled Learning Under the Selected At Random Assumption
2023-12-11
2008-KDD-Learning Classifiers from Only Positive and Unlabeled Data
Charles Elkan, Keith Noto
