Site cover image

Site icon imageSen(Qian)’s Memo

This website is Donglin Qian (Torin Sen)’s memo, especially about machine learning papers and competitive programming.
11/14

NNDL 第11章 独立した複数のモデルの訓練による効用

NNDL第11章 グラフィカルモデル

2017-NIPS-Toward Robustness Against Label Noise in Training Deep Discriminative Neural Networks

(講義ノート)乱択アルゴリズム第2回

大学院講義 乱択アルゴリズムのノート マルコフの不等式、チェビシェフの不等式、Hoeffding’s Inequality

(講義ノート)統計的機械学習第2回

大学院講義 統計的機械学習のノート 有限仮説と実現可能性

強化学習第1回講義

強化学習の種類。オンライン学習、オフライン学習 モデルベース、モデルフリー Episode-based & Step-based, On-Policy & Off-Policy

2024-ICLR-Robust Classification vis Regression-based Loss Reweighting and Label Correction

組成データ、Compositional Dataについての簡単な紹介あり。 普通のデータはLabel Smoothingで組成データに変換できる。ilr変換をするが、その時に使うのはHelmert行列。 分類だが、わざわざガウスモデルとかを使って、再帰問題に落とし込む。 再帰問題でガウスモデルを使うことをReweightingと言ってるが既存のReweightingとは違う。そのうえで、そのままでは性能不足なので、与えられたnoisyなラベルではなくパラメタの指数移動平均で作ったモデルの出力と、今のモデルの出力のMSEで誤差として計算する。

2018-CVPR-Joint Optimization Framework for Learning with Noisy Labels

まずCleanなラベルを選び出してそれで普通に訓練する。 Cleanなラベルを選び出すには以下のようにしている。 1. 高い学習率でNoiseまで覚えさせないようにしてから、Noisy Labelでbackbornを訓練。 2. Backbornを訓練→更新したら、Backbornの予測結果でラベルを更新。予測結果の分布そのままで更新するソフトラベルと、予測結果の最大確率のクラスのone-hotで更新するハードラベルがある。 3. 1と2を1イテレーションの間に1回ずつやる。 収束したら、それで予測と与えられたラベルが同じであるサンプルはCleanなラベルを持っているものとする

2019-CVPR-[PENCIL]Probabilistic End-To-End Noise Correction for Learning With Noisy Labels

3段階の訓練をする。 1. 高い学習率でNoiseを学ばないようにbackbornを訓練。 2. ラベルをonehotではなく、sigmoidでsmoothing labelにする。そのsmoothing labelで学習し、ある程度正しいbackbornを信頼して高い学習率でsmoothing labelを学習していく。あとは本来のラベルと離れすぎないような損失項、backbornの出力が偏るようなEntropy Regularizationを加える。 3. 最後に学習がある程度されたsmoothing labelとbackbornとで学習をしてチューニングして終わり。

2023-IEEE-Dual Modality Prompt Tuning for Vision-Language Pre-Trained Model

2023-NIPS-[CSOT]Curriculum and Structure-Aware Optimal Transport for Learning with Noisy Labels

Noisy Labelのまま予測した値の行列Pに対して、-log Pを重みとした最適輸送をすることでDenoisingがおのずとできるというテクがある。 この論文では、最適輸送は100%輸送するというのではなく、最初は50%などと少な目に輸送することで、コストが最も低い部分の輸送=運びやすい輸送=間違ってなさそうなサンプルを運ばせることができる。これでカリキュラム学習を実現させている。