Site cover image

Site icon imageSen(Qian)’s Memo

This website is Donglin Qian (Torin Sen)’s memo, especially about machine learning papers and competitive programming.
7/14

2021-Survey-A Comprehensive Survey on Transfer Learning (Part3) Feature Transformation Strategy

Introduction, Related Work, Overview, Instance Weighting Strategy

(講義ノート)統計的機械学習第10回

大学院講義 統計的機械学習のノート Neural Networkの性能解析。

2021-Survey-A Comprehensive Survey on Transfer Learning (Part1) Instance Weighting Strategy

Introduction, Related Work, Overview, Instance Weighting Strategy

2020-NIPS-[FixMatch]Simplifying Semi-Supervised Learning with Consistency and Confidence

Data Augmentationして損失に導入する。ここで、強い拡張と弱い拡張の両方を考えてみる。 1. ラベルありデータの損失 2. ラベルなしデータに弱い拡張を施し予測されたラベルをhard labelにする。そのhard labelと同じラベルありデータに強い拡張を施したものの損失を計算する。 弱い拡張は左右反転とか平行移動。強い拡張はモザイクとか

(講義ノート)乱択アルゴリズム第10回

大学院講義 分布の検査

(講義ノート)乱択アルゴリズム第9回

大学院講義 乱択アルゴリズムのノート データの次元削減

(講義ノート)乱択アルゴリズム第11回

大学院講義 分布の検査

(講義ノート)統計的機械学習第9回

大学院講義 統計的機械学習のノート Boostingの理論解析。Gradient Boosting。

2023-AAAI-[GradPU]Positive-Unlabeled Learning via Gradient Penalty and Positive Upweighting

理論的に面白いのは、ワッサースタイン距離で誤差上界を評価できること。普通のPositiveと経験的Positive in Unlabeledの評価ができている。 その理論的な結果から、損失関数と識別器の合成写像のリプシッツ定数が小さいほうが望ましい。また、真のPositiveの分布と、Positive in UnlabeledにDomain Shiftが生じて、矛盾するようなDomain Shiftが得られた(間違ったラベルとか)とすると、識別器はなめらかではなくなりGradientが大きくなる。 P in Uの学習とPの学習は上界から評価する限りだと、トレードオフの関係にありそう。 提案手法として、Gradient PenaltyとAdaboostのような重みづけで学習促進がある。Class Priorは使わず、その代わりに学習はAdaBoostの機構による重みづけで行っている。

(講義ノート)統計的機械学習第8回

大学院講義 統計的機械学習のノート SVMの計算理論的な解析