襖からキリン

読んだ論文まとめ。

ICML 2021 論文要約 (2/2)

でかいおーたです. 知識の更新と新しいジャンルを開拓するべく,ICML2021の論文で興味のあった論文を読みました. 自分のメモでもありますが,背景と課題とアプローチ方法を簡潔にまとめました. 各要約の最初の数行を読んで,面白そうと思ったら,論文の方を読んでみてください. 少しでも,皆さんのためになれば幸いです.

Explaining Time Series Predictions With Dynamic Masks

Keyword:時系列データ,解釈性,マスク

学習済み多変量時系列予測・分類モデルの解釈性としてダイナミックマスクの学習方法を提案.入力データが多変量時系列の場合,時間依存性や多変量間の依存関係が複雑であり,一期先予測において,予測に重要な特徴とその時刻を解釈するのが困難.画像の分野で,モデル予測時に需要な特徴を強調する,saliency手法から着想を得ている.提案手法は,入力行列(多変量×系列長)と同サイズの[0,1]をとるマスク行列を学習させる.マスクの要素値が1に近いほど,その変量のその時刻の情報が需要だと解釈できる.マスクの学習方法は,3つの項からなる損失関数の最小化で実現.1項目は,マスクをかける前とかけた後の予測結果の誤差を小さくする項,2項目はマスクの各要素が0に近づくようにする正則化項.最後に隣接時刻間で似たマスクの要素をとるようにする正則化項である.実験では既存手法より需要な特徴に強調がなされている. f:id:masamasa59:20210710095721p:plain

Strategic Classification Made Practical

Keyword:戦略的分類,効用関数,トレードオフ分析

戦略的分類における学習アルゴリズムの実用的な一般化を提案.戦略的分類の設定は,利用者が公開された分類器に対して,予測された結果を改善するために,(ある程度のコストをかけて)戦略的に特徴を修正することで,利用者は望ましい結果を得ること(ゲーミング)ができる.この修正は,モデルの予測を無下にする可能性があり,戦略的分類の目標は,モデル設計者がゲーミングに頑健な学習アルゴリズムを設計することである.提案手法は,先行研究にならい,ユーザーが特徴の修正に対するコストが少ない中で,最も望ましい分類結果を得る戦略を取ると仮定し,効用関数のモデル化をおこなう.モデル設計者は,そんな修正が加えられた下でも,正しい分類結果が得られるようにロバストにモデルを学習する.ただし,トレードオフになるが,モデルの学習時に利用者全員の効用最大化も正則化項として加えることで,利用者全員の社会的に望ましい結果も優先できるようにした.

Multiscale Invertible Generative Networks for High-Dimensional Bayesian Inference

Keyword:高次元のベイズ推論,Flow,多段階解像度スケーリング

高次元のベイズ推論問題は,事後分布が複数のモードを持つ場合に,サンプル生成が長年の課題となっている.そこで,可逆可能な変換を利用し,低次元の事後分布から高次元の事後分布まで,反復的にアップサンプリングとサンプルの精密化を行うことにより,どの粒度でも(低次元から高次元まで)サンプル生成可能なMsIGN(Multiscale Invertible Generative Network)を提案.MsIGNはFlowベースの生成ネットワークであり,サンプルの生成と密度評価の両方を行うことができる.MsIGNの異なる解像度は別々に学習することができるため,その中間層の特徴は,最終的な高解像度出力の低解像度近似として解釈することができる.また,異なる解像度のネットワークを橋渡しするように設計されており,粗いものから細かいものへの多段階の学習を可能にしている.2つの高次元ベイズ逆問題において,MsIGNは事後分布を高精度に近似し,複数のモードを明確に捉えることができ,従来の深層生成ネットワークアプローチと比較して優れた性能を示した. f:id:masamasa59:20210711131552p:plainf:id:masamasa59:20210711131635p:plain:w500

What Are Bayesian Neural Network Posteriors Really Like?

Keyword:ベイジアンニューラルネットワーク,事後分布,HMC

ベイジアンニューラルネットワークは,ニューラルネットワークのモデルパラメータを確率変数とし,データが与えられたもとでのモデルパラメータの事後分布をもとに,予測分布を計算する.ただし,事後分布が高次元の非凸の多峰性の分布であるため,解析的に計算することができない.計算上の理由から,研究者は,平均場変分推論法や確率勾配マルコフ連鎖モンテカルロ法(SGMCMC)などのミニバッチ法を用いて,事後分布を近似している.そこで,この研究では,多くの計算資源と時間を費やして,フルバッチのハミルトンモンテカルロ法(HMC)を用いてなるべく正確に事後分布を近似し,最近の論文で指摘されている事項を調査している. その結果, (1) BNNは標準的な学習やアンサンブルよりも大幅に性能が向上すること, (2) 1本の長いHMCチェーンで, 複数の短いチェーンと同等の事後表現が可能であること,(3) 最近の研究とは対照的に, 最適に近い性能を得るためには事後テンパリングは不要であり,「cold posterior」効果を示す証拠はほとんどないことがわかったが,これは主にデータ拡張の結果であることを示した.(4) ベイジアンモデル平均の性能は,事前分布のスケールの選択に頑健であり, 対角線ガウス, ガウスの混合, ロジスティックの各事前分布で比較的類似している.(5) ベイジアンニューラルネットワークは,ドメインシフトのもとで驚くほど一般化しない.特に,アンサンブルの予測分布は,標準的なSGLDと同様にHMCに近く,標準的な変分推論よりも近いことである.

Active Testing: Sample-Efficient Model Evaluation

Keyword : 能動学習,テストサンプル,ベイジアンニューラルネットワークガウス過程

ラベル付けが高コストな問題に対して,どのデータにラベル付けをするかを能動的に選択する能動学習がある. しかし,テストデータに対しては能動学習をせず,大量のデータで評価することが多いが現実はラベル付けが高コスト. そこで,テストデータの効率的なラベル付けのために,テストサンプルを能動的に選択するフレームワークをActive Testingとして提案. 具体的には,経験的リスク推定値の精度を最大化(分散最小化)するためにテストサンプルを選択する獲得関数を導出する. 回帰問題のテストサンプルに対する獲得関数は,二つの項の和で表現される. 1項目が,テストサンプルのラベルを予測する代理モデルの予測平均と学習モデルの予測の二乗和誤差,2項目が,代理モデルの予測分散. 代理モデルは,訓練データとテストデータで学習され,予測の不確実性を必要とするため,ベイジアンニューラルネットワークガウス過程を用いる. 1項目を最大化する意味合いは,学習モデルの予測平均とテストデータも含めた代理モデルで誤差が大きいテストサンプルを選びやすくなる. 2項目を最大化する意味合いは,ラベルノイズである偶然誤差と今まで観測したことがない認識の誤差が大きいテストサンプルを選びやすくなる. 実験では,ランダムにテストデータを用意する方法より,テスト損失の分散を大幅に抑えた偏りのない推定値が得られた.

f:id:masamasa59:20210711131307p:plain:w400 f:id:masamasa59:20210711130511p:plain:w500

Learning Fair Policies in Decentralized Cooperative Multi-Agent Reinforcement Learning

Keyword:公平性,MARL

協調的マルチエージェント強化学習(MARL)における公平な方策の学習方法を提案.公平性には,平等性や比例性,パレート効率性,envy-freeなどがある.例えば,平等性は,全エージェントの総報酬和が均等となる.しかし,公平性は効率性とトレードオフである場合が多い.そこで,この研究では効率性と公平性を明示的に組み込んだ社会福祉関数(SWF)を最適化する問題として定式化する.エージェントは2段階のネットワークを通して公平な方策を学習する.最初に,自己関心の効率性を高める方策を学習する(効率性),そして次に社会福祉関数を最大化する(公平性).なぜなら,各エージェントは,自身に関する良い/悪い結果と,社会福祉に関する良い/悪い結果が,自分自身によるものか,他者の行動によるものなのかを知ることができなくなるため(非定常性を伴う信用割り当て問題).実験では,Matthew Effect: パックマン(公平性:すべてのパックマンが同じ大きさ)・分散型交通信号制御 (公平性:すべての交差点で待ち時間が少ない)・分散型データセンター制御(各ホストのネットワークスイッチのキュー長が同じ)で実施し,既存手法より総報酬も多く,公平な結果を実現した. f:id:masamasa59:20210710110242p:plain

Dash: Semi-Supervised Learning with Dynamic Thresholding

Keyword:半教師あり学習,動的な閾値,FixMatch

教師あり学習には,ラベルなしデータに疑似ラベルをつけて学習するアプローチがある.ラベルなしデータに間違った疑似ラベルをつけると通常の教師あり学習と比べ予測性能が劣化することが知られている.したがって,どのラベルなしデータにいつ疑似ラベルをどうつけるかが重要な問題となる.既存のFixMatchは,交差エントロピー損失を用いた分類タスクにおいて,予測確率の高い(例:0.95)ラベルなしデータに疑似ラベルをつけて学習している.しかし,固定の閾値では,モデル学習時に誤った疑似ラベルをつけてしまうこともある.そこで,提案手法は,各イテレーションおきに疑似ラベルをつけるサンプル数を動的に決定する閾値を導入した.最初は,閾値が高く徐々に減少する.既存手法に比べて,汎化性能が僅かに高かった. f:id:masamasa59:20210711132520p:plain:w600

Temporally Correlated Task Scheduling for Sequence Learning

Keyword:系列データ,方策,補助タスク(ハイパラ,データ)選択

この研究は,レイテンシー制約付き系列予測タスク(入力文の終わりを待たずに各単語を翻訳する同時翻訳,話者が発した各単語をリアルタイムに認識するストリーミング音声認識)や通常の系列データの将来予測(株価予測,行動予測,天気予報)を対象とする.系列データの学習タスクにおいて,時間的に相関のある別系列データを補助タスクとして用いると精度が向上する可能性がある.しかし,時間的に相関のある補助タスクが複数ある場合,学習過程でどのタスクをいつ使用するかが重要な課題である.そこで,系列データ学習のための学習可能なタスクスケジューラを導入し,学習過程において時間的に相関のある補助タスクを適応的に選択する.タスクスケジューラは,方策ネットワークとみなすことができ,現時刻のデータと予測モデルのパラメータをもとに,どの補助タスクかを選択.状態は,現時刻のデータと予測モデルのパラメータを低次元表現したベクトル,行動は補助タスクの選択,報酬は,選んだ補助タスクをもとに学習した予測モデルを評価データで評価した予測精度.方策ネットワークは,REINFORCE アルゴリズムで学習する.提案手法は,DDS(Different Data Selection)に近い.主な違いは,DDSがデータセットから訓練データをより良く選択することを目的としているのに対し,提案手法は時間的に相関のあるタスク(およびそれらに対応するデータ)をより良く利用することを目的としている.実験では,エポックが進むにつれ,補助タスクの選定が安定してくることを確認し,性能も既存手法より高いことを示した.

Delving into Deep Imbalanced Regression

Keyword:不均衡データ,回帰,カーネル関数,分布平滑化

不均衡データに対する既存技術は,分類問題が多い中,回帰問題に対して,Deep Imbalanced Regression (DIR)を提案.ラベル空間が連続な不均衡データの例として,CVの顔画像から年齢推定タスクがある.このタスクは,年齢が連続的なターゲットであり,不均衡になる可能性がある.異なる年齢を別々のクラスとして扱うと,年齢が近い人の間の類似性を利用できないため,良い結果が得られない可能性がある.そこでラベル空間がカテゴリと連続で違う,ラベル値の近傍の類似性に着目し,ラベルと低次元特徴量の両方に対して,カーネル関数を用いた分布平滑化を行うことを提案.提案方法は,既存のFocal lossを用いた手法に付け加え拡張することも可能.また欠損のあるラベルに対しても補完することができる.実験では,CV,NLP,ヘルスケアにおける一般的なタスクから大規模なDIRデータセットを作成し実施した.結果,少数ラベルの予測性能(MAE)が既存手法より,0.2~3.0%改善した.

f:id:masamasa59:20210711002609p:plain:w500 f:id:masamasa59:20210711002551p:plain:w500