研究紹介

シンプレクティック随伴変数法による高速省メモリなNeural ODEの勾配計算

ニューラルネットワークで微分方程式(ODE)を学習するneural ODEは,連続時間のダイナミカルシステムや確率分布を,高い精度でモデル化できます.しかし,同じニューラルネットワークを何度も使うため,誤差逆伝播法で訓練するには非常に大きなメモリが必要になります.そのため数値積分で勾配を計算する随伴変数(アジョイント)法が用いられますが,数値誤差を抑えるために今度は大きな計算コストが必要になります.

本研究では随伴変数法に用いる数値積分法をシンプレクティックにすることにより,数値誤差なく勾配が計算できる手法(Sanz-Serna, 2016)をベースに,適切なチェックポイント法を組み合わせることで,省メモリ性と高速な勾配計算を両立させました.

IBISワークショップで予定の動画はこちら.

  • Takashi Matsubara, Yuto Miyatake, and Takaharu Yaguchi, “Symplectic Adjoint Method for Exact Gradient of Neural ODE with Minimal Memory,” Advances in Neural Information Processing Systems (NeurIPS2021), 2021. (acceptance rate 26%) (openreview) (arXiv)
  • Takashi Matsubara, Yuto Miyatake, and Takaharu Yaguchi, “The Symplectic Adjoint Method: Memory-Efficient Backpropagation of Neural-Network-Based Differential Equations,” IEEE Transactions on Neural Networks and Learning Systems, 2023. (link)

0000.png 0001.png 0002.png 0003.png 0004.png 0005.png 0006.png 0007.png 0008.png 0009.png 0010.png 0011.png 0012.png 0013.png 0014.png 0015.png 0016.png