KAN: Kolmogorov-Arnold Networks

  • KAN: Kolmogorov-Arnold Networks [16.8]
    MLP(Multi-Layer Perceptrons)の代替として、KAN(Kolmogorov-Arnold Networks)を提案する。 カンはエッジ上で学習可能なアクティベーション機能を持つ(“weights”)。 この一見単純な変化により、KANSAは精度と解釈可能性という点で、ニューラルネットワークを上回ります。
    論文  参考訳(メタデータ)   (Tue, 30 Apr 2024 17:58:29 GMT)
  • MLPよりも性能・解釈可能性が優れていると主張する構造の提案。「KANs and MLPs are dual: KANs have activation functions on edges, while MLPs have activation functions on nodes. This simple change makes KANs better (sometimes much better!) than MLPs in terms of both model accuracy and interpretability.」とのこと。現時点では「Currently, the biggest bottleneck of KANs lies in its slow training. KANs are usually 10x slower than MLPs, given the same number of parameters.」という記載もあるが、本当かつ広く受け入れられるのだろうか。。
  • リポジトリはGitHub – KindXiaoming/pykan: Kolmogorov Arnold Networks

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です