Language Imbalance Can Boost Cross-lingual Generalisation

  • Language Imbalance Can Boost Cross-lingual Generalisation [57.3]
    本研究では,言語間一般化の非直感的な新規ドライバである言語不均衡について検討する。 学習中に支配的な言語が存在することが、あまり頻度の低い言語の性能を高めることを観察する。 分析を実言語に拡張するにつれ、頻繁な言語は依然として恩恵を受けていますが、言語不均衡が言語間の一般化を引き起こすかどうかは決定的ではありません。
    論文  参考訳(メタデータ)   (Thu, 11 Apr 2024 17:58:05 GMT)
  • 「In both settings, we find that, without vocabulary overlap, our models do not show strong cross-lingual generalisation when trained on a balanced language set.However, when training on an imbalanced mix of languages, we observe increased performance compared to monolingual settings.」という興味深い結果。クローン言語と実際の言語での差異を含めて面白い。
  • リポジトリはantonschafer/xling-imbalance (github.com)

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です