Multilingual Performance Biases of Large Language Models in Education 

  • Multilingual Performance Biases of Large Language Models in Education [39.1]
    大規模言語モデル(LLM)は、教育環境においてますます採用されている。 この研究は、非英語の教育環境での使用が保証されているかどうかを確かめるものである。
    論文  参考訳(メタデータ)   (Thu, 24 Apr 2025 16:32:31 GMT)
  • 「However, we note that certain models can do terribly on some tasks and languages, so we recommend first verifying that a particular model works well in a particular language on a specific education-related task before deployment.」というまっとうな指摘はあるものの、「Particularly, we find that GPT4o and Gemini 2.0 perform consistently well across all languages with a few exceptions.」と多言語対応はかなり進んでいる雰囲気を感じる。
  • リポジトリはGitHub – eth-lre/multilingual-educational-llm-bias: Data and code for “Multilingual Performance Biases of Large Language Models in Education”

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です