- Solving Quantitative Reasoning Problems with Language Models [53.5]
我々は、一般的な自然言語データに基づいて事前訓練された大規模言語モデルであるMinervaを紹介し、さらに技術的な内容について訓練する。 このモデルは、外部ツールを使わずに、技術的ベンチマークで最先端のパフォーマンスを達成する。 我々はまた、物理学、生物学、化学、経済学、その他の科学における200以上の学部レベルの問題に対して、我々のモデルを評価した。
論文 参考訳(メタデータ) (Wed, 29 Jun 2022 18:54:49 GMT)- 従来難しいとされてきた定量的な推論(いわゆる理系っぽいテストで出てくる問題)を含む問題を解けるモデルの提案。PaLMやOpenAIのdavinti-002(GPT-3)に比べて大幅にパフォーマンスを改善。
- 通常の問題同様、パラメータサイズの増加による改善もみられる。
- 従来難しいとされていた問題が解けていくのは素晴らしいが、最近のスピード感が凄くて驚き。
- 推論時の工夫もやっているが、conclusionでは「high quality mathematical dataset」が最初に挙げられていた。
- BlogはGoogle AI Blog: Minerva: Solving Quantitative Reasoning Problems with Language Models (googleblog.com)
- 従来難しいとされてきた定量的な推論(いわゆる理系っぽいテストで出てくる問題)を含む問題を解けるモデルの提案。PaLMやOpenAIのdavinti-002(GPT-3)に比べて大幅にパフォーマンスを改善。