NVidiaから「This model reaches Arena Hard of 85.0, AlpacaEval 2 LC of 57.6 and GPT-4-Turbo MT-Bench of 8.98, which are known to be predictive of LMSys Chatbot Arena Elo As of 1 Oct 2024, this model is #1 on all three automatic alignment benchmarks (verified tab for AlpacaEval 2 LC), edging out strong frontier models such as GPT-4o and Claude 3.5 Sonnet.」を主張するnvidia/Llama-3.1-Nemotron-70B-Instruct-HF · Hugging Face、Mistralからは小規模だが高性能なMinistralが発表されている(Un Ministral, des Ministraux | Mistral AI | Frontier AI in your hands)。Baichuan-Omni はテキスト、画像、動画、音声に対応したマルチモーダルモデルでOSSで公開するとのこと。商用非公開モデルの大きなニュースリリースが予定されているようでそれも楽しみだが、weightが公開されるモデルが増えるのはありがたい。
1つ目はLlama-3.1-Nemotron-70B-Reward と HelpSteer2-Preference prompts を用いてLlama-3.1-70B-Instruct modelをチューニングしたものとのこと。NVIDIAは高効率なアーキテクチャの研究も進めているなど要注目。
2つ目、3つ目のような小規模高性能モデルも様々出ており、性能も検証してみたいところ。
- HelpSteer2-Preference: Complementing Ratings with Preferences [45.0]
リワードモデルは、指示に従うためにモデルを整列させるのに不可欠である。 データに適切にマッチする場合、どちらのアプローチも他方よりも優れているという証拠が不足している。 そこで我々はBradley-Terry styleとRegression reward Modelingを組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (Wed, 02 Oct 2024 06:05:52 GMT)
- nGPT: Normalized Transformer with Representation Learning on the Hypersphere [23.7]
我々は新しいニューラルネットワークアーキテクチャ、正規化トランスフォーマー(nGPT)を提案する。 nGPTはより高速に学習し、同じ精度を達成するために必要なトレーニングステップの数を4から20に削減する。
論文 参考訳(メタデータ) (Tue, 01 Oct 2024 23:50:09 GMT)
- Baichuan-Omni Technical Report [28.3]
世界初のオープンソース 7B Multimodal Large Language Model (MLLM) であるBaichuan-Omni を紹介する。 画像, ビデオ, 音声, テキストのモダリティを同時に処理し, 解析するのに適していることを示す。 我々は,この貢献が,マルチモーダル理解とリアルタイムインタラクションを進める上で,オープンソースコミュニティの競争基盤となることを目指しています。
論文 参考訳(メタデータ) (Fri, 11 Oct 2024 06:44:31 GMT) - リポジトリはGitHub – westlake-baichuan-mllm/bc-omni: Baichuan-Omni: Towards Capable Open-source Omni-modal LLM 🌊