コンテンツへスキップ
- MolXPT: Wrapping Molecules with Text for Generative Pre-training [141.1]
MolXPTは、テキストでラップされたSMILESで事前訓練されたテキストと分子の統一言語モデルである。 MolXPT は MoleculeNet 上での分子特性予測の強いベースラインを上回ります。
論文 参考訳(メタデータ) (Thu, 18 May 2023 03:58:19 GMT)
- 論文と対応するSMILES表記を学習、prompt-based finetuningすることで優れた性能を発揮。論文をうまく使っている点が面白い。
- A Systematic Survey of Chemical Pre-trained Models [38.6]
ディープニューラルネットワーク(DNN)をスクラッチからトレーニングするには、しばしば大量のラベル付き分子を必要とする。 この問題を緩和するため、分子事前学習モデル(CPM)に多大な努力が注がれている。 CPMは、大規模未ラベルの分子データベースを使用して事前訓練され、特定の下流タスクに対して微調整される。
論文 参考訳(メタデータ) (Thu, 27 Apr 2023 03:30:37 GMT)
- 分子の表現のように化学分野の事前学習モデルのサーベイ