インフォマティクスは4月6日、ディープラーニングを用いた言語モデルであるRoBERTa(A Robustly Optimized BERT Pretraining Approach)の日本語版事前学習モデルを公開した。 同社が今回公開した自然言語モデル「RoBERTa」は、2019年にFacebook AI Research(現Meta AI Research)が公開したモデルだ…
インフォマティクスは4月6日、ディープラーニングを用いた言語モデルであるRoBERTa(A Robustly Optimized BERT Pretraining Approach)の日本語版事前学習モデルを公開した。 同社が今回公開した自然言語モデル「RoBERTa」は、2019年にFacebook AI Research(現Meta AI Research)が公開したモデルだ…