お待たせしました!皆様にご支援いただいた、「GPT-2日本語版」において、ついに、最大サイズとなるLargeモデルが公開されました!Largeモデルは、20ヘッダー+36階層で1280次元の埋め込みベクトルと、大変に巨大なモデルです。...
日本語版GPT-2のモデルを元に、文章→文章の変換タスクを実行するAI、「text2text-japanese」がリリースされました。公開URL↓https://github.com/tanreinama/text2text-japa...
この度、GPT2-Japaneseプロジェクトにおいて、small版のモデルを公開したのでお知らせします。small版モデル(旧117Mモデル)は、12層のヘッダーとtransform層を持つモデルで、既に公開済みのmideumモデル...
BERTの改良版「RoBERTa」を、日本語版GPT-2と同じコーパスで学習させた、「RoBERTa日本語版」の事前学習済みモデルがリリースされました。リリース内容これまで、日本語版GPT-2プロジェクトを通じて、GPT-2及びTra...
GPT-2を応用した、Transformerベースの音楽生成AI、「Chord2Melody」がリリースされました。リリース内容これまで、日本語版GPT-2プロジェクトを通じて、GPT-2及びTransformerをベースとしたニュー...