日本語版GPT-2のモデルを元に、文章→文章の変換タスクを実行するAI、「text2text-japanese」がリリースされました。
公開URL↓
https://github.com/tanreinama/text2text-japanese
text2text-japaneseとは、基本的に、日本語版GPT-2のモデルを、文章→文章の変換タスク用にファインチューニングするためのプログラムです。
日本語版GPT-2のプレトレーニング済みモデルは教師なし学習による言語モデルですが、それを元に、教師あり学習(入力文章に対する正解となる出力文章が定義されている)による文章変換モデルを作成します。
用途としては、質問回答AI、チャットボット、抽象型要約などが考えられます。
他にも、学習データ次第で、色々な日本語文章を変換出来るので、アイデアと学習データ次第で様々なAIを作成することが出来ます。
サンプルとして、ニュース記事からニュースのタイトルを出力するように学習させた、「news2title」モデルも公開しています。
こちらのサンプルは、デモンストレーションのページから実行してみることが出来ます。
デモンストレーションURL↓
http://ailab.nama.ne.jp/#news2title
これからも、まだまだ色々なAIを作ってリリースしてゆく予定です!
引き続き、応援の程よろしくお願いします。
坂本