こんばんは。

最近ハードウェア系の進捗をちゃんとまとめて報告していなかった気がするので、現状のところの動画を作ってみました。こちらです!



ニコニコ↓

https://www.nicovideo.jp/watch/sm34147821


現在のところハードウェア系としては腕を完成させつつ脚部サーボの開発に取り組み、頭部の詳細な設計とモデリングを進めようというところです。

ちなみに動画のレイの声ですが以前作った音源を使ってUTAUで喋らせてます。megpoid talkのを下地にしてるので一から作るよりは簡単です。ただやっぱりボイロとかに比べると大変。音源の方でもアップデート予定があったりするので多分そのうち。


最近youtubeとニコ動で同時に作業配信したりもしてます。youtubeの方、自動でアーカイブしてくれて便利です。作業動画なのであんまりおもしろくないかもしれませんが、こんな感じでやっていますので興味がありましたらどうぞ https://www.youtube.com/watch?v=b5NQ6QhobWU

いくつか大きめの写真も置いておきます

ではまた~



開催地は幕張メッセです。明日と、18日もやってます。日本大学理工学部 25-F6で出展してます。

https://www.mems-sensing-network.com/

フロアマップはこちら

https://www.mems-sensing-network.com/files/MEMS2018_floormap.pdf?181010

シーテックと同時開催です。今回ミクは展示しません。ちょっとしたスペースですが開発中のサーボや腕等持っていく予定です。

 

入場料は1000円かかるみたいです。腕や脚部サーボなどの進捗などについてはここで今も記事を書いています。技術系の主に企業向けな感じな展示会なのですが、せっかくなので告知しておいた方がいいかと思い取り急ぎ告知用に記事を書いておきます。直前ですみません!

明日は13時ころからは私も会場にいる予定ですが、午前中や18日は別の方が担当していると思います。

 

※【追記】

事前に来場者登録すると入場料いらなくなるみたいです

https://www.mems-sensing-network.com/info_visitor.html

 

 

製作を進めている足立レイですが喋らせるのに音源が必要と思い、作ってみたので動画にしました!こちらです。

【足立レイ】中の人のいない合成音声作った【UTAU音源配布】

ニコニコ動画

 

youtube

音源ダウンロードリンクはこちらです⇒https://drive.google.com/open?id=160_drADYmmlfxmvHyp9LFwAWJdwcp_Ku mylist/17357513

画像はyoutube用サムネです。後輩にyoutube用に作ったらと言われたのでちょっとyoutubeっぽく作ってみました。若干Vtuber感。

丁度ここ1年ほどハード系やモーキャプなどのソフト系を進める傍ら個人的に製作を進めていました。ついに公開できるところまで来ました!

動画内でも解説しているのですが、人間の声を録音等して作ったものではなく、sin波合成等を使って、一から人工的に合成した音源になります。せっかく何というか無機質な雰囲気の似合うロボットとしてのキャラクターなので、声も人間とちゃんと種族的に断絶していたかったという事もあります。声ってキャラクターにとっては命、存在の半分みたいなところあると思うんですよね。

そしてそれでかつちゃんと最低限それなりに活舌よく聞こえ、かわいく元気に良く通る声にする事を重視しました。何とか使える段階にはなったと思うのですが、どうでしょうか。実験を兼ねていろいろ歌わせてみたり喋らせてみたものをニコニコ等にアップロードしているので、興味がありましたらよろしくお願い致します。

また、今回動音源や動画を作るにあたり様々なツールや情報等を利用させていただきました。動画内で都度リンクを貼ったり最後にまとめて出展など出したりしていますが、ほんとうに合成音声界隈の歴史とここ10年くらいでのニコニコ動画を中心とする合成音声、UTAUの発展の積み重ねあっての完成でした。宝の山です。

こちら動画でも大量に使わせていただいた耳ロボPさんの曲を歌わせたものです。わかる人にはわかる、音声合成、特に隠れマルコフモデルによる合成(さとうささら等)に関する歌だったりします。

ニコニコ

【足立レイ】耳のあるロボットの唄【UTAUカバー】

youtube

 

音源に関する詳しい事項や技術的な細かいアップデートはブログの方を中心にしていこうと思っているのですが、基本的にこの足立レイの音源は中の人を前提としない、完全に人工的な音源生成によってのみ改良できる音源です。それが強みでもあります。改造・再配布も可としています。自分でもいろいろまだ改造・改良・追加の構想はあるのですが使用者の手でもどんどん改良してしまってもらえれば歓迎するところです。

 

純粋に、無人音源(UTAU界隈では無生物音源と言われています)の発展を期待したいという思いもかなり(好きなので)。無生物で人工的にボーカルが可能な音源を作るためには、一番大事なのは素材とノウハウの共有とその蓄積だと思っています。それが多くの人の手によって進めば、いつか人間をも超える、あるいは超えなくて良いのですが、違う進化の方向で高い完成度に至る、という事が可能になるはずです。ローテクであってもサンプリングによらず、完全に人工だからこそ因果関係がはっきりしていますし、同じ手法をとれば誰でも同じ、あるいは似たようなものができる、そこからさらに各々の発想と工夫と好みで上乗せできる。こういうのって科学・技術の楽しさ、素晴らしさの一面でもあると思います。いやもちろん、人の声サンプリングが科学的でないという事ではありませんが。

人工宝石だったり造花だったり、人が自然の物をまねしたり新しく工夫したりして作った人工の美しさっていうのが個人的に面白くて好きです。根本的に構造も組成も全く違うのに見た目は似たようにできていてなおかつオリジナルとは違う良さがある。という感じの。

 

ロボット用に作った音源なので、今後大きな目標としてはまずイントネーション込みでテキストtoスピーチ(テキスト読み上げ)を可能にする事です。いわゆるボイスロイドみたいな。これをどうやって実現するかは幾つか案があるのですが、これからです。

ひとまず公開できてよかったです。声が無いのは寂しいですしイメージもわきませんもんね。この音源まわりも随時手を入れつつボディなどの方も進めていきたいと思います。今回の動画の冒頭でちらっと映っていたと思うのですが、足サーボの新型や上腕が出来上がってきています。上腕は実は自分が設計し弟がモデリングして作っています。そちらもまた進捗報告をさせて頂こうと思いますので、よろしくお願いいたします。

 

今回は音源公開報告という事で、よかったら皆さんも使ってみてください!

ではまた

 こんにちは。このプロジェクトが始まってから大体1年が経ちました。今回も進捗報告していこうと思います。

まず、レイの上半身用のサーボモーターを買いそろえました。これです!

どーん

壮観。ビルみたい。内容はKRS-6003HV-Rを18個(肩・腕・首)、KRS-2572HVを6個(手首)、KRS-3204HVを18個(表情・指・手のひら)です。

左から3204,2572,6003

 

ミク(2号機)は足に6003を使っているので、それが上半身に来た感じでパワーアップです。しかしそれでも腕の力で体を起こす等の動作をさせようと思ったら少し頼りない力なのも確か。肩や首ピッチ軸には特別なやつをつけた方が良いかもしれません。開発中の脚部サーボと同じ感じで作ればさらにハイパワーにできそうなのですが、あまりに見通しが立たなくなってしまいそうなのでとりあえず上半身はこれで行く予定です。

指や表情には現在使っている小型高トルクラジコン用PWMサーボのかわりに小さいシリアルサーボ(一番左の3204)を使用。指サーボのトルクは2号機の1kgf・cm程度から9.3kgf・cmになるのでだいぶ握力が強くなり、かなり強力に物を把持できるようになると思います。「形を表現して見せるための腕」から、「実際に物理的な仕事にも使える腕」に。サインを書いたりするためにも!

 

そして開発中の脚部の大型サーボですが、かなり開発が進んできました。これが外観、そして最近の動作実験の様子です。以前購入報告をしたMaxonの100Wモーターを使用しています。

 

http://www.nicovideo.jp/watch/sm32845370

↑ニコニコ動画版(同じ)

 

計算上ストール時約1450kgf・cmのトルクを発揮するのでこうなりそうのは分かっていたのですが(あえて本体より先にアームが壊れるようにしてます)、とりあえずかなりパワーを発揮できてることが分かったので良かったです。現在大学の同級生(院生)に今新しい制御回路を開発してもらっているので、それを搭載して位置制御等をPWMでできるように進めています。

前も書いた気はするのですが、現在提供してもらっている制御回路はもともと宇宙エレベーターで使用するように作っていた回路を流用しているので、かなり古い部品を使用してできています(枯れた技術)。検討した結果新規でもっと最新のチップを使った小型な回路を開発することにしました。彼に協力してもらえるのは非常に大きいです。

機体のほうに関してはとりあえず以上です。

 

実は最近というかここ半年くらい、レイの音声のほうの製作も進めています。もう一応音源ができてはいるのですが、現在製作動画を作ったりなんだりしているので公開はもう少し後になるとおもいます。お楽しみに!

あとは確定申告とか完了しないといけないのでいろいろ頑張ります!

ではまた

等身大ミク2号機、ロボデックス2018 http://www.robodex.jp/ の西1W-A13日本大学ブースにて展示予定です。東京ビッグサイトで1月17~19日です。多分モーキャプシステムも時々実演します。

会場案内図はこちらです。右上の西1ホールの一番下のところです。

http://www.robodex.jp/RXJP/RXJP_NepconJapan/documents/2018/INW18_MAP_J_4_web.pdf

 

結構急な話だったので自分でもびっくりしたのですが丁度良いタイミングでビッグサイトで展示ができることになりました。大学の先生のスペースを間借りしてる形になります。ありがとうございます!

ただ、展示スペースはポスター発表用のスペースっぽいのであまり広くないと思うので、全身装備はきついかもしれません。

 

実をいうと今のとこロボットをうまく動かすためには自分の姿(追記:ミク(ロボット)の姿の事です。・・書いた後に気づいたのですが・・これをつけてる感覚で書くと自分の姿っていうのはロボットの姿の事だという前提で考えちゃうんですよね)が見えていた方がよく、VR視界の端っこに映して鏡みたいに確認してるのですがそれにはカメラ設置が必要だったり。全身装備するとすごく疲れて1日中は体力が持たない、2人くらいは手伝う人が欲しい、準備が結構大変、ロボットの方もずっとは持たない、等々ポスター発表用スペースでずっとやるにはかなり厳しいです。

それでも一応装着型センサセット+小型PCだけでモーキャプ&動作が可能なので相当コンパクトな環境だとは自負しているのですが。

 

前回紹介したこのシステムの開発動画で最後に見せた様子だと顔のほうと一緒に動かすとカクツキがひどくなる等の問題があったとおもうのですが、現在はそのあたりの改良に取り組んでいます。展示までに直せたらいいのですが。

一応、何時に動作できるとははっきり言えないのですが、11時と15時くらいには動かせるように準備しようと思います。

それではよかったら会場で!