Check our Terms and Privacy Policy.

等身大美少女ロボット制作計画

表情を変えて喋って歌う等身大の美少女ロボットを、3Dプリンターで作成したボディとサーボモーターを主とする構成で作成する計画です。既に似た構造の等身大初音ミクロボットを作って運用していますが、その発展版の第三世代機体のプロトタイプです。2足歩行も目指します。

現在の支援総額

3,596,499

119%

目標金額は3,000,000円

支援者数

184

募集終了まで残り

終了

このプロジェクトは、2017/02/15に募集を開始し、 184人の支援により 3,596,499円の資金を集め、 2017/05/05に募集を終了しました

このプロジェクトを見た人はこちらもチェックしています

等身大美少女ロボット制作計画

現在の支援総額

3,596,499

119%達成

終了

目標金額3,000,000

支援者数184

このプロジェクトは、2017/02/15に募集を開始し、 184人の支援により 3,596,499円の資金を集め、 2017/05/05に募集を終了しました

表情を変えて喋って歌う等身大の美少女ロボットを、3Dプリンターで作成したボディとサーボモーターを主とする構成で作成する計画です。既に似た構造の等身大初音ミクロボットを作って運用していますが、その発展版の第三世代機体のプロトタイプです。2足歩行も目指します。

このプロジェクトを見た人はこちらもチェックしています

thumbnail

開催地は幕張メッセです。明日と、18日もやってます。日本大学理工学部 25-F6で出展してます。 https://www.mems-sensing-network.com/ フロアマップはこちら https://www.mems-sensing-network.com/files/MEMS2018_floormap.pdf?181010 シーテックと同時開催です。今回ミクは展示しません。ちょっとしたスペースですが開発中のサーボや腕等持っていく予定です。   入場料は1000円かかるみたいです。腕や脚部サーボなどの進捗などについてはここで今も記事を書いています。技術系の主に企業向けな感じな展示会なのですが、せっかくなので告知しておいた方がいいかと思い取り急ぎ告知用に記事を書いておきます。直前ですみません! 明日は13時ころからは私も会場にいる予定ですが、午前中や18日は別の方が担当していると思います。   ※【追記】 事前に来場者登録すると入場料いらなくなるみたいです https://www.mems-sensing-network.com/info_visitor.html    


thumbnail

製作を進めている足立レイですが喋らせるのに音源が必要と思い、作ってみたので動画にしました!こちらです。 【足立レイ】中の人のいない合成音声作った【UTAU音源配布】 ニコニコ動画 【足立レイ】中の人のいない合成音声作った【UTAU音源配布】   youtube 音源ダウンロードリンクはこちらです⇒https://drive.google.com/open?id=160_drADYmmlfxmvHyp9LFwAWJdwcp_Ku mylist/17357513 画像はyoutube用サムネです。後輩にyoutube用に作ったらと言われたのでちょっとyoutubeっぽく作ってみました。若干Vtuber感。 丁度ここ1年ほどハード系やモーキャプなどのソフト系を進める傍ら個人的に製作を進めていました。ついに公開できるところまで来ました! 動画内でも解説しているのですが、人間の声を録音等して作ったものではなく、sin波合成等を使って、一から人工的に合成した音源になります。せっかく何というか無機質な雰囲気の似合うロボットとしてのキャラクターなので、声も人間とちゃんと種族的に断絶していたかったという事もあります。声ってキャラクターにとっては命、存在の半分みたいなところあると思うんですよね。 そしてそれでかつちゃんと最低限それなりに活舌よく聞こえ、かわいく元気に良く通る声にする事を重視しました。何とか使える段階にはなったと思うのですが、どうでしょうか。実験を兼ねていろいろ歌わせてみたり喋らせてみたものをニコニコ等にアップロードしているので、興味がありましたらよろしくお願い致します。 また、今回動音源や動画を作るにあたり様々なツールや情報等を利用させていただきました。動画内で都度リンクを貼ったり最後にまとめて出展など出したりしていますが、ほんとうに合成音声界隈の歴史とここ10年くらいでのニコニコ動画を中心とする合成音声、UTAUの発展の積み重ねあっての完成でした。宝の山です。 こちら動画でも大量に使わせていただいた耳ロボPさんの曲を歌わせたものです。わかる人にはわかる、音声合成、特に隠れマルコフモデルによる合成(さとうささら等)に関する歌だったりします。 ニコニコ 【足立レイ】耳のあるロボットの唄【UTAUカバー】 youtube   音源に関する詳しい事項や技術的な細かいアップデートはブログの方を中心にしていこうと思っているのですが、基本的にこの足立レイの音源は中の人を前提としない、完全に人工的な音源生成によってのみ改良できる音源です。それが強みでもあります。改造・再配布も可としています。自分でもいろいろまだ改造・改良・追加の構想はあるのですが使用者の手でもどんどん改良してしまってもらえれば歓迎するところです。   純粋に、無人音源(UTAU界隈では無生物音源と言われています)の発展を期待したいという思いもかなり(好きなので)。無生物で人工的にボーカルが可能な音源を作るためには、一番大事なのは素材とノウハウの共有とその蓄積だと思っています。それが多くの人の手によって進めば、いつか人間をも超える、あるいは超えなくて良いのですが、違う進化の方向で高い完成度に至る、という事が可能になるはずです。ローテクであってもサンプリングによらず、完全に人工だからこそ因果関係がはっきりしていますし、同じ手法をとれば誰でも同じ、あるいは似たようなものができる、そこからさらに各々の発想と工夫と好みで上乗せできる。こういうのって科学・技術の楽しさ、素晴らしさの一面でもあると思います。いやもちろん、人の声サンプリングが科学的でないという事ではありませんが。 人工宝石だったり造花だったり、人が自然の物をまねしたり新しく工夫したりして作った人工の美しさっていうのが個人的に面白くて好きです。根本的に構造も組成も全く違うのに見た目は似たようにできていてなおかつオリジナルとは違う良さがある。という感じの。   ロボット用に作った音源なので、今後大きな目標としてはまずイントネーション込みでテキストtoスピーチ(テキスト読み上げ)を可能にする事です。いわゆるボイスロイドみたいな。これをどうやって実現するかは幾つか案があるのですが、これからです。 ひとまず公開できてよかったです。声が無いのは寂しいですしイメージもわきませんもんね。この音源まわりも随時手を入れつつボディなどの方も進めていきたいと思います。今回の動画の冒頭でちらっと映っていたと思うのですが、足サーボの新型や上腕が出来上がってきています。上腕は実は自分が設計し弟がモデリングして作っています。そちらもまた進捗報告をさせて頂こうと思いますので、よろしくお願いいたします。   今回は音源公開報告という事で、よかったら皆さんも使ってみてください! ではまた


thumbnail

 こんにちは。このプロジェクトが始まってから大体1年が経ちました。今回も進捗報告していこうと思います。 まず、レイの上半身用のサーボモーターを買いそろえました。これです! どーん 壮観。ビルみたい。内容はKRS-6003HV-Rを18個(肩・腕・首)、KRS-2572HVを6個(手首)、KRS-3204HVを18個(表情・指・手のひら)です。 左から3204,2572,6003   ミク(2号機)は足に6003を使っているので、それが上半身に来た感じでパワーアップです。しかしそれでも腕の力で体を起こす等の動作をさせようと思ったら少し頼りない力なのも確か。肩や首ピッチ軸には特別なやつをつけた方が良いかもしれません。開発中の脚部サーボと同じ感じで作ればさらにハイパワーにできそうなのですが、あまりに見通しが立たなくなってしまいそうなのでとりあえず上半身はこれで行く予定です。 指や表情には現在使っている小型高トルクラジコン用PWMサーボのかわりに小さいシリアルサーボ(一番左の3204)を使用。指サーボのトルクは2号機の1kgf・cm程度から9.3kgf・cmになるのでだいぶ握力が強くなり、かなり強力に物を把持できるようになると思います。「形を表現して見せるための腕」から、「実際に物理的な仕事にも使える腕」に。サインを書いたりするためにも!   そして開発中の脚部の大型サーボですが、かなり開発が進んできました。これが外観、そして最近の動作実験の様子です。以前購入報告をしたMaxonの100Wモーターを使用しています。   http://www.nicovideo.jp/watch/sm32845370 ↑ニコニコ動画版(同じ)   計算上ストール時約1450kgf・cmのトルクを発揮するのでこうなりそうのは分かっていたのですが(あえて本体より先にアームが壊れるようにしてます)、とりあえずかなりパワーを発揮できてることが分かったので良かったです。現在大学の同級生(院生)に今新しい制御回路を開発してもらっているので、それを搭載して位置制御等をPWMでできるように進めています。 前も書いた気はするのですが、現在提供してもらっている制御回路はもともと宇宙エレベーターで使用するように作っていた回路を流用しているので、かなり古い部品を使用してできています(枯れた技術)。検討した結果新規でもっと最新のチップを使った小型な回路を開発することにしました。彼に協力してもらえるのは非常に大きいです。 機体のほうに関してはとりあえず以上です。   実は最近というかここ半年くらい、レイの音声のほうの製作も進めています。もう一応音源ができてはいるのですが、現在製作動画を作ったりなんだりしているので公開はもう少し後になるとおもいます。お楽しみに! あとは確定申告とか完了しないといけないのでいろいろ頑張ります! ではまた


thumbnail

等身大ミク2号機、ロボデックス2018 http://www.robodex.jp/ の西1W-A13日本大学ブースにて展示予定です。東京ビッグサイトで1月17~19日です。多分モーキャプシステムも時々実演します。 会場案内図はこちらです。右上の西1ホールの一番下のところです。 http://www.robodex.jp/RXJP/RXJP_NepconJapan/documents/2018/INW18_MAP_J_4_web.pdf   結構急な話だったので自分でもびっくりしたのですが丁度良いタイミングでビッグサイトで展示ができることになりました。大学の先生のスペースを間借りしてる形になります。ありがとうございます! ただ、展示スペースはポスター発表用のスペースっぽいのであまり広くないと思うので、全身装備はきついかもしれません。   実をいうと今のとこロボットをうまく動かすためには自分の姿(追記:ミク(ロボット)の姿の事です。・・書いた後に気づいたのですが・・これをつけてる感覚で書くと自分の姿っていうのはロボットの姿の事だという前提で考えちゃうんですよね)が見えていた方がよく、VR視界の端っこに映して鏡みたいに確認してるのですがそれにはカメラ設置が必要だったり。全身装備するとすごく疲れて1日中は体力が持たない、2人くらいは手伝う人が欲しい、準備が結構大変、ロボットの方もずっとは持たない、等々ポスター発表用スペースでずっとやるにはかなり厳しいです。 それでも一応装着型センサセット+小型PCだけでモーキャプ&動作が可能なので相当コンパクトな環境だとは自負しているのですが。   前回紹介したこのシステムの開発動画で最後に見せた様子だと顔のほうと一緒に動かすとカクツキがひどくなる等の問題があったとおもうのですが、現在はそのあたりの改良に取り組んでいます。展示までに直せたらいいのですが。 一応、何時に動作できるとははっきり言えないのですが、11時と15時くらいには動かせるように準備しようと思います。 それではよかったら会場で!


thumbnail

お久しぶりです。ここ1年半ほど取り組んでいた、モーションキャプチャとVRとロボットを用いた、キャラクターアバターシステムが一応完成したので動画にまとめてアップロードしました!要するに現実世界で「俺がミクだ!」ができるシステムです。 レイとは結構関係があって、このシステムで制御に使っているPCはレイ用のになります。動画内でも結構レイ(の絵)と関連事項は出てくるので是非チェックしてください! サーボの配置等共通点は2号機であるミクとかなり多い予定ですので、ここでソフト面をどんどん開発していこうという感じです。レイが要求スペック通り完成すれば、立ったり歩いたりしながらこれができるはずです! ニコニコ http://www.nicovideo.jp/watch/sm32498906   youtube   恐らくですが人型キャラクターに対応した声に変換しつつ視覚もVRで共有して姿かたちも当然キャラクターでモーションキャプチャで全身動かせるっていうシステムは世界で初めてなんじゃないでしょうか! このシステムの開発に当たっては大学の研究室の4年生と、特にpsy39さんという方にプログラム面でほとんど全面的に開発をしていただいています。ここで今一度感謝を示したいと思います。このシステムの開発では僕は主にシステムの開発方針や仕様決めとハード的な見地からのプログラムとの調整やら実機での実験なんかをやってます。 このシステム、VR用のHMDやらをつけて実際に体験してみないと本当のところの感じはわからないと思うのですが、すごい没入感があります。普通の3DCGのVRでもある程度はそうなのですが、見えるものや聞こえる音がリアルタイムのリアル世界のものなので、3DCGのVRとはまた違った現実感のようなものがあります。というか、現実感というかある意味現実でした。 なんというかミクのロボットの体の中に閉じ込められちゃったというか入っちゃったというか、もうこれ俺の体だろみたいなそんな感じで、現状その場から動けないせいか研究室がとても広く見えて世界が果てしなく感じてしまいます。 しかし歩き回れるロボットになれば、また違う世界が見えるはずです。個人的にも、ぜひこのまま歩いて行くのを体感したい・・と思ってます。 ロボットに実装する(主にはソフト的な)システムとしては2号機で現在のところ最大のものになっています。現在も開発継続中ですので今後も何かこれを使ったものを発表するかもしれません。 具体的にこれを何に使うかというと、エンターテイメントロボットでの舞台やステージ上でのインタラクティブな使用を想定して開発しているのですが、最近にわかに流行りだしたバーチャルyoutuberならぬロボットyoutuberみたいな用途にも使えるかも!と最近思い出しました。バーチャルでしか会えないものにリアルで接したい、あるいは中の人がキャラクターの体が欲しい、っていう欲求はきっとあると思うんですよね。そんなのを意識して開発していきたいです。 ではまた!