Quantcast
Channel: soy-software
Viewing all 181 articles
Browse latest View live

OculusRiftって普及するんですか?- 知られざる日本のVRとHMDの歴史から普及の可能性に迫る

$
0
0

いよいよ来年のQ1にOculusRift一般販売(Oculus TouchはQ2発売との事)を控えた今日この頃。
しかしVRの普及に対しては疑問の声も上がっています。

日本と欧米の違い


ジャーナリストの新清士さんが10/13のOculusConnect2報告会で発表された内容によれば、欧米では非常に盛り上がっているが、その盛り上がりがそのまま日本でも起きるとは限らないとの事。
と言うのも日本と欧米では違いがあるからです。

・日本は欧米に比べてPCゲーム市場が小さい→VRを楽しめるハイエンドなグラフィックボードを積んだPC環境のある人が少ない
・日本は家庭用ゲーム機も最新世代の物は普及が遅れている(PS4は全世界で2500万台以上、日本では170万代)

逆に言えば日本以外での欧米では非常に有望な市場になりえるとの事。

・欧米圏ではコアゲーマーがモバイルからPCや家庭用ゲーム機に回帰している
・PCゲームユーザーの5~6%がOculusRift推奨スペックのグラフィックボードを積んでいる→600万人以上
との事。

「Oculus Connect2報告会」ライブ配信録画

知られざる日本のVRの歴史


日本と欧米でのVRの温度感の違いには他のファクターもあるのでしょうか。
9/11に開催されたVR学会大会の特別講演「VRの黒歴史」を聴講して、Oculus以前から日本ではVRの研究が盛んに行われていた事実を私は初めて知りました。

VRブーム再び、歴史は繰り返すか?「VR黒歴史」から展望するこれからのVR

記事によれば、VR、バーチャルリアリティという言葉が欧米で生まれたのが1989年。
その後1990年代に世界的なビジネスと研究のブームが起きたそうで、今回のブームは2回目にあたります。
日本VR学会が生まれたのは1996年です。
VR学会の学会誌の概要を見る限り、今盛り上がっているHMDどうこうよりももっと広い視野でのVRを扱っているようだなと感じます。

1990年当時、アメリカの企業が自分の動きに合わせて3D映像が動くHMDをすでに開発していました。
これを使って松下電工が制作したのが3Dショールーム。
これはお客様がVR空間でオーダーメイドのシステムキッチンをデザインできるという物でした。
この3Dショールームはかなり好評だったらしいですが、HMDブームが起きたという所までは行かなかったようです。
設備コストがかかるとの事で、OculusRiftに比べるとかなり大がかりで高額なシステムということで普及しなかったのかもしれません。

家庭で乗馬療法が出来るマシン、ジョーバ。
ジョーバの歴史については以下リンク参照

ジョーバの歴史

これは改良を重ねて現在も発売中なので、日本におけるVRの成功事例と言えるのでは。

1996年にデビューしたバーチャルアイドル、伊達京子。

Kyoko Date – Love Communication PV

3分半の映像を作るのに半年かかってしまうなどつらい点があったようです。

岐阜のVRテクノセンターでは昔からさまざまなVRのソリューションがあったようです。

株式会社 VRテクノセンター

私はこれらの日本のVRの歴史をそれまでまったく存じませんでした。
という事は日本のVRの温度感という物はそれが本来で、現在のHMDブームは欧米だけで盛り上がっている日本と無関係の物なのでしょうか?

OculusRiftが生まれた背景


そもそも私が今回のVRブームに触れたのは2013年末頃、twitterのUnity界隈でにわかにOculusRiftDK1が盛り上がりを見せた頃でした。
OculusRiftが生まれた背景はどのような物だったのでしょうか?

Oculus Rift – Wikipedia

ウィキペディアによると、Oculus創業者のパルマー氏は元々「FOV2GO」プロジェクトのメンバーだったそうです。
このプロジェクトは南カリフォルニア大学のMxRラボで行われたもので、タブレットやスマホを使ってハコスコのような物を開発して没入型VRを実現するものだったようです。

https://vrwiki.wikispaces.com/FOV2GO

オープンソースの設計図などがリリースされたのが2012年の3月4日です。
その年のE3ではすでにRiftのプロトタイプが展示され、キックスターターが始動しました。

この動きの速さからすると、パルマー氏はFOV2GOプロジェクトの中で、すでにその発展形としてのRiftの構想が生まれていたのではないでしょうか。

その後は公式サイトによれば2013年3月30日にDK1が出荷開始。(キックスターターで2012年8月15日にバックしていたゆーじさんの元にDK1が届いたのは2013年5月11日でした)

Oculus Rift届きました!(フォトレビュー)

DK1の価格は300ドルで、累計出荷数は7万台以上です。

VRヘッドマウントディスプレイOculus Riftとは何か?

DK2が出荷開始したのは2014年7月25日です。
DK1の出荷後、日本の開発者の間でOculusRiftの盛り上がりは加熱してたくさんの独創的な体験ができるアプリが発表されました。
DK2の予約数も20,000~25,000台の内3,000台が日本からの予約という状況になり、パルマー氏はまさかのDK2日本出荷最優先を決定しました。

「 Oculus VR 」の創業者パルマー・ラッキー氏はなぜ日本の開発者に魅了されたのか? ― Unite Japan 2014 レポート

DK2の価格は350ドルで、2015年2月段階で出荷数は10万台を超えていました。

2014年9月3日にはOculusとSamsungが共同開発したGearVRが発表されました。
GalaxyNote4に対応したSamsung Gear VR Innovator Edition for Note 4は2014年12月には米国で発売されたようですが、これは日本では発売されませんでした。

サムスンGear VR が米国で発売。Galaxy Note 4を挿すVRヘッドセット、Oculus製ソフト搭載

2015年5月29日に日本でもGalaxyS6に対応したGear VR Innovator Edition for S6が発売。
当初はビックカメラなどの一部量販店でWeb通販のみの取り扱いでしたが、その後店頭でも販売されるようになったようです。

他の動きとしては2014年3月にFacebookがOculus社を買収する事が発表されました。

米フェイスブック、仮想現実端末のオキュラス買収 2千億円

2015年6月11日にはMicrosoftもOculusとパートナーシップを結ぶことが発表されました。

OculusとマイクロソフトがVRゲーム業界を征服するために手を組んだ

さしあたってはRiftの製品版にXBoxOneのゲームパッドが付属するようになるそうです。

2015年9月25日のOculusConnect2ではマインクラフトのRift対応が発表されました。

マインクラフトがVRヘッドセット「Oculus Rift」に対応、仮想空間でマイクラ三昧が可能に

こうして書いてみるとOculus社は破竹の勢いって感じですね。
1990年時点でVRシステムキッチンにアメリカのHMDが採用されたように、FOV2GOプロジェクト以前から欧米のHMDの研究は進んでいたと思われますが、その詳細は判然としません。
軍事用途の研究も盛んだったようで、アメリカの軍では戦闘機や戦車の照準用にHMDが実用化されているようです。

https://ja.wikipedia.org/wiki/JHMCS

日本でのHMDの歴史


OculusRiftが登場する以前の日本のHMDでの状況はどのような物だったのでしょうか?

ヘッドマウントディスプレイ – Wikipedia

ウィキペディアを見ると沢山の製品が紹介されてますが、知らない物ばかりですね。
おおまかには視界をふさぐ没入型/ふさがない透過型、単眼/両眼というように分類されるようです。

【ヘッドマウント・ディスプレイ】メガネ型のウエアラブル機器、スマホ革命で再び表舞台に

↑こちらの記事ではRecon Instruments社の「MOD Live」「Recon Jet」を紹介してますが、”再びHMDの開発ブームが再燃している”という言葉が気になります。つまり、かつてもHMDブームはあったという事ですね。
ちなみにMOD Liveはスキー用ゴーグルの視界の隅に雪山での位置や方位、高度、滑走速度を表示するもの。
Recon Jetはサイクリングやランニングで走行距離やスピードを表示したりカメラが付いてて動画撮影などもできるようです。

それではかつてのHMDブームに生まれた製品を眺めてみましょう。

任天堂

バーチャルボーイ

→有名ですね。1995年発売。15000円。国内出荷数15万台。世界出荷数77万台。

HVC-031 3Dシステムスコープ

→これは一体…ファミコンの周辺機器。1987年発売。6000円。

フィリップス

スキューバ

→Wikipediaから概要を引用。
1990年代半ばに発売され、一般向けに販売されたHMDとしては初期の部類に属する。当時はどこででも当時の一般的なCRTと比較して値段の割りに画質 が良くなかった。過渡期の製品だったという事もあるが、同時期の民生用HMDがどれも完成度が不十分だった事が現在まで至るHMDの普及低迷に影響を与えた。

ソニー

グラストロン

→1996~1999年発売。価格は58,000円~298,000円。

HMZシリーズ

→2011年~発売。HD有機ELパネル搭載。価格はT1が59,800円、T3が約8万円、T3Wが約10万円。

タカラ

ダイノバイザー

→Wikipediaから引用。
1996年の 秋にタカラから38,800円で発売された。3m先に120インチの画面を体感できるというキャッチフレーズで当時としてはカラー表示のできるHMDとし ては画期的な値段だったが、18万画素の1枚の液晶を両目で見るため画質が十分ではなく、普及には至らなかった。また、前年にバーチャルボーイが発売されていたことにより、既に目新しさが薄れていたとする意見もある。

オリンパス

Eye-Trek

→両眼没入型。1998年発売。65,000円。

キヤノン

GT-270

→両眼没入型。1999年発売。85,000円。

島津製作所

Data Glass

→単眼式。2000年発売。価格不明。

DaeyangE&C

i-Visor(アイバイザー) FX601

→両眼没入型。800×600有機EL。2005年発売。367,500円。

スカラ株式会社

Teleglass T4-N

→両眼透過型。640×480ピクセル。2007年発売。134,400円。

有沢製作所

i-Bean

→単眼用。アナログTVチューナー内蔵。2007年発売。ツクモ特価34,800円。

ニコン

UP300・UP300X

→ヘッドホンと一体型。単眼式。2008年発売。59,800~69,800円。

Vuzix Corporation

iWear AV920

→両眼没入型?640×480ピクセル。2009年発売。ツクモ特価49,900円。

日本バイナリー株式会社

nVisor SX111

→両眼没入型と思われます。視野角111°はDK2の110°より1°上だ。アクロバティックな見た目がカッコいい。2010年発売?価格不明。

Z800 3DVISOR

→両眼没入型。360°ヘッドトラッキング。2006年発売?700ドル程度だった模様。

セイコーエプソン

MOVERIO BT-100、BT-200

→両眼透過型。androidで手元のコントローラ部でリモコン操作。2011~2014年発売。7万円くらい。

カールツァイス

Cinemizer OLED

→2012年発売。749ドル。解像度870 x 500ピクセル。HDMI入力ができてポータブルで使えるという事で、ドローンの撮影映像を見ながら操縦するのに利用されているようです。

Google

Google Glass

→言わずと知れたGoogleGlass。android4.4.2内蔵。単眼型。2013年発売。2015年1月に販売中止。1500ドル。

ウエストユニティス

Inforod、InfoLinker

→単眼型。android4.2.2内蔵。400×240ピクセルの超小型ディスプレイ。2014~2015年発売。125,000円より。

テレパシージャパン

Telepathy Jumper

→普段は首にかけてて必要時に目にかける。android4.2内蔵。2015年発売。180,000円。

こうして羅列してみると、昔から沢山の種類のHMDが日本で流通していた事がわかります。
90年代後半から2000年にかけて各メーカーから様々なHMDが一斉に発売されたのが第一次HMDブームと言えるでしょう。
何故ブームが収束してしまったのか。断片的な情報からの推測になりますが、
まず価格が高く、一般層への普及が難しかったこと。
そして液晶の性能の問題で、解像度が荒かったり表示領域が小さいなど、通常のディスプレイで見た方がマシだった。
という事が挙げられると思います。
生まれるのが早すぎた製品という事でしょうか。
それでも一部の層には強力に支持されていたとの事で、このHMD大好き層は日本のHMD市場を牽引してくれる可能性を持ってそうです。

2000年~2010年は大手メーカーはHMDから撤退して、一部のメーカーが散発的に新商品を出すにとどまっています。
HMDの冬の時代と言えそうです。

2010年ごろから再びHMDの発表が増加しています。
第二次HMDブームです。
最初のブームと異なり、androidを内蔵してウェアラブルコンピュータとしての側面を持ったスマートグラスのような製品が多いです。
冬の時代の間にインターネットの爆発的広がり、スマートフォンの普及などを経て、HMDに要求されるニーズも変化しました。
液晶の技術も進化して、十分な解像度を得る事ができるようになりました。
とは言え価格は10万円以上する物が多く、家庭への普及と言うよりは業務利用がメインターゲットとなっているようです。

さて、このようなHMDの歴史の流れの中に、来年のOculusRiftが投入されるとどうなるのでしょうか?
そもそもRiftはゲーム用途がメインに開発されてます。
任天堂の3Dシステムスコープやバーチャルボーイ以降はそのようなHMDは無く、流れを覆す製品となるのかもしれません。
Riftが提供する価値は、狭い部屋でも迫力のスクリーンでTVが観れるとか、そういうちょっとした利便性を超えた物、人工現実の提供なのです。

私は10/18のアンリアルフェスでPSVRのサマーレッスン2014を体験しました。
隣に女子高生が座ってます。
私が実際に立って回り込めばVR内でも女子高生の後ろに回り込んでノートの内容も覗けます。
えらい事です。
女子高生とイチャついてる私の方が現実の私で、今こうしてブログ記事を打ち込んでる私が嘘の私なのではないかしら?
それほどの体験を提供してくれるのがVRHMDです。

それでも買わないのか!?

国内VR市場試算


新さんは世界の潜在OculusRift市場は600万人だと試算されました。
日本国内だと現時点の潜在市場規模はどれくらいなのでしょうか?

Steamの世界ユーザー数は1億2500万人だそうです。

[GTMF 2015]Steamでゲームタイトルを販売するとはどういうことなのか──DEGICAの展開するSteamパブリッシングの本質と将来性を聞いた

凄まじい数ですね。
その内日本人ユーザーは1%に満たない。
という事で日本のPCゲームユーザー数を100万人としましょう。
新さんの情報ではPCゲームユーザーの5%がRiftの推奨スペックグラフィックボードを積んでいます。
日本の潜在Riftユーザー数は5万人となります。
潜在ユーザーの20%が実際にRiftを買うとすると実際のRiftユーザー数は1万人となります。

さて、仮に自分はVRのコンテンツを作って販売しようとしているとします。
1人で1年間フルコミットしてVRのゲームを作りました。
1人年という事で、600万円くらいは回収したい所です。
1000万くらい売り上げられればペイできるでしょう。400円で販売するならば、2万5千本売り上げればOKですね。

日本のRiftユーザー1万人の内、30%の人が購入してくれたとすると、3000本で120万円の売り上げ。
…赤字ですね。
もし日本向け限定じゃなくて世界市場に向けて販売したらどうでしょう?
潜在ユーザー数が100倍になるので、単純計算で売り上げ1億2千万円。
…ウハウハですね。

Rift以外の市場はどうでしょう?
GearVRについては、GalaxyS6およびegdeを持っている人たちがそのまま潜在ユーザー数となるでしょう。
サムスンは販売台数を公表してないので推測するしかないのですが、恐らく世界で2500万台くらいでしょうか。
日本での販売は不調だったそうなので、その内の1%、25万人を潜在ユーザーとします。
その内の10%がGearVRを買うとすると、実ユーザー数2万5千人。
先ほどの例で言えば、国内限定での売り上げ予想は300万円。
世界市場ならその100倍、3億円です。

PSVRについては、Playstation4を持っている人が潜在ユーザーとすれば、世界で2500万人、日本で170万人です。
その内の10%がPSVRを買うとしましょう。
先ほどの例では、国内売り上げ予想2040万円。
世界市場なら3億円です。

なるほど…OculusConnect2報告会では全てのVRプラットフォームに対してリリースするべきだという主張もありましたが、数字で見るとやはりパイは取れるだけ大きく取っておいた方がよいと実感できます。
Riftの市場規模が想像より小さかったのが衝撃です。
もちろん発売後にRiftの魅力に惹かれてグラフィックボードごと買ってくれる人達が市場規模を拡大してくれる可能性はあります。

コンテンツの制作も、日本向けに限定した物を作っては大損してしまう可能性が示唆されています。
せっかく欧米で盛り上がっているのですから、絶対に世界向けに作った方がいいですね!

ちなみにこの試算はかなり大ざっぱな物です。
この計算で言えばハコスコの潜在ユーザー数はスマホ持っている人が10億人以上いますから、ハコスココンテンツの世界売り上げ予想は120億円になってしまいます(笑

私の試算はここまでにして、アナリストはVR市場規模についてどう考えているのでしょうか?

[データは語る]VRとARのビジネス規模、2020年には1500億ドルに、英投資銀行が予測

↑ビジネス規模1500億ドルというのがつまりどういう事なのかピンと来ませんが、その内の300億ドルがVRで1200億ドルがAR市場との事で、Digi-CapitalはVRよりARが伸びるだろうと予測しています。

ドイツ銀行、2020年までにVRの市場規模が70億ドルになるとの予測を発表

↑こちらの記事はより具体的で、OculusRift製品版は150万台売れるとしています。
私の試算では600万*20%=120万台となるので、大体一致してますね。

まとめ


色々な視点から、VRは普及するのか?というテーマに迫ってみました。
一家に一台という所まで普及するかはともかく、現時点での潜在ユーザーだけでもかなりの市場規模になる事がわかりました。

現時点でルーカススタジオやディズニーがVRへの参入を決めていますから、VRが普及してから考えよう、なんて悠長なことを言っていたらあっという間に大手企業に市場を牛耳られるでしょう。
小規模開発者こそローンチで戦うべきです。
私の試算ではハード所持者の3割が自分のコンテンツを買ってくれると仮定しましたが、現状のスマホ市場でスマホユーザーの3割が自分のアプリを使ってくれるはずなんて言ったら脳みそお花畑だと言われるでしょう。
すでにスマホアプリ市場は飽和しているので、デベロッパーはアプリを1万DLしてもらうにも非常に苦労しています。
ユーザー数10億の内の1万DL、つまり0.001%のシェアを取るのも難しくなっているのです。
普及しきったハードではコンテンツも充実しきってしまうので、普及を待っていては手遅れになります。
VRのローンチ時でアプリを出せば、30%のシェアを取るのも不可能ではないかもしれません。

日本でOculusRiftが流行るか?というのは結局の所未知数でしょう。
試算ではPCゲームユーザーの一部がVRユーザーとなるとしたためかなり規模が小さくなりましたが、案外アダルトVRコンテンツなどが出てくればそれ以外の層でも爆発するかもしれませんね。
とは言えそんな想像に期待するよりも、やはり最初から世界向けに制作して大きなパイを取るのが安全策だと思われます。
DK2を日本最優先で出荷したパルマー氏も日本発のコンテンツに期待しているはずです。

日本にはVR学会があり、Oculus以前からVRの研究が盛んなVR先進国である事がわかりました。
VR学会での研究と同様の物が今のSIGGRAPHで取り上げられてるといった事も起きているようです。
日本に素晴らしいVR研究成果があるのなら、日本のVRコンテンツが世界に先んじる鍵になるかもしれません。
VRコンテンツを制作している人はVR学会の論文などを調べてみると欧米のVRの先を行く物が作れるヒントが得られるかもしれませんね。

Oculus以前から、第一次HMDブームでは各メーカーがこぞってHMDを発売していた事もわかりました。
当時は技術的な問題から普及しませんでしたが、OculusRift以降はまた各社が奮い立ってRiftより素晴らしいVRHMDを発売してくれる可能性もあるかもしれませんね。

DK1以降の日本の個人開発者などでのVRコンテンツ開発の盛り上がりは世界に先んじた物だったと思います。
そこからの資金獲得などが進まずに欧米に後れを取り始めたという話も上がっていますが、例えばシリコンバレーではRiverというVRスタートアップのベンチャーキャピタルのプロジェクトを行っています。

スタートアップ支援を行うRiverプログラム第2弾ではVR系など計14社へ投資

日本人だってシリコンバレーで資金援助を受ける事もできるはずです。
日本発のアイトラッキングHMDのFOVEもRiverでの支援を受けています。
道は開かれていると言えるでしょう。

仮にVRにリソースを突っ込んで失敗したら?VRが一過性の物で終わったら?という恐れもあるかもしれません。
しかし現在ですでにVRのアトラクションが様々なイベントで人気を博しています。
VRコンテンツ開発スキルがあれば、VR案件の受託開発を行ったりそのような事業を行っている会社で仕事もできるはずです。

もし仮にVRが廃れたとしても、VRコンテンツ制作時にUnityやUnrealEngine4を駆使した技術は3Dが主流になりつつあるモバイルゲーム製作会社でも重宝されるものです。

つまり、VRに本当の本気で突撃すれば、その経験は活かせる機会も多いので、トライしてみるべきと言えるでしょう。
タイミングが重要です。
このような面白ビッグウェーブが来る事はそうそうある事ではないのですから、乗ってみて損はないでしょう。

「乗るしかない このビッグウェーブに」

まるで自分に言い聞かせるような話になってしまいましたが、これにて結論とさせていただきます。
ここまで読んでくださってありがとうございました。


まどマギ漫画「2本の傘」

UnityによるGearVR開発にVuforiaを導入して複合現実(MR)を体感してみよう

$
0
0

はじめに


こんにちは、海行です。
UnityによるGearVR開発でVuforiaを利用してみる手順について、公式でステップバイステップで導入方法が書かれてます

Integrating Oculus for GearVR with the AR/VR sample

しかし日本語の情報が見つからなかったのでここにメモとして書いてみます。
ちなみにGearVRを使わない普通のUnity開発へのVuforia導入についてはすでに日本語情報が色々上がっていますのでそちらを参考に。

無料ライブラリ「Vuforia」でARアプリを作る!④【Unityで開発篇】

VuforiaとはARのライブラリです。
自分のプログラムに手軽にAR機能を実装出来て便利です。
最近ではQualcomm Connected ExperiencesからPTCに売却されて話題となりました。

クアルコム、ARの「Vuforia」事業をPTCに売却へ–6500万ドル

Vuforiaは長らくベータ版でしたが正式版になった時に有料になってしまった!と騒がれましたが、現状のライセンスを見ると、無料プランでも通常の機能は使う事ができ、自分のアプリに使う事も出来るようです。(ただし1日1回ウォーターマーク表示が入ります)
有料プランだとクラウド機能が充実したりウォーターマークが消えたりするようです。

Vuforia Pricing

GearVRは他のHMDには無い特徴として、GalaxyS6のリアカメラが標準搭載されており、これを利用する事が出来ます。
私はGearVRでパススルーカメラ(HMDからカメラを通じて外の風景が見えるもの)のような物を作っていて、これでARでキャラクターなどを表示させれば現実と見分けつかなくて面白いかなと思いました。

別にARはスマホ単体でも楽しめるもので、わざわざVRHMDでやる物ではないのでしょうか?
ところがどっこい、GearVRやCardBoardではARとVRを組み合わせたMixedReality(複合現実)を提供する事が可能となります。
今回実行するAR/VRサンプルも、ARとVRの間を行き来するMRを体験できます。

サンプル実行結果


先にAR/VRサンプルを実行した結果をお見せします。
ビルドしてGearVRで起動すると、しばらくしてからなにやらパススルーカメラのような物が表示されます。

で、なんなの?って感じですがググッても特にこのサンプルの遊び方の説明は見つかりませんでした。
色々試行錯誤した結果、Unityプロジェクトの中にある砂利のような画像がマーカーになってるようです。
この画像をGearVRで見つめると、砂利の上に3Dオブジェクトが表示されました!おお凄い!!

CSl9cozVAAAO0wc

凄いのですが、これだと単なるARって感じですね。
と思いながら何やら3Dオブジェクト上にあるVRと書かれたボタンのような物を見つめてみると…

CSmBNk_UwAEOSXT

おお!
暗転してVR世界にワープしました!!

ARとVRの世界を行き来できる…これは面白いです。
色々なアイデアが湧いてきます!

GearVRにAR/VRサンプルを導入する


それでは本題のサンプル導入方法です。
基本的に原文記事をそのまま訳すだけです。
私はUnity5.2.2f1、OVRMobileSDK0.6.2.0、vuforia-samples-eyewear-unity-5-0-6を使用しました。

1.まず、空のUnityプロジェクトにVuforia AR/VR Sampleの中にあるarvr-5-0-6.unitypackageをインポートしてください。

リンク先のDigital Eyewear→Download for Unityからダウンロードできます。
Vuforiaのアカウントを持ってない人はここでログインを求められるのでサインアップしてください。

2.OVRMobileSDKの中にあるSDKExamples.unityPackageをインポートしてください。

インポートの順番が大事です。何故ならこのMobileSDK側のAndroidManifestを使いたいからです。

3.AndroidManifestとプラグインのパスを修正します。

・/Assets/Plugins/AndroidにあるAndroidManifest.xmlはMobileSDKのもので上書きされたのでVuforia側で必要な権限について追記してください。

<uses-featureandroid:name="android.hardware.camera"/>
<uses-permissionandroid:name="android.permission.CAMERA"/>
<uses-permissionandroid:name="android.permission.ACCESS_NETWORK_STATE"/>
<uses-permissionandroid:name="android.permission.WRITE_EXTERNAL_STORAGE"/>
・/Assets/PluginsにあるQCARWrapperなんとかを全部/Assets/Plugins/x86に移動してください。

QCARWrapper.dll
QCARWrapper.dll.signature
QCARWrapper.exp
QCARWrapper.lib

4.OVR Camera Rigを調整します。

・/Assets/ScenesのVuforia-3-AR-VRシーンを開いてください。

・/Assets/OVR/PrefabsにあるOVRCameraRigプレハブをシーンにドロップします。

・このサンプルではOVRCameraRigの座標はとりあえずX=0, Y=2, Z= -1.にしてください。

・OVRCameraRigの子のLeftEyeAnchorとRightEyeAnchorのパラメータを弄ります。
CameraコンポーネントのNearを0.05に、Farを500にします。
Clear FlagsをSolid ColorにしてBackgroundの色を黒にします。

・ヒエラルキービューからARCameraを選択します。
Bind Alternate Cameraにチェックを入れます。
下に出てきたSynchronize Pose Updatesにチェックを入れます。
Central Anchor PointにOVRCameraRigの子のCenterEyeAnchorをアタッチします。
同様にLeft CameraにLeftEyeAnchorを、Right CameraにRightEyeAnchorをアタッチします。
ViewerをGearVRにセットします。

・ARCameraの子のStereoCameraLeftとStereoCameraRightは非表示にしてください。

5.コード修正

・InitErrorHandler.csのOnInitError()の

if (error != VuforiaUnity.InitError.INIT_SUCCESS)
{

の下に

OVRManager.instance.monoscopic = true;

の行を追加します。

・OVRCameraRig.csの210行目くらいにある

if (UpdatedAnchors != null)

の上に

Vuforia.VuforiaBehaviour.Instance.UpdateState(false, true);

の行を追加します。

・同じくOVRCameraRig.csの440行目くらいにある

return cam;

の上に

cam.ResetProjectionMatrix();
Vuforia.VuforiaBehaviour.Instance.ApplyCorrectedProjectionMatrix(cam.projectionMatrix, eye == OVREye.Left);

を追加します。

・同じくOVRCameraRig.csの200行目くらいにある

centerEyeAnchor.localPosition = 0.5f * (hmdLeftEye.position + hmdRightEye.position);
leftEyeAnchor.localPosition = monoscopic ? centerEyeAnchor.localPosition : hmdLeftEye.position;
rightEyeAnchor.localPosition = monoscopic ? centerEyeAnchor.localPosition : hmdRightEye.position;

の下に

if (!monoscopic)
{
float stereoMultiplier = 0.2f;// use value you want between 0 (no stereo) and 1 (strong stereo)
leftEyeAnchor.localPosition = Vector3.Lerp(centerEyeAnchor.localPosition, hmdLeftEye.position, stereoMultiplier);
rightEyeAnchor.localPosition = Vector3.Lerp(centerEyeAnchor.localPosition, hmdRightEye.position, stereoMultiplier);
}

を追加します。

6.仕上げ

・ビルドするシーンはとりあえずVuforia-3-AR-VRだけでいいようです。

・忘れずにPlugins/Android/assetsにoculussigファイルを入れてください。

・ビルドセッティングでOrientationをLandscape leftにしてください。

・Build Settings > Other SettingsからMulti-Threaded Renderingを有効にしてください。

・実行させるにはApp License Keyが必要となります。

License Manager

↑こちらのリンク先からアプリ用のライセンスキーを作成してください。

ARCameraのVuforia BehaviourコンポーネントのApp License Keyにライセンスキーをコピペしてください。

・お疲れさまでした。
あとはビルドしてGearVRで実行するだけです!

自分のGear VRで野良VRアプリを遊びたい!

$
0
0

こんにちは、海行です。

今回は表題の通り、StandaloneInjectorを使ってGear VR用の野良アプリを自分のGear VRで遊ぶことにトライします。

前提のはなし


普通のandroidアプリは自分が作ったapkファイルを配布すれば誰のandroid端末でも起動できますが、Gear VRでは大前提としてパブリッシュ時にOculusが署名を行ったapkでのみ、Gear VRのハードウェア機能にアクセスする事が出来ます。

勿論それだけだとデベロッパーは自分のGearVRでテストできないので、自分の端末のデバイスIDに紐づいたOculus signatureファイル(osig)をアプリに含める事で、その端末でアプリを例外的に動作させることができます。

参考リンク:https://developer.oculus.com/osig/

何故Oculusはこのような自由なアプリ起動を封じるシステムを導入したのでしょうか。
想像になりますが、以下のような理由が考えられます。

1.OculusStoreなどの自分たちのプラットフォームにユーザーをロックインするため。
自由なアプリ配布を許すとGooglePlayに対するAmazonAppStoreのように、自分たちに利益の入ってこない独自のプラットフォームを作られてしまう。
2.ユーザーがOculusの審査した品質の保証されたアプリだけを遊ぶようにして、粗悪なアプリをシャットアウトする。
VRは通常のスマホアプリと違い、没入感がきわめて高いため、VR酔いなどを引き起こしてしまう可能性があります。Oculus社はVRが軌道に乗るにはリリース時に初めてVRに触れる人にクオリティの高い体験をしてもらう事が必要だと考えてします。

実際のところはわかりませんが、これらのような理由であればosigでアプリ配布をコントロールするのは戦略として正しい方針だと思います。
とは言え、開発者間でお互いのアプリをテストしたい時などに、イチイチosigファイルを受け渡して再ビルドして…というのはやはり不便です。

すかさんや、ようてんさんによって、apkを解凍してosigファイルを手元で差し替える方法が提案されています。

【Gear VR】自前のosigを追加して再sign

SideloadVRのサイトでは、StandaloneInjectorというツールが配布されています。

http://www.sideloadvr.com/

これもapkのosigファイルを差し替えるツールです。(非商用利用に限り、フリーで利用できます)
今回はこのStandaloneInjectorを使用してapkのosigを差し替える手順を紹介します。

手順


・osigファイルの取得

まず自分の端末のosigファイルを取得します。
Oculusのosig取得ページに行って、自分のデバイスIDを入力してDownloadFileボタンを押すとosigファイルが生成されDLされます。

自分のデバイスIDを確認するには、端末をUSBで繋いで

adb devices

コマンドを打ち込んだ時に表示される、

List of devices attached
ce0551e7 device

の”ce0551e7″の部分がそうです。
(androidSDKをインストールしてない場合はadbコマンドが使えないのでインストールしてください)

・apkを用意

遊びたいアプリのapkを用意します。
私はザバさんが配布されているShooter VRでテストしました。

・StandaloneInjectorを用意

こちらからDLして解凍します。

とりあえず解凍したフォルダの中にosigファイルとapkファイルも入れます。

・StandaloneInjectorを実行

コマンドプロンプトやコンソール上でStandaloneInjectorのフォルダに移動します。

以下のような感じでコマンドを叩きます。

e.g.
run.bat ShootingModoki.apk oculussig_xxxxxxx

(もしJREをインストールされてない場合はエラーが出ます。インストールして環境変数のPathにJREのbinフォルダを足してください 参考:PATHの設定及び環境変数JAVA_HOMEの設定

しばらくすると完了して”signed_xxxxx.apk”という新しいapkファイルが生成されます。
この新しいapkをGalaxyS6などの端末にインストールして自分のGearVRで実行できれば成功です。

お疲れさまでした。

【Gear VRアプリ】サイボーグパススルーカメラ

$
0
0

こんにちは、海行です。

Gear VRアプリ、サイボーグパススルーカメラを制作しました。

CyborgPTCameraメインアート

↓apkはこちらからダウンロードできます。
CyborgPTCamera.apk

↓apkを自分のGear VRで実行する方法はコチラを参考にしてください
自分のGear VRで野良VRアプリを遊びたい!

説明


まるでサイボーグになったみたいに視界操作を体験できるアプリです。
GalaxyS6のリアカメラを利用してGear VRを被っていても向こう側の風景が見えます。
ズームイン/アウト、カメラ解像度の変更(解像度を上げるとフレームレートが下がります)、写真撮影ができます。

散歩していて猫が目の前に現れた時など、ポケットからスマホを取り出してカメラアプリを起動して…ってやってる内にシャッターチャンスを逃してしまいがちですが、サイボーグパススルーカメラならワンタッチで写真が撮れます。

遊び方

1.Gear VRのタッチパッドを左右にドラッグすると視界がズームイン/アウトします。

2.タッチパッドを上にスワイプするとカメラ解像度が上がります。下にスワイプすると下がります。

3.バックボタンを押すと写真が撮影されます。

Gear VRをお持ちの方は是非一度遊んでみて欲しいです。

プレイ動画

↓遊んでるプレイ画面はこんな感じです。

プレイ動画

↓サイボーグパススルーカメラをプレイしながら散歩してみました。

経緯と技術解説


そもそもの発端はスタートアップウィークエンドで頂いた、「VRは視界が遮断されるから怖い」という意見について考えてみた事がキッカケでした。
私はOVRVisionやGearVRのリアカメラを使えば向こう側の風景が透けて見えるようにできるので、VRHMDでも視界は遮断されないと考えました。

Gear VRはOVRVisionに対応してないので、リアカメラを使ってみる事にしました。
しかしスマホのカメラは画角が狭いので大部分の視野が封じられます。
そこで、スマホ向け魚眼レンズを使えば広角になって視野が広げられるのではないかと考えました。

CSJtJe7UEAATAoL

↑こうなりました。
この状態でカメラで撮影すると

CSJpBA9U8AA2G-T

↑こうなります。

Gear VRでの見え方を確認するためにこちらの記事を参考に、Unityでパススルーカメラのようなものを実装しました。

CSOzZeDUsAA3XVZ

↑こうなりました。

CSO0y0ZUEAAzjZN

↑同じ視点で魚眼レンズを外すとこうなります。かなり画角に違いがあります。

しかし、この魚眼レンズを付けた状態で歩き回ろうとすると普段と見え方が違い過ぎて足元が非常におぼつかず危険でした。
魚眼レンズの試みは諦めました。

しかし、このUnityパススルーカメラには発展の余地があると思い、ズーム、解像度変更、写真撮影の機能を実装して、サイボーグパススルーカメラというアプリとして成果物としました。

Screenshot_2015-11-03-16-07-32

↑公園を散歩している時のスクショです。

本当はWebが透過で表示されるようにして、散歩しながらハンズフリーでtwitterが閲覧できるというのをやりたかったんですが、技術的困難により諦めました。

成果物が出来たので何らかの形でリリースしたいと思い、SideloadVRのストアに申請してみましたが、あれから一週間ほど経ちましたが、音沙汰有りません。

OculusStoreにも申請を出してみました。
4日くらいしてレビュー結果が返ってきました。

レビュー

「我々はレビューした結果このアプリをOculusStoreに掲載しないことに決めました。残念ながら提供できるフィードバックは特にありません」
というような事が書いています。

要するに却下という事です。
なかなか手厳しいですね。

しかし改めてOculusStoreのアプリ一覧を眺めてみると、かなり厳選されたアプリが並んでいます。
かなり審査基準は厳しいという事を想像させます。
これまで日本からリリースされたアプリは白猫プロジェクトとLittle Witch Pie Deliveryくらいしか無いのではないでしょうか。

Gear VRアプリについては、ストア掲載の基準を厳しくするのが必要な事だという事はわかりますが、サイボーグパススルーカメラのような小粒なアプリにもニッチな存在価値があるかもしれませんので、Oculus社にはもう少し簡易な配布手段を用意してもらえると嬉しいです。

主婦さんが主催したAltspaceVR開発者のSoheilさんの歓迎会で何名かの方にサイボーグパススルーカメラを試してみてもらいました。
なかなか好評でした。

みんな口を揃えて「これはいやらしい」と言っていたのが印象的でした。
こっちを見ているとは思わないのにこっそり見ている感じがいやらしいし、写真撮影機能もいやらしいとの事です。
しかしそれを言うなら本物のサイボーグだってこういう事ができるでしょうから(赤外線カメラなども搭載している可能性があります)サイボーグはいやらしいという事になります。

他には、子供の運動会やスポーツ観戦のビデオ撮影に使えたら便利そうだという意見がありました。
ビデオカメラだと中々フレーミングなど難しいのですが、サイボーグパススルーカメラなら見ているままを撮影できます。
観戦中に他の席の人の視界に切り替えたりできたら面白いという意見も。

まだまだ発展性はありそうですが、これ以降の発展については新しい案件として出発する事にして、ひとまず野良apkの配布およびこの記事の公開をもってこの案件は一旦完了としたいと思います。
ありがとうございました。

親の記憶は子供に遺伝するか?

$
0
0

こんにちは、海行です。

表題の件、ある日気になってググッたのですが、現在進行形で研究が進んでいるためか、イマイチちぐはぐな情報が出てきてしまうので、「エピゲノムと生命」という本を図書館から借りてきて読んでみました。

もし何かしらの形で親の記憶が子供に遺伝するとしたらどうでしょうか?
そうだとすると自分の生き方が生まれてくる自分の子供にダイレクトに影響を与えるという事になります。
自分の健康状態や筋力がそのまま子供に遺伝するとしたら、摂生しようとか筋トレしようという気になって来ませんか?

旧来の生物学のセオリーは、獲得形質は遺伝しないという物でした。
獲得形質と言うのは生まれた後に得た性質、例えば食べ物の好き嫌いとか、筋力とか、本の読み過ぎで視力が落ちたとかです。
獲得形質が遺伝しない根拠は、人間を形成してるのは細胞で、細胞を形作るのはゲノムで、ゲノムは生まれてから死ぬまで不変だからです。
例えるならゲノムは映画のDVDのディスクのように中身のデータは書き換え不能です。

しかし、ゲノムが不変なのに対して、エピゲノムは可変です。
エピゲノムはゲノム内の情報のオン(アセチル化)、オフ(メチル化)のスイッチングを行っています。
このオンとオフでDNAから生成されるたんぱく質を変化させて、結果的に形質に影響します。
この機構により、ゲノムが不変でもエピゲノムによって生物の柔軟な環境適応を可能にしました。
先ほどのDVDの例で言うと、エピゲノムはゲノムの映像を自在にカット、編集できる書き換え可能なメモリのような物です。

ただし、エピゲノムは精子が卵子に受精した際に全能細胞化するために全データが初期化されるというのが定説でした。
つまり、親から子にはやはり獲得形質が遺伝する事はないという話です。

しかし、最近になってこの定説が覆され始めました。

例えば、野生のカブがイモムシに食べられると、段々トゲが生えてきます。(獲得形質)
トゲが生えたカブの種を育てると、最初からトゲが生えているそうです。
まさに獲得形質の遺伝ですね。

他にもオランダの研究で、妊娠中のお母さんが飢饉などで飢餓状態を経験すると、生まれてくる子供が太りやすくなり、さらにその子供の子供(女の子の場合のみ)にも太りやすさが遺伝するという研究結果が出ています。

つまり、エピゲノムのデータ消去は完全ではなく、一部は消されずに遺伝されるという事です。

ちなみに脳が長期記憶を保持する仕組みも大脳皮質や海馬の細胞のDNAのメチル化、アセチル化が関わってるという研究結果があります。

参考リンク:皮質のDNAメチル化は長期記憶を保持する

エピゲノムをUSBメモリみたいにしてデータを書き込んでる感じでしょうか。

獲得形質が一部親から子に遺伝する事実はハッキリしてきてますし、
脳がエピゲノム的な仕組みで記憶保持を行っているからには、精子の細胞でも同じようなシステムが働いて、言葉通りの意味で親から子に記憶が遺伝する可能性もあるかもしれませんね。

ここまで読んでくださってありがとうございました。

参考リンク:
エピゲノム
記憶は遺伝するか2 | 福岡伸一の生命浮遊 | ソトコト:
父親の恐怖の「記憶」が精子DNAを介して子孫に伝えられるとの研究が発表され… – Yahoo!知恵袋:

「世俗の思想家たち」を読みました

$
0
0

余談

唐突に余談を挿入しますが、以前私は100円をなくして探し回ってる人を見かけました。
その時「100円を無くしたら世の中にどのような影響があるんだろう」と思って考えを巡らせてみました。

その100円があったならその人は本来セブンでコーヒーが買えたかもしれません。
100円でコーヒーを売ったセブンの店員はその100円でデイリーヤマザキのホットケーキサンドを買ったかもしれません。
デイリーヤマザキの店員はその100円で募金をしたかもしれません。
募金を受け取った慈善団体は…本来はこうして色んな人の手に渡って使われるはずだった100円が失われたのです。
これはつまり無限大の経済損失という事でしょうか?
んなバカな。

他の仮説を考えてみました。
まず、まどかちゃんが100円を持ってます。
まどかちゃんは100円をさやかさんに払ってマッサージしてもらいます。
さやかさんはその100円を使ってほむらちゃんに宿題を写させてもらいます。
ほむらちゃんはまどかちゃんにその100円で膝枕してもらいます。再びまどかちゃんは返ってきた100円をさやかさんに…

さて、ここでは一体何が起こってるのでしょうか。
私はお金は使うと無くなるものだと思ってたのですが、こうしてみると人と人の間でグルグル回る物だという事がわかります。
つまりお金は世の中を流れる速度が問題なのです。
上の例で言えばもしまどかちゃんが最初に100円を貯金箱に入れてしまっていたら本来起きるはずだった経済活動は何も起きないという事になるかと言うと、世の中にあるお金はこの100円玉だけでは無いので、そういう事にはなりません。

100円が世の中から失われようが、世間ではものすごい額のお金が日々取引されてます。
100円が無くなるというのは、そのお金の回転速度をホンのチョッッッピリだけ弱めるだけの意味合いでしかないという事です。

本文

「世俗の思想家たち」という本を読みました。
歴史に登場した代表的な経済学者達を、その生い立ちと時代背景と思想とビジョンを交えて紹介してくれる本です。
この本を読んだキッカケは、「金持ち父さんのキャッシュフロークワドラント」という本で強いプッシュと共に紹介されていたからです。
「金持ち父さんの~」ではとにかくファイナンシャルリテラシーを身に付けろ!と書かれていたのでとりあえず経済学の本にトライしてみた感じです。

私が思うに、本を読むのは時間がかかる物です。
「国富論」とか「資本論」とか、学生の頃に読んでればよかったでしょうが、今となってはイチイチ原著を読んでるヒマは人生に残されてないって感じがします。
もちろんマルクスの研究をするなら資本論は読むべきでしょうが、経済学についてざっと知識を入れたいだけならこの「世俗の思想家たち」のようなざっと全体を見渡せる本があるとありがたいです。

しかもこういう本は面白く書かれてるものが多く、読んでて眠くならないのが素晴らしいですね。
こういう系の本としては他には「証券投資の思想革命」という本は株式市場について研究した人達の歴史が紹介されてますし、「暗号解読」という本では暗号の作成と解読にまつわる歴史が紹介されてます。
3冊ともド素人の私が読んでも面白かったのでオススメですよ。

この本は図書館に返却してしまうので、その前に登場人物たちの主張やビジョンをメモッておこうと思います。

アダム・スミス

アダムスミスが主張したのは、市場は放っておいても、いや、放っておいた方が全てが良い感じになるという事です。

例えばある町に果物屋が1件しかないとします。
そしたらみんなこの果物屋で買うしかないので、果物屋は調子こいて値段を釣り上げます。
それに対して靴屋は町に10件あって、価格競争で安くし合った結果全然儲かってません。

めちゃくちゃ果物屋が儲かってる様子を見て、ある靴屋は自分も乗っかろうと果物屋に転向します。
この新しい果物屋と前からあった果物屋は価格競争するハメになって果物の価格は下がります。
これが市場原理です。

供給より需要が多い物は、値段が上がります。逆なら下がります。
最終的には全ての商品が丁度よい価格に収まるという事です。

もし談合で集団で価格協定を結んでも、他の誰かが抜け駆けして参入してくるはずなので、無意味なはずという事になります。

アダムスミスのビジョン

市場は、資本家に財を蓄積させます。
この財は生産設備への投資にも向かいます。
機械などの設備が増えれば、労働者の生産性は向上し、賃金や利益も増えます。

賃金が増えれば労働者たちは子供を育てる余力が増えるので、労働者の人口が増えます。
こうして市場は拡大していき、人々の生活は向上、人口も増大していくだろうとアダムスミスは考えました。

とは言え、いつかは資源を使い果たすとか、これ以上生産性向上するスキがない所まで辿り着いてしまいます。
こうなると結局労働者は生活水準ギリギリまで賃金は下がるだろう。

これがアダムスミスが見た経済の行く末です。

振り返ると

アダムスミスの理論は当時には完全に合致していましたが、今では多国籍大企業が現れたりなど当時とは状況が様変わりして市場原理も変化してきています。

マルサス

もう書き疲れてきたのでザックリ書くと、マルサスはアダムスミスが言うみたいに人間は自分の賃金と相談しながら子供の数を決めたりしない、生殖本能のまま子作りしまくる!と主張しました。
各家庭が4人とか5人子供を作っていったら、人口は倍々ゲームで増えてすぐにパンクします。
資源を顧みず人口が増えまくった結果、人間は常に食糧問題に苦しむ続けることになるだろうと考えました。

振り返ると

今では先進国の人口増加率はゼロないしマイナスに近づいており、倍々ゲームで詰むことは無さそうな算段が強まってます。

リカード

リカードも、アダムスミスが考えているようには世の中進まないと考えました。
当時は穀物価格がとても上がっており、しかも海外の安い輸入穀物にも高い関税がかかっていました。
穀物が高いと地価や地代が上がるので、地主は大儲けします。

しかし事業家は、とにかく労働者が食べていけるだけ給料を払う必要があるので、食べ物が高いと利益を全部給料として払うハメになります。
これでは儲かるのは地主だけです。
しかも人口が増加していくとますます食べ物の需要が増えるので穀物価格がさらに上がり、地主だけはさらに儲かっていくでしょう。

振り返ると

リカードの後の時代でイギリスでは関税が下げられて安い穀物を輸入できるようになりました。

ロバート・オウエン

オウエンはニューラナークの自分の工場にユートピアを作りました。
オウエンはこれをさらに発展させようとしてアメリカにニュー・ハーモニーというコミューンを建立しましたが、住民の裏切りにより失敗してしまいました。
しかしオウエンの考えは当時の労働組合に感銘を与えて、最終的に大規模な労働運動に発展しました。

サン・シモンとシャルル・フーリエ

労働者のユートピアのビジョンを描き、活動しました。

ジョン・スチュアート・ミル

ミルの主張は、経済法則は不変の法則でいじりようがないけど、富の分配には法則なんてないし自由だよという事です。
例えばリカードが言うみたいに地主だけが不当に儲かってるなら、政府が地代に高い税金をふっかけて他の人達に配ってあげればいいじゃないという事です。

だから誰かが不当に儲かったとしても、分配はコントロールできるから大丈夫って事です。

だからミルが見た市場の行く末では労働者はある程度裕福になってる感じです。
そしてみんなお金儲けの事を考えるのをやめて正義や自由の事を考え始めます。
ゆくゆくはユートピアみたいな感じになります。

マルクス

マルクスの考えはこうです。
まず、ある理想的な資本主義の世界を考えます。

そこでは物がその物自体の価値通りの値段で売られます。
労働者が時給600円で8時間かけて作ったものは4800円で売られます。
労働者には給料4800円が支払われます。

でもこれだと資本家は差し引き儲けゼロとなります。
実際の社会における資本家の儲けは一体どこから出るのでしょうか?

実際には労働者はサビ残させられているという事になります。
2時間サビ残させれば1200円の価値が発生して、資本家は1200円丸儲けできます。

労働者が働く工場は資本家がニギッてるためにこういう事が起きているとマルクスは言います。

労働者の賃金コストを抑えるために、資本家は工場に機械(ロボット)を導入して労働者と置き換えていきます。
今まで作るのに1000円かかってた商品がロボットにより100円で作れるようになりました。

しかし価格競争で最終的に販売価格も100円になってしまいました。
しかもロボットは動かし続けてる限りコストがかかるので、人間と違ってサビ残させられないので資本家の利益はゼロになっちゃいます。

しかし資本家は今度は90円で商品が作れるロボットを導入します。
これにより販売価格が90円に下がるまでは資本家はつかの間の利益を得られます。

こんな負のスパイラルを繰り返している内に資本主義経済は破滅します。

振り返ると

マルクスの言う物自体の価値って何だよという話になりました。
現実では物は価値じゃなく価格で売られてます。
マルクスの剰余価値とかの話は現実に適用できないんじゃないかという話になってます。

ホブソン

ホブソンは所得の不平等が行き着く末について考えました。
つまり金持ちがもっと金持ちになり貧乏人がもっと貧乏人になり格差が広がっていく流れの果てでは、なんとお金持ちも貧乏人もどちらも十分に物を買う事が出来ないという結論が出ました。
お金持ちはお金が多すぎて使い切れないし、貧乏人もお金が無いので物が買えないのです。

となると市場に売り物がダダ余りになっちゃいます。
お金持ちは使い切れないお金を投資するのかというと、しません。
なぜならすでに物が売れてない状況で、新しい商品を作るビジネスを始めたって儲かるわけないからです。

困ったお金持ちは使い切れないお金を海外に投資しようとします。
色んな先進国で同様の現象が起きて、世界は取り合いになり、戦争になっちゃいます。

資本主義はこうして帝国主義に行き着いてしまう、というのがホブソンの結論です。

アルフレッド・マーシャル

マーシャルは、モノの値段がその生産コストで決まるのか、それとも買った人の満足度で決まるのか、みたいな事について考えました。
例えばダイヤモンドは短い期間の間では、欲しがる人の満足度で価格が決まるだろうけど、長期的にはバンバンダイヤモンドが発掘されるから段々皆に行き渡ってきて、生産コストで価格が決まるようになるだろうと考えました。

ヴェブレン

ヴェブレンにとって実業家は略奪者でした。
ヴェブレンは経済を社会的な機械のように技術者によって管理されたシステムだと考えました。
そして実業家はこのシステムを妨害して混乱に乗じて利益をチョロまかすだけの存在だと考えられました。

ヴェブレンはゆくゆくは生産設備の全て把握してる技術者たちが実業家たちを追い出して経済を掌握するだろうと考えました。

ケインズ

この記事の最初の余談で話したように、世の中をお金がグルグル回る事で経済活動が行われます。
そして貯金箱にお金を入れてしまうと、お金の流れはせき止められてしまいます。
しかし誰もが自分のお金を貯金箱に入れるのではなく、普通は銀行に預金しますし、銀行は預かったお金を速攻で企業などに融資します。
企業は銀行から借りたお金を投資します。
なのでお金はグルグル回ります。

そのハズだったのですが、一つの問題がありました。
企業の投資先が常にあるとは限らないという事です。

企業が投資先が無いので銀行からお金を借りないという事になったら銀行でお金の流れが止まってしまいます。
これは非常にまずいです。

世の中が好況と不況を繰り返す原因はこれまで謎でしたが、どうもこれが原因のようです。

ケインズは企業が銀行からお金借りるのを渋っても、融資するお金の利息を下げれば企業は借りてくれるだろうと考えましたが、実際の大恐慌では何も起きませんでした。

というのも、みんなが失業して貧乏になったら物を買えません。
物が売れなければ企業は潰れて失業者が増えます。
もちろん物が売れないのに銀行からお金借りて投資しようなんてしません。詰んでます。

そもそも投資先という物は常にあるとは限りません。
鉄道だって日本全国に行き渡ったらそれ以上拡張しようがありません。
どんな事業でも投資できる量には限界があります。
そう考えると経済の構造は投資先が常にある事が前提になってるけど実際はその保証が無くてかなり不安定な物だという事がわかってきます。

ケインズのアイデアはこういうニッチもサッチもいかない状況になったら政府が支出を増やして公共事業を行って市場経済を活気づけようという物でした。

ケインズは政府が埋蔵金を埋めて民間企業に探索させれば解決するんじゃねと言った。

シュンペーター

シュンペーターの考えの前提となる世界では、すでに経済成長が終わっています。
そしてそこでは労働者や地主が利益を全てもらっていて、資本家は自分へのちょっとした給料以外には何も得られません。

しかしそこで革新的な資本家がイノベーションを起こして、今までより生産コストをずっと小さくしたり、まったく新しい製品を生み出します。
この資本家は、この時に既存の製品との差額などで利潤を得る事が出来ます。
でもいずれフォロワーが一杯現れて競争になって、利潤はすぐにゼロになります。

イノベーションを引き起こす起業家の絶え間なき創造的破壊の烈風があるから、投資する先が無くなるなんてことは起きないとシュンペーターは言います。

とは言え、最終的にはブルジョアジー達は、自分たちの合理性ゆえに自分たちの資本主義自体に疑問を持ち、それに攻撃を始めるそうです。
大企業はだんだん官僚的になっていき、最終的には資本主義は崩壊して社会主義になるそうです。

本の終わり

本の最後で著者は、最近は経済学から資本主義のビジョンが薄れて、代わりに科学のビジョンが台頭していると言います。
しかし経済学がはたして科学かというと、厳密な意味では科学ではないという意見です。
何故なら分子の運動と個々の人間の経済活動では全然話が違います。
それに、人間の経済活動はその社会と密接に関係していて、所変われば事情も変わります。
そんな中で細かい分析をしてみても、水がH2つとO1つで出来ているというような科学的厳密さは出ないのです。
こんな疑似科学的なビジョンが蔓延ったら経済学も終わりとちゃうか、というのが著者の意見です。

経済学が科学じゃなければ何なのか?
著者は、経済学の目的は、我々の資本主義(社会主義ではない)への理解を助ける事だ、と著者は言います。
著者は長年民主社会主義を支持していたのだそうですが、社会主義国家のボロボロさを見て失望したっぽいです。

経済学は、政治的リーダーシップを担う人が自分の中のビジョンを形成する手助けとなるべきだ、との事です。

読んでみて

この記事は書くのが疲れました。
この本はシュンペーターの紹介で終わってますが、その後も色んな経済学者が登場していると思いますし、続編が読みたいですね。

もっと最近の話を網羅した本も読んでみたいです。
経済について考えるのはなかなか面白いです。

みなさんも是非読んでみてください。
ここまで読んでくださってありがとうございました。

Ready Player One(邦題:ゲームウォーズ)に示されたOculusのビジョンとは?

$
0
0

はじめに

Ready Player Oneとは2011年にアーネスト・クラインによって書かれたSFエンターテイメント小説です。

参考リンク:ヴァーチャル空間で日本のロボットが大暴れするアメリカ小説『ゲームウォーズ』

本の概要については↑のブログ記事を見ていただくとして、アメリカではかなりのヒット小説となったみたいで、2017年にはスピルバーグ監督により映画化されるそうです。
それはたしかにすごいですが、私がこの小説に着目しているのには別の理由があります。

なんとOculus社ではこの小説を必読書としており、新入社員全員に配布しているというのです。

参考リンク:Ernest Cline’s “Ready Player One” is required reading at Oculus VR.

すなわち、この本にはOculusのビジョンが記されており、この本を読めばOculusがこれからどこに向かっていこうとしているのかわかるかもしれません。

私はこの小説を読んでみましたが、内容の大部分は1980年代へのオマージュで満ちています。
多分Oculus社のビジョンはこれはあまり関係なくて、もう一つの軸となっている近未来のVRプラットフォーム、「OASIS」にこそOculusのビジョンが体現されていると思われますので、このOASISの説明を以下に記してみたいと思います。
まあ、実際の小説を読むのが一番わかりやすいと思いますが…

Ready Player Oneの時代背景

これは本題とは関係ないですが一応触れておくと、舞台は2041年のアメリカです。
この世界では石油が枯渇してしまっており、輸送手段が限定されてしまったことにより食料不足が起きてしまい、結構荒廃しています。

自家用車に乗るのは困難になりましたが、一部電気で動くバスなどが運航しています。

この時代の人々は現実が荒廃した分、OASISを使ってVRの中で旅行を楽しんだり、ショッピングをしたりしています。
もはやインターネットイコールOASISという状況になっており、人々はヒマさえあればOASISにログインしており、そもそもOASIS内で働く人も多くなってます。

OASISとは

本題に入ります。

多人数同時参加型オンラインゲームとして生まれたOASISは少しずつ進化を続け、いまや地球上のほとんど全員が日常的に利用するネットワーク型バーチャルリアリティに成長しています。

基本セット

OASISで遊ぶための基本セットは、「OASISコンソール」「バイザー(ヘッドマウントディスプレイ)」「ハプティック(触覚フィードバック)グローブ」の3つです。

OASISコンソール

ペーパーバックくらいの大きさの三角形をした黒い平らな物体。
ワイヤレスネットワークアンテナを内蔵しています。
ゲームハードみたいな役割のものです。

バイザー

フリーサイズの無線通信式バイザーは大ぶりのサングラスといった風情をしています。
健康に害の出ない低出力のレーザーを使ってOASISの驚くほどリアルな環境を網膜に直接描く仕組みになっています。

こめかみのあたりから小さなイヤホンが出ていて、自動的に耳の穴に収まります。
ステレオマイクも2つ内蔵しています。

オンラインの世界がユーザーの視野を完全に埋め尽くします。
OASIS以前は重たくて不格好なVRHMDが流通していました。

ハプティックグローブ

アバターの手の動きをじかにコントロールしたり、シミュレーションの世界に自分が入り込んだかのようにOASIS内の物体を動かしたりできます。
ものを持ち上げたり、ドアを開けたり、乗り物を運転したり。

実際には存在しないものの存在や手触りをフィードバックし、目の前に本当にあるかのように感じさせます。

OASIS概要

OASIS(存在論的人間中心感覚没入型仮想環境)は、GSS社によって2012年12月に発表されました。
やがて全世界の人々の生活、仕事、コミュニケーションのあり方を根底から変え、エンターテインメント、ソーシャルネットワークを変容させ、世界の政治まで一変させることになります。

発売当初はそれまでになかった大規模マルチプレイヤーオンラインゲーム(MMOG)として売り出されましたが、やがて新しいライフスタイルの一つへと進化を遂げます。

OASISには高解像度3Dで作られた数百に上る惑星があり、ユーザーは自由に探索できます。
それぞれの世界は、昆虫や草、風、天候の移り変わりまで描きこまれていて、同じ景色の使いまわしなどは一切ありません。

OASISにログインすれば、世界中の誰でも退屈な現実世界から即座に逃避できます。
まったく新しい別人格を作り、外見や声を自由に設定できます。
人間以外にも、エルフやオーガ、異星人などのアバターにもなれます。

ユーザーはOASIS内に自分だけの惑星を作り、そこにバーチャルな豪邸を建て、好きな内装や装飾を施して、数千の友人を招いてパーティを開くことも可能です。

OASISはインターネットを利用する最大の動機になっていき、やがてインターネットイコールOASISという状況になりました。

GSS社が無料で配布した、操作が簡単なOASIS OSは世界でもっとも利用者が多いOSとなりました。

やがて世界中の人が毎日OASISの中で働き、遊び、出会い、恋に落ちて、結婚するようになりました。

OASISリアリティエンジン

従来と全く異なる、接続中の全コンピュータのCPUパワーを補助的に使う、新しい無停止型サーバーアレイシステムにより、例え500万ユーザーが同時にアクセスしてもレスポンスは遅れません。

OASIS普及を後押しした時代背景

社会的、文化的な変革に差し掛かっていた当時、世界の人口の大半が現実から逃避する先を求めていました。
OASISはそれを安価で、合法で、安全で、中毒性がない形で実現しました。

原油価格が暴騰して飛行機や自動車を使った旅行が難しくなって、庶民が手が届く娯楽はOASISだけでした。

ハイパーリアル・エステート

GSSは商業地域セクター1に数百万区画の超リアルな不動産を用意して、OASISへの出店を望む企業に販売、賃貸しました。

匿名&無料

OASIS最大の特徴は、ユーザーの匿名性が保証されていること。
もう一つは、普通のMMOが月額料金がかかるのに対して、OASISは無料で利用できるところです。

OASISのビジネスモデル

OASISは無料で利用できますが、バーチャルな商品や乗り物を買うのにはお金がかかります。
他にも上記のハイパーリアルエステートで得た利益もあります。

また、乗り物で他の惑星に行く時に必要なバーチャル燃料や、テレポーテーションにもお金がかかり、これはOASISの収益の柱となっています。

インタラクティブ・エデュケーション・プログラム

「セサミストリート」をモチーフにした、無料の幼児教育プログラムです。
気のいいマペットたちと歌を歌ったり、インタラクティブなゲームで遊んだりする事で、歩き方、しゃべり方、足し算引き算、読み書きまで学ぶことができます。

OASISライブラリ

過去に書かれたあらゆる書物、レコーディングされた歌、製作された映画、テレビ番組、ビデオゲーム、アートに自由に触れることができます。

OASIS公立学校

この時代、現実世界の公立学校は資金不足で破産寸前の状態になっており、平均点以上の学生はオンラインの学校に通う事が推奨されており、OASIS内の公立学校に入学することができます。
OASISの学校の授業中は席から動くことができない、不適切発言が自動ミュートされるなどの制限があります。

OASISクレジット

OASIS内の通貨のOASISクレジットはこの時代でもっとも安定した通貨であり、ドルやユーロや円よりも価値が高いです。

ゲームプレイ

OASISにログインすると前回ログオフした地点から開始されます。

リアルタイム・エモーション機能で自分の表情やボディランゲージがアバターにそのまま反映されます。
話を聞きたくない相手はいつでもミュートする事が可能です。
メール、ビデオメール、文字チャット、ボイスチャット、ビデオチャットなどは何時でもどこにいる相手とでも可能です。

惑星によってPvP禁止ゾーンやテクノロジー使用禁止ゾーン、魔法使用禁止ゾーンなどがあります。

OASIS内でさらにアーケードゲームや家庭用ゲームを遊んだり、対戦もできます。

ウェブをブラウジングしたりチャットルームに入っているユーザーはビジー状態となり、目を閉じて見えます。
ウェブブラウザを開くと目の前の空中にウインドウが開き、操作できます。
他の人からはこのウインドウは見えません。

チャットルーム

どこからでもチャットルームに入ることができます。
チャットルームはOASISとは別世界のスタンドアロン型シミュレーションで、実際にはアバターはOASIS内にいますが、同時に存在するチャットルームのアバターの方を操作する形になります。

チャットリンク

チャットリンクはチャットルームより高額な開設費用が掛かるもので、企業などの会議で実際に集まる手間を省くのに使います。
チャットリンクはチャットルームと違い、招待されると同じOASIS上で自分の半透明な分身がチャットリンク先に出現する形になります。

パーソナルOASISビデオフィード

月額料金を払えばだれでも自分のストリーミングテレビ局を開設できます。
OASISにログインしてる人は誰でも好きなチャンネルを何時でもどこでも視聴できます。

何を放送するのかは自由ですし、アクセス制限を設定したり、時間単位で視聴料金を徴収することもできます。

多くのユーザーは自分のアバターの様子を常時撮影、配信する”のぞき見チャンネル”を運営しています。

RPG

元々OASISはMMOとして始まったので、NPCの敵と戦ってレベルを上げたり装備を強化していくRPG要素は普通にあります。
ただし半数くらいのユーザーは代替現実としてOASISを利用しているので、そういう人たちはRPG要素にはまったく興味を持ってないですし、敵の出てくるエリアやPvPゾーンには近づきません。

基本セット以外のデバイス使用

OASISは基本セット以外のデバイスを使用してプレイすることもできます。

常により新しく、より速く、より多くの用途に使える部品があとからあとから発売されている状況です。

主人公は話の後半で高額なイマージョン装置一式を揃えます。

ハプティックチェア

椅子が壁と天井に固定された二関節のロボットアームに支えられており、ロボットアームが椅子を全方位に回転させます。
ストラップで体を固定すれば、椅子ごと宙返りしたり回転したりすることも可能ですし、落下したり空を飛んだりする感覚もリアルに味わえます。

全身型ハプティックスーツ

外側が複雑な構造をした外骨格で覆われており、人間の動きを感知したり、抑制したりします。
スーツの内側にはミニミニサイズのアクチュエータが数センチおきにビッシリ配置されており、触覚刺激を皮膚に与えます。

嗅覚タワー

二万種類の匂いを発生させる能力を持ってます。
バラ園、潮風、火薬が燃えるにおいを再現できます。
エアコンと空気清浄機も兼ねてます。

ランアラウンド全方向トレッドミル

全方向型のランニングマシンです。
どっちに向かって歩いたり走ったりしても、それに合わせて表面が動いてくれるので実際には中央から動かずにすみます。
昇降機能と無定形サーフェスが搭載されていて、上り坂を歩いたり、階段を上ったりする感覚を再現できます。

ADハプティックドール

要するにOASIS向けダッチワイフです。
スタンドアロン売春宿シミュレーションでバーチャルセックスしたりできます。

OASISフィットネス・ロックアウト・ソフトウェア

人間のバイタルサインを常にモニターし、その日に何カロリー消費したか正確に記録します。
運動量が目標量に達するまでOASISにログインできなくなります。

食事摂取量も監視しており、プリセットメニューから食事を選ぶとソフトが勝手にネットで注文して、宅配されます。
追加で注文して食べるとその分目標運動量も増加してしまいます。

考察

以上がOASISの概要です。

これがOculusのビジョン…夢があるような、でも時代背景や人々のプレイする動機を考えると夢がないような…。

まず思ったのが、網膜にレーザーで映像を投影する方式は実現可能なのでしょうか?
実はすでに富士通などがこの方式のアイウェアを発表しています。

参考:富士通フォーラム 2015に網膜投影型レーザーアイウェアなどが展示

Oculusもいずれこの方式の製品を出したりするのかもしれないですね。

次に気になったのが、OASISリアリティエンジンです。
「接続中の全コンピュータのCPUパワーを補助的に使う、新しい無停止型サーバーアレイ」って一体どういう事なんでしょう?
通常のMMOがなぜ同時アクセス数千でパンクするのかというと、全ての処理をサーバ上で行っているのが一番のネックです。
クライアントサイドで処理してしまえばいいじゃんと思いますが、クライアントに任せてしまうと悪意のあるユーザは好き勝手にチートします。

一つ思いつくのは、クライアントサイドで決済処理をやってしまっている仮想通貨の仕組みを取り入れる方法です。
ビットコインでは処理された結果が悪意のあるユーザーによる不正処理ではないことを、プルーフオブワークスとブロックチェーンの仕組みで保証します。

これを応用すれば、MMOでもクライアントに処理を委譲しつつ、不正な処理を防ぐ事ができるかもしれません。
そうなればMMOのサーバ同時接続数は一気に跳ね上がる可能性があります。

もう一つ、OASISを操作するデバイスは色々なメーカーがどんどん新製品を発売しているという描写です。
つまり、OASISでは多様なデバイスを統合的に扱える仕組みがあることになります。

おそらく、アバターを操作する入力とOASIS世界から帰ってくる出力データのフォーマットが決まっているのだと思われます。
その入力、出力データを適切に扱えば、どんなデバイスからでも操作、ハプティックフィードバックが可能になるというわけです。

OculusRiftでもすでにLeapMotionやOculusTouchやKinect、NEURONからの入力を統合的に扱う必要が出てきており、割と近いうちに解決すべき課題として浮上するかもしれません。
ちなみにAltspaceVRはLeapMotionにもKinectにも対応するなど統合的な対応を進めているみたいです。

こうして考えてみると、割と近いうちに仕組みとしてはOASISと同じようなものを実現できる日は近いような気がしてきました。
Oculusが見つめるVRのビジョン、ワクワクしてきますね!

ここまで読んでくださってありがとうございました。


ほむらちゃんのコスプレした会社員男性の漫画

Gear VRコンシューマ版の海外の反応

$
0
0

はじめに


ついにGear VRコンシューマ版が11月20日に北米で発売されました。

参考記事:Gear VRコンシューマー版、北米で発売。AmazonとBest Buyでいきなり品切れに

発売が一週間が経った今、現地でのお客様の反応はどのような感じなのでしょうか。
初めて一般発売されたOculusのVR HMDに対する反応…一体顧客はVRに何を求めているのか?Gear VRはそれを満たしてくれたのか?
気になりますよね!

という訳でAmazon.comにおけるユーザーレビューをざっくり意訳してまとめてみます。

Amazon.com


星5つ ★★★★★

簡単なセットアップ。最初に多くの無料コンテンツがプリインストールされますし、たくさんの無料、有料アプリも出てます。
セットアップ時に大量に表示された警告リストにはうんざりでした。
一度に15分くらいまで遊べる感じ。コンテンツをプレイしたらとてもクールで、ブリリアントではまれます。
良いところ
1.安い 2.コンテンツ 3.ヘッドセットにトラックパッドとボタンが付いてて操作できる
悪いところ
1.ビデオ品質は良かったり悪かったりする 2.最初の内は目が疲れる 3.頭に電話を装着してるので電話がかかってくるとヤバい

私は最新テクノロジーは好きだけど最近はあんま面白い物なかったけどこれは超クール。
99ドルの価値が絶対あるとはわからないが、もうすぐ来るもっと高いHMDが来る前に試しておくには良いと思う。
良いところ
1.たくさんの有料、無料コンテンツがある 2.Galaxyのスマホ持ってたら安く済む 3.完全にはまるし面白い 4.モバイルで使える
ダメなところ
1.解像度が低い。ときどきスクリーンドア効果が見える

Galaxy持ってるなら絶対買った方がいいよ。そのために僕はiPhoneからGalaxyS6に機種変した。
とにかくいい。5年後にはVRは現実と区別付かなくなるだろうね。
これは超ヤバい時代の幕開けやろなあ。

最初にスクリーンドア効果が目立つ気がして気になったけど、いけてるアプリで遊んでたら気にならなくなってきた。でもちょっとCRTを思い出す感じ。
凄い面白いゲームがあるね。OculusVideoとNetflixも思ったより面白い。
要するにはまれるし楽しい。でもレンズの曇りを取るマイクロファイバーの布は必須やな。

ヤバい。対応端末持ってるなら買った方がいいよ。
ブルートゥースコントローラもあった方が絶対いいね。僕はPS4のパッド使ってる。

一つだけ言えることは…アメージング!
Cardboardでの印象が吹っ飛んだね。OculusRiftとかViveとかPSVRも凄そうだけど、あれらは携帯用じゃない。これは携帯用。
ストラップをちゃんと調整すれば長く遊んでも快適。
スクリーンドア効果が見えるけど、ひどくはないし気になるのは最初だけかな。4Kのスマホが出たら解決しそう。
Cardboardと比べると視野が広くて隙間から光が入ってこないから、暗い場面ではちゃんと暗い。
まだまだ先は長いけど素晴らしい何かが始まった感じがする。

モバイルVRの試みに5つ星!
何千ドルもするフルVRは高くて買えない人でも、GearVRのいくつかのゲームはまるでフルVRみたいな凄さある。

GearVRにはOculus社監修のヘッドトラッキングセンサが入ってんねんで!
他の安いVRヘッドセットはスマホ内蔵のセンサ使うだけだからね。
なんでサムスンはこの素晴らしい点をちゃんと広告で伝えないんだよ。

いままで払った中で一番よい100ドル!

100ドルなのに買わない理由あんの?
VRは今やリアル。

パーフェクト!
Netflixに完全対応してて、今じゃ僕は自分のTVルームを持ち運んでどこへでも行ける。

買った方がいいよ。スゴイ。
シームレスで簡単、ハイクオリティ、すごい技術!

ここまでヤバいとは思ってなかった。
VRで人生狂う人いそう

買って2日だけど非常に印象的。
ちょっとスクリーンドア効果が見えるけど、スマホのスクリーンでここまで出せるのは凄い。
描画遅延は無いし、ヘッドトラッキングも完璧。まあアプリ次第ではあるけれど。
短い間は装着感快適だけど、長く付けてると鼻が痛くなった。
レンズ曇りは風呂から出た後に付けた時だけ起きたなあ。それ以外は大丈夫。
Cardboardでこんなもんかと思っても、これは違いますよ。
GearVRのトラッキング性能はプレゼンス高い。
ヘッドホンとブルートゥースと回転できる椅子があった方がいいね。

めちゃクール。
使いやすさと凄さに感動。
Netflixはちょっとしか観なかったけど、Gunjackってゲームはメチャすごいからお金を払う価値がある。
買おうね。

私はDK1とDK2を試したことがある。
DK1はハマれるけどたまに酔うし、そういう物かと思ってたけどこれは違いますね。
表示されてる文字がハッキリ読めるし、解像度も凄い上がってる。
UIもグレートです。アプリを買って遊んで止める流れが簡単にできる。これはDK2の頃から私が一番気になってたところですが、Oculusは洗練して遊びやすくしてくれた。私の彼女もこの点を評価してた。

あなたが対応端末持ってるなら、激オシ。
私の87歳のばあちゃんにやらせてみたら欲しがってた。
これは世界で最高のもの。
今までこれよりスゲー物がamazonから届いた試しなし。
これより凄いものがあるとしたらそれはGearVR2だな。

Gear VRはクールでスマホの画面であることを考慮すると驚くほどよく動く。
周りを見渡せるし、頭の動きにかなり正確に追従する。
私は近眼だけどGearVRで問題はなかった。もっと視力が低い人は眼鏡かコンタクトを装着したままプレイする必要がありそう。

かなりクールと言わざるを得ない。
まだあまりアプリは多くないけどすぐに増えるだろう。
ヘッドセットにトラックパッドがついてるけど、ブルートゥースコントローラがあった方が操作が簡単だ。
ドットのピクセルが見えてるのもちょっと気になる。
30分くらい遊んでると目が疲れてくる。
バッテリーパワーを食うからバッテリー寿命を縮めそう。
でも全体的に見て良いと思う。パーフェクトなVRじゃないかもしれないけど、99ドルだし。
何と言ってもPCとケーブル接続しなくて済むところがいいね。僕は20年前に初めてVRに触れたけど、一般向けに販売される日が来るのをずっと待ってたよ。

アメージング。
サムスンとOculusが革命を起こした。
試した瞬間にハマった。
もっと役立つデバイスにするためにもう少しアプリとゲームが出て欲しいな。
99ドルで得られるパーフェクトなエンターテイメント!

星4つ ★★★★

最初の方のレビューに同意。
これは素晴らしいし、99ドルの価値がある。
唯一気になるのは、高かったGalaxyS6がしょっちゅうオーバーヒートでメチャ熱くなること。
触ってられないくらい熱いから、これはバッテリー寿命に悪影響ですよね。
あとアプリが容量食いすぎ。32GBの容量はすぐに埋まってしまいますよ。

星3つ ★★★

99ドルで未来を体験できる、それは良いところ。
悪いところは、15分もやったらオーバーヒート警告が出て遊べなくなるところ!
見た目の解像度感はHD映像より下。ピクセルが見えてる。
面白いけどすぐオーバーヒートで遊べなくなるんじゃあ、カナダより北に住んでる人じゃないと星3つ以上にはならないんちゃうか。

私はVRのためにGalaxy Note4を買ったんだよなあ。
だって最初のGear VRはNote4専用だったから。
そしたらコンシューマ版はNote4非対応とかうせやろ?
とりあえず返品したけど、値段が3分の1のもっとチープなヘッドセット買うか、Cardboardで我慢するか考え中です。
良いところ
1.付け心地は良いしストラップを締めればズレたりしない 2.隙間から光が入らない 3.それ以上の事は知らない

私はずっとこれがリリースされるのを待ってたけどレンズの位置を左右に調整できないので心底ガッカリした。
これは設計ミスでしょう。
妻は気に入ってるみたい。

画像がめっちゃボケてる。
スマホの問題なのか、私の目の問題なのか、HMDの問題なのかはっきりしない。
ちなみに視力は眼鏡をかけないで生活するくらいはあります。
サポートに連絡して状況が解決したらレビューは修正したいですね。

星2つ ★★

他の人も言ってるけど画像がぼやけてるしスクリーンドア効果が見えてる。
あとデバイス自体でかい。
Wi-Fiが特定のアプリダウンロードで必須。
スマホで動かすんだからモバイルデータ回線でいけると思ってたけど勘違いでしたね。
子供がいたりパーティーで遊ぶのにはいいかもね。
VRエロビデオを観たいでもない限り、社会人がこれを日常生活で使うタイミングは限られてるでしょ。
部屋のソファーに座ってるとして、GearVRで動画観るよりはTVとかノートPCで観た方が普通に快適だから。
VRってゲームでいえばまだポンとかスペースインベーダーレベルやなあ。
もう2、3年待ってみようかな。
とりあえず返品します。

星1つ ★

速攻返品しました。こんなんダメでしょ。
最初のチュートリアル中に電話がかかってくるじゃろ?電話に出るじゃろ?そしたら最初からチュートリアルやり直しですよ。
なんなんぞ。

まとめ


 

一般販売が始まったとはいえ、発売してすぐに購入した人たちはアーリーアダプター寄りな人達だと言えるでしょうね。
それでも今まではほぼVRの開発者間だけで盛り上がっていた界隈に、こうして一般消費者の客観的意見が投げ込まれるのは貴重ですし、真摯に検討してみる必要があるかもしれません。

基本的には好評な意見が多くて、そこは安心しましたね。
VRで盛り上がってるのは一部の開発者だけで、一般消費者は見向きもしない、という訳では無かったと見てよさそうです。
しかし、初めてVRを体験したら当然アメージング!と思うもので、まだ発売一週間しか経ってないので、購入者がVR体験に慣れてからどうなるかが不安材料ではあります。

スクリーンドア効果(ピクセル間の網が見えてる)を指摘する声が多いですね。
私にしてみれば、解像度はDK1からはよほど進化したし、DK2よりも凄い!って思ってましたが、やはり消費者目線だとハードルが高いという事でしょうか。

すぐオーバーヒートする問題やレンズが曇りやすい問題はもっともだし私も同意するところですね。
アプリ開発者としては処理負荷を抑えて発熱を抑えるアプローチが求められそうです。
技術の向上が解決してくれるので時間の問題という気もしますし、スペックが上がったら上がったで使い倒すのでイタチごっこになりそうな気もします。

気になった意見としては、Netflixなどの動画はわざわざHMDを被って観るよりTVやノートPCで観た方が普通に快適だし、一般社会人が日常生活でGear VRを被る事って無さそうという意見ですね。
私の反論としては、Netflixは確かにVRで観る必然性は薄いかもしれないですが、部屋のTVより超大画面スクリーンで観たり、全天周動画を観るのにはやはりVRに優位性があるのではないでしょうか。
そもそも全天周動画とかVR映画って観たいか?と言われるとムム…ですが、コンテンツしだいかと…面白い映画がVRで出るなら観るでしょう。(でもVR映画は映画館で興業できないところが弱み)

一般社会人がいつ何のためにGear VRを被るんだというのは痛い指摘ですが、現実が忙しい社会人がVRに没入するタイミング…やはりそれは現実からの逃げ場としてのVRという気がしますね。
例えばちょっと疲れ気味な会社の昼休みに、HMDを被って草むらに寝っ転がって満天の星空を眺めてみたり、
出張先でホームシックにかかった時に家のストリートビューを眺めてみたり。
一般社会人がVRを日常使いするタイミングが無くても、例えばわっふるさんのペンタVRが絵を描く人にとって必須アプリになれば、その業種の人は仕事で普段使いするようになる訳で、そういう需要が生まれればじわじわとVR普及の可能性は高まる気がしますね。

みなさんはGear VRのアマゾンレビューをみてVRの将来性についてどのように感じましたか?

ここまで読んでくださってありがとうございました。

VRスタートアップ、株式会社パノラヴのビジョン

$
0
0

Tokyo VR Startupsに応募しました。

http://tokyovrstartups.com/

応募にあたって、我々のVRスタートアップの道標となる未来のビジョンを提示する必要があるの思いましたので、スタートアップの未来を予言する漫画を描きました。

001002003004005

ビジョンを実現するために頑張るぞ!
応援よろしくお願いします!

今のところはメンバーは私一人しかいないので、このビジョンに興味を持った方は是非とも一緒に未来を実現していきませんか?
というか助けてください。
よろしくお願いします!

チャンスの掴み方 フェルマーの最終定理を読みました

$
0
0

サイモン・シンの「フェルマーの最終定理」という本を読みました。

この本にはフェルマーの最終定理に関わった人たち、古代ギリシャから1993年までのドラマが描かれています。
最初の方のピタゴラスの定理あたりは話が簡単なのでちゃんと数学的説明がなされてて、この辺は数式のせいで読んでて眠かったんですが、後半は数学的に高度すぎて具体的な証明方法などは本文からすっ飛ばされて、人間ドラマがメインになっていくので後半はかなり熱中して読めました。
面白かったです。

本の内容にはここであまり触れるつもりはないのですが、チャンスの掴み方について思うところがあったのでそれを書きます。

300年以上解かれていなかった数学の謎、フェルマーの最終定理の証明を1993年に達成したのはワイルズさんでした。
ワイルズさんは10歳の時にフェルマーの最終定理について知り、魅了され、絶対に解いてやるぞと決意しました。
ワイルズさんが証明を解けたのは、子どもの頃から、夢を諦めないでトライし続けたからでしょうか?
僕は少し違うと思います。

ワイルズさんみたいにフェルマーの最終定理を解くぞ!と決意した人は山ほどいたでしょうし、300年間には精力的に問題に取り組んだけど解けなかった人もたくさんいます。
諦めずにやり続ければ必ず叶うというものでもなさそうです。

ワイルズさんは別に10歳の決意から人生の全てをフェルマーの最終定義に捧げ続けたというわけではありません。
ワイルズさんは子どもの頃に徹底的に証明に挑戦しましたが、そもそもその時点では証明を解くための道具は揃ってませんでしたので、一旦諦めました。
その後ワイルズさんは数学者になるにあたって、解いても社会の役に立たない(と思われていた)フェルマーの最終定理への挑戦は保留して、もっと実用的な数学を専門にすることにしました。

それから大分経って、たまたま友達からフェルマーの最終定理の証明がかなり進展しているという噂を聞いたワイルズさんは機は熟したとばかりに再び8年間フェルマーの最終定理に取り組んで、証明する事ができました。

ワイルズさんの証明では当時の最新の数学理論が駆使されていました。
それらの道具が揃ってなければ解くことはできなかったわけです。(揃っていてもワイルズさん以外には解けなかったかもしれませんが)
だからワイルズさんは解くための絶好のタイミング、絶好のチャンスを掴み取ったからこそ定理が解けたと言えます。

同じ噂を聞いても他の人なら聞いてもへえ~と言うだけだったでしょうが、定理を解くことが夢だったワイルズさんはそれをチャンスだと認識して、掴み取ることができました。
ワイルズさんがチャンスを掴めたのはチャンスに対する心の準備ができていたからでしょう。

私がかつて勤めていたゲーム会社で上司から聞いたのは、プログラマだろうがデザイナーだろうが企画案の一つ二つ常に見せられるように用意しておくといい事があるという話です。
普段の仕事では中々自分の企画のゲームを作れる機会なんてありそうにないとしても、偉い人が何か面白い企画無いかな~って言ってたり、社内で企画募集があった時、そんな瞬間にスッと自分の企画を提出できればそれが実現するチャンスです。

もちろんその人にとって何がチャンスかはその人が何がしたいかによります。
漫画家志望ならどこかで漫画大賞の募集があった時にサッと応募できるように1本漫画を描いておくのが心の準備だと思います。
何か面白い物を撮りたいと思ってる人なら常にカメラを持ち歩いていれば、目の前に河童が現れた瞬間でもシャッターチャンスを逃しません。

チャンスがあるかないかは運しだいとか、チャンスがあっても掴めるかは運しだいな面もあるかもしれませんが、人生何十年も生きてると試行回数が大きくなり、確率的に死ぬまでには何度かは何かしらチャンスは訪れる可能性が高いです。
チャンスに対して心の準備をしていない人はそもそもそれがチャンスだと気付きません。
いつチャンスが来てもいいように心の準備をしておくとチャンスをチャンスだと見抜けるし、チャンスに対して即座に行動できるので、チャンスが掴めます。

ついでに言えばチャンスじゃなくても災害に対しても心の準備をしておくと実際にそれが起きた時に即座に行動できます。
今の事だけじゃなくて、未来について考えるのが大切だという話を聞きますが、未来に何が起こるかはわからないので、何が起きても対応できるように色々対策を仕込んでおくとよいという事ですね。

【Android アプリ】Doge Camera【Google Cloud Vision API】

$
0
0

CYwLTP6VAAAUc4e

こんにちは、海行です。
Doge CameraというAndroidアプリを作りました。

端末のカメラで見えている映像に対して、リアルタイムにDogeがDoge風にコメントしてくれるという物です。
わかりやすいように実際にコメントをボイスで読み上げる機能も付けました。
スクリーンショットを撮影、保存する事もできます。

Dogeとは? → 参考リンク:2013年に大流行のミーム Doge とは

 

Unity3DとGoogle Cloud Vision APIを使用して制作しました。
Cloud Vision APIが限定プレビュー版なので利用制限があるため、残念ながらアプリ配布はまだ行えません。

一か月ほど前にGoogleがCloud Vision APIを発表した時に真っ先にこれが思いつきました。
これの何が面白いかというと、今見えている風景に対してコンピュータがそこに何が映っているのかを認識してくれます。
これまでも人間の顔を認識する事くらいは出来ましたが、自転車を見たら自転車、アニメを見たらアニメだという風に多様な物を識別できるというのは画期的ではないでしょうか。

↓このDoge Cameraを公園に持って行った様子のプレイ動画です。

アプリに表示されてるDogeの線画はWulcanisさんからお借りしました。

リンク:Shibe Lineart ( Free to use) REUPLOADED: MORE DOGE

 

技術的な話


このアプリはGoogle Cloud Vision APIを試しに使って何か作ってみようという趣旨で制作しました。
Google Cloud Vision APIを使うと何が出来るのかというのはこちら(Node.jsとGoogle Cloud Vision API使って色々な画像認識試してみた。)の記事に詳しいです。こちら(Cloud vision apiを使ってみた。)でも各機能を試されてます。

すでに色々情報が上がってますが、Unity3Dを使ってAndroidからCloud Vision APIを使用という点は史上初っぽいので、その辺をざっくり解説します。

やってる事は非常に簡単です。
①リクエスト用のJSONを作る
②HTTPリクエストでAPIを叩く
③レスポンスJSONからデータをゲット

①リクエスト用のJSONを作る

Cloud Vision APIはJSONでリクエストを出してJSONでレスポンスを受け取るので、リクエスト用のJSONを作りましょう。

UnityでJSONを扱う時は私は以前はLitJsonを使ってましたが、Unity5.3でUnity公式でJSONがサポートされたのでそっちを使ってみます。
UnityのJsonUtilityはDictionary(というかインスペクタに出てこないもの)はシリアライズしてくれないようです。
LitJsonは確か入れ子のDictionaryとかも何なくシリアライズしてくれて簡単だったのですが、JsonUtilityは不便な分高速だという話なので、我慢して使ってみます。

参考リンク:Unity 5.3で実装されたJsonUtilityの注意点まとめ

 

JSONをシリアライズするためのクラスを設計します。
ドキュメントにクラス設計が書いてるのでそれ通りにクラスを書いていくべきなのですが、今回は動けばそれでいいのでリクエストJSONの例を見てパパッと作っちゃいます。

↓これがドキュメントのGETTING STARTEDに載ってたリクエストJSONの例です

{
  "requests":[
    {
      "image":{
        "content":"base64-encoded file data"
      },
      "features":[
        {
          "type":"LABEL_DETECTION",
          "maxResults":1
        }
      ]
    }
  ],
}

これ通りに設計すればOKですが、気を付けるポイントは、[]は配列になってる事と、””に囲まれてたら文字列ですが囲まれてなかったら数値だという所です。

設計したクラスはこんな感じです。

//-----------REQUEST--------------

[System.Serializable]
public class RequestClass
{
    public List<Requests> requests;
}

[System.Serializable]
public class Requests
{
    public Images image;
    public List<Features> features;
}

[System.Serializable]
public class Images
{
    public string content;
}

[System.Serializable]
public class Features
{
    public string type;
    public int maxResults;
}

②HTTPリクエストでAPIを叩く

以前のUnityだとHTTP通信するにはWWWクラスを使ってましたが、新しくUnityWebRequestクラスができてます。
WWWがGETとREST通信にしか対応してないのに対してUnityWebRequestはPUTやDELETEにも対応してて上位互換なので新しい方を使いたいですね。

参考リンク:UnityWebRequestについてちょっと調べてみた

ところがどっこい、実際に使ってみたところ何故か400番の不正なJSONエラーが出てしまいました。
WWWだと普通に通信が通るので、しょうがないので今回はWWWで通信します。

叩くURLは

https://vision.googleapis.com/v1alpha1/images:annotate?key=

↑Cloud Vision用APIキーをGoogleデベロッパーコンソールから入手して上の末尾に足した物を叩きます。

③レスポンスJSONからデータをゲット

レスポンスで返ってきたJSONをデータにします。
リクエストJSON用のクラスを設計したのと同じ要領です。

↓ドキュメントのGETTING STARTEDに載ってたレスポンスJSONの例です

{
  "responses": [
    {
      "labelAnnotations": [
        {
          "mid": "/m/0bt9lr",
          "description": "dog",
          "score": 0.89208293
        }
      ]
    }
  ]
}

↓JSONから設計したクラスは以下のような感じです。

//----------RESPONSE--------------

[System.Serializable]
public class ResponseClass
{
    public List<Response> responses;
}

[System.Serializable]
public class Response
{
    public List<LabelAnnotation> labelAnnotations;
}

[System.Serializable]
public class LabelAnnotation
{
    public string mid;
    public string description;
    public float score;
}

 

最後に、①~③の部分の処理を行っているソースコードを抜粋して掲載します。

IEnumerator coroutineSendHttpRequest()
    {

        while (true)
        {
            yield return new WaitForSeconds(3f);

            //リクエスト作成
            RequestClass requestClass = new RequestClass();
            Requests requests = new Requests();
            requestClass.requests = new List<Requests>();
            requestClass.requests.Add(requests);

            //webcamtextureをbase64エンコードテキストに変換
            _snapTexture.SetPixels(_webCamTexture.GetPixels());
            _snapTexture.Apply();
            byte[] bytesJpg = _snapTexture.EncodeToJPG();   //クオリティ下げたら送信サイズ下がる
            requests.image = new Images();
            requests.image.content = System.Convert.ToBase64String(bytesJpg);

            requests.features = new List<Features>();
            Features feature = new Features();
            feature.type = "LABEL_DETECTION";
            feature.maxResults = 10;
            requests.features.Add(feature);

            string jsonData = JsonUtility.ToJson(requestClass, false);
            //Debug.Log(jsonData);

            string url = "https://vision.googleapis.com/v1alpha1/images:annotate?key=";
            url += windowsApiKey;

            Dictionary<string, string> header = new Dictionary<string, string>();
            header.Add("Content-Type", "application/json; charset=UTF-8");
            byte[] postData = System.Text.Encoding.Default.GetBytes(jsonData);
            WWW www = new WWW(url, postData, header);
            yield return www;
            // 成功
            if (www.error == null)
            {
                //Debug.Log("Post Success\n" + www.text);

                //レスポンスを解析
                ResponseClass responseClass = JsonUtility.FromJson<ResponseClass>(www.text);

                //信頼度0.7以上のラベルをリストに突っ込む
                if (responseClass != null)
                {
                    for (int i = 0; i < responseClass.responses.Count; i++)
                    {
                        Response response = responseClass.responses[i];
                        for (int j = 0; j < response.labelAnnotations.Count; j++)
                        {
                            if (response.labelAnnotations[j].score >= 0.7f)
                            {
                                LabelToken labelToken = new LabelToken();
                                labelToken._lifeTime = 10f;
                                labelToken._label = response.labelAnnotations[j].description;
                                labelToken._score = response.labelAnnotations[j].score;
                                _labelTokenList.Add(labelToken);
                            }
                        }
                    }
                }
            }
            // 失敗
            else
            {
                Debug.Log("Post Failure");
            }


            /*var request = UnityWebRequest.Post(url, jsonData);
            request.SetRequestHeader("Content-type", "application/json; charset=UTF-8");

            Debug.Log(request.GetRequestHeader("Content-type"));
            yield return request.Send();
            Debug.Log(request.responseCode.ToString() + ":" + request.downloadHandler.text);*/
        }
    }

こんな感じになります。

下の方のコメントアウトしてる箇所は動かなかったUnityWebRequestで書いてた部分です。
誰か動かない謎がもしわかれば教えてください。

 

今後の展望


実際に試してみてGoogle Cloud Vision APIがどんなものか大体わかりました。
Cloud Vision APIはディープラーニングの技術が使われているので、ディープラーニングによる画像認識もこういう感じかなと掴めたのでディープラーニング初心者が取っ付いてみるという意味でも面白かったです。

Cloud Vision APIはまだ限定プレビュー版なので正式リリースまではこれを使って製品を出したりは出来ませんが、リリースされたら有料になるんだろうなあ。

今回使ったのはラベルディテクションという画像に何が写ってるか識別する機能ですが、画像を投稿するサービスだとセーフサーチ機能を利用したり、レシート手動入力サービスだと画像OCRの機能を利用していきそうですね。

フォルダの中にある大量の画像を自動で仕分けするみたいな使い方もできそうです。

これからはコンピュータがどんどん世界を認識していくんだなあという予感を抱きました。
今はまだ人を見てもpersonという事までしかわからないみたいですが、いずれ顔を見たらそれが誰かまでわかるようになるでしょう。
コンピュータが”まなざし”を持つようになるという事ですね。
突き詰めていくと何が起こるのか…それはまだわかりません。

何か面白い使い道のアイデアがあれば、みなさんも是非Google Cloud Vision APIを試してみてください。
無料で使えるのは限定プレビューの今だけかも!?

Unity VR EXPO Shibuyaでさやカメラを展示してきました

$
0
0

こんにちは。海行です。

1月24日に渋谷で開催されたUnity VR EXPO Shibuyaでさやカメラというアプリを展示しました。

関連リンク:大盛況だったUnity VR EXPO Shibuyaレポート 最優秀コンテンツは「BLAST×BLAST」

 

さやカメラについて


まず「さやカメラ」というアプリの紹介記事をまだ書いてないのでアレですが、
↓これです。

無題c

無題

つまりアイアムさやかのAndroidアプリ版とでも言うべき物で、端末のカメラに写る人物の顔がさやかさんに置き換わるという物です。
今回はMMDモデルのさやかさんではなく、自分で描いたLive2Dのさやかさんを表示しました。
スクリーンショットを撮影して保存できる機能が付いてるので、顔を隠して自撮りしたい時などに便利です。

今回のVR EXPOはVR展示のイベントであるため、HMDで楽しめるVR版のさやカメラを用意しました。
これで理論上は目に見える全ての人間がさやかさんに置き換わるはずでしたが、実際には正面顔しか認識できないのと小さい顔も認識精度がイマイチなので目の前にいる人以外には反応しづらいです。

↓Androidアプリ版のさやカメラはこちらからダウンロードできます。
http://soysoftware.sakura.ne.jp/upload/sayacamera/sayacamera.apk

↓今回のVR EXPOで展示したGearVR版のさやカメラはこちらからダウンロードできます。撮影機能は外してます。
(GearVR用野良アプリを自分のGearVRでプレイする方法はこちらを参考にしてください)
http://soysoftware.sakura.ne.jp/upload/sayacamera/sayacamera_for_gearvr.apk

↓今回の展示では使用しませんでしたが、一応用意していたスマホVR(ハコスコ、Cardboardなど)用のさやカメラはこちらからダウンロードできます。こちらも撮影機能は外してます。
(バックキーを押すたびに1眼、2眼が切り替わります)
http://soysoftware.sakura.ne.jp/upload/sayacamera/sayacamera_for_cardboard.apk

展示について


結論

結論から言うとさやカメラの展示は大成功しました。
理由はとくにトラブル無く展示できたからです。

発端

twitterで伊藤周さんがこのイベントの告知をされているのを見て、とりあえず私も参加しようと思いました。
展示の募集もあったので、どうせ参加するなら展示した方が面白そうだと思いました。

しかし、展示できる実弾をロクに持ってない事に気付きました…最近作った物と言えば「さやカメラ」ですが、これを展示させてもらうのは難しそうですし、そもそもVRじゃなくてARアプリですからね。
で、ありましょうが、とは言えアリかナシかは私の判断する所ではないので、とりあえず堂々と応募してみてUnityの人に審査を委ねる事にしました。
「人生で重要なのは応募する事だ」と「夢を叶えるゾウ」に書いてた気がします。
さもありなん。

そして結局展示の許可を頂くことになりました。
LTも先頭バッターで発表する事になりました。
まさかさやカメラを堂々と展示する日が来るとは実際思ってもみませんでした。
Unity社さんの寛大な心に感謝です。

展示は当初Androidスマホ端末2台でさやカメラ2つを並べて置く形式で考えてましたが、せっかくのVRイベントなのでHMDで体験できた方がお客様の期待に応えられるのではないかという話になり、GearVR版とハコスコ版のさやカメラを用意する事になりました。

GearVRでの展示となると色々と懸念点が出てきます。
①いちいちHMDを被ってもらうのでアテンドの負担が大きくなりそう(ぼっち参加なのでアテンドするのは当然私ひとり)
→GearVRのヘッドバンド部分を取っ払ってハコスコのように手に持って体験してもらうことで手間を減らしました。VRの中に没入する系のアプリでは無いのでこれで構わないと判断しました。

②次々と体験者にGearVRを装着してもらう場合、顔面に接触する部分の衛生管理をどうするのか(HMD体験でものもらいになったという話を聞いたことがあります)
→接触部にカバーをしている人もいるみたいですが、今回はとりあえず一人体験するごとに接触部を除菌ウエットティッシュで拭きまくりました

③GearVRは連続使用ですぐオーバーヒートしてプレイできなくなるがその場合どうするのか(GearVRもGalaxyS6端末も1台ずつしか持ってない)
→一番大きな懸念点ですが正直どうしようもないので、GearVRが使えなくなったらもう一台のハコスコ版で体験してもらおうと考えてました。しかしやはりGearVRに比べるとハコスコはチープな印象があるのでできればGearVRで通したいと思ってました。

④端末の電池が切れたらどうするのか
→③と同様

⑤レンズが曇ったらどうするのか
→GearVRに付属していたレンズ拭きを持って行って拭くしかない。

当日

展示側は10時から準備開始で、実際のイベント展示は11時から17時半くらいまでありました。
私は同人誌即売会と同じようなノリで2~3時間だろうと考えていたので、長丁場と知ってますますGearVRの電池切れなどのトラブルが心配になりました。
とは言えさやカメラの展示は5秒もあれば全てわかる物ですので、来客数も300人だけですし、1時間くらいで体験したい人には一通り体験してもらえるだろうとたかをくくってました。

準備については、まず会場で用意されてるコンセントに持ってきた延長タップを繋いで端末を充電できるようにして、GearVRとハコスコを1台ずつセットアップするだけです。
一瞬で展示の準備が済みました。DK2と比べてGearVRの最大のメリットはこのお手軽さだと思っています。
今回その長所を発揮してくれた形になりました。
他のチームではかなり大掛かりな機材を持ち込んだりしてて、準備が大変そうな所もありました。
ちなみに、歩いて持ってこれないような機材については事前搬入、搬出の手続きもアナウンスされていました。
今回は必要ありませんでしたが、今後CV1の展示をするのにデスクトップPCを持って行くのがツラい…というような場合は活用したいシステムです。

何か展示の案内を出していた方がいいと思い、紙に説明を印刷しようかとも思いましたが、あまりスペースが無さそうなので8インチのwindowsタブレットを立てかけてさやカメラの説明スライドをスライドショーでループ表示しておきました。

実際の展示ですが、沢山の人に訪れていただきました。ありがとうございます。
GearVRを被っていただき、「私の顔を見てください。ホラ、さやかさんになってるでしょ。以上です」と説明して5秒で終了なのですが、体験された方は当然「えっこれだけ?」という反応になりますので、間を繋ぐためにでっち上げのロードマップについて延々話すことになりました。
以下のような事を言った覚えがあります。

・任意のLive2Dキャラの読み込み機能の実装
・人の顔の向き、表情をキャラに反映。
・スマホ版のFaceRig+Live2Dみたいな物にしていく
・相手の顔が誰かまで識別できるようになれば顔の代わりにtwitterアイコンを表示させたり

いや~~~~大言壮語だ(汗
まあ、たしかに面白いと思うのでやっていきたいですね。

LT

LTは当初は「バーチャル女装の未来」についてお話ししたいと考えてたんですが、さやかさんについてみんなの前で語る機会はさやカメラを展示してる今回以降もう無いだろうと考えたので、今までUnityとかで作ったさやかさん関係のゲーム、アプリについてお話させていただきました。
何故かLTがトップバッターだったので最初なら好き勝手な事話しても大丈夫だと思いました。

↓LTのスライド一応公開しておきます。

LTの内容については、もはやここでは触れない事にさせていただきますが、LTの準備については言及しておきたいです。

去年のOcufes開発者会でLTした際に、スライドが開けないトラブルがありました。
スマホからテザリングでMacBookからwi-fiで繋いでいたのですが、回線状況が悪くスマホがLTEに繋がらなくなり、Googleドキュメントにアップしていたスライドがオフラインでは見れないという状況でした。
幸いにすぐ回線が回復したので事なきを得ましたが…

スライドは絶対ローカルに持っておくべきです。

この時はMacBookからパワポのファイルを閲覧する手段が無かったためGoogleドキュメントにアップしたのですが、これ以来はパワポからPDF書き出し&連番JPG書き出ししてPDFでプレゼンする事にしています。

ネット回線問題と同様に恐ろしい問題は、プロジェクタのコネクタとPCのコネクタが一致しない問題です。

用意周到な会場ですと色々な変換コネクタを用意してくれていてこちらが気にせずに済む場合もあるのですが、実際VGAコネクタしか無いという会場もありました。
どのコネクタが標準なのかというのも一概には言えません。
MiniDisplayポートだった時もありますし、VGAコネクタだった時もありますし、HDMIだった時もあります。

今回のVR EXPOではMiniDisplayポートが差せるMacBookとVGAコネクタが差せるWindowsノートPCの両方を持って行きましたが、結局今回の会場ではHDMIがデフォルトでした。
今回は変換コネクタが潤沢に用意されたのでやはり事なきを得ましたが、万全を期すなら何が来ても対応できるようにこちらで一通りの変換コネクタを用意しておくことが望ましいと感じました。

回線問題とコネクタ問題を回避しても、何らかのトラブルでノートPCが動かない時もあるかもしれません。

私はそれに備えてスライドが完成したらSlideShareにもアップロードするようにしてます。
いざという時は他の誰かからPCをお借りして、アップしておいたSlideShareのスライドを開いてプレゼンするつもりです。

さらにお借りしたPCに回線が繋がってない可能性もありますね。
それに備えてダメ押しでスライド(PDF化および連番画像化したスライドも)をUSBメモリにも入れて持って行くのがベターです。

ここまで用意しておけば憂いなしだと思います!

展示で得られた知見

さて、今回の展示会ですが、結果的に特にトラブルもなく終わらせることができました。

懸念点だったGearVRですが、意外にもオーバーヒートでアプリが停止してしまう事態には見舞われませんでした。
さやカメラはガチ3DVRのアプリでは無いのであまり負荷がかからなかったのが功を奏したのだと思われます。
オーバーヒートはしなかったものの、端末を触るとかなり熱を持ってるヒヤヒヤな状況ではありました。

レンズの曇りも起きてませんでした。
レンズ曇りは湿度などの関係で起きるのだと思いますが、今回は会場の環境が良かったです。

電池切れについては、なんと、丁度展示が終了する17時30分に端末の電池が切れてしまいました。
ギリギリセーフです。
今回は多分40人くらいの方々がさやカメラの体験に訪れてくれて、私は暇でもなく忙しいでもないくらいの状況でしたが、あと少しでも人が来ていたら途中で電池切れしてしまっていましたね。
昼過ぎに展示を休止して会場そばの中華料理屋さんでお昼ご飯を食べに行って端末の充電時間を稼いだりもしましたが、そういうのも込み込みでギリギリでした。

以上の点を鑑みてみますと、もっと本格的なVRアプリの展示となるとGearVRではキビしいと言えると思います。
GearVRのスペックをフル活用して作ったアプリだと展示の途中でオーバーヒートや電池切れになってしまう可能性は高そうです。
少なくともGalaxyS6の端末をもう一台用意して交代で冷まし&充電できるようにするべきかと思います。
他の現実的な案としてはやはり例えGearVR向けのアプリであってもDK2向けに書き出して展示するのが無難ではないでしょうか。
GearVRはあくまでパーソナルユース向けであって展示に使うような作りをしていないという事だと思います。

さて、展示に訪れてくださった方々から様々な意見を頂きました。
こういった生の意見を聞けるだけでも展示した価値はあったなと手応えを感じています。

今思い出せる意見を列挙してみます。

・これでSkype英会話教室をやりたい
→二次元キャラ相手だとリラックスできそうでいいですね
・GearVRでのARはFPSが低めになってしまうのがやはりつらい
→ごもっともです。GearVR2に期待…!Unity使わずにネイティブコードで完結させればもう少し改善できるかもしれません。
・VRHMDでやる意味があるのか
→かなり鋭い意見でしたが苦し紛れに例えばARから特定の相手を認識する事でそのままVR世界にワープするみたいな事もできると返した気がします。
・相手が誰かを認識する事はiPhotoなんかでもできてるから技術的には可能だと思う
・GoogleのAPIで人物識別できる物があった気がするのでそちらを使ってみては
→ぜひ試してみたいです
・私もさやかさん大好きです
→展示しに来た甲斐がありました
・笑い男でやって欲しい
→同意見多数でした

みなさま貴重なご意見、ご指摘ありがとうございました。
今思うとコンテンツの内容が薄い分私もベラベラ喋りまくってフォローしてた気がします。
メチャクチャ喋りました。

感想

VRの展示会で自分のアプリを展示するのは初めてでしたが、多くの人に訪れて頂いて嬉しかったです。
ダメ元で応募してよかったです。

例えば同人誌即売会で40人に本を買ってもらうというのは割とハードルが高いのですが、VRの展示だとそれだけ来てもらえるので満足感があると思いました。
やはりVR自体の注目度の高さという物も実感します。

今回キャラ物での展示でしたが、むしろキャラ物だったおかげで版権を利用したお仕事をされている方から注目されて声をかけてもらえたりする面もありました。

イベントの最後に伊藤さんからアンケートを集計した展示の満足度ランキングなどが発表されていましたが、私のいた位置からは発表が全然見えませんでした。
しかしまあ、ハッキリ言って見ないで正解でしょうね(笑
とにかく誰が何と言おうと私の中では展示は大成功でした。

今回の展示の意義についてですが、そうそうたるVRコンテンツの中で何食わぬ顔をしてさやカメラを展示しているという状況自体が私的には相当ヒットしているのでそれだけでもやってよかったと思ってます。

みなさんそういう物だと流してたかもしれませんが、冷静に考えるとどうかしてると思いませんか?
見た目よりもアバンギャルドでラジカルな展示ができたと思います。

私とさやかさんの歩みもここまで来たかと感慨深くもなりました。

しかし当然ここで終わりではありません。
ハッキリ言って次はもっとスゴい物を作りますよ。

乞うご期待!!

最後に

今回はUnity社さんのご厚意によりさやカメラを展示させていただきました。
素晴らしい会場準備、運営のおかげでたのしく展示させていただく事ができました。懇親会で頂いたUnityビールも美味しかったです。

Unity社さん、主催者のみなさま、スタッフのみなさまにこの場を借りて感謝申し上げます!

展示されていたみなさま、ご来場者のみなさまもありがとうございました。

最後の最後に、ここまでこの記事を読んでくださってありがとうございました。
お疲れ様でした。

技術的な話

おまけでアプリの技術話をします。

オリジナルのさやカメラはUnityとUGUIとLive2Dで実装していました。
これをVRHMDで見れるようにするにはどうするのか?

今回は手っ取り早く、元々のメインカメラの描画先を画面からレンダーテクスチャに変更。
レンダーテクスチャをプレーンに貼り付けてCardboard用カメラの前に置きました。

ハコスコ用にCardboardSDKで作ったバージョンとGearVR向けバージョンの2つも個別に用意するとややこしいので、CardboardSDK版をGearVRでも流用しようと当初は考えていました。

しかし実際Cardboard版アプリをGearVRから覗いてみると、像が二重に見えてピントが合わないような状態でした。
私は二眼ならどれも同じように見えるだろうと思っていたのでスマホVRでも個別に最適化しないとまともに見えない場合があるのは意外でした。

仕方がないので今回は普通にGearVR向けのバージョンも用意しました。

他に工夫した事と言えば、オリジナルのさやカメラはカメラアプリとしての性質上、カメラから取得するwebCamTextureの解像度を端末画面と同じ(1920×1080など)にしてますが、VR版ではFPSを稼ぐために640×480にしています。
それでもかなりカクカクですが…

AndroidスマホからTHETA SのUSBライブストリーミングを見てみよう

$
0
0

こんにちは。海行です。

全天球カメラのTHETA SとAndroid端末をUSBケーブルで接続してUSBライブストリーミングを閲覧する事に成功しました。


CUjUjqVUEAIUIQO
  20160201_013352

実際にはTHETA Sを入手後ほどなくして着手していたので2015年11月24日に実現していたのですが、それから多忙になってそのままになってました。
とりあえず現時点の物を公開しようと考えてこの記事を書きました。

↓Android用実証デモアプリをこちらからDLできます。
http://soysoftware.sakura.ne.jp/upload/THETAS/ThetaUSBLiveViewerTest.apk

使い方

1.静止画/動画切り替えボタンを押しながら電源ボタンを押してTHETA Sをライブストリーミングモードで起動してください。

2.USBケーブルでTHETA SとAndroid端末を接続してください。
ただし、ケーブルの相性によってはTHETA Sを認識できない場合があるようです。
私が接続に成功しているのは↓のiBUFFALOのmicroUSB変換アダプタとセリアで買ったmicroUSBケーブルです。
ただし、さらに変換アダプタ側をandroid側に刺さないと認識しませんでした。
CTbQt3TVEAAAcU1

3.THETA Sをandroidが正しく認識するとUSBカメラが接続されましたという旨のシステムダイアログが表示されるので、それで正しく接続されていることを確認してください。

4.デモアプリを起動して画面に表示されるボタンを押してください。画面にTHETA Sの映像が映れば成功です。

経緯


リコーから発売された全天球カメラのTHETA Sには、撮影中の映像を生中継で観れるライブストリーミング機能が付いてます。

以前私は、このTHETA Sをドローンに載せてwi-fiライブストリーミングで操縦者のVRHMDに配信して、さながらタケコプターのような体験を可能にするという旨の漫画を描きました。

しかしこの後で、実際にはTHETA Sのwi-fiライブストリーミングは解像度(640×320)とFPS(FPS10)が低く、臨場感のある体験を得るのは難しい事が判明しました。

現実的に観覧用に利用できるのは、USBライブストリーミング(解像度1280×720 FPS15)とHDMIライブストリーミング(1920x1080i FPS60)の2つでしょう。

通常であればパソコンに接続して使う機能ですが、もっと手軽に持ち歩きながらライブストリーミングが楽しめないか?と考えて、スマホ端末から直接USBライブストリーミングを観れるようにしてみました。

今回のデモアプリは特に使い道が無いですが、ここから発展させていくと色々面白いことができると思ってます。

今後の展望


前述のタケコプターを実現する場合、ワイヤレスHDMIを使う案が有力なのですが、今回のAndroidを介してそこから同じwi-fi上のGear VRに映像を配信したり、あるいはネット越しに配信するなどの実現手段も見えてきます。

ネットで全天球配信をするにしてもPCでなくAndroidから配信できれば気軽に歩きながら配信を行えると思います。

今後ネット全天球配信の流れは(定着するかはともかく)間違いなくやって来ると思われますが、スマホを介しての配信というのは一つのキーを担う可能性があると考えています。

今回はデモアプリの公開となりましたが、今後も色々とやってみて可能性を探ってみたいと思います。

技術的な話


AndroidからUSBCameraの画像を取得するのはこちらのライブラリをお借りしました。↓

https://github.com/saki4510t/UVCCamera

このライブラリはApache License 2.0で提供されています。

Copyright (c) 2014-2015 saki t_saki@serenegiant.com

Licensed under the Apache License, Version 2.0 (the “License”); you may not use this file except in compliance with the License. You may obtain a copy of the License at
http://www.apache.org/licenses/LICENSE-2.0

 

Java上で取得したTHETA Sの画像をUnity側に送り込んでます。
画像の転送にはExternalTextureを利用しました。

参考リンク:
ネイティブで作成したテクスチャを使用する – テラシュールブログ
Low-Level Native Plugin Interface を利用してネイティブから Unity のテクスチャを高速に更新する方法を調べてみた – 凹みTips

 

また、THETA Sから送られてくるDualFishEye形式の画像をUnity上で観るために、Noraさんにより配布されているTheta Shader Packを使わせていただきました。

ただ、THETA Sの個体差によって天球画像の位置が微妙に異なるらしく、そこは何か自動スティッチング技術が必要な所だと思うのですが、今回のデモアプリにはまだ付けてませんが差し当たって手動でキャリブレーションできる機能を付ければいいかなと思ってます。


Unityボイスチェンジャーフィルタを作りました

$
0
0

こんにちは、海行です。

VR EXPOでさやカメラを展示した時に、体験者には私の顔がさやかさんに見えていたわけですが、「さやかさんにしては声がオッサン過ぎる」という意見を頂きました。

それはいけませんね。

言われてみれば私はアイアムさやかの頃から外部のボイスチェンジャーソフトを使って動画とか撮影してきました。
フリーソフトのボイスチェンジャーはMorphVOX Jr恋声などがありますね。

いまだにUnityに組み込めるボイスチェンジャーが無いのは不満です。
みなさんもちょっと女性を演じたい時などにボイスチェンジャーが組み込めれば便利ではないでしょうか。

という訳で作ってみました。

デモ動画は上のツイート動画をご覧ください。

Windows用サンプルデモアプリは↓こちらからダウンロードできます。
http://soysoftware.sakura.ne.jp/upload/AssetStore/VoiceChangerFilter/VoiceCangerDemo_UnityChan.zip

デモアプリはともかく、肝心のアセットはどこ?
アセットは現在Unityアセットストアに登録申請を出しています。販売が開始されたら是非購入して使ってみてください!

ただ、windows版しか作れなかったので、結局androidのさやカメラには組み込めないんですよね。
誰かがいずれ技術的課題を解決してくださるのを待ってます!
要望が多かったりしたら自分で移植も試してみたいですね。

技術的な話


さて、ボイスチェンジャーと言っても一体どうやったら作れるのでしょうか?

単純に考えると、私は男性なので、ピッチを上げて声を高くしたら女性っぽく聞こえそうです。
しかし、ピッチを二倍にすると音の時間は半分になってしまいます。

上手い事半分になってしまった音を切り貼りして隙間を埋めたとしても、単純なピッチ変更だけでは出来上がった声は女性というよりテレビで匿名の話すアレになってしまいます。

参考リンク:
タイムストレッチ、ピッチシフトのアルゴリズム
ピッチシフトをしてみよう

恋声などのボイスチェンジャーソフトでは、ピッチとフォルマントを独立して上下させる事が出来ます。
フォルマントと言うのは、あまり詳しくないのですがその人固有の声の性質みたいなものです。

フォルマントを維持したままピッチを上げることができれば、自然な音声を実現できそうです。

早速フォルマントを解析する方法を調べてみましたが、音声処理の素人の私には手も足も出ないという感じでした。

そこで今回は、Worldという音声合成処理ライブラリをお借りしました。
Worldにはドキュメントなどは付いてないですが、作者の方によって書かれたこちらの論文で動作原理が解説されています。

Unity側ではAudioFilterとしてボイスチェンジャーを実装しました。

Worldで処理するにはある程度(0.2秒分ほど)以上の長さの音声が必要なので、バッファに入力音声データを溜めてから逐次Worldで処理する流れになってます。
そのため、どうしても入力から出力までに0.6秒ほどのタイムラグは発生してしまってます。

dll化したWorldのメソッドを同期処理で呼び出してのん気にリターンを待っていたら、マイクの入力データを取りこぼしてしまいます。
今回はThreadを立ててそっちからdll呼び出しをかける事で非同期処理させて解決しました。

参考リンク:
Unityでスレッドを使う – テラシュールブログ
引数を指定してスレッドのメソッドを起動する。

今後の展望


私はこれからはバーチャルの世界で男性が手軽に女性になりきるバーチャル女装の時代が来ると睨んでます。
すでにNEURONやFaceRigなどを使って男性が女の子のキャラクターになりきるみたいな話はどんどん出てきています。

体が女の子になったのならば、当然声も女性化させるというのは今後必須要素になっていくでしょう。
もちろん女性が男性を演じる事もできるでしょうね。

究極的にはバーチャルの中では現実の自分とまったく無関係にどんな人にでもなれる事ができるようになっていくはずです。

その第一歩として今回のボイスチェンジャーフィルタをこれから先バーチャル女装関係のコンテンツを作る際にドシドシ組み込んでいきたいと思います。
みなさんも是非使ってみてください。

Vocaloid SDK for Unityを使って遊びました

$
0
0

こんにちは、海行です。

去年の年末にUnity上でVocaloidが扱えるVocaloid SDK for Unityがリリースされました。

ユニティちゃんライセンスの範囲内であれば無償で使えるという太っ腹なライセンスで提供されています。
私はボーカロイドのソフトは使用した事は無いのですが、タダで遊び倒せるという事ならせっかくなので試してみようと思いました。

UnityからVocaloidを利用できると何が変わるのでしょうか。
今までも初音ミクさんの歌に合わせてMMDモデルを踊らせてみた的なUnityアプリはありました。とは言えボーカロイドの歌の編集とUnityのMMD編集はまったく別々だったので、歌のタイミングに合わせてキャラを口パクさせるような作りをしていたと思います。

Vocaloid SDKによりUnity上で発声させられるようになれば、逆にMMDキャラの口パクに合わせて発声させる事が出来るので、音声とダンスの同期は取りやすくなると思います。
しかし、Vocaloid SDKはアプリ向けにライブラリサイズなどを軽量化されてるため、通常のボーカロイドと比べて音声の質は落ちるようです。
リアルタイム発声だとDAWみたいに豊富なエフェクトはかけられないでしょうし、発声自体もやはりちょっとだけ遅延があったりもするみたいです。

なので、単純に今までボーカロイドでやってた事をSDKで置き換える用途で使う感じではなさそうです。

ポイントとなるのはやはりそのインタラクティブ性ではないでしょうか。
録音済みの歌と違ってプレイヤーの好きな歌詞を歌わせたりできるわけです。

という訳で作ってみました。

マイク入力から音程を取ってユニティちゃんが歌ってくれるというwindowsアプリケーションです。
歌声を音声認識するのは難しそうなので、発音してる言葉までは取ってません、音程だけです。
マイク入力以外にmp3などの歌声ファイルを入力に使う事も可能です。

↓サンプルアプリはこちらからDLできます
https://docs.google.com/uc?id=0B7uH85nrtbOFb0NwVF9Lc3JMbWc&export=download

さて、作っては見たものの、試しにマイクに向かって「かえるのうた」を歌ってみましたが、中々こちらが意図したとおりに音程を取ってくれません。
何だか音痴だと言われてるみたいでイヤになりました。

上のサンプルアプリでもサンプル音声を入れてますが、バッチリ音程が取れている音声ファイルを入力すれば中々良好な結果を返してくれます。
ユーザーが自由にmp3を突っ込んで遊べるようにする事も可能ですが、楽器の音などが混じってるとプログラムからはボーカルと楽器の見分けがつかないのでマトモな結果は帰ってきません。
アカペラ音声を突っ込めばいいんですが、意外とアカペラ音声って手元にないです。
楽曲からボーカル以外を消す加工をするのも思ったより難しいみたいです。
つまり、mp3入力はあまり実用性なさそうですね。

自分の声では音程取りが難しいですが、例えばピアノにマイクを近づけて弾けば大体正確に音程取りする事が出来ます。
しかし、わざわざそこまでするならキーボードから直接MIDI信号を入力した方がマシでしょう。

という訳で、マイク入力のアプローチは保留して、MIDIを入力する方向を攻めてみましょう。

ちょっと改造して作ったのはこれです。

midiファイル(smfファイル)を入力するとmidiの一つ目のトラックを歌ってくれるという物です。
ちなみにmidi自体の楽曲もUnity上から鳴らしています。
midiファイルなら誰でも容易に制作、入手ができますね。

これは中々良好な結果が得られていますが、midiファイルの作り方次第では意図しない発声になったりしてロバストではないです。

それならば素直にVocaloidエディタでmidiファイルをインポート、編集して公式サポートされてるvsqxファイルを作って歌わせる方が健全でしょう。

という訳でだんだん行き詰まりを感じてきたのでVocaloid SDKで遊ぶのは一旦ここまでとしました。

技術的な話


発端は、Unity公式のネイティブオーディオプラグインサンプルにPitch Detectorのサンプルがあったので、これとVocaloid SDK組み合わせればマイク入力で歌わせられるんじゃないか?という事でした。

実際すぐできましたが、とは言えやはりリリースできるようなクオリティに仕上げるのは難しいですね。
ちなみにネイティブオーディオプラグインサンプルはdllしか用意されていないのでこれを使うと対応プラットフォームがwindowsに限定されてしまいます。(Vocaloid SDK for Unityの対応プラットフォームは現在windowsとMacとiOSです。androidは未対応)

次に作ったmidiファイルを歌わせる奴ですが、keijiroさんのsmfliteをお借りしました。
簡単にmidiファイルからmidiイベントを取れます。

発声(ノートオン)のmidiイベントは0x90番ですが、正確には15チャンネルあって0x90~0x9Fまでがノートオンだそうです。

参考リンク:http://www1.plala.or.jp/yuuto/midi/p0201.html

この辺がよくわからない所なんですが、15チャンネルあった所で結局Vocaloid SDKではリアルタイムモードでは同時発声数は1つだけっぽいので別の音を発声させたら前の音は消えます。(全パートユニティちゃんの合唱とボイパで歌わせられたら面白そうなんですけどね)

さて、せっかくならユニティちゃんのボイス単体だけでなく、伴奏も欲しいですね。
Unityでmidiを鳴らすには、↓こちらの記事を参考にしました。
UnityでMIDIを再生する – n-yoda’s blog

GitHubのサンプルプロジェクトを実行したら、あっけなくmidiが再生できてしまいましたが、これは相当凄い事だと思います。

前述のtwitter動画はsmfliteを使って歌わせたユニティちゃんボーカルとunity-midiで鳴らした楽曲を無理やり手動で同期させて合わせてます。
もちろんそんな実装では駄目です。

あとからunity-midiに統合してunity-midiからイベントを拾ってユニティちゃんを発声させることでちゃんと同期するようにしました。

その他参考にした話

・すでにVocaloid SDKを触られてる方々の記事が参考になります。

VOCALOID SDK for UnityでSDユニティちゃんをリップシンクさせる – LotosLabo

Mtk’s Blog: VOCALOID SDK for Unityでユニティちゃんにvsqxを歌わせる方法

Mtk’s Blog: VOCALOID SDK for Unity でユニティちゃんをリアルタイムに歌わせる方法

・マイク入力の音量が一定以下ならノートオフと判定する処理を作りましたが、現在の入力音声の音量を計算する方法は↓こちらの記事のGetAveragedVolume()を参考にしました。
マイク入力の音量を用いてオブジェクトを呼び出すサンプル【Tips】

・Unity5ではAudioSourceの出力をオーディオミキサーにして、オーディオミキサーごとにエフェクトをかけたり音量調節ができます。
スクリプトからオーディオミキサーの音量を調節するのは↓こちらの記事を参考にしました。
Unity 5で音量を調整する方法 – テラシュールブログ

ちなみにアクセスするためにコンポーネントにオーディオミキサーをアタッチする必要もありますが、プロジェクトビューのオーディオミキサーをアタッチするとScriptableObjectみたいな感じで共有されます。

・前述のtwitterの動画で使用しているmidiファイルは↓こちらからお借りしました。
http://www5b.biglobe.ne.jp/~pst/douyou-syouka/

・Vocaloid SDK for Unityのライセンスについてですが、アプリケーションを配布する場合、どこかユーザーが見えるところにライセンス表記する必要があります。なおかつアプリにライセンス表記ファイルを同梱する必要があります。
http://business.vocaloid.com/unitysdk/copyright/

今後の展望


現時点でいくつかアイデアはありますが…

1.俳句を詠ませる

インタラクティブに歌ってもらうならいっそ詠ってもらうのはどうだろうかという思い付きです。
しかし、「ボーカロイド 俳句」でググッたら↓こんなものが見つかりました。

俳句ブーム来た!?セガの俳句ボカロアプリ『うた詠み575』がスゴイ

完全にかぶりましたね…しかも3年先行されてるし

2.DAWにする

せっかくUnityでmidiを鳴らせる方法も分かったのでいっそピアノロールを実装して本格的なボーカロイド付き楽曲制作シーケンサーソフトを作ってスマホアプリでリリースしたら面白いのでは?とも思いますね。

しかしすでにヤマハさんはすでにMobile VOCALOID Editorをリリースしてます。

http://www.vocaloid.com/lineup/ios/

じゃあわざわざ作るまでも無い気がしてきますね。

3.音痴なボーカロイド

マイク入力で音程を取る奴は、中々意図したとおりの音程が取れなくて音痴になった気分でイヤと言う話をしました。
この問題を逆手にとって、こっちが入力したとおりの周波数のまま音痴に歌ってもらうという案です。

ボーカロイドはシンセなので普通は半音ごとの音階で歌うのが当たり前ですが、ピッチベンドを駆使したら任意の周波数で歌ってもらう事は出来るような気がします。

音痴なシンセなんて聞いたこともないのでやってみるのも面白いかもしれません。

本記事は以上になります。
また何か面白い結果が出せたら記事を書きたいと思います!

【ディープラーニング】Chainerのインストールとchainer-goghのテスト

$
0
0

こんにちは、海行です。

私はtwitterで前々から今アツい3つの領域は

1.VR(とAR)
2.人工知能
3.仮想通貨(ブロックチェーン)

と言っていたんですが、人工知能については今まで全然着手してませんでした。
一応GoogleのCloud Vision APIを使ってDoge Cameraは作りましたが、今回はもう少し踏み込んで、国産のディープラーニング用フレームワークのChainerのインストールと、Chainer用プログラムのchainer-goghの実行テストまで行った結果の覚書を書きます。

ディープラーニングで実現したい目標


最初に私が人工知能(ディープラーニング)で実現したい目標をハッキリさせておきたいと思います。

それはズバリ、人工知能に漫画を描いてもらう事です!

漫画を描いた事がある人ならわかるかもしれませんが、漫画を描くのは物凄く時間がかかります。
しかも作画中は手は物凄く忙しく動いてるのですが脳みそはあまり使わないので暇をこいてる時間が大部分を占めてます。忙しいけどヒマな感じです。
人工知能が自動で漫画を描いてくれるまでいかなくても、作業の効率化に貢献してくれたら助かる人は多いと思いますし、何より私が助かります。
私も漫画は描くのは好きですが、中々収入に結びつかないし、忙しくて段々描く時間がとれなくなってきています。
別に自分の手で描く事に絶対的なこだわりは無いので、人工知能が私の代わりに漫画を描いてくれたら嬉しいです。

最終的な目標は漫画を描いてもらう事ですが、いきなりそこまで高度な事をするのは難しいと思うので、小目標としては人工知能に実用に耐える背景イラストを描いてもらいたいです。

それだけでも助かる人はいっぱいいると思います。
私は背景を描く事にあまり興味を持てないですが、背景は漫画やイラストにはどうしても必要なものですから。

と、言う訳で人工知能で達成する大目標は漫画を描いてもらう事で、小目標は実用的な背景イラストの生成です。

ちなみにChainerでイラストを生成する研究についてはすでに↓こちらの記事があります。

Chainerで顔イラストの自動生成

↓こちらにも写真をアニメにしてしまう話があります。

View story at Medium.com

まだちょっとその…実用レベルとはいかないみたいですが…

Chainerのインストール覚書


私の環境は64bitのwindows10です。

WindowsにChainerをインストールする手順は基本的に↓こちらの記事が分かりやすいので見ていただければよいのですが、いくつか補足があるので一応私の場合の流れを書いてみます。
Windows上にChainer v1.5+CUDA+cuDNNを一番簡単に入れれる方法

1.記事ではPython2.7を使う場合と3.4、3.5を使う場合についてそれぞれ書かれていますが、後でchainer-goghを使う際にPython3系だとプログラムエラーが起きるので、2.7をインストールします。AnacondaのPython2.7 windows 64-bit向けです。

2.Python2.7のために必要なMicrosoft Visual C++ Compiler for Python 2.7をインストールします。

3.CUDAのために必要なVisual Studio Community 2013をインストールします。

4.CUDA Toolkit7.5をインストールします。
CUDAはChainerの計算をGPUで行うために必要となります。

5.cuDNNをインストールします。
v4は現時点では対応していないようなのでv3をインストールします。

6.Chainerをインストールします。
最新版は1.6.1ですが、CPUで計算するなら構いませんが私の場合はこれだとcuDNNでエラーが出てしまいました。
ですので

pip install chainer=="1.6.0"

という感じで1.6.0をインストールしたらエラー出ませんでした。

これでChainerが使えるようになりました。

chainer-goghのテスト


今回chainerの導入を思い立ったのは↓こちらの記事を見たからです。
【Deep Learning 画風変換】ポケモンを大神の世界に連れて行ってみた – イーブイの遠洋漁業

イラストに他のイラストの画風を適用する!これはアツいです。
一気に目標の実用的背景の生成に接近できそうです。

早速試してみましょう。

GitHubのchainer-goghからクローンしましょう。
使い方の説明も書いていますので、特に迷わず使えると思います。

一点だけ、GPU番号って何だ?と思いましたが、普通にGPU1枚挿ししてるPCの場合は番号は0でOKなようです。
複数挿ししてる場合などに、一体どれがどれかはコマンドプロンプトでC:\Program Files\Nvidia Corporation\nvsmiに行って、nvidia-smi.exe -Lコマンドを打てば一覧が出てきます。

参考リンク:Windowsのリモートデスクトップ経由でCUDAを利用できますか

実行テストした結果は↓こちらです。
NINモデルを使って猫にゴッホのスタイルを適用してみました。

結果

イテレーションを5千回回すと終了ですが、CPUだと80分かかりましたがGPUだと6分ほどで済みました。
でもCPUとGPUで出力結果自体もなんか違ってますね。

ちなみにGPUだとNINモデル以外を使うとout of Memoryが発生します。
GPUのメモリが不足してるみたいです。
私のPCのZotac GTX660のメモリは2GBです。う~む
後でcuDNNをインストールしたらi2vモデルでは動かせるようになりました。
i2vはNINよりもクオリティが高いですがその分結構時間がかかりました。

今回のテストはこんな感じです。
さっそくさやかさんの画像にスタイル適用とかもしてみたんですが、グロいので画像掲載は見合わせます。

Chainerがベストなのか?


Chainer以外にもディープラーニングのフレームワークは色々あります。

参考リンク:ディープラーニングの有名ライブラリ5種を最短距離で試す半日コース(TensorFlow, Chainer, Caffe, DeepDream, 画風変換) – Over&Out その後

Chainerの対抗馬としてはGoogleのTensorFlowがあるみたいです。
TensorFlowは学習結果をAndroidアプリから利用できるのが便利そうです。

参考リンク:TensorFlowをアプリで使ってみる

ただ、速度ではChainerの方が上回ってるらしいのと、ごく一部のGPUしか対応してないらしいのが弱点のようです。

参考リンク:TensorFlow祭りに乗っかってみた

どちらも似たような感じではあるらしいので、お好みでどうぞという感じではないでしょうか。

その他の参考リンク


ディープラーニング最近の発展とビジネス応用への課題

Chainerチュートリアル -v1.5向け- ViEW2015

chainerのバージョンごとの違い(2016年1月19日現在) – studylog/北の雲

なんでもゴッホ風絵画に変換!?凄いぞディープラーニング(深層学習)技術 – NAVER まとめ

今後の展望


やはり次のステップとしては自分で学習モデルを作ってみる事でしょうか。
ディープラーニングのアルゴリズムの勉強もして、Chainerのプログラムを自分で書いてみる事もゆくゆくは必要になるでしょう。

中身を理解しない事には良くしていく事はできないですからね。

それにしてもあっさりGPUのout of Memoryが発生してしまったのは衝撃です。
GPUを買い替える必要がありますね…そもそもプレオーダーしてるOculus Rift CV1はGTX660では動作スペックを全然満たしてないのです。
しかし4月にGTXの次世代が発表されるというウワサもあります。

悩ましいですね…

余談


chainer-goghで利用できるIllustration2Vecモデルですが、デモに手元のMMDのさやかさん画像を突っ込んでみたら、見事にさやかさんだと認識しました。
ビックリしましたね。

タグリストを見てみたら100種類くらいのアニメタイトルのキャラを網羅して学習させているみたいでした。
このまま学習を続ければ、知らないキャラの画像から一発でキャラ名がわかるアプリとか作れそうですね。
もっと実用的な方面に目を向ければ、キノコの写真を撮影して食べれるかどうか判断したりできるのではないでしょうか。

さて、人工知能で背景イラストを生成するという目標について、そもそも現時点で写真をイラスト変換する技術はないのでしょうか?

私が知っている限り、写真から一番ホントに描いたっぽい画像を生成できているのはWaterlogueです。

参考リンク:写真が簡単に水彩画に!?話題のアプリ『waterlogue』作例画像まとめ

fladdictさんもwaterelogueのアルゴリズムについて考察されています。

warterlogueのアルゴリズム分析

fladdictさんはプログラムで絵画を生成するアプローチも実験されてます。

コンピューターに絵画を描かせる | fladdict

ディープラーニングに頼らず、機械に絵を描かせる | fladdict

自動お絵かきロボを作る(その2) | fladdict

かなり素敵な絵が生成できてますね。
fladdictさんは主題とそれ以外を区別できるべきだと書かれています。
川上量生さんの本でもジブリのアニメ背景は情報量のメリハリが上手いって話が出てきます。

参考リンク:【アニメ】『もののけ姫』にも活かされた“一流の技”とは? ヒット作を生み出す“ジブリ”の職人たち – ウレぴあ総研

クオリティの高い画像を高速に生成するには、人間のプログラムと人工知能のパワーの両面からのアプローチが必要になってきそうですね。

余談でした。

kinectを使って女の子なりきりソフトを作りました

$
0
0

こんにちは。海行です。

以前からtwitterでこれからはバーチャル女装の時代だ!って騒ぎ立ててたのに何もやってない事に気付いたので進捗を出そうと思いました。
kinectV2を使って女の子になりきるwindowsソフトを作りました。

成果物


↓できたのはこちらになります。

↓こちらからDLできます。
https://docs.google.com/uc?id=0B7uH85nrtbOFZkZyaGVSV1lpRVU

プレイするにはPCにkinectV2が接続されている事が必要です。
マイクが接続されているとボイスチェンジャーが使えます。

遊び方

1.人体を検知するまでは左上に「WAIT FOR USER」と表示されていますので、kinectに検知できる位置に移動してください。検知されると表示が消えて、自分に連動してキャラが動くようになります。

2.腕や足は誤動作が大きいために固定されています。今回動かせるのは胴体をよじるのと首を動かすことだけです。

3.フェイストラッキングが使えます。まばたきと眉の上下、口の開閉に反応するはずですが、私の顔で調整してるので他の人だと上手く動作しない可能性もあります。

4.ボイスチェンジャーも付いてます。今回はテストで固定で男→女声に設定してあります。kinectのマイクだと上手く音が取れないので別途ヘッドセットなどを用意すると良いと思います。PCの1番目のマイクデバイスが使用されます。

5.プレイ動画を録る場合は最大化で起動してShadowPlayでキャプチャするのが低負荷でお手軽なのでオススメです。上のtwitter動画もそれで録りました。

経緯

話すと長くなりますが…

1.仮面ライダーナレルンダーとの出会い

2015年のグローバルゲームジャムで私たちのチームが作ったのは、Tobii eye Xを利用して視線で狙いを付けて敵を撃つゾンビシューティング、DEAD EYE LANDでした。

参考リンク:視線でゾンビを倒す新感覚FPSを体験するも、キワドイ美女に視線を奪われる

このゲームは好評を頂けてG-Tune: Garageのお店で展示していただいたりしたんですが、5月に行われるengadget例大祭内でのゲーム大会にこのDEAD EYE LANDを使ってもらう話になりました。

参考リンク:例大祭にライダーなりきり体験『ナレルンダー!』。視線でゾンビを撃つDead Eye Landも遊べます

大変ありがたいお話ではありますが、アテンドは私達が自分たちでやってくださいという事らしく、まあせっかくなので行ってアテンドしてきました。
その時に私たちの隣に展示されてたのが、「ナレルンダー! 仮面ライダードライブ」です。

子供向けのゲームみたいでしたが私もやらせてもらいました。
姿見のような大型ディスプレイに写ったのは仮面ライダーと化した自分!
私がパンチすると仮面ライダーも私と同じようにパンチして画面内の敵を粉砕します!
ハッキリ言ってこれにはかなりの衝撃を受けました。
筐体の右側に普通にkinectV2が突っ込まれてあるのも見逃しませんでした。

当時すでにアイアムさやかを作っていた私でしたが、このナレルンダーが新時代のなりきりだと確信しました。

2.魔法少女ナレルンダーへの挑戦

帰ってさっそく私もさやかさんになりきれる魔法少女ナレルンダーを作ろうと思い、kinectV2をポチりました。

しかし、windowsとkinectV2を接続するには変換アダプタが必要で、何故かこのアダプタが品切れ!
入荷を一ヵ月以上待つハメになりました。

変換アダプタが届いてさっそく魔法少女ナレルンダーの制作に着手しました。

↓当時の記録がこちらです。

しかしこの開発はこのあと何となくフェードアウトしていきました。

当時、思ったより思い通りには動かないな。あと開発中にイチイチkinectに向かって自分でポーズを取るのがしんどいなと思ったような気がします。
そんな事実はすっかり忘れ去って後でまた苦労するハメになります。

3.バーチャル女装の時代

2015年後半ごろから、世の中で女装関係の盛り上がりが高まってきているのを感じ始めました。
pixivでも商業誌でも女装漫画がじわじわと目立ち始めてきました。

私は男性が女の子(または女の子キャラ)を体験したがってるというニーズに着目しました。
(女性に性転換したいという事では無くて、男性が絶対死ぬまで体験する事のできない女性としての暮らしへの憧れがあって、ちょっとだけ非日常を体験してみたい方が多い?)

そんな中FaceRigがLive2Dに対応したり、はたまたNEURONを使ってリアルタイムに女の子になりきったりする方が現れ、おっさん達が二次元キャラになりきるのが局所的に流行し始めました。

私はこれからはこのバーチャル女装のトレンドが来ると睨み、自分でもキャラになりきれるコンテンツを制作しようと決めました。

4.バーチャル性転換エロへの挑戦

単純にキャラを演じるところから一歩踏み込んで、自分が女の子になったうえでエッチな事をするという着想を抱いていました。

そのための手法としては、鏡に映った自分は女の子!?という感じのナレルンダー方式がベストだろうと思い、眠っていたkinectV2を引っ張り出してきました。

この時にかなり悩んだのは、自分が女の子に変身してしまったという体で行くべきか、それとも自分は女の子に憑依して操っているという体で行くべきかという事です。
見た目は同じような感じになるでしょうが、プレイヤーとしてはまったく別の感じ方をする事になるでしょう。
どうせ自分で悩んだところでちゃんと他の人達にリサーチしない事には答えは出ないのでとりあえず自分が女の子になっちゃった体で実装をしてみる事にしました。

さっそく全裸の女の子の3Dモデルを用意してkinectを操作してみました。
しかし、やってみると画面の中の手が痙攣して全然おっぱいとか掴めない!これは一体…

ここに来てようやく気付きましたが、kinectは腕を振ったりキックしたりの大げさな動作は取れますが、おっぱいを揉むとかそういう繊細な動きは苦手なのです!
愕然としました…

今思えば仮面ライダーナレルンダーもkinectのこの性質を熟知していたからこそ逆算して派手な身振りのゲーム性にしていたのだと気付かされました。

kinectによるバーチャル性転換エロは、この技術的制約から解放されるまで一旦保留にせざるを得ないと判断しました。
しかしこれは一時的戦術的撤退というだけであり、諦めた訳ではありません。
バーチャル女装のトレンドは確実に迫っています。
我々がVRの中で完全に女の子として振る舞える日が来るのはそう遠い日ではないでしょう。

5.今回の成果物へ

とはいえ今回作りかけてた物をただ放棄するのはもったいないので、とりあえず成果物を作ってみる事にしました。

発想の転換として、腕や足が上手く動かせないなら逆にミロのヴィーナスみたいに取っ払ってしまえばいいのではないかと考えました。
これはなかなか冴えたアイデアでしたが、試してみるとちょっとブログにもtwitterにも掲載できない猟奇的な感じのブツになってしまいました。
公表できない物作ってもしょうがないのでボツです。

手や足を動かせなくするというアイデアだけ残して、中途半端になるくらいならエロ要素は取っ払って、部分的に体を動かせてフェイストラッキングも付けて、固定ポーズで女の子になりきれるコンテンツを目指しました。

そうしてできたのが今回の成果物です。

技術的な話

今回のキャラ、とりあえずリナさんとでも名付けましょうか。

リナさんは手足をMecanimのアニメーションで固定した上で、胴体と首をkinectでモーションキャプチャした動きで上書きしています。
Unityからkinectを扱うのはこちらのアセットを使用しました。

さらに顔のモーフをkinectのフェイストラッキングで上書きしてます。
kinectアセットからは目をどれくらい閉じてるか、眉をどれくらい上げてるか、ほっぺをどれくらい膨らませてるかなどのパラメータがそれぞれ取れるので、それに合わせてキャラの顔モーフで対応してそうなものを動かします。

さらにさらにその上からいつものボイスチェンジャーをかけた音声でリップシンクさせてます。
リップシンクには例によって凹さんのプラグインを使わせていただきました。

それぞれのアセットはこんなごちゃ混ぜにして使われることを想定されてないのでそのままコンポーネントをアタッチしていっても当然上手い事モーション上書きできなかったりしましたので、強引にスクリプトを改造して何とかしました。

フェイストラッキングのパラメータに関して、真顔なのに目がちょっと閉じてるみたいな判定をされたりして、結構個人差がありそうなのでちゃんとプレイヤー毎にキャリブレーションする必要があるかもしれないなと感じましたが、今回の成果物では私の顔で調整してあります。
かなりノイズによるパラメータ上下が大きいので、表情の反映はかなりバッファを持たせる必要がありそうです。
フェイストラッキングの調整はちゃんとやるならもっとリサーチと作り込みが必要になりそうだと感じました。

それとこれはkinectを使った開発全般に言えると思うのですが、部屋が狭いと窮屈で身動き取れなくてうんざりしてきます。
広い部屋での開発が望ましいです。
あと、動作チェックのたびにイチイチ自分でkinectの前に立ってポーズを取ってると物理的に体が疲れます。
何がしかダミーのモーションデータを入力できるような作りにしておいた方がいいと思います。
フェイストラッキングもチェックしてると顔が疲れてきます。そうなると疲れた顔のせいでパラメータがズレてよく分からなくなってきそうなので注意が必要です。

今後の展望

kinectだと結局仮面ライダーナレルンダーみたいなコンテンツに収束しそうだなと感じました。
もっと発展させた物を作るには何かしら発想の転換が必要になってきそうです。
というかXBoxのゲームではどんな風にkinectが使われているのかも一度調べてみた方がよさそうです。

エロコンテンツをやるならNEURONのようなもっと本格的なリアルタイムモーションキャプチャ環境が必要になりそうですが、全身にキャプチャデバイスを付けてもエロい気分になれるのでしょうか。

今あるアイデアとしてはおっさん同士がHMDを被ってお互い相手が女の子に見えて物理的にセクハラし合うみたいなのを作ったら色々面白いと思うので、kinectにこだわらずともVRエロには今後もアプローチしていきたいですね。

「宇宙さやか」のプロジェクトページを立ち上げました。

$
0
0

こんにちは。海行です。

宇宙さやかのプロジェクトページを打ち上げました。
https://spacesayaka.qloba.com/

宇宙さやかプロジェクトとはさやかさんのfigmaを宇宙に打ち上げるプロジェクトです。

このアイデアが生まれたのは2014年12月3日に「深宇宙彫刻 DESPATCH」がはやぶさ2と共に宇宙に打ち上げられて深宇宙に放出されるというニュースをtwitterで見かけた瞬間です。

見えないけれど宇宙のどこかにさやかさんがいる、というのを夜空を見上げる度に思い出す事が出来れば素敵だと思いませんか?

本記事ではプロジェクトページを立ち上げた理由と経緯とロジックについて書いていきます。

海行には夢がある


私にはやりたい事が山ほどあります。

さやかさんを宇宙に打ち上げる事もいつかやりたいと思って抱え続けてるアイデアの一つです。

しかし、私の人生は明日で終わるのか30年後に終わるのかそれはわかりませんが、そんな風にたくさん抱え込んでる夢を生きてる内に実現できるのでしょうか?
というか実現に向けて行動をしているのでしょうか?というような事を考え、まずは宇宙さやかのプロジェクトページを作りました。

え?どうして夢の実現に向けての行動がプロジェクトページ立ち上げなんだ?論理の飛躍?
と思われるかと思いますので、そのロジックについて説明します。

夢を叶える方法について


ビジネス本

2015年の9月に起業するというアイデアが浮かんできました。
それから私はそれまでてんで興味のなかったビジネス、経済、自己啓発関係の本をちょくちょく読み始めました。

どんな本を読んだのか?以下にリストしてみます。
「金持ち父さん 貧乏父さん」
金持ち父さんのキャッシュフロー・クワドラント」
「不恰好経営」
あなたの夢を現実化させる成功の9ステップ」
「起業のファイナンス」
完全網羅 起業成功マニュアル」
「思考は現実化する」
そろそろ会社辞めようかなと思っている人に、一人でも食べていける知識をシェアしようじゃないか」
「世俗の思想家たち」
「夢をかなえるゾウ」
「夢をかなえるゾウ2」

何だか怪しそうなタイトルが並んでますね。
私はよくわからない精神論とかスピリチュアルな話はあまり興味ないですが、これらの本に口を揃えて述べられている事があり、私はそれは真理かもしれないと思いました。

それは
”人の助けになる事をしなさい”

という事です。

つまらん綺麗事を…と思われるかもしれませんが、これは単なる綺麗事ではなく真実が含まれています。

私は昔はお金を稼ぐという事はつまり就職したりバイトをする事だけだと考えていました。
今思うとこれは非常に浅い表面的な考えだったと言わざるを得ません。

本当は、誰かを助ければお金を稼ぐことができるのです。

ぶっちゃけた話、困っている人をたくさん発見できれば、その時点で半ば富と栄誉は得られたような物です。

例えば、雨に濡れて困ってる人が一杯いたとします。
あなたがそこでひらめいて傘を仕入れてきて彼らに売れば、当然大儲けですし、みんなも喜びます。

人を助けましょう、というのは単なる綺麗事ではなく、ごく当たり前の事を言っているビジネスの基本的なロジックである事がお分り頂けたでしょうか。

叶いやすい夢と叶いにくい夢

このロジックを発展させると、叶いやすい夢と叶いにくい夢がある事が見えてきます。

例えば漫画家になりたいという夢を持ってるAさんがいるとします。
Aさんがもし自己満足だけで漫画を描いてるとしたら、漫画で収入を得る事は難しくなります。
何故なら経済とは人と人の間でお金がグルグルと回る流れなので、自己完結ではお金の流れは発生しません。(自分の持っているお金は誰かからもらった物だし、誰かに支払うもののはずです)
誰か他の人が読んで面白いと思ってもらってはじめてそこで経済の流れの発生の可能性が生まれます。

だから逆に自分の好みより読んでくれた人たちが面白がることを何よりも優先しているBさんは漫画家として成功しやすいという事になります。

別にお金儲けとか関係なく自分の描きたい物を描き続けていてはいかんのか?
もちろん構いませんが、漫画で儲ける事ができるBさんは描けば描くほど儲かって夢を実現し続けられるのに対して、漫画で儲けられないAさんは他の収入源が必要になりますからそっちの仕事で忙しくなって段々漫画を描く時間が取れなくなってくる負のスパイラルに陥る可能性があります。

我々は誰しもこの経済原理による縛りからは逃れられないのです。

つまり、人の助けになる夢は叶いやすいし、自己満足だけの夢は叶いにくいという事が言えると思います。
さて、人の助けになる夢であれば、自分のお金を使って自分の力だけで叶えなくとも、他人のお金を使って叶える事も可能です。

「思考は現実化する」にこういうエピソードが書いてました。
ある日、牧師のガンソーラスさんは新しい大学を作りたいと思い立ち、全然お金を持ってないのに2週間以内にこの夢を実現させると決めました。
ガンソーラスさんは早速新聞社に電話して、明日牧師として説教師に行きます。と持ちかけました。
そして新聞社に行って、もし自分が100万ドル手にしたらこういう物凄い大学を作ります!という内容で延々と話し続けました。
その話を聞いてた人がガンソーラスさんに100万ドルを渡しました。

ガンソーラスさんの夢が1日で叶ってしまったのはそれが人々の助けになる夢だったからです。

誰にも相談せず自分のお金で自分だけの力でやり遂げた方が達成感があるはずと思われるかもしれませんが、いずれにしろ他の人達がその夢に興味を持ってくれるかどうかはリサーチしておいた方がいいのではないでしょうか。
もしそれが本当に完全な自己満足で、達成しても誰も褒めてくれないし興味も持ってくれない事だったとしたら、そこに自己資金と努力を費やすべきでしょうか?

自分の夢が人々の助けになる夢なのか、そうでないのかは、ガンソーラスさんがやったようにその夢を発表してみればわかります。
その夢に対して大きな反応があれば、人々の助けになる夢という事です。

リサーチ駆動開発

話は少し変わりますが、私が最近注目しているのがリサーチ駆動開発という手法です。
「リサーチ駆動開発」というのは私が作った言葉ですが、要するにゲームを開発する時にユーザーの反応をリサーチして改善するサイクルを回す手法の事です。

私はかつてコンシューマゲームのデバッグ管理の仕事を行っていましたが、あんまり面白くないゲームでもデバッガーさん達の鋭いモニター意見を参考にして改善する内にどんどん面白くなるケースというのはままありました。

どんなゲームでもちゃんとリサーチと改善を行えば面白くなるというのが私の持論です。

ただし、ここで言うリサーチと改善というのは、ユーザー意見を鵜呑みにして取り入れる事ではなく、ユーザーの反応をチェックするという事です。
ユーザーは自分が何を求めているのか必ずしも十分に把握しているわけでは無いですが、ユーザーの反応はウソをつかないからです。

任天堂の宮本茂さんはゲームの開発中にその辺を歩いてる社員を呼び止めてゲームを遊んでもらったそうです。
その時宮本さんはプレイヤーにどう?とか訊くのではなく、ただじっと背後に立ってプレイする様子を見るのだそうです。
自分がゲームに仕込んだ意図とプレイヤーの反応のズレを確認して改善するためです。

宮本さんのリサーチ手法は今では色々ハイテク化して(ヒートマップや視線の軌道をチェックするなど)海外のゲーム制作でも取り入れられています。
洋ゲーが昔は理不尽ゲーが多かったのに近年急速に面白くなってきたのもその辺に秘密があると思ってます。

国内でコンシューマゲームの市場が縮小してスマホゲーが拡大してるのも、スマホゲーがコンシューマゲームに比べて断然継続的で高速なリサーチと改善を繰り返してるからなのではないかと思ってます。
コンシューマゲームも勿論デバッグなどでリサーチは行いますが、製品を売らない事には1円の儲けも出ませんから早く売りたいので十分なリサーチ時間が取れるとは限りませんし、売った後はたとえユーザーの反応を見て改善してパッチを作っても儲けには繋がらないので販売後は改善の機会が無いケースが多いです。

一方スマホゲームは今日ユーザーで不評だった機能は明日に修正されてるくらいの速度感で常に運営されてます。
ゲームのリリースからサービス終了まで、常にリサーチ&改善が繰り返され続けてて、故にどんどん面白くなっているのだと思われます。

リサーチにしても課金率などの儲けに直結したデータが得られて施策次第で即反応がわかるのでリサーチ&改善のモチベーションはかなり高いです。

こういった、何か行動するとただちにその是非の反応が得られる環境と言うのはそれ自体がゲーム的でもあります。
マリオがクリボーに突っ込むとゲームオーバーになって怒られ、プレイヤーが改善してゴールまで辿り着くと褒められます。
この高速な学習プロセスはゲームの面白さの本質の一つでしょう。

ゲームから離れてみると、webサービスではA/Bテストを繰り返して客観的データに基づいて高速な改善が行われ、どんどん使いやすくなったりする例がありますね。

「小説家になろう」やpixivやtwitterでは、何か投稿するたびにすぐさま他のユーザーからの反応が得られます。
故にpixivなんかでは物凄いスピードで上達する人がいたり全体的なレベルも相当上がってる気がします。
これもある意味高速にリサーチ&改善のサイクルが回ってる一例でしょう。

独りよがりにならず、リサーチと改善をキッチリ行う事は本当に重要な事です。

リサーチ駆動プロジェクト

色々と話をしてきましたが、結局それがどのように宇宙さやかのプロジェクトページ立ち上げに繋がるのでしょうか。

人の助けになる事をしようとか、夢が色々あるとか、リサーチ駆動開発の事が私の頭の中でグルグル回ってましたが、じゃあ実際に自分が何をどう行動すればいいのかという方法論に落とし込むには…?

この前読んだ「反応しない練習」という本には、”判断するな”と書かれていました。
つまり自分が何をすべきかは、自分で判断するなという事…
例えばゲーム開発者がゲームを自分で完璧にリサーチできればユーザーにリサーチする必要は無くなりますが、現実的に自分で自分を判断する事は困難なのです。だから何をすべきかは自分じゃなくてみんなに判断してもらえばいい、それがたった一つのシンプルな答えだと思いました。

つまり方法としてはこうです。

まず、自分の夢の数だけプロジェクトページを立ち上げます。自分の夢が見える化されて、みんなに伝えられるようになります。
この時、自分がやりたい事だけプロジェクト化すべきです。やりたくない事はやるべきではないからです。

さて、どの夢から着手すべきか、そもそも着手すべきか否か、それは自分では判断しません。世に問いかけて判断してもらいます。
つまり、反響の大きいプロジェクトからやっていけばいいのです。
元々どのプロジェクトもやりたくてしょうがない奴なので、反響が大きければ自分と世の中の利害が一致する激アツな状況となります。

なぜ反響が大きい奴からやるのかというと、反響が大きいという事は人を助けるプロジェクトなので、理屈から言って叶う確率も儲かる確率も大きい事になります。
これで優先度がハッキリしました。
そもそも反響が大きいとやる気も出ますからね。
人気のプロジェクトを一通り片づける頃には多分私も歳を食ってると思いますが、その頃には残った人気のないプロジェクトもポケットマネーで片づけられるようになってたらいいなって感じです。

これがリサーチ駆動プロジェクトの手法です。

そして立ち上げたプロジェクトの第一号が宇宙さやかというわけです。

みなさんもリサーチ駆動プロジェクト、是非試してみてください。
夢をみんなに公開するのはすでに実現の第一歩です。(ちなみに夢を公開してたら誰かにパクられた場合は、その時は自分の代わりに夢を実現してくれてサンキューという事になります)

Viewing all 181 articles
Browse latest View live