ウェアラブルvrの現状と未来
DESCRIPTION
10/3 第77回ISIT定期交流会 http://www.isit.or.jp/event/2014/08/22/1292/ の講演で使用したスライドです。 ウェアラブルという観点から、Oculus Riftから始まったVRゴーグルについて解説をし、Moffの高萩氏、TRANSCRIPT
Moffできることの例 !
ドラムの体験 叩くフリをするとドラムの音がなる。 手の位置を計算しているので、場所でハイハット、 スネア等の音を鳴らし分けることができる !
車、バイクの運転の体験 手の位置からどれぐらいハンドルを切ったかを計算
今、Moffで取り組んでいること Moffのセンシングデータから何の動作を しているかの判定の精度を上げる !
パターン認識の正確さ 何処まで認識ができるか? センサーの情報から、腕の位置を予想する。
私(谷口の大胆予想) !おもちゃから出発してクラウドに繋がった モーションコントローラーへ !動きのパターンをクラウド上に蓄積 !スマートフォン+サーバーで動きのパターンを解析 動きのデータベース構築 !次世代の情報のインターフェースへ DBと動きの解析技術を、AppleやGoogleへバイアウト !AppleやGoogleはスマートウォッチに組み込み
3Dプリンターを用いて、臓器のモデルを作っている。 !CTスキャンのデータから臓器の3Dモデルを作り、データから 3Dプリンターで型を作り、そこに水を含むことができる素材を 流し込んで臓器のモデルを生成。 !臓器のモデルは水を多く含むので本物の質感にかなり近い また水は温度のコントロールもやりやすいので、人の温度に 設定すると触覚を本物に近づける事ができる。
触覚とVR !臓器モデルに加速度センサー、歪みセンサー等とBlue Toothの チップを埋め込めば臓器のモデルを動かしたり、曲げたりする ことによってVRのモデルをコントロールできる。 !モデルを作り込むことによって、血管だけ見せたり、表面だけ見せたり、仮想の面でカットする、3Dのレイヤーを半透明で重なる などを臓器モデルを触ることにより、インタラクティブに 見せ方を変えることが可能。