[go: up one dir, main page]

この記事は ARCore プロダクト マーケティング、Karin Levi による Google Developers Blog の記事 "Creating AR Experiences for I/O: Our Process" を元に翻訳・加筆したものです。詳しくは元記事をご覧ください。

数週間前に開催された Google I/O で、Google の AR 開発プラットフォームである ARCore のメジャー アップデートが発表されました。Cloud Anchors などの新しい API が追加されたことで、マルチユーザーに対応した協調動作する AR 体験、2D 画像をアクティブ化して 3D オブジェクトにする Augmented Images などが実現します。これらすべてのアップデートによって、既存の AR の使用方法が変わり、デベロッパーはより魅力的で没入感の高い AR アプリを作成できるようになります。

Google は、これらの新しい機能を使用して、プラットフォームをテストすることにしました。実際の体験を構築して、これらの機能をどのように活用できるのかを紹介しました。すべてのデモは、I/O AR & VR サンドボックス デモエリアで展示されました。これらのデモはオープンソース化していますので、このような体験の構築が簡単であることを確認していただけます。とても満足できるデモに仕上がったので、舞台裏で獲得できた知見とインサイトを共有したいと考えています。


Light Board - マルチプレーヤー型ゲーム




Light Board はマルチプレーヤー型の卓上 AR ゲームで、2 人のプレーヤーが浮遊しているゲームボード上で色付きの物体を相互に発射します。



Light Board を作成しているときは、対象とするエンドユーザーを常に念頭に置くことが重要でした。I/O デモエリアを訪れたデベロッパーが試せる、シンプルで楽しいゲームにしたいと考えていました。デモエリアを通るデベロッパーがプレイできるのはほんの数分なので、プレーヤー(ゲーマー以外も)が気軽に手にして、簡単な少しの設定でプレイできるようにする必要がありました。

Light Board では、アートワークに重点を置きました。ゲームの外観を I/O 2018 のデザインと装飾様式に合致させる必要がありました。そうすることで、アプリが会場の景色の延長上にあるかのように見えます。それを踏まえて、私たちのデザイン上の指針には、明るいアクセント色、シンプルな形状のグラフィック、自然な物理的マテリアルという 3 つの目標がありました。



I/O 2018 の AR/VR デモエリアのデザイン

Light Board ゲームボードの主要なアートワーク

このアートワークは、Maya と Cinema 4D で作成しました。また、Substance Painter を使用して、物理学に基づいてモデルのマテリアルを作成しました。エンジニアリングの場合と同じように、アートアセットを作成するときも試行錯誤が非常に重要です。これを念頭に置いて、この比較的シンプルなプロジェクトの場合も、コンテンツ パイプラインを注意深く作成しました。これにより、最終的なデザインを決定する前に、さまざまな外観とボードスタイルをすばやく試すことができました。

エンジニアリングの観点から、Unity ゲームエンジンを開発環境として選択しました。Unity により、いくつかの重要なメリットがもたらされます。第 1 に、すばらしい外観の 3D グラフィックをすばやく作成できます。第 2 に、エンジンのコンポーネントが既に完成しているため、ゲームプレイ コードの試行錯誤をすぐに開始することができました。アートワークの場合と同様に、最終決定を下す前に、ゲームプレイのオプションをテストすることができました。また、Unity では、ほんの少し手間をかければ、Android と iOS の両方がサポートされます。

また、マルチプレーヤー型ゲームの側面を処理するために Firebase Realtime Database を使用しました。このイベントでのネットワーク パフォーマンスについて懸念していましたが、データベースの持続的な特性により、不安定なネットワークへの耐性が向上すると考えました。結果として、ゲームは非常にうまく機能し、ゲームを終了してからも無料でゲームに再参加できる機能を搭載できました。

私たちは Light Board の作成を大いに楽しむことができました。AR アプリのビルドだけでなく、Cloud Anchors などのすばらしい機能を簡単に使用できる例として、Light Board を活用していただきたいと考えています。オープンソース レポジトリにアクセスして、Light Board をお試しください。


Just a line - 友人と一緒に描画




3 月に、スマートフォンを使って空間に描画できる Android アプリである Just a Line を発表しました。このアプリは、ARCore の能力を示す実験として作成されました。Google I/O では、このアプリに Cloud Anchors を追加して、一方のユーザーが Android を、もう一方のユーザーが iOS を使用している場合でも、2 人のユーザーが同じ場所で同時に描画できるようにしました。

両方のアプリはネイティブでビルドされています。Android バージョンは Android Studio で記述され、iOS バージョンは xCode でビルドされています。ARCore の Cloud Anchors を使用すると、Just a Line で 2 つのスマートフォンをペア設定して、ユーザーが共有空間で同時に描画できるようになります。ペア設定は Android 端末および iOS 端末で機能し、描画は、Firebase Realtime Database を介してリアルタイムで同期されます。iOS 向けのオープンソース コードはこちらに、Android 向けのオープンソース コードはこちらにあります。




Illusive Images - 命を吹き込まれた美術展




「Illusive Images」のデモは、3 つのアートワークで構成される拡張画廊です。各アートワークでは、拡張画像に関する別々のユースケースとユーザー エクスペリエンスを紹介しています。鑑賞者が左右に移動したり、オブジェクトの周りを歩いたり、特定の方向から見たときに、2D アートワークが 3D に変容し、物理的な額から飛び出したアートワークの空間に入り込むことができます。

拡張画像の視覚的デザインの特性のため、さまざまなレベルの機能を使ってデータベースを作成する実験を何回も行いました。最適な結果を得るために、アートワークのキャンバスのサイズを変更して、反復処理をすばやく行いました。また、輝度とコントラストのレベルを変更したり、増大したりしました。これらのバリエーションにより、デザインの意図を損なっていない最適化された画像の作成が可能になりました。

このアプリは Unity と ARCore を使ってビルドされおり、その大部分のアセットは Cinema 4D で作成されました。Mograph アニメーションは fbx として Unity にインポートされ、アートワークに相対した鑑賞者の位置によって完全に駆動されます。プロジェクトの例はこちらにあります。







デベロッパーが簡単に開発できるように、チームが作成したすべてのデモをオープンソース化しています。これらのデモが役立つことを願っています。また、こちらのウェブサイトも用意していますので、詳細を確認して、すぐに AR 体験の構築を始めることができます。


Reviewed by Hak Matsuda - Developer Relations Team

この記事は Chrome メディアチーム、Jamieson Brettle、Drew Allen による Google Developers Blog の記事 "Bringing Real-time Spatial Audio to the Web with Songbird" を元に翻訳・加筆したものです。詳しくは元記事をご覧ください。

仮想世界で現実のようにリアルで迫力ある体験を提供するには、迫真のビジュアルとともに真の空間オーディオが欠かせません。空間オーディオ ツールを使うと、デベロッパーはどの方向からでも自由に音を出すことができます。また、3D 空間とオーディオ ソースを関連付けることができるので、ユーザーを完全に取り囲む 360 度サウンドを実現できます。

空間オーディオを活用すると、ユーザーをシーンに引き込み、まったく新しい世界に入り込んだかのような感覚を与えることができます。それを実現するために、Chrome メディアチームは、オープンソースの空間オーディオ エンコーディング エンジンである Songbird を作成しました。Songbird は、Web Audio API を使うことによって、どのウェブブラウザでも動作します。

Songbird ライブラリは、入力として任意の数のモノラル オーディオ ストリームを受け取ります。デベロッパーは、プログラムによってそのモノラル オーディオ ストリームをユーザーのまわりの 3D 空間に配置します。Songbird を使うと、表現したい空間の反射や残響をリアルに再現できるので、迫力のある音響環境を実現できます。現実世界と同じように、音が壁面や物体で反射するので、真の 360 度サウンドを再現します。Songbird を利用すると、リアルタイムに計算されるアンビソニック音響環境をアプリケーションから利用できます。私たちは、かつてないほど精度の高いオーディオを実現するために、昨年のブログで紹介した Omnitone プロジェクトと連携して、Omnitone の 両耳レンダラーに高次のアンビソニック サポートを追加しました。

Songbird の内部には、カプセル化された Omnitone が組み込まれています。そのため、デベロッパーはどのようなウェブベース アプリケーションにでもインタラクティブな完全球面オーディオを追加できます。また、Songbird は、任意の次元のアンビソニックに拡張できるので、標準の Web Audio API 以上にリアルなサウンドと高いパフォーマンスを実現できます。
Songbird のオーディオ処理を示した図

Songbird の実装は、Google 空間メディア仕様をベースとしています。モノラル入力を受け付け、SN3D ノーマライゼーションを適用したアンビソニック(マルチチャンネル)ACN チャンネル レイアウトを出力します。詳しいドキュメントは、こちらをご覧ください。

ウェブは、多様なコンテンツの重要な VR プラットフォームになりつつあります。空間オーディオはこの新たなメディアが広く採用されるかどうかおいて決定的な役割を果たすようになります。Songbird と Omnitone は、ウェブ プラットフォームで空間オーディオを実現する際に鍵となるツールです。感動的な VR 体験を提供する最高のプラットフォームとしてウェブを確立できるかどうかも、これらのツールにかかっています。こういったオーディオ体験と three.js のような 3D JavaScript ライブラリを組み合わせれば、未来のウェブを垣間見ることができます。
3D 環境と空間サウンドを組み合わせたデモ

このプロジェクトは、Google の Daydream チームと Web Audio チームとの密接な連携によって実現できたものです。この連携によって、デベロッパーが開発する Daydream アプリケーションと同じようなオーディオ機能をウェブで実現できるようになります。

オープンソースの Songbird を使って皆さんが作るものを楽しみにしています。GitHub でコードをご確認いただき、フィードバックをお送りください。Songbird を使って完全な空間オーディオを作成するデモもたくさん公開されています。



Reviewed by Eiji Kitamura - Developer Relations Team

この記事はデベロッパー プロダクト グループ、バイスプレジデント、Jason Titus による Google Developers Blog の記事 "Google I/O 2017: Empowering developers to build the best experiences across platforms" を元に翻訳・加筆したものです。詳しくは元記事をご覧ください。

世界中のデベロッパーとつながる Google I/O でまたお会いできたことを非常にうれしく思います。Shoreline Amphitheatre には 7,200 名のみなさんにお集まりいただき、さらに何百万人もの方々にライブストリームを通してご参加いただきました。また、80 か国以上で数千人のデベロッパーが、地元の I/O Extendedイベントでデベロッパーの日々の作業を簡単にする Google の取り組みについて耳を傾けました。プロダクトのビルドに関する問題をできるだけ少なくして、デベロッパーが本当に解決する必要のある問題に集中できるようになるはずです。

Google I/O 初日の基調講演で Sundar Pichai(CEO)は、10 億のユーザーが利用する各種プラットフォームについて講演しました。プラットフォームが Android、Chrome、モバイルウェブのいずれであっても、Google の成功はデベロッパー コミュニティの協力なしには実現できませんでした。デベロッパー基調講演では、日々 Google のプラットフォームで開発するデベロッパー向けのツールとサービスに多額の投資を行っていることを説明しました。

続く 3 日間で、さらにたくさんのテーマについてお話ししました。Google I/O で紹介された主なデベロッパー向け情報を振り返ってみましょう。

世界中の何十億ものユーザーとデベロッパーをつなげるプラットフォーム

  • Android O Developer Preview 2 — Android をさらに便利にする流れるような操作と、電池の寿命、起動時間、グラフィック レンダリング時間、安定性を最適化するための取り組みに重点を置いた Android O の次のリリースをご覧ください。アーリー アダプターは Android O ベータ版プログラム(android.com/beta)にオプトインし、Android O をすぐに実行できます。
  • Project Treble — Google I/O 開催の前週、新しい Android フレームワークをご紹介しました。これは、端末メーカーがスマートフォンを新しいバージョンの Android へのアップグレードする際にかかる時間や手間を削減することを目的に設計されており、Android O 以降を搭載する端末が対象となります。
  • Android Go — O のリリース以降、エントリレベルの端末でスムーズに実行できるように Android を最適化しています。YouTube Go、Chrome、Gboard などの Google アプリは、メモリやストレージ、モバイルデータの使用量を抑えるように設計されています。
  • Kotlin — Android は Java と C++ に加えて、Kotlin プログラミング言語を公式にサポートします。Kotlin は優れた設計の、成熟した実稼働向けの言語であり、Android 開発をより迅速で楽しいものにします。
  • Android Studio 3.0 Canary — 新しいプレビュー版には、開発フローの高速化を実現する 3 つの主な機能が追加されています。パフォーマンスの問題をすばやく診断する新たなアプリのパフォーマンス プロファイリング ツール一式、Kotlin プログラミング言語のサポート、サイズの大きいアプリのプロジェクトでの Gradle ビルドの高速化です。
  • モバイルウェブ — AMPProgressive Web Apps(PWAs)は、最新のモバイルウェブ環境を再定義します。AMP を利用すると、コンテンツの表示が高速化されます。PWAs は、信頼性が高く、高速で魅力的な、アプリに重点を置いたエクスペリエンスを実現します。いま世界中で成功事例が生まれています。たとえば、旅行会社の Wego には AMP をベースにした PWA が追加されました。Forbes は PWA のローンチ以降、ユーザー エンゲージメントが 2 倍になりました。現在お使いのウェブ エクスペリエンスの状況を確認したい場合は、ウェブページの品質を自動で測定するツール、Lighthouse をご利用になれます。午後のモバイルウェブ:統合の状況講演で、豊かなモバイルウェブ エクスペリエンスの構築について詳しく説明します。

モバイルアプリとウェブを次のレベルに引き上げるインフラとサービス

  • Firebase — 昨年の I/O で Firebase が拡張され、アプリのビルドとビジネスの成長をサポートする製品を備えたフルモバイル開発プラットフォームとなりました。今では 100 万人以上のデベロッパーが Firebase を利用しており、日々のデベロッパーの課題をよりシンプルにできるよう、取り組みを続けています。ホスティング機能とクラウド機能間にインテグレーションを導入し、電話番号認証のサポートを加え、さまざまな方法で Analytics の改善を進める Firebase Performance Monitoring を通じて、アプリのパフォーマンスを詳しく分析できるようになっています。SDK のオープンソース化も始めました。
  • モバイルウェブ デベロッパー認定 — Google I/O 2016 で、Associate Android Developer Certification(アソシエイト Android デベロッパー認定資格)を発表しました。今年は、ウェブ デベロッパー向けに Mobile Sites Certification(モバイルサイト認定)Mobile Web Specialist Certification(モバイルウェブ スペシャリスト認定)という 2 つの認定資格を新たに設けました。

強力なツールで新しいユーザーを獲得し、ビジネスを成功に導く

  • Google Play Console — Play Console に、デベロッパーがアプリのパフォーマンスを高め、リリース管理の信頼性を向上させ、世界中のユーザーにアプローチし、ビジネスを成功に導くためのサポートを提供する、強力な新機能とレポートが追加されました。Play Console に幅広いビジネスの用途を反映した新しい機能が加わった事で、アプリのビジネスを向上させる上で必要な機能をより簡単に検索できるようになります。
  • Android Instant Apps — Android アプリをインストールせずに実行する新しい方法である Android Instant Apps をすべてのデベロッパーに開放しました。これにより、誰でも Instant Apps をビルドして公開できるようになりました。既に、Jet、New York Times、Vimeo、Zillow などのさまざまなブランドが対応しており、Android Instant Apps は 50 以上のアプリで試してみることができます。
  • ペイメント、収益化と広告 — Google Payment API が導入されました。これにより、ユーザーの Google アカウントに保存されているクレジット カードまたはデビット カードを使用して、ユーザーがアプリ内およびオンラインで支払えるようになります。Google Analytics for Firebase と新しい AdMob との統合により、収益の効率が上がり、Universal Apps Campaigns のアップデートにより、ユーザーベースを広げることができます。

機能の限界を押し広げる新しいインターフェース

  • Google Assistant 向けの Actions on Google — スマートフォンに Actions on Google の機能が導入され、SDK がさらに向上しました。新しいデベロッパー コンソールである Actions Console もリリースしました。これにより、デベロッパーがチームで開発し、アプリの使用状況、パフォーマンス、ユーザー検出パターンに基づきデータを収集できるようになります。この新しいコンソールは、Firebase コンソールと Google Cloud コンソールを統合しています。
  • VR and AR at Google — 「VR and AR at Google(Google の VR と AR)」セッションでは、最新の Daydream プラットフォーム機能とデベロッパー ツールについて説明しました。

デベロッパーの皆さまが成功をおさめることは、Google にとって重要なことです。Google は、デベロッパーの課題の解決をサポートする製品を開発するだけでなく、130 以上の国で、Women Techmakers や Google Developer Groups (GDGs)などのプログラムを通じて、デベロッパー コミュニティを育み、拡大しています。Google Developers Certification(Google Developers 認定)などのトレーニング プログラムや、Udacity やその他のパートナーから提供されるコースにも投資しています。これにより、デベロッパーが技術的な機能をさらに深めることができます。また、複数のプロダクトを取り上げるデベロッパー向けの大きなイベントである Google Developer Day が、ヨーロッパ(2017 年 9 月、ポーランドのクラクフ)とインド(2017 年 12 月、バンガロール)の 2 会場で開催される予定です。詳しくは、g.co/gdd2017 に登録して最新情報をご覧ください。

Google I/O 期間中は、Android に始まり Assistant や AR まで網羅された、14 のコンテンツ トラックと 140 以上のブレークアウト セッションが参加者と視聴者に用意され、これらの分野について深く学べる機会が提供されました。デベロッパーが最新の API を使いこなすことができるように、70 以上のコードラボも公開しました。

Android、Chrome、Play、VR/AR、クラウド、モバイルウェブのどのプラットフォームでも、Google は世界中の何十億ものユーザーとデベロッパーをつなげるプラットフォームに常に投資しています。デベロッパー コミュニティからの継続的なサポートとフィードバックに感謝します。


Posted by Takuo Suzuki - Developer Relations Team

Google では、2017 年 6 月 12 日(月)、ザ・プリンスパークタワー東京にて、「インターネットの次にくるもの」をテーマにしたイベント、INEVITABLE ja night を開催します。

本イベントは、クラウド技術の進化が導く未来をテーマに、参加者の皆さんと自由にアイディアを交換する会にしたいと考えています。

本イベントは主に 3 つのパートから構成されます

  • PART 1:「不可避な未来」x「NEXT 5 BILLION」対談
    ジャーナリストの服部桂氏と、IT を活用した新興国向けのサービスを手がける北浦健吾氏をお招きし、5 年後、10 年後を見据え、技術的・社会的にどのような「不可避な流れ」が起きるのかをテーマに対談いただきます。
  • PART 2:Google のプロダクト開発
    機械学習をはじめとする、日々進化し続ける技術を Google がどのように活用し、イノベーションを生み出しているのか。エコシステムの構築だけでなく、開発者と同じ立場で様々な製品開発に携わってきた経験から、Google の実例をあげてお話します。
  • PART 3:IoT、AI、VR の未来を語るディスカッション
  • IoT、AI、VR を軸に、グローバルに新たなビジネスを切り開く 3 人の起業家の方々、玉川憲氏(株式会社ソラコム)、岡田陽介氏(株式会社ABEJA)、芳賀洋行氏(InstaVR株式会社)をお招きし、これからを支える技術者への指針となるビジョンをお話しいただきます。

この他にも、IoT、AI、VR に関連したデモ展示や参加者同士の交流を目的としたネットワーキングタイムも設ける予定です。



【開催概要】
イベント名: INEVITABLE ja night - “インターネットの次にくるもの”
日  程:2017 年 6 月 12 日(月) 18:30-21:30(開場 18:00 より)
会  場: ザ・プリンス パークタワー東京
      〒105-8563 東京都港区芝公園 4 - 8 - 1
定  員:600 名
参加登録:事前登録制(※後日、参加いただける方には参加証を送ります。)
プログラム:
18:30 〜 18:35 オープニング 
18:35 〜 20:45 トークセッション
       PART 1 「不可避な未来」x「NEXT 5 BILLION」対談
       PART 2 Google プロダクト開発
       PART 3 IoT、AI、VRの未来を語るディスカッション
20:45 〜 21:30 ネットワーキング(Ask the Speaker、デモ等)


参加申し込みは、こちらからお願いします。

皆様のご参加をお待ちしています。

Posted by Takuo Suzuki - Developer Relations Team

[この記事は Brandon Jones、バーチャル リアリティ工作人による Chromium Blog の記事 "Introducing the WebVR API in Chrome for Android" を元に翻訳・加筆したものです。詳しくは元記事をご覧ください。]

急速に普及しているバーチャル リアリティ(VR)は、今やウェブにも広がりつつあります。ウェブの力は、ブラウザやハードウェアに制限されることなく VR を動作させ、ワンクリックで VR へのアクセスを実現できる点にあります。VR デベロッパーは、1 つのウェブアプリだけでさまざまなタイプのヘッドセットのユーザーに対応できるようになります。以下では、WebVR を始める方法を紹介します。

現在、Android 向けの Chrome 56 ベータ版が公開されています。オリジン トライアルに登録したウェブ デベロッパーは、WebVR APIGamePad API 拡張機能を使うことができます。WebVR API を使うと、Daydream View などのバーチャル リアリティ デバイスの入出力機能にアクセスできます。また、ユーザーの位置や向きにもアクセスできるので、ウェブアプリからヘッドセットのディスプレイに立体的な 3D シーンをレンダリングできます。Gamepad API 拡張機能を使うと、Daydream コントローラなどのモーション コントローラからの入力にアクセスでき、VR での自然なインタラクションが実現できます。

オリジン トライアルを使っているデベロッパーは、自分のウェブサイトにアクセスしたすべての Chrome ユーザーの機能を一時的に有効化することができます。WebVR API はまだ進化の途上にあり、デベロッパーの皆さんのフィードバックに基づいてさらに変更する予定です。デフォルトですべてのページで有効化されるのは、その後です。今後の Chrome のリリースで、WebVR は PC プラットフォームや Google Cardboard にも拡張される予定です。Chrome 57 ではさらに、パフォーマンスも改善されます。

初めての WebVR ウェブアプリを作る方法を学んでみたい方は、WebVR デベロッパー サイトにアクセスして、チュートリアルやサンプルをご覧ください。ぜひ議論に参加し、APIChrome 実装へのフィードバックをお送りください。また、WebVR Slack チャンネルにも参加してください。


Posted by Eiji Kitamura - Developer Relations Team

この記事は Nathan Martz、Google VR プロダクト マネージャーによる Google Developers Blog の記事 "Learn by doing with the Udacity VR Developer Nanodegree" を元に翻訳・加筆したものです。詳しくは元記事をご覧ください。

Google VR チームは、Google Cardboard と Daydream を使って仮想現実をあらゆる人に届けようとしています。ポケットの中のスマートフォンを使うことによって VR を利用しやすくするとともに、多くのデベロッパーが簡単に開発に参加してもらえるように、Unity と UE4 へのネイティブ統合が追加された正式版の Google VR SDK の提供も最近開始しています。

新しいデベロッパーによる VR 体験の構築をサポートできるよう、Google は Udacity と連携してVR Developer Nanodegree を作成しました。ここでは、3D 環境の作成、動作の定義、快適で臨場感がある VR 体験を構築する方法を学ぶことができます。




Google Play の Google Cardboard アプリは 5000 万回以上インストールされていますが、VR はまだ初期段階です。VR Developer Nanodegree では、実習を通して学び、さまざまな VR 体験のポートフォリオを完成させて修了することができます。

詳細、または VR Developer Nanodegree プログラムの最新情報を受信するには、https://www.udacity.com/vr にアクセスしてください。




Posted by Eiji Kitamura - Developer Relations Team

この記事は Nathan Martz、Google VR プロダクト マネージャーによる Google Developers Blog の記事 "Google Developers Blog: Google VR SDK graduates out of beta" を元に翻訳・加筆したものです。詳しくは元記事をご覧ください。

Google I/O で、Google の高品質モバイル仮想現実プラットフォームである Daydream が発表され、コミュニティの皆様に Daydream の開発を初めてもらえるよう、デベロッパー向けの初期リソースもリリースされました。それ以来、フィードバックを反映し、公開したリソースを強力な一連のデベロッパー ツールへと進化させるため、開発チームは懸命に働いてきました。

本日(*原文公開当時)、Daydream 対応の Google VR SDK 1.0 がベータ版を卒業し、Daydream デベロッパー サイトから利用できるようになったことをお知らせいたします。この更新版の SDK は一般的な VR 開発タスクを簡単に行えるようにします。それによって、Daydream 対応のスマートフォンやヘッドセットで臨場感のあるインタラクティブなモバイル VR アプリを構築し、完全非同期投影、高い再現性を誇る空間音響、Daydream コントローラによるインタラクションをサポートすることに集中できるようになります。




Google VR SDK 1.0 での開発をさらに行いやすくするため、Google は Unity および Unreal と連携して、おなじみのゲームエンジンやツールを利用できるようにしています。また、ドキュメント、サンプルアプリのリファレンス、チュートリアルも網羅するようにサイトを更新しています。

ネイティブ Unity 統合

本リリースでは、Daydream のネイティブ Unity 統合が新たに組み込まれています。これによって、Daydream デベロッパーは Unity の VR レンダリング最適化によるあらゆるメリットを活用できるようになります。さらに、ヘッド トラッキング、ディープリンク、簡易 Android マニフェスト設定などの機能のサポートも追加されます。多くの Daydream の初期アプリは、既に最新の統合機能を活用しています。新しい Unity バイナリはこちらから、Daydream プラグインはこちらからダウンロードできます。

ネイティブ UE4 統合

UE4 ネイティブ統合には大幅な改善が行われており、Daydream アプリの制作品質がさらに向上しています。最新版では、エディタでの Daydream コントローラのサポート、ネックモデル、新たなレンダリングの最適化などが追加されています。UE4 デベロッパーは、ソースをこちらからダウンロードできます。

さっそく使ってみましょう

最初の Daydream 対応スマートフォンやヘッドセットが登場するのは今秋ですが、高品質な Daydream アプリの開発は、Google VR SDK 1.0 と DIY デベロッパー キットを使ってすぐにでも始めることができます。

また、Daydream 向けのすばらしいコンテンツを作成する多くのデベロッパーの皆様と緊密に連携できるよう、Daydream Access Program(DAP)もオープンしています。DAP への参加を希望する場合は、Daydream アプリの提案を送信してください。

Daydream プラットフォーム向けのコンテンツを作成すれば、アプリがすべての Daydream 対応のスマートフォンやヘッドセットでシームレスに動作することがわかります。Daydream はまだ始まったばかりです。臨場感のあるインタラクティブな VR 体験を新しく作成しようという皆様のお役に立てることを楽しみにしています。さらに詳しい Daydream対応スマートフォン、Daydream ヘッドセットやコントローラの情報も準備中です。ご期待ください。



Posted by Takeshi Hagikura - Developer Relations Team

[この記事は Robbie Tilton、Google VR、UX デザイナーによる [blog title] Blog の記事 "" を元に翻訳・加筆したものです。詳しくは元記事をご覧ください。]


Daydream Labs では、VR を使ったソーシャル インタラクションの実験を行っています。実際の現実世界と同様に、VR の中でも、人は本質的に誰かと何かを共有したり、つながりを感じたいものです。Daydream Labs のデベロッパーやデザイナーは、楽しく簡単に使えるソーシャル エクスペリエンスを構築できることを楽しく思っています。しかし、関わるすべての方にとって安全で快適であることも同じくらい重要です。昨年を通して、人々を好意的なソーシャル エクスペリエンスに向かわせるいくつかの方法がわかってきました。

明確なソーシャル ルールがなければどうなるか

人々は VR エクスペリエンスの限界に興味を持っており、それを試したくなるでしょう。たとえば、マルチプレイヤー型のアプリやゲームに参加した人は、手が他人の頭を通り抜けるかどうか、別のアバターの体の中に立つことができるかどうか、といったことに疑問を抱くかもしれません。たとえ悪意がなかったとしても、こういった行動によって他の人々は危険を感じたり、不快な思いをするかもしれません。
たとえば、HTC Vive 向けに作った買い物の実験があります。この実験では、2 人の人がバーチャル店舗に入り、いろいろな帽子、サングラス、アクセサリーを試着することができました。仮想アクセサリーの配置方法や配置場所には何の制限もなかったため、友人の目のすぐ前など、帽子がくっつくことができるあらゆる場所にくっつけようとする人がいました。これでは、視界が妨げられて不快な思いをすることになってしまいます。コントローラを使って目から帽子を取り除くことができなければ、ヘッドセットを外して VR 体験を終了するしかなくなります。



ユーザーの安全性の確保

VR では、すべての人が安全で快適であるべきです。他人のアクションが予想できれば、否定的なソーシャル活動が始まる前にそれを思いとどまらせることができるかもしれません。たとえば、それぞれのユーザーのまわりに個人スペースを作成することによって、他人が個人スペースに侵入してくることを防ぐことができます。

実験で、ポーカーゲームをする場所を作成し、荒らし行為を思いとどまらせる新しい方法を試しました。誰かがポーカー卓を離れた場合、その人の環境は白黒になり、アバターは他のプレイヤーの視界から消えます。個人スペースを青く光るバブルによって示すことで、席に戻る方法がわかるようにしました。これによって、プレイヤーが相手に近づいてチップを盗んだり、個人スペースに侵入することを十分防げることがわかりました。




好意的な行動に対する報酬

たとえば、ハイタッチ 🙌 のような好意的な行動をとってもらうには、インセンティブを与えてみるとよいでしょう。ある実験で、2 つの別のアバターがお互いの手にすばやく「触れる」ことを検知しようと試みました。その際に大きな音を出し、花火のアニメーションを表示しました。これはシンプルなものですが、とても好評でした。一方で、アバターの体を殴るなど、これより攻撃的なことをしても、何も起こらないようになっています。どちらの動作が人々に好まれるかは想像できるでしょう。




Posted by Takeshi Hagikura - Developer Relations Team

[この記事は Rob Jagnow、Google VR ソフトウェア エンジニアによる Google Developers Blog の記事 "Daydream Labs: animating 3D objects in VR" を元に翻訳・加筆したものです。詳しくは元記事をご覧ください。]

ゲームをプレイしている場合でも、ビデオを見ている場合でも、VR で新しい世界に入り込み、ストーリーのヒーローになることができます。しかし、自分のストーリーを伝えたい場合はどうすればよいでしょうか。


臨場感のある 3D アニメーションの制作は難しく、コストもかかります。キーフレームを設定してスプライン補間を行う複雑なソフトウェアや、俳優の動きをライブでトラッキングするための高価なモーション キャプチャを必要とします。プロのアニメーターは、自然で表現力の高いシーケンスを作るためにかなりの労力を費やします。

Daydream Labs では、VR でアニメーションを行う際に技術的な複雑さを緩和し遊び感覚を向上させる方法を実験してきました。ある実験では、被験者がおもちゃを拾い上げたり、それを時間や空間の中で動かすことで、キャラクターを生き生きと動き回らせ、そのシーンをリプレイすることができました。



このようにして構築したアニメーションの実験で人々が遊ぶのを見て、いくつかのことに気づきました。

VR では複雑なメタファーは必要ない: 2D で複雑になる可能性があるものでも、3D では直感的にすることができます。グラフ エディタや位置を表すアイコンでアニメーションする代わりに、単純に手を伸ばして仮想世界にあるおもちゃをつかみ、シーンの中でそれを動かすことが可能です。このようなシンプルなアニメーションには手作りの魅力があり、驚くほど高度に感情を表現できました。

学習曲線がゼロに: 現実世界のおもちゃをどう使えばよいかはよくわかっているので、実験に参加した人々は、すぐにストーリーを伝え始めることができました。長いチュートリアルがなくてもアニメーションを変更したり、追加の説明なしに新しいキャラクターを追加することができました。

仮想環境での反応は現実世界での反応と同じ: VR 環境の遊び場に足を踏み入れた人々は、そこが、おもちゃを使って安全に遊ぶことができる場所だと理解し、臆することなくキャラクターを演じたり、愉快な声を出して遊んでいました。この仮想環境は遊ぶために作られているとわかっているので、さまざまなリスクにも挑戦しようとします。

さらに複雑なアニメーションを作るために、1 つのキャラクターの複数の関節を独立してアニメーションする別の実験も構築しました。操り人形のようにキャラクターの足、手、頭を別々にアニメーションさせ、その動きを記録できるものです。



VR は、ソフトウェアに対する考え方を変え、ユースケースを自然で直感的なものにします。この種のアニメーション システムはプロ用のツールの代替にはなりませんが、誰でも自分のストーリーを伝えることができます。VR を使ったストーリーの表現には、ビデオやアニメーションをはじめとしてさまざまな例があります。多くのクリエーターが VR で自身のストーリーを共有し、新しい視点が生みだされることを楽しみにしています。


Posted by Takeshi Hagikura - Developer Relations Team

[この記事は Rob Jagnow、Google VR ソフトウェア エンジニアによる Google Developers Blog の記事 "Daydream Labs: VR plays well with others" を元に翻訳・加筆したものです。詳しくは元記事をご覧ください。]

Daydream Labs では、仮想現実(VR)コンセプトをラピッド プロトタイピングするためにエンジニアとデザイナーをペアにします。そこで学んだ知識はこれまでも VR コミュニティと共有しています。今回は VR のソーシャル面に注目します。これまでに行った実験の多くで、他の人と一緒に VR 内にいると、いくつかの点に配慮しさえすれば、VR エクスペリエンスが増幅され、高められることが分かっています。この記事では、これまでに学んだことを紹介します。

シンプルさが力になる。アバター(VR 内でユーザーを仮想的に代替するもの)を簡略化して、きょろきょろ動く目玉がついた頭部が浮かんでいるだけでも、感情や意図、多くの社会的手がかりを驚くほど良く伝えられます。目があると、ユーザーが視線を向け、話しかける対象になるだけでなく、基本的な要素しかないアバターでも人間らしくなるので、面と向かってのコミュニケーションが増えます。これを、手や空間内に配置した音声と組み合わせると、互いの存在を感じる効果が生まれます。



現実空間と仮想空間をつなぐ。VR 内にひとりでいても、つながっていると感じられるようにすることができます。たとえば、一緒に VR 内にいなくても、VR 内の人と会話し続けることは可能です。VR の外にいる人の声は、中にいる人に、自分が 2 つの空間、つまり現実空間と仮想空間の両方に存在しているということを、さりげなくリマインドする役割を果たすかもしれません。こうした非対称のエクスペリエンスは、シャレードや Pictionary のようなジェスチャーなどによる言葉あてゲームのように、ひとりのプレーヤーが VR 内、他のプレーヤーは VR 外にいるというルールのパーティー ゲームの基礎として、面白い方法になるかもしれません。

ただし、その VR 内に他のプレーヤーも一緒にいると、現実世界は徐々に消え去るということが実験でたびたび観察されています。大半のマルチプレーヤー型ゲームでは、ゲームが非常に魅力的になるので、理想的だといえます。



共通のゴールを設定する。他の人と一緒の VR 体験に初めて参加するときには、どこから始めていいか分からずに困ってしまうことがあります。結局のところ、パーティーを開くより、後から参加するほうが簡単なのです。マルチプレーヤー型ゲームの場合は、共通のゴールを設定しましょう。プレーヤーが協力してできることを用意しておけば、雰囲気を和ませるのにも役立ちますし、友達になることもできます。そして VR をいっそう楽しむことができます。

親しくなれる配慮をする。最後になりますが、オフラインで知り合いのユーザー同士であれば、VR 内での背の高さや、その違いにすぐに気がつきます。高さや縮尺の値を調整して環境を再設定すれば、誰もが同じ身長に見える VR 世界を構築できます。あるいは、表示設定を調節すれば、それぞれのユーザーが、部屋で一番背が高いのは自分だと感じるようにすることも可能です。身長というのは、現実世界では影響力のある行動様式のひとつなので、VR の設定を調整することで、ユーザーがよりフレンドリーで社交的な交流をするようにすることができます。

Daydream Labs について、またそのこれまでに分かったことについて詳しく知りたい場合には、最近行われた Google I/O セッション「VR プロトタイプ開発から学んだこと」の動画をご覧ください。


Posted by Eiji Kitamura - Developer Relations Team

[この記事は Andrey Doronichev、Google VR グループ プロダクト マネージャーによる Google Developers Blog の記事 "Daydream Labs: exploring and sharing VR’s possibilities" を元に翻訳・加筆したものです。詳しくは元記事をご覧ください。]

Daydream Labs の Google VR チームでは、バーチャル リアリティの可能性を探求し、そこで得た知見を世界に共有しています。まだ早い段階であるにも関わらず、VR コミュニティはハードウェア、ソフトウェア、ビデオ等のさまざまな VR がどのように利用できるのかについて理解を深めてきました。しかし、それでも VR 開発が私たちを引き付けるのは、まだまだ未知の部分があるためです。

Daydream Labs では、アプリに大きな関心を寄せています。昨年、私たちは 60 を超える実験的なアプリを作成して、さまざまな使用例やインタラクション デザインをテストしました。すばやく知見を得るため、毎週 2 つのアプリ プロトタイプを作成してきました。中には失敗した実験もありますが、それぞれのアプリで学びがあります。

たとえば、1 週間で HTC Vive コントローラーをドラムスティックとして使ったバーチャル ドラム キットを作成しました。その翌週、VR でタイピングを自然に行い、遊びの要素を取り入れるにはどうしたら良いか話し合っていたときに、キーボードを小さなドラムで構成してみてはどうかと考えました。



はじめは、ドラムスティックが手による直接操作より効率的であるかどうか懐疑的でしたが、結果は驚くべきものでした。ドラムスティックによるタイピングはレーザー ポインターによるタイピングより速いだけではなく、実に楽しいものでした。1 分あたりの単語数を記録するゲームも作成しました(私は 1 分に 50 個でした)。

Daydream Labs は、まだ始動したばかりです。この投稿は、私たちが実験から得た知見を公開するシリーズの第一弾です。私たちが VR のインタラクション、没入感、およびソーシャル デザインについて得た知見の詳細は、Google I/O の動画でご覧いただけます。


Posted by Eiji Kitamura - Developer Relations Team