[go: up one dir, main page]

JP2018073424A - 検出されたビデオイベントに基づく動的触覚生成 - Google Patents

検出されたビデオイベントに基づく動的触覚生成 Download PDF

Info

Publication number
JP2018073424A
JP2018073424A JP2017210079A JP2017210079A JP2018073424A JP 2018073424 A JP2018073424 A JP 2018073424A JP 2017210079 A JP2017210079 A JP 2017210079A JP 2017210079 A JP2017210079 A JP 2017210079A JP 2018073424 A JP2018073424 A JP 2018073424A
Authority
JP
Japan
Prior art keywords
event
video
video event
feature parameters
haptic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017210079A
Other languages
English (en)
Inventor
ウー リウェン
Liwen Wu
ウー リウェン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of JP2018073424A publication Critical patent/JP2018073424A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B6/00Tactile signalling systems, e.g. personal calling systems
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16ZINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS, NOT OTHERWISE PROVIDED FOR
    • G16Z99/00Subject matter not provided for in other main groups of this subclass
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • H04N5/9305Regeneration of the television signal or of selected parts thereof involving the mixing of the reproduced video signal with a non-recorded signal, e.g. a text signal
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】検出されたビデオイベントに基づいて触覚効果の洗練された生成を提供する。
【解決手段】少なくともビデオデータを含む入力メディアを受け取り、この入力メディアにおいてビデオデータ内のビデオイベントが検出される方法又はシステム。検出されたビデオイベントに関係付けられた関連データが収集され、1つ以上の特徴パラメーターが、収集された関連データに基づいて構成される。ビデオイベントのタイプが判断され、1組の特徴パラメーターがビデオイベントのタイプに基づいて選択される。そして、選択された1組の特徴パラメーターに基づいて、触覚効果が自動的に生成される。
【選択図】図1

Description

本発明は、包括的には、触覚効果に関し、より詳細には、検出されたビデオイベントに基づく触覚効果の生成に関する。
ハプティクス(haptics:触覚学)は、ユーザーに対して、力、振動及びモーション等の触覚フィードバック効果(すなわち、「触覚効果」)を与えることによってユーザーの触覚の知覚を利用する、触知性及び力のフィードバック技術である。モバイルデバイス、タッチスクリーンデバイス、及びパーソナルコンピューター等のデバイスは、触覚効果を生成するように構成することができる。一般的に、触覚効果を生成することが可能な組み込みハードウェア(アクチュエーター等)に対する呼び出しは、デバイスのオペレーティングシステム(「OS」)内でプログラムすることができる。これらの呼び出しは、いずれの触覚効果を再生するかを指定する。例えば、ユーザーが、例として、ボタン、タッチスクリーン、レバー、ジョイスティック、ホイール又は他の何らかの制御装置を用いてデバイスとインタラクトする場合、デバイスのOSは、制御回路を通じて組み込みハードウェアに再生コマンドを送信することができる。そして、組み込みハードウェアは、適切な触覚効果を生成する。
デバイスは、触覚効果の出力を、ゲーム又は他のメディア等の他のコンテンツの出力に連動させるように構成することができ、それによって、触覚効果が他のコンテンツに組み込まれる。例えば、ゲーミングの状況において、或るゲームが開発されるとき、開発者は、ゲームに関係付けられており、ゲーム内で起こるアクション、例えば、マシンガンの発砲、爆発、又は自動車衝突を表す触覚効果を組み込むことができる。通常、触覚効果は、ゲーム開発プロセスにおける後期、例えば、ゲーム開発者がゲームアプリケーションの開発の仕上げに差し掛かったとき、又はゲーム開発者が完成したゲームアプリケーションを新たなプラットフォームにポーティングするときにゲームに加えられる。この結果、一般的に、触覚効果は、全てのオーディオ効果及びビデオ効果が開発された後に加えられるという事象が生じる。通常、触覚効果がプロセスにおいてこのような後期に加えられることに起因して、一般的に、触覚効果の開発者、又は何らかの他の開発者は、触覚効果をオーディオ効果又はビデオ効果に関係付けることについて決定するに至る。さらに、開発者は、通常、オーディオ効果又はビデオ効果に対する適切な触覚効果の選択に関する入力を有しない。
本開示の一実施形態において、触覚効果を動的に生成する方法が提示される。本方法は、少なくともビデオデータを含む入力メディアを受け取ることと、このビデオデータ内のビデオイベントを検出することとを含む。本方法は、検出されたビデオイベントに関係付けられた関連データを収集することと、その後、収集された関連データに基づいて1つ以上の特徴パラメーターを構成することとによって続く。ビデオイベントのタイプが判断され、その後、ビデオイベントのタイプに基づく1組の特徴パラメーターが選択される。本方法は、選択された1組の特徴パラメーターに基づいて触覚効果を自動的に生成することによって終了する。
本開示の一実施形態によるシステムのブロック図である。 本開示の実施形態による触覚効果生成システムのブロック図であり、この触覚効果生成システムは、イベントを検出し、データを収集し、パラメーターを構成し、そして触覚を動的に生成する。 本開示の一実施形態による、衝突イベントの検出の写真図である。 本開示の一実施形態による、爆発イベントの検出の写真図である。 本開示の一実施形態による、爆発イベントの検出の写真図である。 本開示の一実施形態による、ビデオイベントを自動的に検出したときの、図1のシステムの機能の流れ図である。
本明細書に組み込まれて本明細書の一部を形成する添付図面は、本発明を例示し、さらに、本記載とともに、本発明の原理を説明することと、関連技術(複数の場合もある)における当業者が本発明を製造及び使用することを可能にすることとに貢献する。
加えて、参照符号の最左桁によって、その参照符号が最初に登場する図面が特定される(例えば、参照符号「310」は、この付番された要素が、図3において最初にラベリングされるか又は最初に登場することを示す)。加えて、同一の参照符号を有し、その符号の後ろにアルファベット文字又は他の区別のためのマーキング(例えば、アポストロフィー)が続く要素は、構造、動作、又は形式の点では同一であるが、空間において異なる位置にある、又は異なる時点において再び現れるものとして特定される場合がある要素を示す。
1つの実施形態は、ビデオイベントを検出し、この検出されたビデオイベントに対する適合された、カスタマイズされた触覚効果を自動的に生成する方法及びシステムである。本方法及びシステムは、ビデオイベントの手動検出又は自動検出のいずれかを含む。イベントの開始時刻及び終了時刻、ピクセルデータ並びにモーション解析データ等の関連データが収集される。特徴パラメーターが、収集されたデータに基づいて構成される。ビデオイベントのタイプ、例えば、衝突イベント又は爆発イベントが特定される。その後、ビデオイベントのタイプに基づいて、1組の特徴パラメーターが選択され、この選択された1組の特徴パラメーターに基づいて、対応するカスタマイズされた触覚効果が生成される。
本明細書に記載される実施形態が、特定の用途についての例示的な実施形態である一方、本発明は、それらの実施形態に限定されないことが理解されるべきである。本明細書で提供される教示が利用可能な当業者であれば、本発明の範囲内にある、更なる変更形態、用途、及び実施形態、並びに本発明が大きな有用性を有する更なる分野を認識するであろう。
1つの実施形態は、検出されたビデオイベント、例えば、ビデオストリーム又はセグメントにおける衝突又は爆発に基づいて触覚効果を自動的に生成するシステムである。実施形態は、ビデオイベントの自動検出、ビデオデータを解析すること、並びに、その後、関係付けられた触覚効果を規定及び生成するパラメーターを構成することを含む。したがって、生成された触覚効果は、特定の検出されたビデオイベントに基づいており、それによって、適合された触覚効果が生成される。ビデオ検出は、自動的に行うこともできるし、手動で特定されたビデオイベントに基づいて行うこともできる。
図1は、一実施形態による、システム100のブロック図を示している。1つの実施形態において、システム100は、デバイスの一部であり、システム100は、デバイスに対する、検出されたビデオイベントに基づく自動触覚効果を提供する。別の実施形態では、システム100は、デバイスとは別個であり、デバイスに対する、検出されたビデオイベントに基づく自動触覚効果をリモートに提供する。単一のシステムとして示されているが、システム100の機能は、分散システムとして実施することができる。システム100は、バス115又は情報を通信する他の通信機構と、バス115に連結された、情報を処理するプロセッサ111とを備える。プロセッサ111は、汎用プロセッサ又は特定用途向けプロセッサの任意のタイプとすることができる。システム100は、情報と、プロセッサ111によって実行される命令とを記憶するメモリ116を更に備える。メモリ116は、ランダムアクセスメモリ(「RAM」)、リードオンリーメモリ(「ROM」)、磁気ディスク若しくは光学ディスク等の静的記憶装置、又は任意の他のタイプのコンピューター可読媒体の任意の組み合わせから構成することができる。
コンピューター可読媒体は、プロセッサ111がアクセスすることができる任意の利用可能な一時的媒体及び非一時的媒体とすることができ、揮発性媒体及び不揮発性媒体、リムーバブル媒体及び非リムーバブル媒体、通信媒体、並びに記憶媒体のいずれをも含むことができる。通信媒体は、コンピューター可読命令、データ構造、プログラムモジュール、又は搬送波若しくは他の伝送機構等の被変調データ信号における他のデータとすることができ、当該技術分野において既知の任意の他の形式の情報伝達媒体を含むことができる。記憶媒体は、RAM、フラッシュメモリ、ROM、消去可能プログラマブルリードオンリーメモリ(「EPROM」)、電気的消去可能プログラマブルリードオンリーメモリ(「EEPROM」)、レジスター、ハードディスク、リムーバブルディスク、コンパクトディスクリードオンリーメモリ(「CD−ROM」)、又は当該技術分野において既知の任意の他の形式の記憶媒体を含むことができる。
1つの実施形態において、メモリ116は、プロセッサ111によって実行されるときに機能を提供するソフトウェアモジュールを記憶する。モジュールは、一実施形態において、システム100、及びデバイスの残りの部分にオペレーティングシステム機能を提供するオペレーティングシステム117を備える。モジュールは、以下でより詳細に開示されるように、ビデオイベントを自動的に検出するビデオイベント検出モジュール118を更に備える。或る特定の実施形態において、ビデオイベント検出モジュール118は、複数のモジュールを含むことができ、個々のモジュールのそれぞれは、ビデオイベントを検出する特定の個々の機能を提供する。例えば、ビデオイベント検出モジュール118は、色及びモーション解析に基づいて、ビジュアルオドメトリーに基づいて、又はスポーツセンサー若しくは任意の他の外部センサーに基づいて、イベントを検出する検出モジュールを含むことができる。システム100は、通常、1つ以上の追加のアプリケーションモジュール119を備え、触覚効果をオーディオ/ビジュアル入力に組み込む、Immersion Corp.社による「TouchSense」アプリケーション等の、追加の機能を含む。
システム100は、リモートソースからデータを送信/受信する実施形態において、ネットワークインターフェースカード等の通信デバイス113を更に備え、赤外線、無線、Wi−Fi、又はセルラーネットワーク通信等のモバイル無線ネットワーク通信を提供する。他の実施形態では、通信デバイス113は、Ethernet接続又はモデム等の有線ネットワーク接続を提供する。
プロセッサ111は、バス115を介して、ユーザーにグラフィック表現又はユーザーインターフェースを表示する、液晶ディスプレイ(「LCD」)等のディスプレイ120に更に連結される。ディスプレイ120は、プロセッサ111から信号を送信及び受信するように構成された、タッチスクリーン等のタッチセンシティブ入力デバイスとすることができ、マルチタッチのタッチスクリーンとすることができる。プロセッサ111は、マウス又はスタイラス等の、ユーザーがシステム100とインタラクトすることを可能にするキーボード又はカーソルコントロール124に更に連結することができる。
1つの実施形態において、システム100は、アクチュエーター122を更に備える。プロセッサ111は、生成された触覚効果に関係付けられた触覚信号をアクチュエーター122に送信することができ、ひいては、アクチュエーター122は、振動触覚効果、静電摩擦触覚効果、又は変形触覚効果等の触覚効果を出力する。アクチュエーター122は、アクチュエーター駆動回路を備える。アクチュエーター122は、例えば、電気モーター、電磁アクチュエーター、ボイスコイル、形状記憶合金、電場応答性高分子、ソレノイド、偏心回転質量モーター(「ERM」)、リニア共振アクチュエーター(「LRA」)、圧電アクチュエーター、高周波数帯域アクチュエーター、電場応答性高分子(「EAP」)アクチュエーター、静電摩擦ディスプレイ、又は超音波振動生成器とすることができる。代替的な実施形態では、システム100は、アクチュエーター122に加えて、1つ以上の追加のアクチュエーターを備えることができる(図1には示されていない)。アクチュエーター122は、触覚出力デバイスの一例であり、ここで、触覚出力デバイスは、駆動信号に応答して、振動触覚効果、静電摩擦触覚効果、又は変形触覚効果等の触覚効果を出力するように構成されたデバイスである。代替的な実施形態では、アクチュエーター122は、何らかの他のタイプの触覚出力デバイスに取り替えることができる。さらに、他の代替的な実施形態では、システム100は、アクチュエーター122を備えない場合があり、システム100とは別個のデバイスが、アクチュエーター、又は触覚効果を生成する他の触覚出力デバイスを備え、システム100は、生成された触覚効果信号を、通信デバイス113を通じてそのデバイスに送信する。
システム100は、データベース130に動作可能に更に連結することができ、ここで、データベース130は、メモリ116によって用いられるデータを記憶するように構成することができる。データベース130は、オペレーショナルデータベース、解析データベース、データウェアハウス、分散データベース、エンドユーザーデータベース、外部データベース、ナビゲーショナルデータベース、インメモリデータベース、ドキュメント指向データベース、リアルタイムデータベース、リレーショナルデータベース、オブジェクト指向データベース、又は当該技術分野において既知の任意の他のデータベースとすることができる。
1つの実施形態において、システム100は、1つ以上のスピーカー126を更に備える。プロセッサ111は、オーディオ信号をスピーカー126に送信することができ、ひいては、スピーカー126は、オーディオ効果を出力する。スピーカー126は、例えば、ダイナミックラウドスピーカー、動電ラウドスピーカー、圧電ラウドスピーカー、磁歪ラウドスピーカー、静電ラウドスピーカー、リボンプラナー(ribbon and planar)磁気ラウドスピーカー、屈曲波ラウドスピーカー、フラットパネルラウドスピーカー、ヘイルエアモーショントランスデューサー、プラズマアークスピーカー、及びデジタルラウドスピーカーとすることができる。
1つの実施形態において、システム100は、センサー128を更に備える。センサー128は、或る形態のエネルギー、又は、限定はされないが、加速度、生体信号、距離、流れ、力/圧力/歪み/屈曲、湿度、線形位置、向き/傾斜、無線周波数、回転位置、回転速度、スイッチの操作、温度、振動、若しくは可視光強度等の他の物理的特性を検出するように構成することができる。センサー128は、検出されたエネルギー又は他の物理的特性を、電気信号、又は仮想センサー情報を表す任意の信号に変換するように更に構成することができる。センサー128は、限定はされないが、加速度計、心電図、脳電図、筋電図、眼電図、エレクトロパラトグラフ(electropalatograph:電子口蓋図)、ガルバニック皮膚反応センサー、静電容量センサー、ホール効果センサー、赤外線センサー、超音波センサー、圧力センサー、光ファイバーセンサー、曲げセンサー(又は屈曲センサー)、感圧センサー、ロードセル、LuSense CPS2 155、小型圧力トランスデューサー、圧電センサー、歪みゲージ、湿度計、線形位置タッチセンサー、線形ポテンショメーター(又はスライダー)、線形可変差動変圧器、コンパス、傾斜計、磁気タグ(又は無線周波数識別タグ)、ロータリーエンコーダー、ロータリーポテンショメーター、ジャイロスコープ、オンオフスイッチ、温度センサー(気温計、熱電対、抵抗温度検出器、サーミスタ、又は温度変換集積回路等)、マイクロフォン、光度計、高度計、生体モニター、又は光依存抵抗器等の任意のデバイスとすることができる。
一般的に、オーディオ及び/又はビデオデータを含む、知覚性の(sensory)マルチメディアデータから触覚効果を生成する自動触覚変換アルゴリズムは、特定のイベントに対するカスタマイズ又は適合された効果を欠いている。本開示において提示される実施形態は、種々の検出技術及び関係するアルゴリズム技術を用いて、自動的に特定のビデオイベントに対する触覚効果を動的に適合する機能を導入する。
図2は、一実施形態による、触覚効果生成システム200のブロック図である。触覚効果生成システム200は、イベント検出部210と、データ収集部220と、パラメーター構成部230と、触覚効果生成部240と、アクチュエーターシステム250と、アクチュエーター255とを備える。
イベント検出部210は、入力メディアを受け取る。入力メディアは、メディアファイル、ビデオコンテンツを含むデータストリーム、又は任意の他のタイプのメディアコンテンツファイルとすることができる。しかしながら、入力メディアは、最低でも何らかのビデオコンテンツを含んでいなければならない。入力メディアが受け取られると、イベント検出部210は、次に、受け取られたメディアコンテンツ内に含まれるビデオイベントを検出する。そのような検出は、色及びモーション解析に基づくか、又は、ビジュアルオドメトリーに基づくか、又は、スポーツセンサー、若しくは受け取られた入力メディア内の、ターゲットイベントとも称されるビデオイベントの開始時刻及び終了時刻を特定する任意の他の外部センサーに基づくイベント検出等のイベント検出アルゴリズムの使用によって達成される。別の実施形態では、イベント検出は、例えば、フレーム毎に入力メディアを観察して、ビデオイベントが開始する時及び終了する時を特定することによって、手動で完了することができる。
データ収集部220は、検出されたビデオイベントのそれぞれの開始時刻及び終了時刻に基づいて任意の特定されたビデオイベントに関係付けられたデータを収集する。この関係付けられたデータ、又は関連データは、ビデオの解析から、又は他の信号処理アルゴリズムから達成される任意のタイプの情報とすることができる。そのような関連データは、ビデオイベントに関係付けられたピクセルデータ(例えば、物体のサイズ)を含むことができる。また、関連データは、連続フレーム間のピクセルデータにおける変化(例えば、物体又はイベントのサイズ及び/又は物体又はイベントの動きにおける変化)の解析とすることもできる。また、関連データは、モーション解析の結果とすることもでき、オプティカルフローベクトル等のモーション解析ベクトルの生成を含むことができる。入力メディアがオーディオトラックも含む場合、データ収集部220は、オーディオの振幅及び周波数等の、検出されたビデオイベントに対応するオーディオデータも収集することができる。
パラメーター構成部230は、データ収集部220によって収集された関連データを用いて、検出されたビデオイベントに対する適合された触覚効果を動的に生成することに用いられる種々のパラメーターを構成する。これらのパラメーターは、振幅、周波数、持続時間、形状、ポーズ空間、アタック時間、アタックレベル、減衰時間、減衰レベル等を含む、触覚効果のパラメーターを動的に調整することができる。特徴パラメーターの選択及び効果生成アルゴリズムの最適化を効果的に行うことによって、結果として得られる触覚効果は、検出されたビデオイベントの固有の特徴に高度にマッチする。例えば、パラメーター構成部230は、データ収集部220によって収集されたピクセルの数を用いて、物体又はイベントのサイズを参照することができ、この場合、より大きなサイズは、より強力な触覚効果をもたらす可能性がある。また、入力メディアの連続フレーム間の物体又はイベントのピクセルの数の差異がレート又は拡大又は動きを示す可能性があることを認識することによって、例えば、より大きな拡大は、より強力な触覚効果に転換されるか、又は物体若しくはイベントがカメラにより接近した場合にも、より強力な触覚効果が生成される。
データ収集部220によって収集されたモーション解析データを用いて、モーション解析ベクトルを求めることができる。ベクトルの方向は、モーションの方向を示し、そのベクトルの値は、モーションの速さを示す。一実施形態において、方向のより大きな変化は、より強力な触覚を生成する場合があり、物体又はイベントの速さが高速になる程、動的に生成された触覚効果はより激しくなる。パラメーター構成部230は、データ収集部220によって収集された任意のオーディオデータを用いて、パラメーターを構成することもできる。例えば、検出されたビデオイベントのオーディオトラックのより大きな振幅の結果、より強力な触覚効果がもたらされる可能性があり、この場合、オーディオの周波数は、触覚効果の周波数に対応する。
触覚効果生成部240は、適切な特徴パラメーターを選択して、検出されたビデオイベントに対する適合された触覚効果を生成する。触覚効果生成部240は、まず、検出されたビデオイベントのタイプを判断する。検出されたイベントのタイプが衝突イベントだった場合、触覚効果生成部240は、モーション解析ベクトルに基づいてパラメーター構成部230によって構成された特徴パラメーターを選択する。モーション解析ベクトルは、衝突イベントに対する動的効果を生成するパラメーターとして比較的良好な選択である。イベントのタイプが爆発イベントである場合、触覚効果生成部240は、検出されたビデオイベントについてのピクセルの数、又は入力メディアの連続フレーム間のピクセルの数における差異に基づいた特徴パラメーターを選択する。触覚効果生成部240がビデオイベントのタイプに基づいて適切な特徴パラメーターを選択すると、触覚効果生成部240は、触覚効果を動的に生成する。具体的には、触覚効果生成部240は、1組の触覚効果コマンドを生成し、この1組の触覚効果コマンドは、次にアクチュエーターシステム250に渡され、このアクチュエーターシステム250が触覚効果を生成する。
アクチュエーターシステム250は、触覚効果生成部240から触覚コマンド又は命令を受信し、所望の触覚効果を生成するアクチュエーター255を動作させる。また、アクチュエーターシステム250は、1つ以上のドライバーも備える。
図3は、一実施形態による、ビデオ衝突イベント300の検出の写真図である。衝突イベント300は、3つのフレーム310、320及び330のシーケンスを含み、これらのフレームにおいて3つの異なる衝突事象が検出されている。ビデオ衝突イベント300は、3つのフレーム310、320及び330において、バスケットボール311の床との衝突を示す。この例において、バスケットボール311は追跡されており、バスケットボール311の方向及び速度がビデオ処理アルゴリズムを用いて計算される。ビデオ処理アルゴリズムは、バスケットボール311の床に対する衝突を検出し、バスケットボール311の位置を正方形314、324及び334において示している。モーション解析ベクトル312、322及び332は、バスケットボール311の速度及び方向を示す。一実施形態において、触覚効果は、速度ベクトルの2つのパラメーター、すなわち、ベクトルの値(速度)及びベクトルと床との間の角度に基づいて生成される。各速度ベクトルの値は、最小値0及び最大値1で単位化(unitized)される。一実施形態において、出力触覚効果は、最小値0〜最大値1の単位化された振幅を有する正弦波である。床に対して垂直的な衝突角度が大きくなる程、及び速度の値が大きくなる程、結果として、より強力な、より大きな振幅の、並びによりシャープな、より高い周波数の、及びより短い持続時間の衝突触覚効果がもたらされる。
フレーム310は、速度値がおよそ0.7、衝突角度がおよそ35度の速度ベクトル312を表示する。1つの実施形態において、これにより、結果として振幅0.7、周波数50Hz及び持続時間40msの正弦波としての出力触覚効果の出力がもたらされる。
フレーム320は、速度値がおよそ1.0、衝突角度がおよそ45度の速度ベクトル322を表示する。1つの実施形態において、これにより、結果として振幅1.0、周波数66Hz及び持続時間30msの正弦波としての触覚効果の出力がもたらされる。
フレーム330は、速度値がおよそ0.7、衝突角度がおよそ90度の速度ベクトル332を表示する。1つの実施形態において、これにより、結果として、振幅0.9、周波数80Hz及び持続時間25msの正弦波としての触覚効果の出力がもたらされる。
図4A及び図4Bは、一実施形態による、ビデオ爆発イベント400の検出の写真図である。爆発イベント400は、図4Aに示すフレーム410及び420並びに図4Bにおけるフレーム430、440及び450の、5つのフレームのシーケンスを含む。一実施形態において、爆発イベントの出力触覚効果は、振幅スイープ触覚効果である。フレーム410〜450のシーケンスのフレームレートが毎秒30フレームであると仮定すると、1フレーム間の振幅スイープ触覚効果の持続時間は、33msである。1つの実施形態において、触覚の振幅は単位化され、その範囲は最小値0〜最大値1である。振幅は、検出された爆発エリアのピクセルの数の増加/減少とともに増大/縮小する。爆発エリアが縮小し始めるか又は増大が止まるときに、振幅に減衰係数(fading factor)(1未満)が適用され、これにより、振幅が減衰して0に至る瞬間がもたらされ、この瞬間は、爆発効果が終了したことを示している。また、減衰係数は、ピクセルの変化量に基づいて動的に変更される。
例えば、一実施形態において、フレーム410は、およそ500ピクセルの爆発エリアを有する、爆発イベントの開始の瞬間を示している。出力触覚効果は、振幅0.25、持続時間33msの振幅スイープ触覚効果である。
フレーム420は、爆発エリアがおよそ1000ピクセルの爆発エリアに増大している様子を示している。出力触覚効果は、振幅0.5、持続時間33msの振幅スイープ触覚効果である。
フレーム430は、爆発エリアが2000ピクセル超の爆発エリアに引き続き増大している様子を示している。出力触覚効果は、振幅1.0、持続時間33msの振幅スイープ触覚効果である。さらに、爆発エリアは、フレーム430において、拡大が止まり、縮小し始めている。その後、減衰係数(1未満)がフレーム440及び450に適用される。
フレーム440は、爆発エリアがおよそ800ピクセルの爆発エリアに縮小している様子を示している。出力触覚効果は、振幅0.4、持続時間33msの振幅スイープ触覚効果である。
フレーム450は、爆発が終了し、ここでこのエリアは、増大も縮小もせずに同じサイズを保っている。爆発エリアは、依然としておよそ500ピクセルで検出されるが、振幅は、減衰して0に至っている。出力触覚効果は、振幅0の振幅スイープ触覚効果であり、爆発効果が終了したことを示している。
図5は、一実施形態による、触覚効果を動的に生成するときの、図1のシステム100の機能を用いる方法500の流れ図である。1つの実施形態において、図5の流れ図の機能は、メモリに記憶されたソフトウェア又は他のコンピューター可読若しくは有形媒体によって実施され、プロセッサによって実行される。他の実施形態では、機能は、ハードウェア(例えば、特定用途向け集積回路(「ASIC」)、プログラマブルゲートアレイ(「PGA」)、フィールドプログラマブルゲートアレイ(「FPGA」)等の使用を通じて)、又はハードウェア及びソフトウェアの任意の組み合わせによって実行することができる。
方法500は、510において開始し、ここで入力メディアが受け取られる。図2において論述したように、入力メディアは、任意のタイプのプロトコルとすることができるが、少なくともビデオデータを含む。一実施形態において、入力メディアは、通信デバイス113を通じて受け取られて、データベース130に記憶され、このデータベース130において、プロセッサ111は、受け取られた入力メディアの解析を開始することができる。
520において、1つ以上のビデオイベントが検出される。そのような検出は、色及びモーション解析に基づくか、又はビジュアルオドメトリーに基づくか、又はスポーツセンサー若しくは任意の他の外部センサーに基づくイベント検出を含む種々のイベント検出アルゴリズムを利用することができるビデオイベント検出モジュール118を用いて達成することもできるし、フレーム毎に入力メディアを観察して、任意のビデオイベントの開始時刻及び終了時刻を特定することによって手動で達成することもできる。
530において、関連データが収集される。関連データは、ビデオイベント時間フレーム内の任意のデータである。関連データは、ピクセルデータを含むこともできるし、連続フレーム間のピクセルデータにおける差異を含むこともできる。また、関連データは、物体又はイベントのモーションの速度及び方向を示すモーション解析データとすることもできる。
540において、特徴パラメーターが構成される。特徴パラメーターは、検出されたビデオイベントに対する適合された触覚効果を動的に生成及び調整することに用いられる。一実施形態において、特徴パラメーターの構成は、(例えば、図4A及び図4Bで示すように)入力メディアの各フレームにおける検出された物体若しくはイベントのピクセルの数をカウントするピクセル解析を使用するか、又は(例えば、図3で示すように)検出されたイベント若しくは物体の速度及び方向を解析するモーション解析を使用するかのいずれかである。
550において、ビデオイベントのタイプが判断される。ビデオイベントのタイプは、検出されたビデオイベントに関係付けられた触覚効果を生成することに用いられる構成パラメーターの選択に影響を及ぼす。ビデオイベントは、衝突イベント又は爆発イベントとして分類することができる。通常、モーション解析ベクトル(例えば、図3のベクトル312)が衝突イベントに対する特徴パラメーターとして比較的良好な選択であり、ピクセルカウントに基づく特徴パラメーター、又は連続フレームにおけるピクセルカウントの変化が爆発イベントに対する特徴パラメーターとして比較的良好な選択である。
560において、1組の特徴パラメーターが選択される。特徴パラメーター選択プロセスのためのアルゴリズムにより、触覚効果の振幅、周波数、持続時間、形状、ポーズ空間、アタック時間、アタックレベル、減衰時間、減衰レベル等を含む触覚効果を動的に調整する機能が可能になる。特徴パラメーターの選択及び効果生成アルゴリズムの最適化を効果的に行うことによって、生成された触覚効果は、ターゲットイベントの固有の特徴に高度にマッチする。
検出されたイベントの特徴パラメーターは、ビデオコンテンツから達成することができる全てのタイプのパラメーターとすることができる。さらに、特徴パラメーターは、色(例えば、赤緑青の「RGB」値)、明度及び彩度(例えば、色相、彩度、明度の「HSL」値又は色相、彩度、明度値(value)の「HSV」値)を含む、画像ピクセルのパラメーターとすることができる。この場合、アルゴリズムの入力パラメーターは、通常、ビデオの1つのフレーム/幾つかのフレームの或る特定のエリア又は全体画像におけるピクセルの色、明度、及び/又は彩度の平均値である。例えば、或る特定の検出されたイベント(雷光等)についての明度の値に従って、動的な触覚を生成する。より高い明度の値は、より大きな振幅、より高い周波数を有する触覚に対応付けられ、より低い明度の値は、より小さな振幅、及びより低い周波数を有する触覚に対応付けられる。
特徴パラメーターは、或る特定の条件にマッチするピクセルの数における変化とすることができる。例えば、赤色のピクセルの数、100よりも高い明度(明度の範囲は0〜255である)を有するピクセルの数等。ピクセルの異なる数は、異なる触覚パラメーターに対応付けられることができる。ピクセルの数における変化は、検出された物体又はイベントの、サイズの変化、カメラからの距離における変化、拡大、又は収縮を指し示す場合がある。例えば、より大きな拡大は、より強力な触覚に対応し、触覚効果は、物体又はイベントがカメラにより接近する場合、より強力になる。
特徴パラメーターは、入力メディアの連続フレーム間の、検出された物体又はイベントのオプティカルフローベクトル等のモーション解析ベクトルとすることができる。ベクトルの方向は、モーションの方向を示し、ベクトルの値は、モーションの速さを示す。例えば、より大きな方向の変化は、より強力な触覚に対応し、速さのより大きな変化は、より強力な触覚に対応する。
アルゴリズムの入力としての特徴パラメーターの選択と、これらが出力触覚パラメーターに対応付けられる方法とは、異なる検出されたイベントの特性に依拠している。対応付けは、線形/非線形/ランダムとすることができ、これにより、ターゲットイベントに対する異なるスタイルの触覚を生成することができる。
570において、560において上述されたような選択された特徴パラメーターに基づいて、触覚効果が自動的に生成される。例えば、触覚効果の生成は、触覚効果生成部240の使用によって達成され、触覚効果生成部240は、1組の触覚効果コマンドを生成し、次にこの触覚効果コマンドは、アクチュエーターシステム250に渡され、ここでアクチュエーターシステム250は、触覚コマンド又は命令を触覚効果生成部240から受信し、アクチュエーター255を動作させて、所望の触覚効果を生成する。
提示された方法及びシステムは、ビデオイベントが検出されるビデオデータを含む入力メディアを受け取る。検出されたビデオイベントに関係付けられた関連データが収集され、1つ以上の特徴パラメーターが収集された関連データに基づいて構成される。また、ビデオイベントのタイプが判断され、1組の特徴パラメーターがビデオイベントのタイプに基づいて選択される。そして、選択された1組の特徴パラメーターに基づいて、触覚効果が自動的に生成される。特定のビデオイベントに基づいてカスタマイズされた、適合された効果を自動的に生成する機能は、各イベントがそれ自体の固有の触覚を有する場合極めて有効である。さらに、提示された手法は、極めて融通性に富み、他の触覚生成方法と容易に統合して、広範で多様な触覚を生成することができる。
本明細書において、いくつかの実施形態が具体的に例示及び/又は記載されている。しかしながら、開示した実施形態の変更及び変形は、上記教示によって包含されており、本発明の趣旨及び意図された範囲から逸脱することなく添付の特許請求の範囲の適用範囲内にあることが理解されるであろう。
本願は、2016年10月31日に出願された米国特許出願第15/338,763号の利益を主張し、この開示は、引用することによりその全体が本明細書の一部をなす。

Claims (20)

  1. 触覚効果を動的に生成する方法であって、
    少なくともビデオデータを含む入力メディアを受け取ることと、
    前記ビデオデータ内のビデオイベントを検出することと、
    前記検出されたビデオイベントに関係付けられた関連データを収集することと、
    前記収集された関連データに基づいて1つ以上の特徴パラメーターを構成することと、
    前記ビデオイベントのタイプを判断することと、
    前記ビデオイベントのタイプに基づいて1組の特徴パラメーターを選択することと、
    前記1組の特徴パラメーターに基づいて触覚効果を生成することと、
    を含む、方法。
  2. 前記ビデオイベントを検出することは、該ビデオイベントの開始時刻及び終了時刻を自動的に生成することを含む、請求項1に記載の方法。
  3. 前記関連データを収集することは、前記ビデオイベントの1組の連続フレームのピクセルデータを収集することを含む、請求項1に記載の方法。
  4. 前記関連データを収集することは、前記ビデオイベントの1組の連続フレーム内の物体又はイベントのモーション解析を含む、請求項1に記載の方法。
  5. 前記モーション解析は、モーション解析ベクトルの生成を含む、請求項4に記載の方法。
  6. 前記関連データを収集することは、前記ビデオイベントの1組の連続フレームのオーディオトラックデータを収集することを含む、請求項1に記載の方法。
  7. 前記1つ以上の特徴パラメーターを構成することは、前記検出されたビデオイベントに関係付けられたピクセルの数に基づいて触覚パラメーターを構成することを含む、請求項1に記載の方法。
  8. 前記1つ以上の特徴パラメーターを構成することは、前記検出されたビデオイベントに関係付けられた1組の連続フレームのピクセルの数における差異に基づいて触覚パラメーターを構成することを含む、請求項7に記載の方法。
  9. 前記1つ以上の特徴パラメーターを構成することは、前記検出されたビデオイベントに関係付けられた1組の連続フレーム間のモーション解析ベクトルに基づいて触覚パラメーターを構成することを含む、請求項1に記載の方法。
  10. 前記1つ以上の特徴パラメーターを構成することは、前記検出されたビデオイベントに関係付けられたオーディオトラックの振幅又は周波数に基づいて触覚パラメーターを構成することを含む、請求項1に記載の方法。
  11. 前記ビデオイベントのタイプを判断することは、衝突イベント又は爆発イベントを判断することを含む、請求項1に記載の方法。
  12. 前記1組の特徴パラメーターを選択することは、前記ビデオイベントのタイプが衝突イベントである場合にはモーション解析ベクトルの使用を、又は、前記ビデオイベントのタイプが爆発イベントである場合にはピクセルの数の使用を、選択することを含む、請求項1に記載の方法。
  13. プロセッサによって実行されるとき、該プロセッサに触覚効果を生成させる、命令を記憶されたコンピューター可読媒体であって、前記触覚効果を生成することは、
    少なくともビデオデータを含む入力メディアを受け取ることと、
    前記ビデオデータ内のビデオイベントを検出することと、
    前記検出されたビデオイベントに関係付けられた関連データを収集することと、
    前記収集された関連データに基づいて1つ以上の特徴パラメーターを構成することと、
    前記ビデオイベントのタイプを判断することと、
    前記ビデオイベントのタイプに基づいて1組の特徴パラメーターを選択することと、
    前記1組の特徴パラメーターに基づいて触覚効果を生成することと、
    を含む、コンピューター可読媒体。
  14. 前記関連データを収集することは、前記ビデオイベントの1組の連続フレームのピクセルデータを収集することを含む、請求項13のコンピューター可読媒体。
  15. 前記関連データを収集することは、前記ビデオイベントの1組の連続フレーム内の物体又はイベントのモーション解析を含む、請求項13に記載のコンピューター可読媒体。
  16. 前記特徴パラメーターを構成することは、前記検出されたビデオイベントに関係付けられたピクセルの数に基づいて触覚パラメーターを構成することを含む、請求項13に記載のコンピューター可読媒体。
  17. 前記特徴パラメーターを構成することは、前記検出されたビデオイベントに関係付けられた1組の連続フレーム間のモーション解析ベクトルに基づいて触覚パラメーターを構成することを含む、請求項13に記載のコンピューター可読媒体。
  18. 前記1組の特徴パラメーターを選択することは、前記ビデオイベントのタイプが衝突イベントである場合にはモーション解析ベクトルの使用を、又は、前記ビデオイベントのタイプが爆発イベントである場合にはピクセルの数の使用を、選択することを含む、請求項13に記載のコンピューター可読媒体。
  19. 少なくともビデオデータを含む入力メディアを受け取り、前記ビデオデータ内のビデオイベントを検出するように構成されたイベント検出部と、
    前記検出されたビデオイベントに関係付けられた関連データを収集するように構成されたデータ収集部と、
    前記収集された関連データに基づいて、1つ以上の特徴パラメーターを規定するように構成されたパラメーター構成部と、
    前記ビデオイベントのタイプを判断し、該ビデオイベントのタイプに基づいて1組の特徴パラメーターを選択し、該1組の特徴パラメーターに基づいて、アクチュエーターシステムを用いて、触覚効果を動的に生成するように構成された触覚効果生成部と、
    を備える、触覚効果生成システム。
  20. 前記触覚効果生成部は、前記ビデオイベントのタイプが衝突イベントである場合にはモーション解析ベクトルの使用を、又は、前記ビデオイベントのタイプが爆発イベントである場合にはピクセルの数の使用を、選択することを含む、1組の特徴パラメーターを選択する、請求項19に記載のシステム。
JP2017210079A 2016-10-31 2017-10-31 検出されたビデオイベントに基づく動的触覚生成 Pending JP2018073424A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/338,763 2016-10-31
US15/338,763 US10102723B2 (en) 2016-10-31 2016-10-31 Dynamic haptic generation based on detected video events

Publications (1)

Publication Number Publication Date
JP2018073424A true JP2018073424A (ja) 2018-05-10

Family

ID=60191223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017210079A Pending JP2018073424A (ja) 2016-10-31 2017-10-31 検出されたビデオイベントに基づく動的触覚生成

Country Status (5)

Country Link
US (2) US10102723B2 (ja)
EP (1) EP3316081A1 (ja)
JP (1) JP2018073424A (ja)
KR (1) KR20180048343A (ja)
CN (1) CN108021228A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020077094A (ja) * 2018-11-06 2020-05-21 日本放送協会 触覚情報提示システム
JP2021105778A (ja) * 2019-12-26 2021-07-26 Kddi株式会社 触感提示システム、触感提示システムのローカル端末およびサーバ装置ならびに触感提示方法および触感提示プログラム
JP2022541968A (ja) * 2020-06-30 2022-09-29 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド ビデオ処理方法、装置、電子機器及び記憶媒体
WO2023063161A1 (ja) 2021-10-12 2023-04-20 ソニーグループ株式会社 情報処理システム、制御方法及び制御プログラム

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10102723B2 (en) * 2016-10-31 2018-10-16 Immersion Corporation Dynamic haptic generation based on detected video events
US10101813B2 (en) * 2016-12-14 2018-10-16 Immersion Corporation Automatic haptic generation based on color features and motion analysis
US10116878B2 (en) 2016-12-21 2018-10-30 Samsung Electronics Co., Ltd. Method for producing media file and electronic device thereof
US10740620B2 (en) 2017-10-12 2020-08-11 Google Llc Generating a video segment of an action from a video
US10832537B2 (en) * 2018-04-04 2020-11-10 Cirrus Logic, Inc. Methods and apparatus for outputting a haptic signal to a haptic transducer
US10684689B2 (en) 2018-04-20 2020-06-16 Immersion Corporation Cross-platform dynamic haptic effect design tool for augmented or virtual reality environments
US20200012347A1 (en) * 2018-07-09 2020-01-09 Immersion Corporation Systems and Methods for Providing Automatic Haptic Generation for Video Content
CN109495695A (zh) * 2018-11-29 2019-03-19 北京字节跳动网络技术有限公司 运动物体视频特效添加方法、装置、终端设备及存储介质
US11946744B2 (en) 2019-07-26 2024-04-02 Hewlett-Packard Development Company, L.P. Synchronization of a gyroscope in a virtual-reality environment
CN112087661B (zh) * 2020-08-25 2022-07-22 腾讯科技(上海)有限公司 视频集锦生成方法、装置、设备及存储介质
CN112631426A (zh) * 2020-12-21 2021-04-09 瑞声新能源发展(常州)有限公司科教城分公司 一种动态触感效果的生成方法、装置、设备及存储介质
CN113537071B (zh) * 2021-07-19 2023-08-11 深圳龙岗智能视听研究院 一种基于事件相机的静态和动态目标检测方法及设备
CN113781470B (zh) * 2021-09-24 2024-06-11 商汤集团有限公司 视差信息获取方法、装置、设备及双目摄像系统
US11929169B2 (en) 2022-02-09 2024-03-12 Kyndryl, Inc. Personalized sensory feedback
US12079389B2 (en) * 2023-01-30 2024-09-03 Htc Corporation Vibrating device and operation method thereof

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7979146B2 (en) * 2006-04-13 2011-07-12 Immersion Corporation System and method for automatically producing haptic events from a digital audio signal
US8000825B2 (en) 2006-04-13 2011-08-16 Immersion Corporation System and method for automatically producing haptic events from a digital audio file
KR102054370B1 (ko) 2011-11-23 2019-12-12 삼성전자주식회사 햅틱 피드백 방법 및 장치, 기계로 읽을 수 있는 저장 매체 및 휴대용 통신 단말
US20130141643A1 (en) * 2011-12-06 2013-06-06 Doug Carson & Associates, Inc. Audio-Video Frame Synchronization in a Multimedia Stream
JP2013183426A (ja) * 2012-03-05 2013-09-12 Panasonic Corp 映像信号処理装置及び映像信号処理方法
KR20130106946A (ko) * 2012-03-21 2013-10-01 삼성전자주식회사 전자장치의 디스플레이 방법 및 장치
US8754757B1 (en) 2013-03-05 2014-06-17 Immersion Corporation Automatic fitting of haptic effects
US9064385B2 (en) * 2013-03-15 2015-06-23 Immersion Corporation Method and apparatus to generate haptic feedback from video content analysis
JP6664069B2 (ja) * 2013-12-31 2020-03-13 イマージョン コーポレーションImmersion Corporation 触覚コンテンツを伴う視点動画を記録及び再生するシステム並びに方法
US10437341B2 (en) * 2014-01-16 2019-10-08 Immersion Corporation Systems and methods for user generated content authoring
KR20150110356A (ko) * 2014-03-21 2015-10-02 임머숀 코퍼레이션 센서의 데이터를 햅틱 효과들로 변환하는 시스템들 및 방법들
US9946348B2 (en) 2014-03-21 2018-04-17 Immersion Corporation Automatic tuning of haptic effects
KR102170693B1 (ko) * 2014-07-18 2020-10-27 한화테크윈 주식회사 영상재생장치 및 영상재생장치에서 영상정보 제공 방법
US10102723B2 (en) * 2016-10-31 2018-10-16 Immersion Corporation Dynamic haptic generation based on detected video events

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020077094A (ja) * 2018-11-06 2020-05-21 日本放送協会 触覚情報提示システム
JP7245028B2 (ja) 2018-11-06 2023-03-23 日本放送協会 触覚情報提示システム
JP2021105778A (ja) * 2019-12-26 2021-07-26 Kddi株式会社 触感提示システム、触感提示システムのローカル端末およびサーバ装置ならびに触感提示方法および触感提示プログラム
JP7345387B2 (ja) 2019-12-26 2023-09-15 Kddi株式会社 触感提示システム、触感提示システムのローカル端末およびサーバ装置ならびに触感提示方法および触感提示プログラム
JP2022541968A (ja) * 2020-06-30 2022-09-29 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド ビデオ処理方法、装置、電子機器及び記憶媒体
WO2023063161A1 (ja) 2021-10-12 2023-04-20 ソニーグループ株式会社 情報処理システム、制御方法及び制御プログラム

Also Published As

Publication number Publication date
CN108021228A (zh) 2018-05-11
US10102723B2 (en) 2018-10-16
US20180122197A1 (en) 2018-05-03
US10748390B2 (en) 2020-08-18
US20190080569A1 (en) 2019-03-14
KR20180048343A (ko) 2018-05-10
EP3316081A1 (en) 2018-05-02

Similar Documents

Publication Publication Date Title
JP2018073424A (ja) 検出されたビデオイベントに基づく動的触覚生成
JP6568257B2 (ja) センサ入力を触覚的に表すためのシステム
US10416774B2 (en) Automatic remote sensing and haptic conversion system
JP6598915B2 (ja) コンテキスト依存ハプティック確認システム
JP6508893B2 (ja) 周波数シフトを用いたハプティック変換システム
US9946348B2 (en) Automatic tuning of haptic effects
CN109743498B (zh) 一种拍摄参数调整方法及终端设备
KR20150028734A (ko) 햅틱 효과를 생성하는 스펙트로그램의 시각 처리 시스템 및 방법
CN110187822B (zh) 一种终端及应用于终端的屏幕显示控制方法
CN108763317B (zh) 一种辅助选取图片的方法和终端设备
US20200192480A1 (en) Systems and methods for providing haptic effects based on a user's motion or environment
CN109901761A (zh) 一种内容显示方法及移动终端
CN111104024B (zh) 一种发送媒体文件的方法及电子设备
CN109922380B (zh) 一种视频播放方法及终端设备
CN106873779B (zh) 一种手势识别装置及手势识别方法