JP2016033831A - 重畳された注釈出力 - Google Patents
重畳された注釈出力 Download PDFInfo
- Publication number
- JP2016033831A JP2016033831A JP2015236361A JP2015236361A JP2016033831A JP 2016033831 A JP2016033831 A JP 2016033831A JP 2015236361 A JP2015236361 A JP 2015236361A JP 2015236361 A JP2015236361 A JP 2015236361A JP 2016033831 A JP2016033831 A JP 2016033831A
- Authority
- JP
- Japan
- Prior art keywords
- output
- displaying
- display
- annotation
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 76
- 230000001360 synchronised effect Effects 0.000 claims description 23
- 230000004044 response Effects 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 14
- 238000004891 communication Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 5
- 238000013507 mapping Methods 0.000 description 3
- 241000699666 Mus <mouse, genus> Species 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 2
- 239000000872 buffer Substances 0.000 description 2
- 230000003139 buffering effect Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000004377 microelectronic Methods 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Telephone Function (AREA)
Abstract
Description
現代のコンピューティングデバイスは、複数のプログラムを同時に実行する能力を提供する。したがって、例示のシナリオでは、ユーザは、ビデオを再生する第1プログラムを実行し、メモなどのユーザ入力を記録する第2プログラムを同時に実行することができる。たとえば、デスクトップコンピュータまたはラップトップコンピュータなどの豊富なディスプレイインターフェースを有するコンピューティングデバイスは、第1アプリケーションでのビデオの表示および第2アプリケーションでのユーザ入力の記録に同時に対処することができる。しかし、相対的に限られたまたは小さいディスプレイインターフェースを有する携帯電話機および携帯情報端末などのコンピューティングデバイスについて、2つのアプリケーションの同時ビューイングは、むずかしい。
図1に、本明細書で説明する主題の諸態様を実施できる例示的コンピューティング配置を示す。具体的には、図1は、本明細書で説明されるように重畳された出力を提供するようにそれぞれを適合させることができるコンピューティングデバイス110からなる例示のコンピューティング配置100を示す。デバイス110は、たとえば、デスクトップコンピュータ110a、ラップトップコンピュータ110b、電話機110c、タブレットコンピューティングデバイス110d、携帯情報端末(PDA)110e、および携帯電話機110fのいずれかを含み、これらのそれぞれを、たとえば2つの実行中のアプリケーションからの2つの出力フィードを同時に表示するように適合させることができる。例のシナリオでは、デバイス110a〜fの任意の1つが、第1アプリケーションの出力を表示し、たとえばビデオ出力を表示し、同時に、第2アプリケーションへの入力を表示し、たとえばデバイスオペレータによって入力されたメモまたは注釈を表示することができる。より具体的には、デバイス110a〜fの任意の1つを、ビデオを表示すると同時に、タッチスクリーンディスプレイ上で手書き注釈を受け取り、ディスプレイ上に注釈に対応するマーキングを表示するようにプログラムすることができる。代替のシナリオでは、デバイス110a〜fの任意の1つは、静止イメージを表示すると同時に、イメージが表示されている間にデバイスオペレータによって入力された入力を表示することができる。
図7は、第1出力310に重畳された第2出力410を提示する例示のプロセスの流れ図である。例示のプロセスを、たとえばデバイス110a〜fのいずれかを含む任意の適切なデバイス上で実施することができる。例示のプロセスは、ブロック710、712、および/または714のうちの1つまたは複数によって示されるように、1つまたは複数の動作、アクション、または機能を含むことができる。さらに、本明細書で説明する上記および他のプロセスおよび/または方法について、別個のブロックとして図示されるが、所望の実施態様に応じて、さまざまなブロックを、追加のブロックに分割し、より少数のブロックに組み合わせ、または除去することができる。処理を、ブロック710で開始することができる。
図10に、本明細書で説明されるシステムおよび方法を実施するのに使用できる例示のコンピューティングシステム1000のブロック図を示す。たとえば、コンピューティングシステム1000を使用して、デバイス110a〜fのいずれをも実施することができる。コンピューティングシステム1000を、主に、ソフトウェアの形とすることができるコンピュータ可読命令によって制御することができる。たとえば、コンピューティングシステム1000を、本明細書で説明するものと一致する機能性を実行する命令を含むコンピューティングアプリケーション1080によって制御することができる。コンピュータ可読命令は、コンピューティングシステム1000がコンピュータ可読命令自体を格納し、これにアクセスするための命令を含むことができる。そのようなソフトウェアを、中央処理装置(CPU)1010内で実行して、コンピューティングシステム1000にプロセスまたはこれに関連する機能を実行させることができる。多くの既知のコンピュータサーバ、ワークステーション、パーソナルコンピュータ、または類似物では、CPU 1010を、マイクロプロセッサと呼ばれるマイクロ電子チップCPUによって実施することができる。
Claims (143)
- ディスプレイ上で第1出力を表示することと、
前記ディスプレイ上で前記第1出力に重畳して第2出力を表示することであって、前記第2出力は、ユーザ入力に対応する、表示することと
を含み、前記第1出力および前記第2出力がオーバーラップする前記ディスプレイの領域内で、前記第2出力は、不透明であり、前記第1出力は、前記不透明の第2出力を通して可視であり、
前記第1出力および前記第2出力がオーバーラップしない前記ディスプレイの領域内で、前記第1出力は、可視である
ユーザインターフェース処理の方法。 - ディスプレイ上で第1出力を表示することは、ビデオを表示することを含む、請求項1に記載の方法。
- ディスプレイ上で第1出力を表示することは、ビデオ、イメージ、静止イメージ、テキスト、およびグラフィックスのうちの1つまたは複数を表示することを含む、請求項1に記載の方法。
- 前記ディスプレイ上で前記第1出力に重畳して第2出力を表示することは、ビデオ、イメージ、静止イメージ、テキスト、およびグラフィックスのうちの1つまたは複数を表示することを含む、請求項1、2、または3に記載の方法。
- 前記ディスプレイ上で前記第1出力に重畳して第2出力を表示することは、ユーザ入力に対応する注釈を表示することを含む、請求項1、2、3、または4に記載の方法。
- ユーザ入力に対応する注釈を表示することは、前記ディスプレイ上で受け取られるユーザ入力に対応する注釈を表示することを含む、請求項5に記載の方法。
- ユーザ入力に対応する注釈を表示することは、接触感知スクリーン上で受け取られる手書き入力に対応する注釈を表示することを含む、請求項5に記載の方法。
- ユーザ入力に対応する注釈を表示することは、キーボード上で受け取られるユーザ入力に対応する注釈を表示することを含む、請求項5、6、または7に記載の方法。
- キーボード上で受け取られるユーザ入力に対応する注釈を表示することは、物理キーボードおよびコンピュータ生成されたキーボードのうちの少なくとも1つで受け取られるユーザ入力に対応する注釈を表示することを含む、請求項8に記載の方法。
- ユーザ入力に対応する注釈を表示することは、コンピュータによる音声認識を介して受け取られるユーザ入力に対応する注釈を表示することを含む、請求項5、6、7、または8に記載の方法。
- 前記第1出力の表示と同時にユーザ入力を受け取ることをさらに含み、前記ディスプレイ上で第2出力を表示することは、前記受け取られたユーザ入力に対応する出力を表示することを含む、請求項6、7、8、9、または10に記載の方法。
- 前記第1出力および前記第2出力がオーバーラップする前記ディスプレイの前記領域内で、前記第2出力は、不透明であり、前記第1出力は、隠される、請求項1、2、3、4、5、6、7、8、9、10、または11に記載の方法。
- 前記第1出力および前記第2出力がオーバーラップする前記ディスプレイの前記領域内で、前記第2出力は、部分的に不透明であり、前記第1出力は、部分的に隠される、請求項1、2、3、4、5、6、7、8、9、10、または11に記載の方法。
- 前記ディスプレイ上で第2出力を表示することは、前記ディスプレイ上で不透明マーキングを表示することを含み、前記第1出力および前記第2出力がオーバーラップする前記ディスプレイの領域内で、前記不透明マーキングは、可視であり、前記第1出力は、隠される、請求項1、2、3、4、5、6、7、8、9、10、または11に記載の方法。
- 前記第1出力および前記第2出力がオーバーラップする前記ディスプレイの前記領域内で、前記第1出力は、完全に隠される、請求項14に記載の方法。
- 前記ディスプレイ上で不透明マーキングを表示することは、部分的に不透明のマーキングを表示することを含み、前記第1出力および前記第2出力がオーバーラップする前記ディスプレイの領域内で、前記第1出力は、部分的に隠される、請求項14に記載の方法。
- 前記第1出力の表示と同時にユーザ入力を受け取ることをさらに含む、請求項1に記載の方法。
- 前記ディスプレイ上で第2出力を表示することは、前記ディスプレイ上で、前記受け取られたユーザ入力に対応する注釈を表示することを含む、請求項17に記載の方法。
- 前記ディスプレイ上で第2出力を表示することは、前記ディスプレイ上で、前記受け取られたユーザ入力に対応するメモを表示することを含む、請求項17または18に記載の方法。
- 前記ディスプレイ上で第1出力を表示することは、ビデオを表示することを含む、請求項18に記載の方法。
- ビデオを表示することは、オーディオ/ビデオ会議のビデオストリームを表示することを含む、請求項20に記載の方法。
- 前記第1出力の表示と同時にユーザ入力を受け取ることは、前記ディスプレイ上でユーザ入力を受け取ることを含む、請求項18、20、または21に記載の方法。
- 前記第1出力の表示と同時にユーザ入力を受け取ることは、キーボード上でユーザ入力を受け取ることを含む、請求項18、20、21、または22に記載の方法。
- 前記ディスプレイ上で前記受け取られたユーザ入力に対応する注釈を表示することは、前記ディスプレイ上で、ユーザ入力が受け取られる前記ディスプレイ上の位置にマーキングを表示することを含む、請求項18、20、または21に記載の方法。
- 前記第1出力の表示と同時にユーザ入力を受け取ることは、前記ディスプレイ上で手書き入力を受け取ることを含む、請求項20または21に記載の方法。
- 前記注釈を格納することをさらに含む、請求項18、20、21、22、23、24、または25に記載の方法。
- 前記格納された注釈を表示することをさらに含む、請求項26に記載の方法。
- 前記注釈を格納することと、
前記ビデオを格納することと、
前記注釈を前記ビデオに同期化する情報を格納することと、
前記ビデオ、前記注釈、および前記注釈を前記ビデオに同期化する前記情報を取り出すことと、
前記取り出されたビデオおよび前記取り出された注釈を表示することであって、前記注釈は、前記ビデオに重畳され、前記ビデオと同期化される、表示することと
をさらに含む、請求項20、21、または25に記載の方法。 - ビデオの表示と同時にオーディオを生成することと、
前記ビデオ、前記オーディオ、および前記注釈を格納することと、
前記注釈を前記オーディオおよび前記ビデオに同期化する情報を格納することと、
前記ビデオ、前記オーディオ、前記注釈、および前記注釈を前記オーディオおよびビデオに同期化する前記情報を取り出すことと、
前記取り出されたオーディオを再生することと、
前記ディスプレイ上で前記取り出されたビデオを表示することと、
前記ディスプレイ上で前記取り出された注釈を表示することであって、前記取り出された注釈は、前記取り出されたビデオに重畳され、前記取り出されたビデオおよび前記取り出されたオーディオに同期化される、表示することと
をさらに含む、請求項20、21、または25に記載の方法。 - ディスプレイ上に第1出力を表示することは、前記ディスプレイ上にビデオを表示することを含み、前記ビデオの表示と同時に前記ディスプレイ上でユーザ入力を受け取ることをさらに含む、請求項1に記載の方法。
- 前記ディスプレイ上に前記第1出力に重畳して第2出力を表示することは、前記ディスプレイ上に前記受け取られたユーザ入力に対応する注釈を表示することを含み、前記注釈は、前記ビデオに重畳され、前記ビデオおよび前記注釈を記録することをさらに含み、前記記録された注釈は、前記記録されたビデオに同期化される、請求項30に記載の方法。
- 前記ディスプレイ上に前記記録された注釈を表示することをさらに含む、請求項31に記載の方法。
- 前記記録されたビデオおよび前記記録された注釈を表示することをさらに含み、前記記録された注釈は、前記記録されたビデオに重畳され、前記記録されたビデオと同期化される、請求項31に記載の方法。
- オーディオを生成することであって、前記オーディオは、前記ビデオと同期化される、生成することと
前記オーディオを記録することと
をさらに含む、請求項31に記載の方法。 - 前記ディスプレイ上に前記記録された注釈を表示することと、前記記録されたオーディオを再生することとをさらに含み、前記記録されたオーディオの前記再生は、前記表示された記録された注釈と同期化される、請求項34に記載の方法。
- 前記記録されたビデオを表示することと、
前記表示された記録されたビデオと同期化して前記記録されたオーディオを再生することと、
前記表示された記録されたビデオに重畳して前記表示された記録されたビデオと同期化して前記記録された注釈を表示することと
をさらに含む、請求項34に記載の方法。 - 前記ビデオは、オーディオ/ビデオ会議のビデオストリームである、請求項30、31、32、33、34、35、または36に記載の方法。
- 前記注釈が、規定された時間期間にわたって表示された後に、前記注釈の少なくとも一部を前記ディスプレイから除去することをさらに含む、請求項18、20、21、22、23、24、25、26、27、28、29、31、32、33、34、35、36、または37に記載の方法。
- ユーザ入力の受取に応答して前記注釈の少なくとも一部を除去することをさらに含む、請求項18、20、21、22、23、24、25、26、27、28、29、31、32、33、34、35、36、または37に記載の方法。
- ユーザ入力に応答して前記ディスプレイ上で前記注釈の少なくとも一部を移動することをさらに含む、請求項18、20、21、22、23、24、25、26、27、28、29、30、31、32、33、34、35、36、または37に記載の方法。
- 前記ディスプレイ上で前記注釈の少なくとも一部を維持することをさらに含む、請求項38または39に記載の方法。
- 前記ディスプレイ上で維持される前記注釈の前記少なくとも一部は、ユーザ入力によって識別される、請求項41に記載の方法。
- 前記注釈は、前記第1出力に重畳される時に、識別できる色を使用して表示される、請求項18、20、21、22、23、24、25、26、27、28、29、31、32、33、34、35、36、または37に記載の方法。
- 前記色は、前記第1出力の色に依存して選択される、請求項43に記載の方法。
- ディスプレイ上に第1出力を表示することは、モバイルデバイス上で出力を表示することを含む、請求項1ないし44のいずれか1項に記載の方法。
- ディスプレイ上に第1出力を表示することは、電話機、携帯電話機、携帯情報端末、ラップトップコンピュータ、タブレットコンピュータ、およびデスクトップコンピュータのうちの1つまたは複数上で出力を表示することを含む、請求項1ないし44のいずれか1項に記載の方法。
- 装置であって、
ディスプレイと、
入力デバイスと、
コンピューティングプロセッサであって、前記コンピューティングプロセッサは、前記ディスプレイおよび前記入力デバイスに通信的に結合される、コンピューティングプロセッサと、
前記プロセッサに通信的に結合されたメモリであって、前記メモリは、前記装置によって実行された時に、前記装置に
ディスプレイ上に第1出力を表示することと、
前記ディスプレイ上に前記第1出力に重畳して第2出力を表示することであって、前記第2出力は、ユーザ入力を不透明に表示するように構成される、表示することと
を含む動作を実行させる命令を含む、メモリと
を含み、前記第2出力は、前記重畳された第2出力を通して可視である
装置。 - ディスプレイ上で第1出力を表示することは、ビデオを表示することを含む、請求項47に記載の装置。
- ディスプレイ上で第1出力を表示することは、ビデオ、イメージ、静止イメージ、テキスト、およびグラフィックスのうちの1つまたは複数を表示することを含む、請求項47に記載の装置。
- 前記ディスプレイ上で前記第1出力に重畳して第2出力を表示することは、ビデオ、イメージ、静止イメージ、テキスト、およびグラフィックスのうちの1つまたは複数を表示することを含む、請求項47、48、または49に記載の装置。
- 前記ディスプレイ上で前記第1出力に重畳して第2出力を表示することは、ユーザ入力に対応する注釈を表示することを含む、請求項47、48、49、または50に記載の装置。
- ユーザ入力に対応する注釈を表示することは、前記ディスプレイ上で受け取られるユーザ入力に対応する注釈を表示することを含む、請求項51に記載の装置。
- ユーザ入力に対応する注釈を表示することは、接触感知スクリーン上で受け取られる手書き入力に対応する注釈を表示することを含む、請求項51に記載の装置。
- ユーザ入力に対応する注釈を表示することは、キーボード上で受け取られるユーザ入力に対応する注釈を表示することを含む、請求項51、52、または53に記載の装置。
- キーボード上で受け取られるユーザ入力に対応する注釈を表示することは、物理キーボードおよびコンピュータ生成されたキーボードのうちの少なくとも1つで受け取られるユーザ入力に対応する注釈を表示することを含む、請求項54に記載の装置。
- ユーザ入力に対応する注釈を表示することは、コンピュータによる音声認識を介して受け取られるユーザ入力に対応する注釈を表示することを含む、請求項51、52、53、または54に記載の装置。
- 前記メモリは、前記第1出力の表示と同時にユーザ入力を受け取ることを含むさらなる動作を前記装置に実行させる命令をさらに含み、前記ディスプレイ上で第2出力を表示することは、前記受け取られたユーザ入力に対応する出力を表示することを含む、請求項52、53、54、55、または56に記載の装置。
- 前記第1出力および前記第2出力がオーバーラップする前記ディスプレイの領域内で、前記第2出力は、不透明であり、前記第1出力は、隠される、請求項47、48、49、50、51、52、53、54、55、56、または57に記載の装置。
- 前記第1出力および前記第2出力がオーバーラップする前記ディスプレイの領域内で、前記第2出力は、部分的に不透明であり、前記第1出力は、部分的に隠される、請求項47、48、49、50、51、52、53、54、55、56、または57に記載の装置。
- 前記ディスプレイ上で第2出力を表示することは、前記ディスプレイ上で不透明マーキングを表示することを含み、前記第1出力および前記第2出力がオーバーラップする前記ディスプレイの領域内で、前記不透明マーキングは、可視であり、前記第1出力は、隠される、請求項47、48、49、50、51、52、53、54、55、56、または57に記載の装置。
- 前記第2出力は、前記ディスプレイ上で受け取られる入力に対応する、請求項47に記載の装置。
- 前記ディスプレイ上で不透明マーキングを表示することは、部分的に不透明のマーキングを表示することを含み、前記第1出力および前記第2出力がオーバーラップする前記ディスプレイの領域内で、前記第1出力は、部分的に隠される、請求項60に記載の装置。
- 前記メモリは、前記第1出力の表示と同時にユーザ入力を受け取ることを含むさらなる動作を前記装置に実行させる命令をさらに含む、請求項47に記載の装置。
- 前記ディスプレイ上で第2出力を表示することは、前記ディスプレイ上で、前記受け取られたユーザ入力に対応する注釈を表示することを含む、請求項63に記載の装置。
- 前記ディスプレイ上で第2出力を表示することは、前記ディスプレイ上で、前記受け取られたユーザ入力に対応するメモを表示することを含む、請求項63または64に記載の装置。
- 前記ディスプレイ上で第1出力を表示することは、ビデオを表示することを含む、請求項64に記載の装置。
- ビデオを表示することは、オーディオ/ビデオ会議のビデオストリームを表示することを含む、請求項66に記載の装置。
- 前記第1出力の表示と同時にユーザ入力を受け取ることは、前記ディスプレイ上でユーザ入力を受け取ることを含む、請求項64、66、または67に記載の装置。
- 前記第1出力の表示と同時にユーザ入力を受け取ることは、キーボード上でユーザ入力を受け取ることを含む、請求項64、66、67、または68に記載の装置。
- 前記ディスプレイ上で、前記受け取られたユーザ入力に対応する注釈を表示することは、前記ディスプレイ上で、ユーザ入力が受け取られる前記ディスプレイ上の位置にマーキングを表示することを含む、請求項64、66、または67に記載の装置。
- 前記第1出力の表示と同時にユーザ入力を受け取ることは、前記ディスプレイ上で手書き入力を受け取ることを含む、請求項66または67に記載の装置。
- 前記メモリは、前記注釈を格納することを含むさらなる動作を前記装置に実行させる命令をさらに含む、請求項64、66、67、68、69、70、または71に記載の装置。
- 前記メモリは、前記格納された注釈を表示することを含むさらなる動作を前記装置に実行させる命令をさらに含む、請求項72に記載の装置。
- 前記メモリは、
前記注釈を格納することと、
前記ビデオを格納することと、
前記注釈を前記ビデオに同期化する情報を格納することと、
前記ビデオ、前記注釈、および前記注釈を前記ビデオに同期化する前記情報を取り出すことと、
前記取り出されたビデオおよび前記取り出された注釈を表示することであって、前記取り出された注釈は、前記取り出されたビデオに重畳され、前記取り出されたビデオと同期化される、表示することと
を含むさらなる動作を前記装置に実行させる命令をさらに含む、請求項66、67、または71に記載の装置。 - 前記メモリは、
ビデオの表示と同時にオーディオを生成することと、
前記ビデオ、前記オーディオ、および前記注釈を格納することと、
前記注釈を前記オーディオおよびビデオに同期化する情報を格納することと、
前記ビデオ、前記オーディオ、前記注釈、および前記注釈を前記オーディオおよび前記ビデオに同期化する前記情報を取り出すことと、
前記取り出されたオーディオを再生することと、
前記ディスプレイ上で前記取り出されたビデオを表示することと、
前記ディスプレイ上で前記取り出された注釈を表示することであって、前記取り出された注釈は、前記取り出されたビデオに重畳され、前記取り出されたビデオおよび前記取り出されたオーディオに同期化される、表示することと
を含むさらなる動作を前記装置に実行させる命令をさらに含む、請求項66、67、または71に記載の装置。 - ディスプレイ上に第1出力を表示することは、前記ディスプレイ上にビデオを表示することを含み、前記メモリは、前記ビデオの表示と同時に前記ディスプレイ上でユーザ入力を受け取ることを含むさらなる動作を前記装置に実行させる命令をさらに含む、請求項47に記載の装置。
- 前記ディスプレイ上に前記第1出力に重畳して第2出力を表示することは、前記ディスプレイ上に前記受け取られたユーザ入力に対応する注釈を表示することを含み、前記注釈は、前記ビデオに重畳され、
前記メモリは、前記ビデオおよび前記注釈を記録することを含むさらなる動作を前記装置に実行させる命令をさらに含み、前記記録された注釈は、前記記録されたビデオに同期化される
請求項76に記載の装置。 - 前記メモリは、前記ディスプレイ上に前記記録された注釈を表示することを含むさらなる動作を前記装置に実行させる命令をさらに含む、請求項77に記載の装置。
- 前記メモリは、前記記録されたビデオおよび前記記録された注釈を表示することを含むさらなる動作を前記装置に実行させる命令をさらに含み、前記記録された注釈は、前記記録されたビデオに重畳され、前記記録されたビデオと同期化される、請求項77に記載の装置。
- 前記メモリは、
オーディオを生成することであって、前記オーディオは、前記ビデオと同期化される、生成することと
前記オーディオを記録することと
を含むさらなる動作を前記装置に実行させる命令をさらに含む、請求項77に記載の装置。 - 前記メモリは、前記ディスプレイ上に前記記録された注釈を表示することと、前記記録されたオーディオを再生することとを含むさらなる動作を前記装置に実行させる命令をさらに含み、前記記録されたオーディオの前記再生は、前記表示された記録された注釈と同期化される、請求項80に記載の装置。
- 前記メモリは、
前記記録されたビデオを表示することと、
前記表示された記録されたビデオと同期化して前記記録されたオーディオを再生することと、
前記表示された記録されたビデオに重畳し、前記表示された記録されたビデオと同期化して前記記録された注釈を表示することと
を含むさらなる動作を前記装置に実行させる命令をさらに含む、請求項80に記載の装置。 - 前記ビデオは、オーディオ/ビデオ会議のビデオストリームである、請求項76、77、78、79、80、81、または82に記載の装置。
- 前記メモリは、前記注釈が規定された時間期間にわたって表示された後に、前記注釈の少なくとも一部を前記ディスプレイから除去することを含むさらなる動作を前記装置に実行させる命令をさらに含む、請求項64、66、67、68、69、70、71、72、73、74、75、76、77、78、79、80、81、82、または83に記載の装置。
- 前記メモリは、ユーザ入力の受取に応答して注釈を除去することを含むさらなる動作を前記装置に実行させる命令をさらに含む、請求項64、66、67、68、69、70、71、72、73、74、75、77、78、79、80、81、82、または83に記載の装置。
- 前記メモリは、ユーザ入力に応答して前記ディスプレイ上で前記注釈の少なくとも一部を移動することを含むさらなる動作を前記装置に実行させる命令をさらに含む、請求項64、66、67、71、72、73、74、75、77、78、79、80、81、82、または83に記載の装置。
- 前記メモリは、前記ディスプレイ上で前記注釈の少なくとも一部を維持することを含むさらなる動作を前記装置に実行させる命令をさらに含む、請求項84または85に記載の装置。
- 前記ディスプレイ上で維持される前記注釈の前記少なくとも一部は、ユーザ入力によって識別される、請求項87に記載の装置。
- 前記注釈は、前記第1出力に重畳される時に、識別できる色を使用して表示される、請求項64、66、67、71、72、73、74、75、77、78、79、80、81、82、または83に記載の装置。
- 前記色は、前記第1出力の色に依存して選択される、請求項89に記載の装置。
- ディスプレイ上に第1出力を表示することは、モバイルデバイス上で出力を表示することを含む、請求項47ないし90のいずれか1項に記載の装置。
- ディスプレイ上に第1出力を表示することは、電話機、携帯電話機、携帯情報端末、ラップトップコンピュータ、タブレットコンピュータ、およびデスクトップコンピュータのうちの1つまたは複数上で出力を表示することを含む、請求項47ないし90のいずれか1項に記載の装置。
- 前記装置は、モバイルデバイスである、請求項47ないし90のいずれか1項に記載の装置。
- 前記装置は、電話機である、請求項93に記載の装置。
- 前記装置は、携帯情報端末である、請求項93に記載の装置。
- 前記装置は、ラップトップコンピュータである、請求項93に記載の装置。
- 前記装置は、タブレットコンピュータである、請求項93に記載の装置。
- コンピューティングデバイスによって実行された時に、前記コンピューティングデバイスに、
ディスプレイ上で第1出力を表示することと、
前記ディスプレイ上で前記第1出力に重畳して第2出力を表示することであって、前記第2出力は、ユーザ入力に対応する、表示することと
を含む動作を実行させる命令をその上に格納された有形のコンピュータ可読媒体であって、前記第1出力および前記第2出力がオーバーラップする前記ディスプレイの領域内で、前記第2出力は、可視であり、前記第1出力は、前記表示された第2出力を通して部分的に隠されるが可視であり、
前記第1出力および前記第2出力がオーバーラップしない前記ディスプレイの領域内で、前記第1出力は、可視である
有形のコンピュータ可読媒体。 - ディスプレイ上で第1出力を表示することは、ビデオを表示することを含む、請求項98に記載の有形のコンピュータ可読媒体。
- ディスプレイ上で第1出力を表示することは、ビデオ、イメージ、静止イメージ、テキスト、およびグラフィックスのうちの1つまたは複数を表示することを含む、請求項98に記載の有形のコンピュータ可読媒体。
- 前記ディスプレイ上で前記第1出力に重畳して第2出力を表示することは、ビデオ、イメージ、静止イメージ、テキスト、およびグラフィックスのうちの1つまたは複数を表示することを含む、請求項98、99、または100に記載の有形のコンピュータ可読媒体。
- 前記ディスプレイ上で前記第1出力に重畳して第2出力を表示することは、ユーザ入力に対応する注釈を表示することを含む、請求項98、99、100、または101に記載の有形のコンピュータ可読媒体。
- ユーザ入力に対応する注釈を表示することは、前記ディスプレイ上で受け取られるユーザ入力に対応する注釈を表示することを含む、請求項102に記載の有形のコンピュータ可読媒体。
- ユーザ入力に対応する注釈を表示することは、接触感知スクリーン上で受け取られる手書き入力に対応する注釈を表示することを含む、請求項102に記載の有形のコンピュータ可読媒体。
- ユーザ入力に対応する注釈を表示することは、キーボード上で受け取られるユーザ入力に対応する注釈を表示することを含む、請求項102、103、または104に記載の有形のコンピュータ可読媒体。
- キーボード上で受け取られるユーザ入力に対応する注釈を表示することは、物理キーボードおよびコンピュータ生成されたキーボードのうちの少なくとも1つで受け取られるユーザ入力に対応する注釈を表示することを含む、請求項105に記載の有形のコンピュータ可読媒体。
- ユーザ入力に対応する注釈を表示することは、コンピュータによる音声認識を介して受け取られるユーザ入力に対応する注釈を表示することを含む、請求項102、103、104、または105に記載の有形のコンピュータ可読媒体。
- 前記第1出力の表示と同時にユーザ入力を受け取ることを含むさらなる動作を前記コンピューティングデバイスに実行させる命令をさらに含み、前記ディスプレイ上で第2出力を表示することは、前記受け取られたユーザ入力に対応する出力を表示することを含む、請求項103、104、105、106、または107に記載の有形のコンピュータ可読媒体。
- 前記第1出力および前記第2出力がオーバーラップする前記ディスプレイの前記領域内で、前記第2出力は、不透明である、請求項98、99、100、101、102、103、104、105、106、107、または108に記載の有形のコンピュータ可読媒体。
- 前記第1出力および前記第2出力がオーバーラップする前記ディスプレイの前記領域内で、前記第2出力は、部分的に不透明である、請求項98、99、100、101、102、103、104、105、106、107、または108に記載の有形のコンピュータ可読媒体。
- 前記ディスプレイ上で第2出力を表示することは、前記ディスプレイ上で不透明マーキングを表示することを含み、前記第1出力および前記第2出力がオーバーラップする前記ディスプレイの領域内で、前記不透明マーキングは、可視であり、前記第1出力は、部分的に隠される、請求項98、99、100、101、102、103、104、105、106、107、または108に記載の有形のコンピュータ可読媒体。
- 前記第1出力および前記第2出力がオーバーラップする前記ディスプレイの前記領域内で、前記第1出力は、前記第1出力の残りに対して相対的に暗くされる、請求項111に記載の有形のコンピュータ可読媒体。
- 前記ディスプレイ上で不透明マーキングを表示することは、部分的に不透明のマーキングを表示することを含み、前記第1出力および前記第2出力がオーバーラップする前記ディスプレイの領域内で、前記第1出力は、部分的に隠される、請求項111に記載の有形のコンピュータ可読媒体。
- 前記第1出力の表示と同時にユーザ入力を受け取ることを含むさらなる動作を前記コンピューティングデバイスに実行させる命令をさらに含む、請求項98に記載の有形のコンピュータ可読媒体。
- 前記ディスプレイ上で第2出力を表示することは、前記ディスプレイ上で、前記受け取られたユーザ入力に対応する注釈を表示することを含む、請求項114に記載の有形のコンピュータ可読媒体。
- 前記ディスプレイ上で第2出力を表示することは、前記ディスプレイ上で、前記受け取られたユーザ入力に対応するメモを表示することを含む、請求項114または115に記載の有形のコンピュータ可読媒体。
- 前記ディスプレイ上で第1出力を表示することは、ビデオを表示することを含む、請求項115に記載の有形のコンピュータ可読媒体。
- ビデオを表示することは、オーディオ/ビデオ会議のビデオストリームを表示することを含む、請求項117に記載の有形のコンピュータ可読媒体。
- 前記第1出力の表示と同時にユーザ入力を受け取ることは、前記ディスプレイ上でユーザ入力を受け取ることを含む、請求項115、117、または118に記載の有形のコンピュータ可読媒体。
- 前記第1出力の表示と同時にユーザ入力を受け取ることは、キーボード上でユーザ入力を受け取ることを含む、請求項115、117、118、または119に記載の有形のコンピュータ可読媒体。
- 前記ディスプレイ上で、前記受け取られたユーザ入力に対応する注釈を表示することは、前記ディスプレイ上で、ユーザ入力が受け取られる前記ディスプレイ上の位置にマーキングを表示することを含む、請求項115、117、または118に記載の有形のコンピュータ可読媒体。
- 前記第1出力の表示と同時にユーザ入力を受け取ることは、前記ディスプレイ上で手書き入力を受け取ることを含む、請求項117または118に記載の有形のコンピュータ可読媒体。
- 前記注釈を格納することを含むさらなる動作を前記コンピューティングデバイスに実行させる命令をさらに含む、請求項115、117、118、119、120、121、または122に記載の有形のコンピュータ可読媒体。
- 前記格納された注釈を表示することを含むさらなる動作を前記コンピューティングデバイスに実行させる命令をさらに含む、請求項123に記載の有形のコンピュータ可読媒体。
- 前記注釈を格納することと、
前記ビデオを格納することと、
前記注釈を前記ビデオに同期化する情報を格納することと、
前記ビデオ、前記注釈、および前記注釈を前記ビデオに同期化する前記情報を取り出すことと、
前記取り出されたビデオおよび前記取り出された注釈を表示することであって、前記取り出された注釈は、前記取り出されたビデオに重畳され、前記取り出されたビデオと同期化される、表示することと
を含むさらなる動作を前記コンピューティングデバイスに実行させる命令をさらに含む、請求項117、118、または122に記載の有形のコンピュータ可読媒体。 - ビデオの表示と同時にオーディオを生成することと、
前記ビデオ、前記オーディオ、および前記注釈を格納することと、
前記注釈を前記オーディオおよび前記ビデオに同期化する情報を格納することと、
前記ビデオ、前記オーディオ、前記注釈、および前記注釈を前記オーディオおよび前記ビデオに同期化する前記情報を取り出すことと、
前記取り出されたオーディオを再生することと、
前記ディスプレイ上で前記取り出されたビデオを表示することと、
前記ディスプレイ上で前記取り出された注釈を表示することであって、前記取り出された注釈は、前記取り出されたビデオに重畳され、前記取り出されたビデオおよび前記取り出されたオーディオに同期化される、表示することと
を含むさらなる動作を前記コンピューティングデバイスに実行させる命令をさらに含む、請求項117、118、または122に記載の有形のコンピュータ可読媒体。 - ディスプレイ上に第1出力を表示することは、前記ディスプレイ上にビデオを表示することを含み
前記有形のコンピュータ可読媒体は、前記ビデオの表示と同時に前記ディスプレイ上でユーザ入力を受け取ることを含むさらなる動作を前記コンピューティングデバイスに実行させる命令をさらに含む
請求項98に記載の有形のコンピュータ可読媒体。 - 前記ディスプレイ上に前記第1出力に重畳して第2出力を表示することは、前記ディスプレイ上に、前記受け取られたユーザ入力に対応する注釈を表示することを含み、前記注釈は、前記ビデオに重畳され
前記有形のコンピュータ可読媒体は、前記ビデオおよび前記注釈を記録することを含むさらなる動作を前記コンピューティングデバイスに実行させる命令をさらに含み、前記記録された注釈は、前記記録されたビデオに同期化される
請求項127に記載の有形のコンピュータ可読媒体。 - 前記ディスプレイ上に前記記録された注釈を表示することを含むさらなる動作を前記コンピューティングデバイスに実行させる命令をさらに含む、請求項128に記載の有形のコンピュータ可読媒体。
- 前記記録されたビデオおよび前記記録された注釈を表示することを含むさらなる動作を前記コンピューティングデバイスに実行させる命令をさらに含み、前記記録された注釈は、前記記録されたビデオに重畳され、前記記録されたビデオと同期化される、請求項128に記載の有形のコンピュータ可読媒体。
- オーディオを生成することであって、前記オーディオは、前記ビデオと同期化される、生成することと
前記オーディオを記録することと
を含むさらなる動作を前記コンピューティングデバイスに実行させる命令をさらに含む、請求項128に記載の有形のコンピュータ可読媒体。 - 前記ディスプレイ上に前記記録された注釈を表示することと、前記記録されたオーディオを再生することとを含むさらなる動作を前記コンピューティングデバイスに実行させる命令をさらに含み、前記記録されたオーディオの前記再生は、前記表示された記録された注釈と同期化される、請求項131に記載の有形のコンピュータ可読媒体。
- 前記記録されたビデオを表示することと、
前記表示された記録されたビデオと同期化して前記記録されたオーディオを再生することと、
前記表示された記録されたビデオに重畳し、前記表示された記録されたビデオと同期化して前記記録された注釈を表示することと
を含むさらなる動作を前記コンピューティングデバイスに実行させる命令をさらに含む、請求項131に記載の有形のコンピュータ可読媒体。 - 前記ビデオは、オーディオ/ビデオ会議のビデオストリームである、請求項127、128、129、130、131、132、または133に記載の有形のコンピュータ可読媒体。
- 前記注釈が規定された時間期間にわたって表示された後に、前記注釈の少なくとも一部を前記ディスプレイから除去することを含むさらなる動作を前記コンピューティングデバイスに実行させる命令をさらに含む、請求項115、117、118、119、120、121、122、123、124、125、126、128、129、130、131、132、133、または134に記載の有形のコンピュータ可読媒体。
- ユーザ入力の受取に応答して注釈を除去することを含むさらなる動作を前記コンピューティングデバイスに実行させる命令をさらに含む、請求項115、117、118、119、120、121、122、123、124、125、126、128、129、130、131、132、133、または134に記載の有形のコンピュータ可読媒体。
- ユーザ入力に応答して前記ディスプレイ上で前記注釈の少なくとも一部を移動することを含むさらなる動作を前記コンピューティングデバイスに実行させる命令をさらに含む、請求項115、117、118、119、120、121、122、123、124、125、126、128、129、130、131、132、133、または134に記載の有形のコンピュータ可読媒体。
- 前記ディスプレイ上で前記注釈の少なくとも一部を維持することを含むさらなる動作を前記コンピューティングデバイスに実行させる命令をさらに含む、請求項135または136に記載の有形のコンピュータ可読媒体。
- 前記ディスプレイ上で維持される前記注釈の前記少なくとも一部は、ユーザ入力によって識別される、請求項138に記載の有形のコンピュータ可読媒体。
- 前記注釈は、前記第1出力に重畳される時に、識別できる色を使用して表示される、請求項115、117、118、119、120、121、122、123、124、125、126、128、129、130、131、132、133、または134に記載の有形のコンピュータ可読媒体。
- 前記色は、前記第1出力の色に依存して選択される、請求項140に記載の有形のコンピュータ可読媒体。
- ディスプレイ上に第1出力を表示することは、モバイルデバイス上で出力を表示することを含む、請求項98ないし141のいずれか1項に記載の有形のコンピュータ可読媒体。
- 前記ディスプレイ上に前記第1出力を表示することは、電話機、携帯電話機、携帯情報端末、ラップトップコンピュータ、タブレットコンピュータ、およびデスクトップコンピュータのうちの1つまたは複数上で出力を表示することを含む、請求項98ないし141のいずれか1項に記載の有形のコンピュータ可読媒体。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015236361A JP2016033831A (ja) | 2015-12-03 | 2015-12-03 | 重畳された注釈出力 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015236361A JP2016033831A (ja) | 2015-12-03 | 2015-12-03 | 重畳された注釈出力 |
Related Parent Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2013549694A Division JP5852135B2 (ja) | 2011-03-16 | 2011-03-16 | 重畳された注釈出力 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2016033831A true JP2016033831A (ja) | 2016-03-10 |
Family
ID=55452669
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2015236361A Pending JP2016033831A (ja) | 2015-12-03 | 2015-12-03 | 重畳された注釈出力 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2016033831A (ja) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2020080753A1 (ko) * | 2018-10-18 | 2020-04-23 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 제어 방법 |
| US11531455B2 (en) | 2018-10-18 | 2022-12-20 | Samsung Electronics Co., Ltd. | Electronic device and method of controlling electronic device |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS6051884A (ja) * | 1983-08-31 | 1985-03-23 | ナイルス部品株式会社 | 文字重畳表示器 |
| WO2008041270A1 (fr) * | 2006-09-29 | 2008-04-10 | Fujitsu Microelectronics Limited | Dispositif de synthèse d'image et procédé de synthèse d'image |
-
2015
- 2015-12-03 JP JP2015236361A patent/JP2016033831A/ja active Pending
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS6051884A (ja) * | 1983-08-31 | 1985-03-23 | ナイルス部品株式会社 | 文字重畳表示器 |
| WO2008041270A1 (fr) * | 2006-09-29 | 2008-04-10 | Fujitsu Microelectronics Limited | Dispositif de synthèse d'image et procédé de synthèse d'image |
Non-Patent Citations (1)
| Title |
|---|
| 相田 彰大: "観察行為を対象とした視覚データ管理のための「その場アノテーション」システムの開発", 電子情報通信学会技術研究報告, vol. 110, no. 147, JPN6016038561, 17 July 2010 (2010-07-17), pages 27 - 32, ISSN: 0003413821 * |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2020080753A1 (ko) * | 2018-10-18 | 2020-04-23 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 제어 방법 |
| US11531455B2 (en) | 2018-10-18 | 2022-12-20 | Samsung Electronics Co., Ltd. | Electronic device and method of controlling electronic device |
| US12026666B2 (en) | 2018-10-18 | 2024-07-02 | Samsung Electronics Co., Ltd. | Electronic device and method of controlling electronic device |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5852135B2 (ja) | 重畳された注釈出力 | |
| US12299340B2 (en) | Multi-device continuity for use with extended reality systems | |
| US8915106B2 (en) | Means for processing information | |
| EP3991141A2 (en) | 3d object camera customization system | |
| US20170052668A1 (en) | Smart whiteboard interactions | |
| CN108700936A (zh) | 用于虚拟现实的直通相机用户界面元素 | |
| US20220351426A1 (en) | Controlling interactivity of digital content overlaid onto displayed data via graphics processing circuitry using a frame buffer | |
| US20140205259A1 (en) | Screen recording for creating contents in mobile devices | |
| US10074216B2 (en) | Information processing to display information based on position of the real object in the image | |
| JPWO2018186031A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
| US20160182579A1 (en) | Method of establishing and managing messaging sessions based on user positions in a collaboration space and a collaboration system employing same | |
| US20220244903A1 (en) | Application casting | |
| Makhsadov et al. | Vrysmart: a framework for embedding smart devices in virtual reality | |
| US20240094886A1 (en) | Applying visual modifiers to objects of interest selected by a pointer from a video feed in a frame buffer via processing circuitry | |
| WO2024222356A1 (zh) | 特效生成方法、装置、计算机设备及存储介质 | |
| CN117099135A (zh) | 使用数字多媒体文件的增强现实内容体验共享 | |
| US10528319B2 (en) | Audio association systems and methods | |
| JP2016033831A (ja) | 重畳された注釈出力 | |
| US11775051B2 (en) | Apparatus and associated methods for presentation of presentation data | |
| US20180225476A1 (en) | Automated image editing system | |
| US11481933B1 (en) | Determining a change in position of displayed digital content in subsequent frames via graphics processing circuitry | |
| US20250037387A1 (en) | Method and Device for Invoking a Writing Surface | |
| US12436603B2 (en) | Audience engagement for placement of content in an HMD | |
| US12489815B1 (en) | Toolbox and context for user interactions | |
| US20230326094A1 (en) | Integrating overlaid content into displayed data via graphics processing circuitry and processing circuitry using a computing memory and an operating system memory |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151203 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151203 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160930 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161004 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161222 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170427 |