[go: up one dir, main page]

JP2018074366A - 電子機器、制御方法およびプログラム - Google Patents

電子機器、制御方法およびプログラム Download PDF

Info

Publication number
JP2018074366A
JP2018074366A JP2016211553A JP2016211553A JP2018074366A JP 2018074366 A JP2018074366 A JP 2018074366A JP 2016211553 A JP2016211553 A JP 2016211553A JP 2016211553 A JP2016211553 A JP 2016211553A JP 2018074366 A JP2018074366 A JP 2018074366A
Authority
JP
Japan
Prior art keywords
voice
electronic device
controller
input
application screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016211553A
Other languages
English (en)
Inventor
上野 泰弘
Yasuhiro Ueno
泰弘 上野
茂輝 田辺
Shigeki Tanabe
茂輝 田辺
英樹 森田
Hideki Morita
英樹 森田
功 益池
Isao Masuike
功 益池
浩太郎 山内
Kotaro Yamauchi
浩太郎 山内
学 佐久間
Manabu Sakuma
学 佐久間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2016211553A priority Critical patent/JP2018074366A/ja
Priority to US15/794,721 priority patent/US20180121161A1/en
Publication of JP2018074366A publication Critical patent/JP2018074366A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

【課題】音声で容易に操作できる電子機器を提供すること。【解決手段】電子機器は、表示部と、音声入力部と、自機または自機の周囲に関する変化を検出する検出部と、アプリケーション画面を前記表示部に表示させるコントローラとを備える。当該コントローラは、前記アプリケーション画面が表示されていない状態において所定の前記変化が検出されると、当該アプリケーション画面を表示するための第1音声の入力を受け付ける。【選択図】図1

Description

本出願は、音声認識機能を備えた電子機器に関する。
従来、音声コマンドのアクティブ化を機器に行わせる音声トリガであって、音声コマンド機能の手動始動(ボタンを押すこと)と同様である音声トリガを有効化するシステム及び方法が開示されている(下記特許文献1参照)。
特表2015−520409
ユーザが音声で電子機器を操作する際に、音声トリガを必要とすることは、ユーザに煩わしさを感じさせることがある。
本出願の目的は、音声による操作の操作性を向上させた電子機器を提供することである。
1つの態様に係る電子機器は、表示部と、音声入力部と、自機または自機の周囲に関する変化を検出する検出部と、アプリケーション画面を前記表示部に表示させるコントローラとを備え、前記コントローラは、前記アプリケーション画面が表示されていない状態において所定の前記変化を検出すると、当該アプリケーション画面を表示するための第1音声の入力を受け付ける。
1つの態様に係る制御方法は、表示部と、音声入力部と、自機または自機の周囲に関する変化を検出する検出部と、アプリケーション画面を前記表示部に表示させるコントローラとを備える電子機器の制御方法であって、前記アプリケーション画面が表示されていない状態において所定の前記変化を検出するステップと、当該アプリケーション画面を表示するための第1音声の入力を受け付けるステップと、を含む。
1つの態様に係る制御プログラムは、表示部と、音声入力部と、自機または自機の周囲に関する変化を検出する検出部と、アプリケーション画面を前記表示部に表示させるコントローラとを備える電子機器に、前記アプリケーション画面が表示されていない状態において所定の前記変化を検出するステップと、当該アプリケーション画面を表示するための第1音声の入力を受け付けるステップと、を実行させる。
音声による操作の操作性を向上させた電子機器を提供することができる。
実施形態に係る電子機器の外観図である。 ホーム画面の一例を示すイメージ図である。 アプリケーション画面の一例を示すイメージ図である。 実施形態に係る電子機器の機能構成を示すブロック図である。 実施形態に係る電子機器の動作の例を示すイメージ図である。 実施形態に係る電子機器が行う制御の第1の例を示すフローチャートである。 実施形態に係る電子機器が行う制御の第2の例を示すフローチャートである。
本出願に係る実施形態について、図面を参照しつつ詳細に説明する。ただし、以下の実施の形態によって本出願が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるものおよび実質的に同一のものなど、いわゆる均等の範囲のものが含まれる。なお、図面の説明については同一要素には同一符号を付し、重複する説明を省略することがある。
以下に説明する本出願の実施形態に係る電子機器1は、例えば、いわゆるスマートフォンのような端末とすることができる。しかしながら、本出願の実施形態に係る電子機器1はスマートフォンに限定されるものではない。電子機器1は、例えばタブレット、パーソナルコンピュータ、車載電子機器などであってもよい。
図1は、本実施形態に係る電子機器1の外観図である。図1に示すように、電子機器1は、音声入力部としてのマイク11と、音声出力部としてのスピーカ12と、タッチパネル13とを備える。
マイク11は、電子機器1への入力を受け付ける入力手段のうちの1つである。マイク11は、周囲の音声を集音する。
スピーカ12は、電子機器1から出力を行う出力手段の1つである。スピーカ12は、電話の音声や各種プログラムの情報等を音声で出力する。
タッチパネル13は、タッチセンサ131とディスプレイ132とを備える。
タッチセンサ131は、電子機器1への入力を受け付ける入力手段のうちの1つである。タッチセンサ131は、ユーザの指、スタイラス等の接触を検出する。接触を検出する方法としては、例えば抵抗膜方式や静電容量方式があるが、任意の方式でよい。
ディスプレイ132は、電子機器1から出力を行う出力手段の1つである。ディスプレイ132は、文字、画像、記号、図形等のオブジェクトを画面上に表示する。ディスプレイ132には、例えば液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイが用いられる。
図1のタッチパネル13において、ディスプレイ132はタッチセンサ131と重なるように設けられており、ディスプレイ132の表示領域はタッチセンサ131と重複しているが、本実施形態はこれに限定されない。ディスプレイ132およびタッチセンサ131は、例えば、並べて配置されてもよいし、離して配置されてもよい。ディスプレイ132とタッチセンサ131とが重複する場合、ディスプレイ132の1または複数の辺は、タッチセンサ131のいずれの辺とも沿っていなくてもよい。
電子機器1は、タッチセンサ131により検出された接触および接触の位置、接触が行われた時間、接触が行われた位置の経時変化に基づいてジェスチャの種類を判別する。ジェスチャは、タッチパネル13に対して行われる操作である。電子機器1によって判別されるジェスチャには、タッチ、リリース、タップ、ダブルタップ等が含まれる。
タッチは、タッチパネル13に指が触れるジェスチャである。電子機器1は、タッチパネル13に指が接触するジェスチャをタッチとして判別する。
リリースは、指がタッチパネル13から離れるジェスチャである。電子機器1は、指がタッチパネル13から離れるジェスチャをリリースとして判別する。
タップは、タッチに続いてリリースをするジェスチャである。電子機器1は、タッチに続いてリリースをするジェスチャをタップとして判別する。
ダブルタップは、タッチに続いてリリースをするジェスチャが2回連続するジェスチャである。電子機器1は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャをダブルタップとして判別する。
続いて、図2を参照しながら、電子機器1のディスプレイ132に表示される画面の例について説明する。図2は、ホーム画面の一例を示している。ホーム画面30は、ディスプレイ132に表示される。ホーム画面30は、電子機器1にインストールされているアプリケーションソフトウェア(以下、単にアプリケーションと呼ぶ)のうち、どのアプリケーションを実行するかをユーザに選択させる画面である。電子機器1は、ホーム画面30で選択されたアプリケーションをフォアグランドで実行する。フォアグランドで実行されるアプリケーションの画面は、ディスプレイ132に表示される。
電子機器1は、ホーム画面30にアイコンを配置することができる。図2に示すホーム画面30には、複数のアイコン40が配置されている。それぞれのアイコン40は、電子機器1にインストールされているアプリケーションとあらかじめ対応付けられている。電子機器1は、アイコン40に対するジェスチャを検出すると、そのアイコン40に対応付けられているアプリケーションを実行する。例えば、電子機器1は、電話アプリケーション(以下、単に電話アプリと呼ぶ)に対応付けられたアイコン40に対するタップが検出されると、電話アプリを実行する。アイコン40は、画像と文字列を含む。アイコン40は、画像に代えて、記号または図形を含んでもよい。アイコン40は、画像または文字列のいずれか一方を含まなくてもよい。アイコン40は、所定の規則に従って配置される。
続いて、図3を参照しながら、ディスプレイ132に表示される画面の第2の例について説明する。図3は、電子機器1で実行されるアプリケーションの画面(アプリケーション画面とも称する)の一例である。図3は電話アプリで表示されるアプリケーション画面50を示している。アプリケーション画面50には連絡先の一覧が表示される。当該アプリケーション画面50は、アプリケーションが起動する際に表示される画面に限定されず、ユーザの操作によってアプリケーション上に表示される種々の画面であってよい。
続いて、図4を参照しながら、電子機器1の機能的な説明について説明する。図4は、電子機器1の機能構成を示すブロック図である。図4に示すように、電子機器1は、音声入力部111と、音声出力部121と、タッチセンサ131と、ディスプレイ132と、第1検出部21と、第2検出部22と、生体情報検出部23と、位置情報取得部24と、ストレージ25と、通信部26と、コントローラ27とを備える。
音声入力部111は、入力を受け付けた音声に対応する信号をコントローラ27に入力する。音声入力部111は、上記のマイク11を含む。また、音声入力部111は、外部のマイクを接続可能な入力インターフェイスであってもよい。外部のマイクは無線または有線で接続される。入力インターフェイスに接続されるマイクは、例えば電子機器に接続可能なイヤホン等に備えられるマイクである。
音声出力部121は、コントローラ27から入力された信号に基づいて、音声を出力する。音声出力部121は、上記のスピーカ12を含む。また、音声出力部121は、外部のスピーカを接続可能な出力インターフェイスであってもよい。外部のスピーカは無線または有線で接続される。出力インターフェイスに接続されるスピーカは、例えば電子機器に接続可能なイヤホン等に備えられるスピーカである。
タッチセンサ131は、指などによる接触操作を検出し、検出された接触操作に対応する信号をコントローラ27に入力する。
ディスプレイ132は、コントローラ27から入力された信号に基づいて、文字、画像、記号、図形等のオブジェクトを画面上に表示する。オブジェクトには、例えば、上記のホーム画面やアプリケーションの画面が含まれる。
第1検出部21は、電子機器1の状態を検出し、検出結果をコントローラ27に入力する。第1検出部21は、加速度センサを少なくとも含む。第1検出部21は、さらにジャイロセンサ、方位センサ等を含んでいてもよい。加速度センサは、電子機器1に働く加速度の方向および大きさを検出する。ジャイロセンサは、電子機器1の角度および角速度を検出する。方位センサは、地磁気の向きを検出する。
第2検出部22は、電子機器1の周囲の状態を検出し、検出結果をコントローラ27に入力する。第2検出部22は、例えば、近接センサ、距離センサ等である。近接センサは、光源の反射波の帰還時間の変化等に基づいて、周囲の物体の存在を非接触で検出する。距離センサは、光源の反射波の帰還時間の変化等に基づいて、周囲に存在する物体までの距離を検出する。第2検出部22は、可視光、赤外線、紫外線、電波、音波、磁気、静電容量の少なくとも1つを用いて、周囲の物体の存在や周囲に存在する物体までの距離を検出するセンサであってよい。なお、第2検出部は、電子機器1の周囲の状態を検出できる検出部であればこれらに限定されず、例えば受光素子に入射した光の量を検出する照度センサ等であってよい。
生体情報検出部23は、ユーザの生体情報を検出し、検出結果をコントローラ27に入力する。生体情報とは、例えば、顔、虹彩、指紋、声紋であるが、これらに限定されない。ユーザの顔の特徴または虹彩パターンを検出するためには、生体情報検出部23として、例えば電子機器1に備えられるカメラが用いられる。また、ユーザの指紋を検出するためには、例えば電子機器1に備えられる静電容量方式の指紋センサが用いられる。また、ユーザの声紋を検出するためには、上記の音声入力部が用いられる。
位置情報取得部24は、自機の現在地を示す位置情報を取得し、取得した結果をコントローラ27に入力する。位置情報取得部24は、自機の位置を、例えば、GPS(Global Positioning System)受信機や通信部26が無線ネットワークを確立している基地局に基づいて検出する。
ストレージ25は、プログラムおよびデータを記憶する。ストレージ25は、コントローラ27の処理結果を一時的に記憶する作業領域としても利用される。ストレージ25は、半導体記憶媒体、および磁気記憶媒体等の任意の非一過的(non−transitory)な記憶媒体を含んでよい。また、ストレージ25は、複数の種類の記憶媒体を含んでよい。また、ストレージ25は、メモリカード、光ディスク、または光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。また、ストレージ25は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。ストレージ25に記憶されるプログラムには、フォアグランドまたはバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。
ストレージ25には、音声認識辞書データと言語命令処理データとが記憶される。音声認識辞書データは、音声の特徴パターン(特徴量)と文字列とが対応付けられたデータである。言語命令処理データは、所定の文字列とコントローラ27によって実行され得る所定の処理とが対応付けられたデータである。
通信部26は、無線により通信する。通信部26によってサポートされる無線通信規格には、例えば、2G、3G、4G等のセルラーフォンの通信規格や、近距離無線の通信規格などがある。セルラーフォンの通信規格としては、例えば、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、WiMAX(Worldwide Interoperability for Microwave Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy−phone System)等がある。近距離無線の通信規格としては、例えば、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)、WPAN(Wireless Personal Area Network)等がある。WPANの通信規格には、例えば、ZigBee(登録商標)がある。通信部26は、セルラーフォンの通信規格により無線通信を行う場合、基地局によって割り当てられるチャネルを介し、基地局との間で無線ネットワークを確立し、基地局との間で電話通信及び情報通信を行う。また、通信部26は、Wi−Fi(登録商標)に準拠したAP(Access Point)に接続することで、APを介して情報通信を行うことができる。
コントローラ27は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System−on−a−chip)、MCU(Micro Control Unit)、FPGA(Field−Programmable Gate Array)、およびコプロセッサを含むが、これらに限定されない。コントローラ27は、電子機器1の動作を統括的に制御して各種の機能を実現する。
コントローラ27は、第1検出部21の検出結果に基づいて、電子機器1の加速度と傾きの変化を検出する。コントローラ27は、電子機器1の加速度と傾きの変化を検出することにより、電子機器1がユーザによって把持されていない状態からユーザによって把持された状態になったことを検出してよい。
コントローラ27は、第2検出部22の検出結果に基づいて、ユーザと電子機器1との間の距離が所定の距離よりも小さくなったかを判定する。所定の距離とは、例えば30cmであるが、これに限定されない。
コントローラ27は、生体情報検出部23の検出結果と、ストレージ25に記録された認証用データとを照合してユーザの認証を行う。
コントローラ27は、位置情報取得部24の取得結果に基づいて、ユーザの現在地を示す場所を認識する。
コントローラ27は、タッチセンサ131が検出した接触操作等に応じて入力される信号に基づいて、各種制御を実行する。例えば、コントローラ27は、ディスプレイ132が非表示状態において、タッチセンサ131に対する所定の接触操作を検出すると、ディスプレイ132を表示状態に遷移させる。また、コントローラ27は、タッチセンサ131に対する接触操作に応じて、電子機器1の機能の実行や設定の変更を行う。
コントローラ27は、音声入力部111に入力された音声を解析することにより、ユーザの音声を認識(音声認識)する。コントローラ27は、音声認識処理として、入力された音声の特徴パターンに基づいて、ストレージ25に記憶された音声認識辞書データから文字列を読み出す。
コントローラ27は、音声認識辞書データから読み出した文字列から所定の単語や文章を音声コマンドとして検出する。コントローラ27は、言語命令処理データを参照することで、検出した所定の単語や文章(音声コマンド)に対応する所定の処理を検知し、当該処理を実行することができる。
コントローラ27は、ディスプレイ132にアプリケーション画面が表示されていない状態において、電子機器1または電子機器1の周囲に関する変化を検出すると、アプリケーション画面を表示するための第1音声の入力を受け付ける。
ここで、電子機器1または電子機器1の周囲に関する変化は、例えば、電子機器1が把持されたこと、所定の非接触ジェスチャがなされたこと、ユーザと電子機器1との間の距離が所定の距離よりも小さくなったこと、タッチセンサ131に対する所定の接触操作によってディスプレイ132が非表示状態から表示状態になったこと、の少なくとも1つ、あるいはこれらを組み合わせたものであってよい。ここで所定の接触操作は、例えば、上記のダブルタップであるが、これに限定されない。
また、ディスプレイ132にアプリケーション画面が表示されていない状態とは、ディスプレイ132にアプリケーション画面が表示されず、他の画面(例えばホーム画面)が表示されている状態であってもよいし、非表示の状態(あらゆる画面をs表示しない状態)であってもよい。また、ディスプレイ132にアプリケーション画面が表示されていない状態とは、アプリケーションがバックグラウンドで起動されており、アプリケーション画面がディスプレイ132に表示されていない状態であってもよい。
コントローラ27は、アプリケーション画面を表示するための第1音声の入力として、制限された文字数の単語または文章(あるいは文字列)から成る音声のみの入力を受け付けてよい。この場合、コントローラ27は、制限数を超えた単語または文章(あるいは文字列)から成る音声は、音声コマンドとして受け付けない。なお、制限された文字数は、例えば10文字であるが、これに限定されない。また、ここでいう文字数は、例えば、所定時間の間隔を空けることなく連続して入力された音声から抽出した単語または文章(あるいは文字列)を対象としてよい。
また、コントローラ27は、アプリケーション画面を表示するための第1音声の入力として、単語から成る音声のみの入力を受け付けてよい。この場合、コントローラ27は、文章から成る音声は、音声コマンドとして受け付けない。
また、コントローラ27は、アプリケーション画面を表示するための第1音声の入力として、音声トリガの入力を要求しない音声の入力を受け付けてもよい。ここで、音声トリガは、音声コマンドの入力を開始するための契機となる所定の単語または文章(あるいは文字列)から成る音声である。したがって、一実施形態に係る電子機器1において、コントローラ27は、ディスプレイ132にアプリケーション画面が表示されていない状態において、電子機器1または電子機器1の周囲に関する変化を検出すると、音声トリガを要求しない第1音声の入力を受け付けるものであってもよい。
コントローラ27は、アプリケーション画面を表示するための第1音声の入力を受け付けている状態において当該第1音声の入力を検出すると、これを音声コマンドとして検出し、当該音声コマンドに対応した処理としてアプリケーション画面の表示を実行してよい。表示されるアプリケーション画面は、複数のアプリケーションの内、入力された第1音声に対応したアプリケーションの画面である。コントローラ27は、アプリケーション画面を表示するための第1音声の入力を受け付けている状態においては、アプリケーション画面を表示する処理以外の処理を実行するための音声入力は受け付けないようにしてもよい。コントローラ27は、アプリケーション画面を表示するための第1音声の入力を受け付けている状態において、アプリケーションがバックグラウンドで起動している場合に、第1音声の入力に応じて、アプリケーションをフォアグランドに遷移させてアプリケーション画面をディスプレイ132に表示してもよい。
コントローラ27は、ユーザの認証ができる場合にのみ、第1音声の入力を受け付けることができることとしてもよい。例えば、ユーザの認証方法がカメラによる顔認証や虹彩認証の場合、ユーザを認証できた後に、第1音声の入力を受け付ける。また例えば、認証方法が音声入力部に入力された音声に基づく声紋認証の場合、まず第1音声の入力を受け付け、入力された音声に基づいてユーザの認証ができると、当該音声コマンドに応じた処理を行う。
コントローラ27は、自機が所定の場所から所定の範囲内に位置する場合にのみ、第1音声の入力を受け付けることができることとしてもよい。所定の場所とは、例えばユーザの自宅であるが、これに限定されない。
コントローラ27は、自機が所定の無線ネットワークに接続されている場合にのみ、第1音声の入力を受け付けることができることとしてもよい。所定の無線ネットワークに接続されている場合とは、例えば、ユーザが個人で所有する無線ルータをAPとして無線ネットワークに接続されている場合であるが、これに限定されない。
続いて、図5を参照しながら、電子機器1の動作の一例について説明する。図5は、電子機器1の動作の第1の例を示すイメージ図である。具体的には、図5では、ユーザが電話アプリを音声で操作する様子を示す。コントローラ27は、音声入力部111に入力されたユーザの音声を認識し、認識した音声に応じて処理を行う。
ユーザは、ディスプレイ132にホーム画面30が表示された電子機器1を把持している(ステップS11)。ステップS11において、電子機器1は、自機がユーザにより把持されたこと(電子機器1または電子機器1の周囲に関する変化)に基づいて、第1音声の入力の受け付けを開始する。
ユーザは、電子機器1を把持している際に、「電話」という音声コマンドを入力する(ステップS12)。
ディスプレイ132には、電話アプリのアプリケーション画面50が表示される(ステップS13)。
図5では、ディスプレイ132に表示されるアプリケーションが電話アプリであるとして説明したが、これに限定されない。第1音声に応じてディスプレイ132に表示されるアプリケーションは、例えばメッセージングアプリケーション、カメラアプリケーション、地図アプリケーション等でもよい。
以上のように、電子機器1は、ディスプレイ132と、音声入力部111と、自機または自機の周囲に関する変化を検出する検出部(第1検出部21、第2検出部22、タッチセンサ131)と、アプリケーション画面をディスプレイ132に表示させるコントローラ27とを備える。コントローラ27は、アプリケーション画面が表示されていない状態において自機または自機の周囲に関する所定の変化を検出すると、当該アプリケーション画面を表示するための第1音声の入力を受け付ける。また、コントローラ27は、アプリケーション画面が表示されていない状態において自機または自機の周囲に関する所定の変化を検出すると、音声トリガを要求しない第1音声の入力を受け付ける。
これにより、自機または自機の周囲に関する所定の変化がなされた場合において、音声によるアプリケーション画面の表示を容易に行うことができ、ひいては、電子機器1の操作性が向上する。
また、一実施形態に係る電子機器1においてコントローラ27は、アプリケーションが起動していない状態において自機または自機の周囲に関する所定の変化を検出すると、当該アプリケーションの起動および当該アプリケーション画面の表示を行うための第1音声の入力を受け付けてもよい。コントローラ27は、第1音声の入力を検出すると、当該第1音声に対応したアプリケーションを起動しつつ、当該アプリケーションの画面をディスプレイ132に表示する。
また、一実施形態に係る電子機器1においてコントローラ27は、アプリケーション画面が表示されている状態において、アプリケーションの処理を実行させるための第2音声の入力を受け付けてよい。第2音声は、例えば、音声トリガまたは当該音声トリガの入力の後に続く音声コマンドであってよい。また、第2音声は、文字数が制限されない単語または文章(あるいは文字列)から成る音声であってよい。
続いて、図6、図7を参照しながら、電子機器1によって実行される制御について説明する。
図6は、電子機器1の制御の第1の例を示すフローチャートである。図6における電子機器1の制御は、図5における電子機器1の動作に対応する。
コントローラ27は、ディスプレイ132にアプリケーション画面が表示されているか否かを判定する(ステップS101)。コントローラ27は、ディスプレイ132にアプリケーション画面が表示されている場合(ステップS101/Yes)、処理を終了する。コントローラ27は、ディスプレイ132にアプリケーション画面が表示されていない場合(ステップS101/No)、ステップS102に進む。
コントローラ27は、自機または自機の周囲に関する変化があるか否かを判定する(ステップS102)。コントローラ27は、自機または自機の周囲に関する変化がないと判定した場合(ステップS102/No)は、処理を終了する。コントローラ27は、自機または自機の周囲に関する変化があると判定した場合(ステップS102/Yes)、第1音声の入力を受け付ける(ステップS103)。
続いて、コントローラ27は、ユーザによって第1音声が入力されたか否かを判定する(ステップS104)。コントローラ27は、ユーザによって第1音声が入力されない場合(ステップS104/No)、ステップS104を繰り返す。コントローラ27は、ユーザによって第1音声が入力された場合(ステップS104/Yes)、ディスプレイ132に所定のアプリケーション画面を表示して(ステップS105)、処理を終了する。所定のアプリケーション画面は、複数のアプリケーションのうち、第1音声に対応したアプリケーションであってよい。
なお、第1音声が入力される前にアプリケーションが起動されていなかった場合、ステップS105の「ディスプレイ132にアプリケーション画面を表示する」処理は、「アプリケーションを起動し、ディスプレイ132にアプリケーション画面を表示する」ことを意味する。
図7は、電子機器1の制御の第2の例を示すフローチャートである。
コントローラ27は、ディスプレイ132にアプリケーション画面が表示されているか否かを判定する(ステップS201)。コントローラ27は、ディスプレイ132にアプリケーション画面が表示されている場合(ステップS201/Yes)、処理を終了する。コントローラ27は、ディスプレイ132にアプリケーション画面が表示されていない場合(ステップS201/No)、ステップS202に進む。
コントローラ27は、自機または自機の周囲に関する変化があるか否かを判定する(ステップS202)。コントローラ27は、自機または自機の周囲に関する変化がないと判定した場合は、処理を終了する(ステップS202/No)。コントローラ27は、自機または自機の周囲に関する変化があると判定した場合(ステップS202/Yes)、ステップS203に進む。
コントローラ27は、ユーザの認証を行う(ステップS203)。コントローラ27は、ユーザの認証ができない場合、処理を終了する(ステップS203/No)。コントローラ27は、ユーザの認証ができた場合(ステップS203/Yes)、第1音声の入力を受け付ける(ステップS204)。 続いて、コントローラ27は、ユーザによって第1音声が入力されたか否かを判定する(ステップS205)。コントローラ27は、ユーザによって第1音声が入力されない場合(ステップS205/No)、ステップS204を繰り返す。コントローラ27は、ユーザによって第1音声が入力された場合(ステップS205/Yes)、ディスプレイ132に所定のアプリケーション画面を表示する(ステップS206)。
ディスプレイ132に所定のアプリケーション画面を表示されると、コントローラ27は、第2音声の入力を受け付ける(ステップS207)。
続いて、コントローラ27は、ユーザによって第2音声が入力されたか否かを判定する(ステップS208)。コントローラ27は、ユーザによって第2音声が入力されない場合(ステップS208/No)、ステップS208を繰り返す。コントローラ27は、ユーザによって第2音声が入力された場合(ステップS208/Yes)、第2音声に応じた処理を行い(ステップS209)、処理を終了する。
図7における制御では、ユーザの認証が行われた場合に第1音声の入力を受け付ける。これにより、ユーザ以外の人間の音声によって電子機器1が操作されてしまう可能性を低減できる。
ステップS203におけるユーザの認証は、入力される第1音声に対する声紋認証であってもよい。この場合、ステップS203におけるユーザの認証はステップS205の後に行われる。ステップS205で第1音声が入力されると(ステップS205/Yes)、入力された第1音声に基づいて声紋認証によるユーザの認証が行われ、コントローラ27は、ユーザを認証できた場合に、ディスプレイ132にアプリケーション画面を表示する。
ステップS203の「ユーザの認証を行う」処理は、「自機の現在地の位置情報が特手の位置情報かを判定する」処理としてもよい。これによっても、ユーザ以外の人間の音声によって電子機器1が操作されてしまう可能性を低減できる。
ステップS203の「ユーザの認証を行う」処理は、「自機が所定の無線ネットワークに接続されているかを判定する」処理としてもよい。これによっても、ユーザ以外の人間の音声によって電子機器1が操作されてしまう可能性を低減できる。
また、第1音声が入力される前にアプリケーションが起動されていなかった場合、ステップS105の「ディスプレイ132にアプリケーション画面を表示する」処理は、「アプリケーションを起動し、ディスプレイ132にアプリケーション画面を表示する」ことを意味する。
図7における制御では、アプリケーション画面が表示されている状態において、前記アプリケーションの処理を実行させるための第2音声コマンドの入力を受け付ける。これにより、アプリケーション画面を表示した後も、音声でアプリケーションを操作することが出来、電子機器1の操作性が向上する。
以上、添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は上記実施形態に限定されるべきものではなく、本明細書に示した基礎的事項の範囲内で、当該技術分野の当業者が創作しうる全ての変形例および代替可能な構成を具現化するように構成されるべきである。
1 電子機器
11 マイク
12 スピーカ
13 タッチパネル
111 音声入力部
121 音声出力部
131 タッチセンサ
132 ディスプレイ
21 第1検出部
22 第2検出部
23 生体情報検出部
24 位置情報取得部
25 ストレージ
26 通信部
27 コントローラ
30 ホーム画面
40 アイコン
50 アプリケーション画面

Claims (14)

  1. 表示部と、
    音声入力部と、
    自機または自機の周囲に関する変化を検出する検出部と、
    アプリケーション画面を前記表示部に表示させるコントローラと、
    を備え、
    前記コントローラは、
    前記アプリケーション画面が表示されていない状態において所定の前記変化を検出すると、当該アプリケーション画面を表示するための第1音声の入力を受け付ける、
    ことを特徴とする電子機器。
  2. 表示部と、
    音声入力部と、
    自機または自機の周囲に関する変化を検出する検出部と、
    アプリケーション画面を前記表示部に表示させるコントローラと、
    を備え、
    前記コントローラは、
    前記アプリケーション画面が表示されていない状態において所定の前記変化を検出すると、音声トリガを要求しない第1音声の入力を受け付ける、
    ことを特徴とする電子機器。
  3. 前記コントローラは、
    前記アプリケーションが起動していない状態において前記所定の変化を検出すると、当該アプリケーションの起動および当該アプリケーション画面の表示を行うための前記第1音声の入力を受け付ける、
    ことを特徴とする請求項1に記載の電子機器。
  4. 前記コントローラは、
    前記アプリケーション画面が表示されている状態において、前記アプリケーションの処理を実行させるための第2音声の入力を受け付ける、
    ことを特徴とする請求項1に記載の電子機器。
  5. 自機が把持されたかを検出する第1検出部を備え、
    前記所定の変化は、自機が把持されたこと、を含む、
    請求項1から4のいずれか一項に記載の電子機器。
  6. 非接触ジェスチャを検出する第2検出部を備え、
    前記所定の変化は、所定の非接触ジェスチャがなされたこと、を含む、
    請求項1から4のいずれか一項に記載の電子機器。
  7. ユーザと自機との間の距離を検出する第2検出部を備え、
    前記所定の変化は、ユーザと自機との間の距離が所定の距離よりも小さくなったこと、を含む、
    請求項1から4のいずれか一項に記載の電子機器。
  8. 接触操作を検出する第3検出部を備え、
    前記所定の変化は、前記表示部が所定の接触操作によって非表示状態から表示状態になったこと、を含む、
    請求項1から4のいずれか一項に記載の電子機器。
  9. ユーザの生体情報を検出し、記録された認証用データと前記生体情報とを照合してユーザの認証を行う生体情報検出部を備え、
    前記コントローラは、前記生体情報検出部によりユーザの認証が行われた場合に前記第1音声の入力を受け付ける、
    ことを特徴とする請求項5から8のいずれか一項に記載の電子機器。
  10. ユーザの生体情報を検出し、記録された認証用データと前記生体情報とを照合してユーザの認証を行う生体情報検出部を備え、
    前記コントローラは、前記第1音声が入力された場合にユーザの認証を行い、ユーザを認証できた場合に前記第1音声に応じた処理を行う、
    ことを特徴とする請求項5から8のいずれか一項に記載の電子機器。
  11. 自端末の現在地を示す位置情報を取得する位置情報取得部を備え、
    前記コントローラは、自機が所定の場所から所定の範囲内に位置する場合に、前記第1音声の入力を受け付ける、
    ことを特徴とする請求項5から8のいずれか一項に記載の端末装置。
  12. 無線で通信を行う通信部を備え、
    前記コントローラは、前記通信部が所定の無線ネットワークに接続している場合に、前記第1音声の入力を受け付ける、
    ことを特徴とする請求項5から8のいずれか一項に記載の端末装置。
  13. 表示部と、音声入力部と、自機または自機の周囲に関する変化を検出する検出部と、アプリケーション画面を前記表示部に表示させるコントローラとを備える電子機器の制御方法であって、
    前記アプリケーション画面が表示されていない状態において所定の前記変化を検出するステップと、
    当該アプリケーション画面を表示するための第1音声の入力を受け付けるステップと、
    を含む制御方法。
  14. 表示部と、音声入力部と、自機または自機の周囲に関する変化を検出する検出部と、アプリケーション画面を前記表示部に表示させるコントローラとを備える電子機器に、
    前記アプリケーション画面が表示されていない状態において所定の前記変化を検出するステップと、
    当該アプリケーション画面を表示するための第1音声の入力を受け付けるステップと、
    を実行させる制御プログラム。
JP2016211553A 2016-10-28 2016-10-28 電子機器、制御方法およびプログラム Pending JP2018074366A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016211553A JP2018074366A (ja) 2016-10-28 2016-10-28 電子機器、制御方法およびプログラム
US15/794,721 US20180121161A1 (en) 2016-10-28 2017-10-26 Electronic device, control method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016211553A JP2018074366A (ja) 2016-10-28 2016-10-28 電子機器、制御方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2018074366A true JP2018074366A (ja) 2018-05-10

Family

ID=62022351

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016211553A Pending JP2018074366A (ja) 2016-10-28 2016-10-28 電子機器、制御方法およびプログラム

Country Status (2)

Country Link
US (1) US20180121161A1 (ja)
JP (1) JP2018074366A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109031961A (zh) * 2018-06-29 2018-12-18 百度在线网络技术(北京)有限公司 用于控制操作对象的方法和装置
WO2020031781A1 (ja) * 2018-08-10 2020-02-13 ソニー株式会社 情報処理装置および情報処理方法

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2578386B (en) 2017-06-27 2021-12-01 Cirrus Logic Int Semiconductor Ltd Detection of replay attack
GB2563953A (en) 2017-06-28 2019-01-02 Cirrus Logic Int Semiconductor Ltd Detection of replay attack
GB201713697D0 (en) 2017-06-28 2017-10-11 Cirrus Logic Int Semiconductor Ltd Magnetic detection of replay attack
GB201801528D0 (en) 2017-07-07 2018-03-14 Cirrus Logic Int Semiconductor Ltd Method, apparatus and systems for biometric processes
GB201801530D0 (en) 2017-07-07 2018-03-14 Cirrus Logic Int Semiconductor Ltd Methods, apparatus and systems for authentication
GB201801532D0 (en) 2017-07-07 2018-03-14 Cirrus Logic Int Semiconductor Ltd Methods, apparatus and systems for audio playback
GB201801527D0 (en) 2017-07-07 2018-03-14 Cirrus Logic Int Semiconductor Ltd Method, apparatus and systems for biometric processes
GB201801526D0 (en) 2017-07-07 2018-03-14 Cirrus Logic Int Semiconductor Ltd Methods, apparatus and systems for authentication
GB201801661D0 (en) * 2017-10-13 2018-03-21 Cirrus Logic International Uk Ltd Detection of liveness
GB201801664D0 (en) 2017-10-13 2018-03-21 Cirrus Logic Int Semiconductor Ltd Detection of liveness
GB2567503A (en) 2017-10-13 2019-04-17 Cirrus Logic Int Semiconductor Ltd Analysing speech signals
GB201801874D0 (en) 2017-10-13 2018-03-21 Cirrus Logic Int Semiconductor Ltd Improving robustness of speech processing system against ultrasound and dolphin attacks
GB201801663D0 (en) * 2017-10-13 2018-03-21 Cirrus Logic Int Semiconductor Ltd Detection of liveness
GB201803570D0 (en) 2017-10-13 2018-04-18 Cirrus Logic Int Semiconductor Ltd Detection of replay attack
GB201804843D0 (en) 2017-11-14 2018-05-09 Cirrus Logic Int Semiconductor Ltd Detection of replay attack
GB201801659D0 (en) 2017-11-14 2018-03-21 Cirrus Logic Int Semiconductor Ltd Detection of loudspeaker playback
US11735189B2 (en) 2018-01-23 2023-08-22 Cirrus Logic, Inc. Speaker identification
US11264037B2 (en) 2018-01-23 2022-03-01 Cirrus Logic, Inc. Speaker identification
US11475899B2 (en) 2018-01-23 2022-10-18 Cirrus Logic, Inc. Speaker identification
US10733996B2 (en) * 2018-03-30 2020-08-04 Qualcomm Incorporated User authentication
US10720166B2 (en) * 2018-04-09 2020-07-21 Synaptics Incorporated Voice biometrics systems and methods
US10818296B2 (en) * 2018-06-21 2020-10-27 Intel Corporation Method and system of robust speaker recognition activation
US10692490B2 (en) 2018-07-31 2020-06-23 Cirrus Logic, Inc. Detection of replay attack
US10915614B2 (en) 2018-08-31 2021-02-09 Cirrus Logic, Inc. Biometric authentication
US11037574B2 (en) 2018-09-05 2021-06-15 Cirrus Logic, Inc. Speaker recognition and speaker change detection
CN109637548A (zh) * 2018-12-29 2019-04-16 苏州思必驰信息科技有限公司 基于声纹识别的语音交互方法及装置
CN110196914B (zh) * 2019-07-29 2019-12-27 上海肇观电子科技有限公司 一种将人脸信息录入数据库的方法和装置
US11798549B2 (en) * 2021-03-19 2023-10-24 Mitel Networks Corporation Generating action items during a conferencing session

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001177640A (ja) * 1999-12-21 2001-06-29 Kyocera Corp 携帯電話機
JP2008252599A (ja) * 2007-03-30 2008-10-16 Kyocera Corp 携帯端末
JP2009224876A (ja) * 2008-03-13 2009-10-01 Nec Corp 携帯端末装置、そのアクセス方法、およびプログラム
JP2012191437A (ja) * 2011-03-10 2012-10-04 Nec Casio Mobile Communications Ltd 携帯端末、自動ロック設定方法、及びプログラム
JP2014103545A (ja) * 2012-11-20 2014-06-05 Sharp Corp 検出装置及び検出プログラム
JP2016058816A (ja) * 2014-09-08 2016-04-21 シャープ株式会社 情報端末および情報端末システム
JP2016109726A (ja) * 2014-12-02 2016-06-20 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2016178662A (ja) * 2016-04-28 2016-10-06 ソニー株式会社 車載装置、情報処理方法および情報処理システム
JP2016181018A (ja) * 2015-03-23 2016-10-13 ソニー株式会社 情報処理システムおよび情報処理方法

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6081782A (en) * 1993-12-29 2000-06-27 Lucent Technologies Inc. Voice command control and verification system
US6243683B1 (en) * 1998-12-29 2001-06-05 Intel Corporation Video control of speech recognition
EP1215658A3 (en) * 2000-12-05 2002-08-14 Hewlett-Packard Company Visual activation of voice controlled apparatus
US8527278B2 (en) * 2009-06-29 2013-09-03 Abraham Ben David Intelligent home automation
KR101092820B1 (ko) * 2009-09-22 2011-12-12 현대자동차주식회사 립리딩과 음성 인식 통합 멀티모달 인터페이스 시스템
US10353495B2 (en) * 2010-08-20 2019-07-16 Knowles Electronics, Llc Personalized operation of a mobile device using sensor signatures
US9122307B2 (en) * 2010-09-20 2015-09-01 Kopin Corporation Advanced remote control of host application using motion and voice commands
US9107083B1 (en) * 2011-05-03 2015-08-11 Open Invention Network, Llc System and method for notifying users of similar searches
US20130053007A1 (en) * 2011-08-24 2013-02-28 Microsoft Corporation Gesture-based input mode selection for mobile devices
US9117449B2 (en) * 2012-04-26 2015-08-25 Nuance Communications, Inc. Embedded system for construction of small footprint speech recognition with user-definable constraints
TWI474317B (zh) * 2012-07-06 2015-02-21 Realtek Semiconductor Corp 訊號處理裝置以及訊號處理方法
US20140033045A1 (en) * 2012-07-24 2014-01-30 Global Quality Corp. Gestures coupled with voice as input method
US10552030B2 (en) * 2012-10-15 2020-02-04 Kirusa, Inc. Multi-gesture media recording system
US10304465B2 (en) * 2012-10-30 2019-05-28 Google Technology Holdings LLC Voice control user interface for low power mode
US9182826B2 (en) * 2012-11-21 2015-11-10 Intel Corporation Gesture-augmented speech recognition
US9098467B1 (en) * 2012-12-19 2015-08-04 Rawles Llc Accepting voice commands based on user identity
US8744645B1 (en) * 2013-02-26 2014-06-03 Honda Motor Co., Ltd. System and method for incorporating gesture and voice recognition into a single system
US9691382B2 (en) * 2013-03-01 2017-06-27 Mediatek Inc. Voice control device and method for deciding response of voice control according to recognized speech command and detection output derived from processing sensor data
US9112984B2 (en) * 2013-03-12 2015-08-18 Nuance Communications, Inc. Methods and apparatus for detecting a voice command
US9361885B2 (en) * 2013-03-12 2016-06-07 Nuance Communications, Inc. Methods and apparatus for detecting a voice command
US11393461B2 (en) * 2013-03-12 2022-07-19 Cerence Operating Company Methods and apparatus for detecting a voice command
US9436287B2 (en) * 2013-03-15 2016-09-06 Qualcomm Incorporated Systems and methods for switching processing modes using gestures
US9395764B2 (en) * 2013-04-25 2016-07-19 Filippo Costanzo Gestural motion and speech interface control method for 3d audio-video-data navigation on handheld devices
US9245527B2 (en) * 2013-10-11 2016-01-26 Apple Inc. Speech recognition wake-up of a handheld portable electronic device
US10048748B2 (en) * 2013-11-12 2018-08-14 Excalibur Ip, Llc Audio-visual interaction with user devices
US8768712B1 (en) * 2013-12-04 2014-07-01 Google Inc. Initiating actions based on partial hotwords
US9477217B2 (en) * 2014-03-06 2016-10-25 Haier Us Appliance Solutions, Inc. Using visual cues to improve appliance audio recognition
US9354687B2 (en) * 2014-09-11 2016-05-31 Nuance Communications, Inc. Methods and apparatus for unsupervised wakeup with time-correlated acoustic events
TWI525532B (zh) * 2015-03-30 2016-03-11 Yu-Wei Chen Set the name of the person to wake up the name for voice manipulation
US9542941B1 (en) * 2015-10-01 2017-01-10 Lenovo (Singapore) Pte. Ltd. Situationally suspending wakeup word to enable voice command input
US9642225B1 (en) * 2016-10-20 2017-05-02 Kai-kong Ng Voice-controlled lighting control system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001177640A (ja) * 1999-12-21 2001-06-29 Kyocera Corp 携帯電話機
JP2008252599A (ja) * 2007-03-30 2008-10-16 Kyocera Corp 携帯端末
JP2009224876A (ja) * 2008-03-13 2009-10-01 Nec Corp 携帯端末装置、そのアクセス方法、およびプログラム
JP2012191437A (ja) * 2011-03-10 2012-10-04 Nec Casio Mobile Communications Ltd 携帯端末、自動ロック設定方法、及びプログラム
JP2014103545A (ja) * 2012-11-20 2014-06-05 Sharp Corp 検出装置及び検出プログラム
JP2016058816A (ja) * 2014-09-08 2016-04-21 シャープ株式会社 情報端末および情報端末システム
JP2016109726A (ja) * 2014-12-02 2016-06-20 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2016181018A (ja) * 2015-03-23 2016-10-13 ソニー株式会社 情報処理システムおよび情報処理方法
JP2016178662A (ja) * 2016-04-28 2016-10-06 ソニー株式会社 車載装置、情報処理方法および情報処理システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109031961A (zh) * 2018-06-29 2018-12-18 百度在线网络技术(北京)有限公司 用于控制操作对象的方法和装置
WO2020031781A1 (ja) * 2018-08-10 2020-02-13 ソニー株式会社 情報処理装置および情報処理方法

Also Published As

Publication number Publication date
US20180121161A1 (en) 2018-05-03

Similar Documents

Publication Publication Date Title
JP2018074366A (ja) 電子機器、制御方法およびプログラム
EP3232299B1 (en) Physical key component, terminal, and touch response method and device
US11109191B2 (en) Method for displaying current geographical location on emergency call screen and terminal
KR102449666B1 (ko) 알림 처리 방법 및 전자 기기
AU2014312569B2 (en) Multi display method, storage medium, and electronic device
KR102157327B1 (ko) 이미지 형식의 객체를 텍스트 형식으로 변환하는 전자 장치 및 방법
KR102341862B1 (ko) 전자 장치 및 통화 내용 표시 방법
US11209930B2 (en) Method of controlling device using various input types and device for performing the method
JP2018148286A (ja) 電子機器及び制御方法
KR20140119608A (ko) 개인 페이지 제공 방법 및 이를 위한 디바이스
WO2016121876A1 (ja) 電子機器、制御方法、及び制御プログラム
US20140359790A1 (en) Method and apparatus for visiting privacy content
CN106527928B (zh) 一种截屏控制装置、方法及智能终端
KR20130082352A (ko) 터치스크린을 구비하는 전자기기에서 화면을 확대하기 위한 장치 및 방법
US11086595B2 (en) Electronic device having character input function, and method of control thereof
JP7055722B2 (ja) 音声認識機能を有する電子機器、その電子機器の制御方法およびプログラム
KR102257772B1 (ko) 디스플레이 장치 및 그의 제어 방법
US9734829B2 (en) Electronic device, control method, and control program
KR20140116642A (ko) 음성 인식 기반의 기능 제어 방법 및 장치
US10606392B2 (en) Electronic device, control method, and non-transitory storage medium
JP2018037819A (ja) 電子機器、制御方法及びプログラム
KR101944447B1 (ko) 아이콘을 이용한 화면 잠금 기능을 가지는 단말 장치
KR101992209B1 (ko) 단말의 통화 기능 제어 방법 및 그 단말
EP3457269B1 (en) Electronic device and method for one-handed operation
JP6163274B1 (ja) 電子機器、プログラムおよび制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200114

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200707