[go: up one dir, main page]

JP2019016354A - 表情アイコンを入力するための方法及び装置 - Google Patents

表情アイコンを入力するための方法及び装置 Download PDF

Info

Publication number
JP2019016354A
JP2019016354A JP2018125128A JP2018125128A JP2019016354A JP 2019016354 A JP2019016354 A JP 2019016354A JP 2018125128 A JP2018125128 A JP 2018125128A JP 2018125128 A JP2018125128 A JP 2018125128A JP 2019016354 A JP2019016354 A JP 2019016354A
Authority
JP
Japan
Prior art keywords
facial expression
icon
expression icon
user
facial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018125128A
Other languages
English (en)
Other versions
JP6688340B2 (ja
Inventor
王怡
Yi Wang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2019016354A publication Critical patent/JP2019016354A/ja
Application granted granted Critical
Publication of JP6688340B2 publication Critical patent/JP6688340B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • H04L51/046Interoperability with other network applications or services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】表情アイコンの入力速度を向上することができる表情アイコンを入力するための方法及び装置を提供する。【解決手段】表情アイコンを入力するための方法は、ユーザの顔画像を取得し、顔画像の顔特徴点に対して位置決めを行うことと、顔特徴点の位置に基づいてユーザの表情情報を決定することと、予め設定された表情アイコンライブラリーから、表情情報にマッチする表情アイコンを選択することと、表情アイコンを入力インターフェースに表示することとを含む。前記表情アイコンライブラリーは、表情アイコンと表情情報とを対応付けて格納している。【選択図】図2

Description

本願は、コンピュータの技術分野、具体的には、入力システムの技術分野に関し、特に表情アイコンを入力するための方法及び装置に関する。
従来技術に、表情アイコンを入力するための技術はある。ユーザは、表情アイコンリストから対応する表情アイコンを選択したり、表情アイコンを示すコードを入力したりすることにより、表情アイコンを入力することができる。
リストから選択して表情アイコンを入力する必要があるシステムにおいては、ユーザは毎回入力する際に特定のリストから手動で選択する必要があり、かつ、表情アイコンリストにおける記号の数が増加するに伴い、ユーザが表情アイコンを入力する際に、より多くの時間を費やして表情アイコンを検索しなければならなくなってきている。
識別コード(identification code)を用いて表情アイコンを入力するシステムにおいては、ユーザが表情アイコンに対応する識別コード又は特定の文字を記憶しておく必要がある。表情アイコンの数が増加すると、記憶しなければならない識別コードも多くなるため、ユーザが表情アイコンを入力する速度が遅くなる。
本願の目的は、上記背景技術部分に言及した技術課題を解決するために、改善された、表情アイコンを入力するための方法及び装置を提供することにある。
第1の態様として、本願の実施形態は、ユーザの顔画像を取得し、前記顔画像の顔特徴点に対して位置決めを行うことと、前記顔特徴点の位置に基づいて前記ユーザの表情情報を決定することと、予め設定された表情アイコンライブラリーから、前記表情情報にマッチする表情アイコンを選択することと、前記表情アイコンライブラリーは表情アイコンと表情情報とを対応付けて格納し、選択された表情アイコンを入力インターフェースに表示することとを含む表情アイコンを入力する方法を提供する。
複数の実施形態において、上記方法は、ユーザの音声情報を取得し、前記音声情報からキーワードを抽出することと、予め設定された音声アイコンライブラリーから、前記キーワードにマッチする表情アイコンを選択することと、前記音声アイコンライブラリーは表情アイコンとキーワードとを対応付けて格納し、前記キーワードにマッチする表情アイコンを前記入力インターフェースに表示することとをさらに含む。
複数の実施形態において、上記方法は、ユーザの表情アイコンを押す時間の長さが所定の期間の閾値を超えたか否かを検出することと、超えた場合は、拡大された表情アイコンを生成することと、前記ユーザが表情アイコンの押圧停止が検出されたことに応答して、拡大された表情アイコンを前記入力インターフェースに表示し、前記拡大された表情アイコンのサイズは、表情アイコンを押す時間の長さに比例することとをさらに含む。
複数の実施形態において、上記方法は、入力インターフェースにおける同じ表情アイコンの個数が所定の閾値を超えたか否かを検出することと、超えた場合は、所定の閾値を超えた表情アイコンを、拡大された表情アイコンに置き換えて入力インターフェースに表示することとをさらに含む。
複数の実施形態において、上記方法は、ユーザによる表情アイコンのドラッグが検出されたことに応答して、前記ユーザによりドラッグされた表情アイコンの軌跡データを記録することと、受信した表情アイコンを前記軌跡データに基づいて目標端末に表示させるように、ドラッグされた表情アイコン及び前記軌跡データを前記目標端末に送信することとをさらに含む。
複数の実施形態において、当該方法は、目標端末に表情アイコンが表示され音声が再生されるように、前記キーワードにマッチした表情アイコン及び前記音声情報を目標端末に送信することをさらに含む。
第2の態様では、本願の実施形態は、ユーザの顔画像を取得し、前記顔画像の顔特徴点に対して位置決めを行う位置決め部と、前記顔特徴点の位置に基づいて前記ユーザの表情情報を決定する決定部と、予め設定された表情アイコンライブラリーから、前記表情情報にマッチする表情アイコンを選択する選択部と、前記表情アイコンライブラリーは表情アイコンと表情情報とを対応付けて格納し、選択された表情アイコンを入力インターフェースに表示する表示部とを具備する表情アイコンを入力するための装置を提供する。
複数の実施形態において、前記表情アイコンを入力するための装置は、ユーザの音声情報を取得し、前記音声情報からキーワードを抽出する抽出部と、予め設定された音声アイコンライブラリーから、前記キーワードにマッチする表情アイコンを選択するマッチング部とをさらに含み、前記音声アイコンライブラリーは表情アイコンとキーワードとを対応付けて格納し、前記表示部は、前記キーワードにマッチする表情アイコンを前記入力インターフェースに表示する。
複数の実施形態において、前記表情アイコンを入力するための装置は、ユーザの表情アイコンを押す時間の長さが所定の期間閾値を超えたか否かを検出する第1の検出部と、超えた場合は、拡大された表情アイコンを生成する生成部とをさらに具備し、前記表示部は、前記ユーザの押圧の停止が検出されたことに応答して、拡大された表情アイコンを前記入力インターフェースに表示し、前記拡大された表情アイコンのサイズは、表情アイコンを押す時間の長さに比例する。
複数の実施形態において、前記表情アイコンを入力するための装置は、入力インターフェースにおける同じ表情アイコンの個数が所定の閾値を超えたか否かを検出する第2の検出部と、超えた場合は、所定の閾値を超えた表情アイコンを、拡大された表情アイコンに置き換えて入力インターフェースに表示する置き換え部とをさらに含む。
複数の実施形態において、前記表情アイコンを入力するための装置は、ユーザによる表情アイコンのドラッグが検出されたことに応答して、前記ユーザによりドラッグされた表情アイコンの軌跡データを記録する記録部と、受信した表情アイコンを前記軌跡データに基づいて目標端末に表示させるように、ドラッグされた表情アイコン及び前記軌跡データを目標端末に送信する第1の送信部とをさらに含む。
複数の実施形態において、前記表情アイコンを入力するための装置は、目標端末に表情アイコンが表示され音声が再生されるように、前記キーワードにマッチする表情アイコン及び前記音声情報を目標端末に送信する第2の送信部をさらに含む。
第3の態様では、本願の実施形態は、一つ又は複数のプロセッサーと、一つ又は複数のプログラムを格納する記憶装置とを具備し、一つ又は複数のプログラムが一つ又は複数のプロセッサーによって実行されると、一つ又は複数のプロセッサーが第1の態様のいずれかの方法が実現される端末を提供する。
第4の態様では、本願の実施形態は、コンピュータプログラムが格納されたコンピュータ可読記憶媒体であって、当該プログラムがプロセッサーにより実行されると、第1の態様のいずれかの方法が実現されることを特徴とするコンピュータ可読記憶媒体を提供する。
本願の実施形態が提供した表情アイコンを入力する方法及び装置は、ユーザの顔画像を取得し、ユーザの顔表情を認識し、かつ予め設定された表情アイコンライブラリーからユーザの顔表情にマッチする表情アイコンを選択することにより、表情アイコンの入力速度を向上させることができる。
以下の図面による非限定的な実施例についての詳細な説明を読み、参照することにより、本願の他の特徴、目的及び利点がより明らかになる。
本願を適用できる例示的なシステムアーキテクチャーの図である。 本願の表情アイコンを入力する方法による一実施例のフローチャートである。 本願の表情アイコンを入力する方法による一応用シーンの模式図である。 本願の表情アイコンを入力する方法による他の実施例のフローチャートである。 本願の表情アイコンを入力する装置による一実施例の構造模式図である。 本願の実施例を実現するのに適する端末装置のコンピュータシステムの構造の模式図である。
以下、図面と実施例を参照しながら、本願を詳細に説明する。ここで記載される具体的な実施例は、関連の発明を解釈するのみに用いられ、当該発明に対する限定ではないことは理解される。なお、説明の便宜上、図面には、関連の発明に関わる部分のみを示す。
なお、矛盾が生じない限り、本願における実施例及び実施例における特徴は互いに組み合わせることができるものとする。以下、図面を参照しながら、実施例を併せて本願を詳しく説明する。
図1は、本願の表情アイコンを入力するための方法又は表情アイコンを入力するための装置の実施例に適用できる例示的なシステムアーキテクチャー100を示す。
図1に示すように、システムアーキテクチャー100は、端末装置101、102、103と、ネットワーク104と、サーバ105とを含むことができる。ネットワーク104は、端末装置101、102、103とサーバ105との間で通信リンクの媒介を提供するために用いられる。ネットワーク104は、例えば、有線、無線通信リンク又は光ケーブルなどのような各種の接続タイプを含んでもよい。
ユーザは、メッセージの送受信などをするように、端末装置101、102、103を使用し、ネットワーク104を介してサーバ105とインタラクションをすることができる。端末装置101、102、103には、例えばウェブページブラウザアプリ、ショッピング系アプリ、検索系アプリ、インスタントメッセージツール、メールクライアント、ソーシャル・ネットワーキング・サービスソフトなどのような各種通信クライアントアプリがインストールされてもよい。
端末装置101、102、103は、ディスプレイを有しかつ表情アイコン入力をサポートする各種の電子デバイスであってもよく、スマートフォン、タブレット型パソコン、電子書籍リーダー、MP3(Moving Picture Experts Group Audio Layer III)プレーヤー、MP4(Moving Picture Experts Group Audio Layer IV)プレーヤー、ラップトップコンピュータ及びデスクトップコンピュータなどを含むが、それらに限定されるものではない。
サーバ105は、例えば、端末装置101、102、103に表示される表情アイコンに対してサポートを提供する表情アイコンライブラリーサーバのような、各種のサービスを提供するサーバであってもよい。表情アイコンライブラリーサーバは、受信した表情情報などのデータに対して解析などの処理を行い、処理結果(例えば、表情情報にマッチする表情アイコン)を端末装置にフィードバックすることができる。
なお、本願の実施例が提供する表情アイコンを入力する方法は、一般的に端末装置101、102、103により実行され、対応して、表情アイコンを入力する装置は、一般的に端末装置101、102、103に設置されている。オプション的に、表情アイコンライブラリーサーバを使用せず、端末装置101、102、103に表情アイコンライブラリーを予め格納することができる。
図1における端末装置、ネットワーク及びサーバの数は、模式的なものにすぎないことを理解すべきである。必要に応じて、任意の数の端末装置、ネットワーク及びサーバを有してもよい。
続いて、図2を参照し、図2は本願の表情アイコンを入力する方法による一実施例のフロー200を示す。当該表情アイコンを入力する方法は、次のステップを含む。
ステップ201において、ユーザの顔画像を取得し、顔画像の顔特徴点に対して位置決めを行う。
本実施例において、表情アイコンを入力する方法が動作している電子デバイス(例えば、図1に示す端末装置)は、カメラによりリアルタイムでユーザの顔画像を取得し、顔画像の顔特徴点に対して位置決めを行うことができる。例えば、ユーザが携帯電話でインスタントメッセージに際し、フロントカメラにより人の顔を撮影することができる。顔画像における人の顔の領域に対して認識を行う必要がある場合に、まず、顔画像においてそれぞれの顔特徴のキーポイントをマークすることができる。顔画像においてそれぞれの顔特徴のキーポイントをマークした後、顔画像におけるそれぞれの顔特徴のキーポイントの位置を決定することができる。ここで、顔特徴は、目、鼻、口、顎などを含むが、それらに限定されない。また、目は、左目と右目を含み、鼻は、鼻翼又は鼻尖であってもよい。鼻翼は左鼻翼と右鼻翼を含む。具体的に、顔特徴は、頬、下顎などをさらに含んでもよい。頬は、左頬や右頬を含み、下顎は、左下顎や右下顎を含む。当該顔特徴は、顔のその他の特徴であってもよく、ここでは如何なる限定もしないことは理解される。
ステップ202において、顔特徴点の位置に基づいてユーザの表情情報を決定する。
本実施例において、表情情報と顔特徴は密接に関連し、一部の顔の動作は表情情報として理解できるが、表情情報は顔特徴よりもさらに豊かで多様的である。例えば、微笑みの動作は、口の運動に関わっており、さらに顔の輪郭の変化及び目と眉毛の変化にも関わっている。顔特徴に対する捕捉は、単一の器官のみに着目してもよいが、表情情報に対する捕捉は、顔全体の特徴値をモニタリングすることにより実現することになる。十分な数の特徴点を設置することで、顔特徴点の精確な位置情報を取得することができる。例えば、50〜60個の特徴点をもって口の形状を示す。口の動作が微笑みである場合、口元をマークする複数の特徴点の位置座標は、上に移動し、かつ左右の両方に拡がる。口の動作が開く場合、上下唇の位置をマークする複数の特徴点は、垂直方向に拡がる。同様に、目の特徴点に対するマークも、目の開け、閉じを示すことができ、リアルタイムのアップデートにより捕られる位置情報は、瞬く動作を表示することができる。特徴点位置の設置は、五官の位置の変化しやすさによって選定することができる。目と口のような位置が変化しやすい五官は、比較的多くの特徴点により特定することができ、このように取得した動作はよりスムーズになる。一方、鼻のような位置が変化しにくい五官は、相対的に少ない特徴点により特定することができる。
ステップ203において、予め設定された表情アイコンライブラリーから、表情情報にマッチする表情アイコンを選択する。
本実施例において、表情アイコンライブラリーは、表情アイコンと表情情報とを対応付けて格納するためのものである。表情アイコンライブラリーは、第三者から取得されたものであってもよく、端末に予め格納しされたものであってもよい。ステップ202により、ユーザが舌を出す表情のようなユーザの現在の顔表情を決定し、表情アイコンライブラリーから表情アイコン
を選択することができる。
ステップ204において、選択された表情アイコンを入力インターフェースに表示する。
本実施例において、ステップ203で選択された表情アイコンを入力インターフェースに表示して、目標端末に送信するようにユーザに提供する。ユーザは、必要に応じて、送信する表情アイコンを選択し、送信したくない表情アイコンを削除することができる。
本実施例の複数のオプションとなる実施形態において、当該方法は、ユーザの表情アイコンを押す時間の長さが所定の期間閾値を超えたか否かを検出することと、超えた場合は、拡大された表情アイコンを生成することと、ユーザの押圧の停止が検出されたことに応答して、拡大された表情アイコンを入力インターフェースに表示することとをさらに含み、拡大された表情アイコンのサイズは、表情アイコンを押す時間の長さに比例する。ユーザは、送信する表情アイコンを編集することができ、入力インターフェースに表示された表情アイコンを押すことにより、当該押される表情アイコンを拡大させることができる。押す時間が長くなるほど、表情アイコンがより大きく拡大される。それにより、ユーザの気分を示すことができ、例えば、怒り表情アイコンを押すことにより複数倍に拡大された怒り表情アイコンが生成され、ユーザが現在極めて怒っていることを示すことができる。
本実施例の複数のオプションとなる実施形態において、上記方法は、入力インターフェースにおける同じ表情アイコンの個数が所定の閾値を超えたか否かを検出することと、超えた場合、所定の閾値を超えた表情アイコンを、拡大された表情アイコンに置き換えて入力インターフェースに表示することをさらに含んでもよい。例えば、連続的に複数の同じ怒り表情アイコンを入力する時に、予め設定された5個を超えた場合、同じ怒り表情アイコンを合わせて、一つの拡大された怒り表情アイコンに置き換えられることにより、ユーザの強烈な気持ちを示す。
本実施例の複数のオプションとなる実施形態において、上記方法は、ユーザによる表情アイコンのドラッグが検出されたことに応答して、ユーザによりドラッグされた表情アイコンの軌跡データを記録することと、受信した表情アイコンを軌跡データに基づいて目標端末に表示されるように、ドラッグされた表情アイコン及び軌跡データを目標端末に送信することとをさらに含む。ユーザは、表情アイコンを往復して擦ることができ、表情アイコンを拡大させ、目標端末に送信すると、目標端末でもユーザの擦る軌跡に従って変化する表情アイコンを表示させることができる。
続いて、図3を参照する。図3は、本実施例の表情アイコンを入力する方法による応用シーンの一模式図である。図3の応用シーンにおいては、ユーザが、まず端末300のカメラを起動させて、顔画像を取得し、端末300が、顔画像の顔特徴点に対して位置決めを行い、複数の口特徴点301、目特徴点302及び眉毛特徴点303を得、複数の口特徴点301、目特徴点302及び眉毛特徴点303の位置に基づいて、当該ユーザの顔表情が微笑みであることを決定することができる。この場合、予め設定された表情アイコンライブラリーから、微笑にマッチする表情アイコン304を選択し、入力インターフェースに表示させる。
本願の上記実施例によって提供される方法によると、ユーザの顔特徴点を取得することにより、ユーザの顔表情を決定し、さらに、予め設定された表情アイコンライブラリーから顔表情にマッチする表情アイコンを選択して、表情アイコンの快速入力を実現する。
さらに、図4を参照する。図4は、表情アイコンを入力する方法の他の実施例のフロー400を示す。当該表情アイコンを入力する方法のフロー400は、下記ステップを含む。
ステップ401において、ユーザの顔画像を取得し、顔画像の顔特徴点に対して位置決めを行う。
ステップ402において、顔特徴点の位置に基づいてユーザの表情情報を決定する。
ステップ403において、予め設定された表情アイコンライブラリーから、表情情報にマッチする表情アイコンを選択する。
ステップ404において、選択された表情アイコンを入力インターフェースに表示する。
ステップ401〜404は、ステップ201〜204と基本的に同じであるため、ここで説明を省略する。
ステップ405において、ユーザの音声情報を取得し、音声情報からキーワードを抽出する。
本実施例において、ユーザは、マイクなどのオーディオ入力装置により音声情報を入力することができる。音声に基づいて、ユーザがいった言葉を認識するようにしてもよく、ユーザからの音声と、予め録音された音声ライブラリーとのマッチングをすることにより、類似する音声を見つけるようにしてもよく、上記音声ライブラリーには、音声とキーワードとのマッピング関係が格納されている。例えば、ユーザが携帯電話でインスタントメッセージをする際に、「ハハハ」の音声を発する。携帯電話は、音声情報から「ハハハ」というキーワードを抽出することができる。ユーザが「ムカつく」を言った場合には、その中から「ムカつく」というキーワードを抽出することができる。音声ライブラリーを予め録音し、音声とキーワードとを対応付けておくこともでき、例えば、各種の笑い声を録音して、「ハハハ」というキーワードに対応させるようにすることができる。ひいては、くしゃみの音声を録音して、「くしゃみ」というキーワードに対応させるようにすることもできる。涎垂れの音声を録音して、「涎」というキーワードに対応させるようにすることもできる。
ステップ406において、予め設定された音声アイコンライブラリーから、キーワードにマッチする表情アイコンを選択する。
本実施例において、音声アイコンライブラリーは、表情アイコンとキーワードとを対応付けて格納するものである。例えば、「ハハハ」というキーワードは、
に対応する。音声アイコンライブラリーは、第三者から取得されてもよく、端末に内蔵されてもよい。
ステップ407において、キーワードにマッチする表情アイコンを入力インターフェースに表示する。
本実施例において、ステップ406で選択された表情アイコンを入力インターフェースに表示させ、ユーザに、インスタントメッセージの受信者の携帯電話のような目標端末への送信に供する。ユーザは、必要に応じて、送信する表情アイコンを選択し、送信したくない表情アイコンを削除することができる。ユーザ顔表情を捕って連続的な複数の動的表情に変換する過程で、同時にユーザのこの間での音声を記録することもできる。受信者の携帯電話で音声付き動的表情を再生することができる。当該表情認識プロセスは、ユーザのタイピングプロセスと同時に進行し、ユーザのタイピングが完了した後、自動的補足して送信することができる。
本実施例の複数のオプションとなる実施形態において、上記方法は、ユーザの表情アイコンを押す時間の長さが所定の期間閾値を超えたか否かを検出することと、超えた場合は、拡大された表情アイコンを生成することと、ユーザの押圧の停止が検出されたことに応答して、拡大された表情アイコンを入力インターフェースに表示させることとをさらに含み、拡大された表情アイコンのサイズは、表情アイコンを押す時間の長さに比例する。ユーザは、送信する表情アイコンを編集することができ、入力インターフェースに表示された表情アイコンを押すことにより、当該押される表情アイコンを拡大させることができる。押す時間が長くなるほど、表情アイコンがより大きく拡大される。それにより、ユーザの気分を示すことができ、例えば、怒り表情アイコンを押すことにより複数倍に拡大された怒り表情アイコンが生成され、ユーザが極めて怒っていることを示すことができる。
本実施例の複数のオプションとなる実施形態において、上記方法は、入力インターフェースにおける同じ表情アイコンの数が所定の閾値を超えたか否かを検出することと、超えた場合は、所定の閾値を超えた表情アイコンを拡大された表情アイコンに置き換えて入力インターフェースで表示させることとをさらに含む。表情アイコンが拡大されたサイズは、同一表情アイコンの個数に比例する。例えば、連続的に複数の同じ怒り表情アイコンを入力する時に、予め設定された5個を超えた場合、同じ怒り表情アイコンが集まって、一つの拡大された怒り表情アイコンに置き換えられる。それにより、ユーザの強烈な気分を示す。10個の怒り表情アイコンにより生成する拡大された怒り表情アイコンは、5個の怒り表情アイコンにより生成する拡大された怒り表情アイコンよりも、サイズが大きくなる。
本実施例の複数のオプションとなる実施形態において、当該方法は、ユーザによる表情アイコンのドラッグが検出されたことに応答して、ユーザによりドラッグされた表情アイコンの軌跡データを記録することと、受信した表情アイコンを軌跡データに基づいて目標端末に表示されるように、ドラッグされた表情アイコン及び軌跡データを目標端末に送信することとをさらに含む。ユーザは、表情アイコンを往復に擦ることができ、表情アイコンを拡大させ、目標端末に送信すると、目標端末でもユーザの擦る軌跡に従って変化する表情アイコンを表示させることができる。
図4でわかるように、図2に対応する実施例と比べて、本実施例における表情アイコンを入力する方法のフロー400には、音声により表情アイコンを入力するステップがより強調される。そのため、本実施例に記載の形態は、より多くの表情アイコンを導入することにより、より完全な表情アイコン入力が実現でき、さらに表情アイコンの入力速度を向上させることができる。
さらに、図5を参照する。上記各図に示す方法の実現として、本願は、表情アイコンを入力するための装置の一実施例を提供する。前記装置の実施例は、図2に示す方法の実施例に対相し、前記装置は具体的に各種の電子デバイスに適用することができる。
図5に示されたように、本実施例の表情アイコンを入力する装置500は、位置決め部501と、決定部502と、選択部503と、表示部504とを具備する。位置決め部501は、ユーザの顔画像を取得し、顔画像の顔特徴点に対して位置決めを行うために用いられる。決定部502は、顔特徴点の位置に基づいてユーザの表情情報を決定するために用いられる。選択部503は、予め設定された表情アイコンライブラリーから、表情情報にマッチする表情アイコンを選択するために用いられ、表情アイコンライブラリーは、表情アイコンと表情情報とが対応付けられ格納されている。表示部504は、表情アイコンを入力インターフェースに表示するために用いられる。
本実施例において、表情アイコンを入力する装置500の位置決め部501、決定部502、選択部503及び表示部504における具体的な処理は、図2に対応する実施例におけるステップ201、ステップ202、ステップ203、ステップ204を参照することができる。
本実施例の複数のオプションとなる実施形態において、装置500は、さらに、ユーザの音声情報を取得し、音声情報からキーワードを抽出する抽出部(図示せず)と、予め設定された音声アイコンライブラリーから、キーワードにマッチする表情アイコンを選択するマッチ部(図示せず)とをさらに具備し、前記音声アイコンライブラリーは、表情アイコンとキーワードとが対応付けられ格納されており、表示部504は、キーワードにマッチする表情アイコンを入力インターフェースに表示する。
本実施例の複数のオプションとなる実施形態において、装置500は、ユーザの表情アイコンを押す時間の長さが所定の期間閾値を超えたか否かを検出する第1の検出部(図示せず)と、超えた場合は、拡大された表情アイコンを生成する生成部(図示せず)とをさらに含み、表示部504は、ユーザの押圧の停止が検出されたことに応答して、拡大された表情アイコンを入力インターフェースに表示し、当該拡大された表情アイコンのサイズは、表情アイコンを押す時間の長さに比例する。
本実施例の複数のオプションとなる実施形態において、装置500は、入力インターフェースにおける同じ表情アイコンの個数が所定の閾値を超えたか否かを検出する第2の検出部(図示せず)と、超えた場合は、所定の閾値を超えた表情アイコンを、拡大された表情アイコンに置き換えて入力インターフェースに表示する置き換え部(図示せず)とをさらに具備する。
本実施例の複数のオプションとなる実施形態において、装置500は、ユーザによる表情アイコンのドラッグが検出されたことに応答して、ユーザによりドラッグされた表情アイコンの軌跡データを記録する記録部(図示せず)と、受信した表情アイコンを軌跡データに基づいて目標端末に表示されるように、ドラッグされた表情アイコン及び軌跡データを目標端末に送信する第1の送信部(図示せず)と、をさらに具備する。
本実施例の複数のオプションとなる実施形態において、装置500は、目標端末で表情アイコンが表示され音声が再生されるように、キーワードにマッチする表情アイコン及び音声情報を目標端末に送信する第2の送信部(図示せず)をさらに具備する。
以下、図6を参照する。図6は本願の実施例を実現するために適切な端末装置のコンピュータシステム600の構造模式図を示す。図6に示す端末装置は、一つの例示にすぎず、本願の実施例の機能及び使用の範囲に如何なる限定をもたらすものではない。
図6に示すように、コンピュータシステム600は、読み出し専用メモリ(ROM)602に格納されたプログラム、又は記憶部608からランダムアクセスメモリ(RAM)603に取り込まれたプログラムにより各種適宜な動作及び処理を実行することができる中央処理装置(CPU)601を具備する。RAM603において、システム600の動作に必要な各種のプログラム及びデータが格納されている。CPU601と、ROM602と、RAM603とは、バス604を介して互いに接続されている。入力/出力(I/O)インターフェース605もバス604に接続されている。
キーボード、カメラ、タッチスクリーン、マイクなどを含む入力部606と、タッチスクリーンなど及びスピーカーなどを含む出力部607と、ハードディスクなどを含む記憶部608と、LANカード、モデムなどのネットワークインターフェースカードを含む通信部609は、I/Oインターフェース605に接続されている。通信部609は、インターネットのようなネットワークを経由して、通信処理を実行する。ドライブ610も、必要に応じてI/Oインターフェース705に接続される。磁気ディスク、光ディスク、磁気光ディスク、半導体メモリなどのようなリムーバブルメディア611は、必要に応じて、読み取ったコンピュータプログラムを必要に応じて記憶部608にインストールできるように、ドライブ610に取り付けられる。
特に、本発明の実施例によれば、以上のフローチャートを参照しながら記載したプロセスは、コンピュータソフトウェアプログラムとして実現することができる。例えば、本発明の実施例は、コンピュータ可読媒体に載せられるコンピュータプログラムを含むコンピュータプログラムを含み、当該コンピュータプログラムは、フローチャートに示された方法を実行するためのプログラムコードを含む。このような実施例において、当該コンピュータプログラムは、通信部609を介してネットワークからダウンロードされてインストールされてもよく、及び/又はリムーバブルメディア611からインストールされてもよい。当該コンピュータプログラムが中央処理装置(CPU)601により実行されると、本願の方法によって特定された上記機能が実行されるようになっている。なお、本願に記載されたコンピュータ可読媒体は、コンピュータ可読シグナル媒体、又はコンピュータ可読記憶媒体、あるいは上記両者の任意の組み合わせであってもよい。コンピュータ可読記憶媒体は、例えば、電気、磁気、光、電磁気、赤外線、又は半導体のシステム、装置又はデバイス、あるいは任意の上記の組み合わせであってもよいが、これらに限定するものではない。コンピュータ可読記憶媒体のより具体的な例示として、一つ又は複数の導線を有する電気接続、携帯可能なコンピュータ磁気ディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能プログラマブル読み出し専用メモリ(EPROM又はフラッシュメモリ)、光ケーブル、携帯可能なコンパクトディスク読み出し専用メモリ(CD−ROM)、光記憶装置、磁気記憶装置、又は上記の任意の適切な組み合わせを含むが、これらに限定されない。本願において、コンピュータ可読記憶媒体は、プログラムを含有又は記憶するいずれの有形媒体であってもよく、当該プログラムは、コマンド実行システム、装置又はデバイスに用いられ、又はそれらが組み合わせて用いられる。本願において、コンピュータ可読のシグナル媒体は、ベースバンドにおいて又はキャリアの一部として伝播されるデータシグナルを含み、コンピュータ可読のプログラムコードが載せられる。このように伝播されたデータシグナルは、電磁気シグナル、光シグナル、又は上記の任意の適切な組み合わせを含む種々の形式を採ることができるが、これらに限定されない。コンピュータ可読の信号媒体は、コンピュータ可読記憶媒体以外のいいかなるコンピュータ可読媒体であってもよく、当該コンピュータ可読媒体は、コマンド実行システム、装置又はデバイスにより使用され、又はそれらと組み合わせて使用されるためのプログラムを送信、伝播又は伝送することができる。コンピュータ可読媒体に含まれるプログラムコードは、無線、電線、光ケーブル、RFなど、又は上記任意の適切な組み合わせを含む任意の適切な媒体を用いて伝送することができるが、それらに限定されない。
図面におけるフローチャート及びブロック図は、本願の各種実施例によるシステム、方法及びコンピュータプログラムが実現可能なシステムアーキテクチャー、機能及び動作を図示する。この点から、フローチャート又はブロック図におけるそれぞれのブロックは、1つのモジュール、プログラムブロック、又はコードの一部を示すことができ、当該モジュール、プログラムブロック、又はコードの一部は、一つ又は複数の所定のロジカル機能を実現するための実行可能なコマンドを含む。なお、複数の代わりになる実装において、ブロックに表示された機能は、図面に表示された順番と異なる順番で発生させることができる。例えば、2つの直列的に接続されると示されたブロックは、実際には、基本的に並行して実行することができ、機能によっては、逆の順番で実行することも可能である。なお、ブロック図及び/又はフローチャートにおけるそれぞれのブロックと、ブロック図及び/又はフローチャートにおけるブロックの組み合わせは、所定の機能又は処理を実行するための専用のハードウェアに基づくシステムによって実現することができ、あるいは、専用ハードウェアとコンピュータコマンドの組み合わせによって実現することができる。
本願の実施例の記載に係る部は、ソフトウェアによって実現されてもよく、ハードウェアによって実現されてもよい。本願で記載した部は、プロセッサーに設けることができ、例えば、位置決め部と、決定部と、選択部と、表示部とを含むプロセッサーとして記載することができる。これらの部の名称は、場合によっては当該部そのものに対する限定にはならず、例えば、位置決め部は、「ユーザの顔画像を取得し、顔画像の顔特徴点に対して位置決めを行う部」と記載することができる。
他の態様として、本願は、コンピュータ可読媒体を提供し、当該コンピュータ可読媒体は、上記実施例に記載された装置に含まれるものであってもよく、当該装置に取り込まれることなく、単独で存在するものであってもよい。上記コンピュータ可読媒体が一つ又は複数のプログラムを載せて、上記一つ又は複数のプログラムが当該装置によって実行されると、当該装置は、ユーザの顔画像を取得し、顔画像の顔特徴点に対して位置決めを行うことと、顔特徴点の位置に基づいてユーザの表情情報を決定することと、予め設定された表情アイコンライブラリーから、表情情報にマッチする表情アイコンを選択することと、前記表情アイコンライブラリーは表情アイコンと表情情報とを対応付けて格納し、表情アイコンを入力インターフェースに表示することとを実行するようになっている。
以上の記載は、本願の好ましい実施例、及び使われている技術的原理の説明に過ぎない。当業者は、本願に係る保護範囲が、上記の技術特徴による特定の組合せからなる技術方案に限定されるものではなく、本発明の趣旨を逸脱しない範囲で、上記技術特徴又は均等の特徴の任意の組合せからなる他の技術方案も含まれることを理解している。例えば、上記特徴と、本願に開示された類似の機能を持っている技術特徴(これらに限定されない)とを互いに置き換えてなる技術方案も含まれる。

Claims (15)

  1. ユーザの顔画像を取得し、前記顔画像の顔特徴点に対して位置決めを行うステップと、
    前記顔特徴点の位置に基づいて前記ユーザの表情情報を決定するステップと、
    予め設定された表情アイコンライブラリーから、前記表情情報にマッチする表情アイコンを選択するステップと、
    前記表情アイコンライブラリーは、表情アイコンと表情情報とを対応付けて格納し、
    選択された表情アイコンを入力インターフェースに表示させるステップと
    を含むことを特徴とする表情アイコンを入力する方法。
  2. 前記表情アイコンを入力する方法は、
    前記ユーザの音声情報を取得し、前記音声情報からキーワードを抽出するステップと、
    予め設定された音声アイコンライブラリーから、前記キーワードにマッチする表情アイコンを選択するステップと、
    前記音声アイコンライブラリーは、前記表情アイコンとキーワードとを対応付けて格納し、
    前記キーワードにマッチする表情アイコンを前記入力インターフェースに表示させるステップと
    をさらに含むことを特徴とする請求項1記載の方法。
  3. 前記表情アイコンを入力する方法は、
    前記ユーザの表情アイコンを押す時間の長さが所定の期間の閾値を超えたか否かを検出するステップと、
    超えた場合は、拡大された表情アイコンを生成するステップと、
    前記ユーザの押圧の停止が検出されたことに応答して、拡大された表情アイコンを前記入力インターフェースに表示させるステップとをさらに含み、
    前記拡大された表情アイコンのサイズは、表情アイコンを押す時間の長さに比例することを特徴とする請求項1又は2記載の方法。
  4. 前記表情アイコンを入力する方法は、
    前記入力インターフェースにおける同じ表情アイコンの数が所定の閾値を超えたか否かを検出するステップと、
    超えた場合は、所定の閾値を超えた表情アイコンを、拡大された表情アイコンに置き換えて入力インターフェースに表示させるステップと
    をさらに含むことを特徴とする請求項1乃至3のいずれか一項に記載の方法。
  5. 前記表情アイコンを入力する方法は、
    前記ユーザによる表情アイコンのドラッグ(drag)が検出されたことに応答して、前記ユーザによりドラッグされた表情アイコンの軌跡データを記録するステップと、
    受信した表情アイコンを前記軌跡データに基づいて目標端末に表示されるように、ドラッグされた表情アイコン及び前記軌跡データを前記目標端末に送信するステップと
    をさらに含むことを特徴とする請求項1乃至4のいずれか一項に記載の方法。
  6. 前記表情アイコンを入力する方法は、
    目標端末に表情アイコンが表示され音声が再生されるように、前記キーワードにマッチする表情アイコン及び前記音声情報を目標端末に送信するステップをさらに含むことを特徴とする請求項2記載の方法。
  7. ユーザの顔画像を取得し、前記顔画像の顔特徴点に対して位置決めをする位置決め部と、
    前記顔特徴点の位置に基づいて前記ユーザの表情情報を決定する決定部と、
    予め設定された表情アイコンライブラリーから、前記表情情報にマッチする表情アイコンを選択する選択部と、
    前記表情アイコンライブラリーは、表情アイコンと表情情報とを対応付けて格納し、
    選択された表情アイコンを入力インターフェースに表示させる表示部と、
    を含むことを特徴とする表情アイコンを入力する装置。
  8. 前記表情アイコンを入力する装置は、
    前記ユーザの音声情報を取得し、前記音声情報からキーワードを抽出する抽出部と、
    予め設定された音声アイコンライブラリーから、前記キーワードにマッチする表情アイコンを選択するマッチング部と
    をさらに含み、
    前記音声アイコンライブラリーは、表情アイコンとキーワードとを対応付けて格納し、
    前記表示部は、前記キーワードにマッチする表情アイコンを前記入力インターフェースに表示することを特徴とする請求項7記載の装置。
  9. 前記表情アイコンを入力する装置は、
    前記ユーザの表情アイコンを押す時間の長さが所定の期間閾値を超えたか否かを検出する第1の検出部と、
    超えた場合は、拡大された表情アイコンを生成する生成部と
    をさらに含み、
    前記表示部は、前記ユーザの押圧の停止が検出されたことに応答して、拡大された表情アイコンを前記入力インターフェースに表示し、前記拡大された表情アイコンのサイズは、表情アイコンを押す時間の長さに比例することを特徴とする請求項7又は8記載の装置。
  10. 前記表情アイコンを入力する装置は、
    前記入力インターフェースにおける同じ表情アイコンの数が所定の閾値を超えたか否かを検出する第2の検出部と、
    超えた場合は、所定の閾値を超える表情アイコンを、拡大された表情アイコンに置き換えて入力インターフェースに表示する置き換え部と
    をさらに含むことを特徴とする請求項7乃至9のいずれか一項に記載の装置。
  11. 前記表情アイコンを入力する装置は、
    前記ユーザによる表情アイコンのドラッグ(drag)が検出されたことに応答して、前記ユーザによりドラッグされた表情アイコンの軌跡データを記録する記録部と、
    受信した表情アイコンを前記軌跡データに基づいて目標端末に表示させるように、ドラッグされた表情アイコン及び前記軌跡データを前記目標端末に送信する第1の送信部と
    をさらに含むことを特徴とする請求項7乃至10のいずれか一項に記載の装置。
  12. 前記表情アイコンを入力する装置は、
    目標端末に表情アイコンが表示され音声が再生されるように、前記キーワードにマッチする表情アイコン及び前記音声情報を目標端末に送信する第2の送信部
    をさらに含むことを特徴とする請求項8記載の装置。
  13. 一つ又は複数のプロセッサーと、一つ又は複数のプログラムを格納する記憶装置とを含む端末であって、
    一つ又は複数のプログラムが一つ又は複数のプロセッサーにより実行されると、前記一つ又は複数のプロセッサーは請求項1〜6のいずれか一項に記載の方法を実行する端末。
  14. コンピュータプログラムが格納されたコンピュータ可読記憶媒体であって、
    前記プログラムがプロセッサーにより実行されると、請求項1〜6のいずれか一項に記載の方法が実行されることを特徴とするコンピュータ可読記憶媒体。
  15. 請求項7〜12のいずれか一項に記載の装置又は請求項13の端末のプロセッサーを機能させることができるコンピュータプログラム。

JP2018125128A 2017-07-04 2018-06-29 表情アイコンを入力するための方法及び装置 Expired - Fee Related JP6688340B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201710538998.4 2017-07-04
CN201710538998.4A CN107153496B (zh) 2017-07-04 2017-07-04 用于输入表情图标的方法和装置

Publications (2)

Publication Number Publication Date
JP2019016354A true JP2019016354A (ja) 2019-01-31
JP6688340B2 JP6688340B2 (ja) 2020-04-28

Family

ID=59796446

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018125128A Expired - Fee Related JP6688340B2 (ja) 2017-07-04 2018-06-29 表情アイコンを入力するための方法及び装置

Country Status (3)

Country Link
US (1) US10984226B2 (ja)
JP (1) JP6688340B2 (ja)
CN (1) CN107153496B (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112152911A (zh) 2015-02-16 2020-12-29 钉钉控股(开曼)有限公司 通讯方法及移动设备
CN105681056B (zh) 2016-01-13 2019-03-19 阿里巴巴集团控股有限公司 对象分配方法及装置
CN107305459A (zh) * 2016-04-25 2017-10-31 阿里巴巴集团控股有限公司 语音和多媒体消息的发送方法及装置
CN107368995A (zh) 2016-05-13 2017-11-21 阿里巴巴集团控股有限公司 任务处理方法及装置
CN109670385B (zh) * 2017-10-16 2023-04-18 腾讯科技(深圳)有限公司 一种应用程序中表情更新的方法及装置
WO2019142127A1 (en) * 2018-01-17 2019-07-25 Feroz Abbasi Method and system of creating multiple expression emoticons
US10699104B2 (en) * 2018-05-03 2020-06-30 International Business Machines Corporation Image obtaining based on emotional status
CN110176044B (zh) * 2018-06-08 2023-05-16 腾讯科技(深圳)有限公司 信息处理方法、装置、存储介质和计算机设备
WO2019241920A1 (zh) * 2018-06-20 2019-12-26 优视科技新加坡有限公司 一种终端控制方法和装置
CN109656463B (zh) * 2018-12-29 2021-03-09 广州方硅信息技术有限公司 个性表情的生成方法、装置及系统
FR3094856B1 (fr) * 2019-04-02 2021-04-30 Unique Entertainment Experience Procede de génération d’un element multimedia au cours de la lecture d’un media, terminal, systeme
CN110618770B (zh) * 2019-09-10 2020-12-25 北京达佳互联信息技术有限公司 一种对象的输入控制方法、装置、设备及介质
KR102768181B1 (ko) * 2019-10-07 2025-02-17 주식회사 플랫팜 확장현실에 적용가능한 의사표현 아이템 데이터베이스를 능동적으로 구축하는 메시지 서비스 제공 장치 및 그 방법
CN111046814A (zh) * 2019-12-18 2020-04-21 维沃移动通信有限公司 图像处理方法及电子设备
CN114546228B (zh) * 2020-11-12 2023-08-25 腾讯科技(深圳)有限公司 表情图像发送方法、装置、设备及介质
US20220269870A1 (en) * 2021-02-18 2022-08-25 Meta Platforms, Inc. Readout of Communication Content Comprising Non-Latin or Non-Parsable Content Items for Assistant Systems
CN114967938B (zh) * 2021-02-22 2024-10-29 北京搜狗科技发展有限公司 一种提示方法、装置和用于提示的装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004234614A (ja) * 2002-06-19 2004-08-19 Sky Broad International:Kk 携帯端末による電子メッセージの送受信システム及びそのシステムに用いられる携帯端末
US20100177116A1 (en) * 2009-01-09 2010-07-15 Sony Ericsson Mobile Communications Ab Method and arrangement for handling non-textual information
JP2010176329A (ja) * 2009-01-28 2010-08-12 Sony Corp 情報処理装置、アニメーション付加方法、及びプログラム
JP2013206135A (ja) * 2012-03-28 2013-10-07 Denso Corp メッセージ装飾入力システム
JP2015185172A (ja) * 2014-03-24 2015-10-22 株式会社 ハイヂィープ 感性伝達方法及びそのための端末機
WO2016002251A1 (ja) * 2014-06-30 2016-01-07 クラリオン株式会社 情報処理システム、及び、車載装置
JP2016058089A (ja) * 2014-09-05 2016-04-21 株式会社カカオ ユーザフィードバックのためのインターフェーシング方法
JP2016162459A (ja) * 2015-02-27 2016-09-05 イマージョン コーポレーションImmersion Corporation ユーザの気分に基づく動作の生成
JP2017514194A (ja) * 2014-02-05 2017-06-01 フェイスブック,インク. 感情解析に基づくイデオグラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102103617B (zh) * 2009-12-22 2013-02-27 华为终端有限公司 获取表情含义的方法和装置
CN102890776B (zh) * 2011-07-21 2017-08-04 爱国者电子科技有限公司 通过面部表情调取表情图释的方法
US20140082520A1 (en) * 2012-05-24 2014-03-20 Monir Mamoun Method and System for Gesture- and Animation-Enhanced Instant Messaging
CN102842033A (zh) * 2012-08-17 2012-12-26 苏州两江科技有限公司 基于人脸识别进行人物表情情感语义识别方法
CN102984050A (zh) * 2012-11-27 2013-03-20 上海量明科技发展有限公司 即时通信中语音搜索的方法、客户端及系统
CN104410561A (zh) * 2013-10-29 2015-03-11 贵阳朗玛信息技术股份有限公司 一种聊天表情发送方法及装置
CN103823561B (zh) * 2014-02-27 2017-01-18 广州华多网络科技有限公司 表情输入方法和装置
KR20160085614A (ko) * 2015-01-08 2016-07-18 엘지전자 주식회사 이동단말기 및 그 제어방법
CN106033337B (zh) * 2015-03-13 2019-07-16 腾讯科技(深圳)有限公司 一种即时通信表情符号生成方法及装置
CN104820548A (zh) * 2015-04-08 2015-08-05 魅族科技(中国)有限公司 一种截图方法及装置
US10489509B2 (en) * 2016-03-14 2019-11-26 International Business Machines Corporation Personality based sentiment analysis of textual information written in natural language
CN106059907A (zh) * 2016-08-04 2016-10-26 深圳市大熊动漫文化有限公司 表情交互方法及装置
CN106372059B (zh) * 2016-08-30 2018-09-11 北京百度网讯科技有限公司 信息输入方法和装置
CN106503630A (zh) * 2016-10-08 2017-03-15 广东小天才科技有限公司 一种表情发送方法、设备及系统
CN106570106A (zh) * 2016-11-01 2017-04-19 北京百度网讯科技有限公司 一种输入过程中将语音信息转化为表情的方法和装置
CN106657650B (zh) * 2016-12-26 2020-10-30 中船舰客教育科技(北京)有限公司 一种系统表情推荐方法、装置及终端

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004234614A (ja) * 2002-06-19 2004-08-19 Sky Broad International:Kk 携帯端末による電子メッセージの送受信システム及びそのシステムに用いられる携帯端末
US20100177116A1 (en) * 2009-01-09 2010-07-15 Sony Ericsson Mobile Communications Ab Method and arrangement for handling non-textual information
JP2010176329A (ja) * 2009-01-28 2010-08-12 Sony Corp 情報処理装置、アニメーション付加方法、及びプログラム
JP2013206135A (ja) * 2012-03-28 2013-10-07 Denso Corp メッセージ装飾入力システム
JP2017514194A (ja) * 2014-02-05 2017-06-01 フェイスブック,インク. 感情解析に基づくイデオグラム
JP2015185172A (ja) * 2014-03-24 2015-10-22 株式会社 ハイヂィープ 感性伝達方法及びそのための端末機
WO2016002251A1 (ja) * 2014-06-30 2016-01-07 クラリオン株式会社 情報処理システム、及び、車載装置
JP2016058089A (ja) * 2014-09-05 2016-04-21 株式会社カカオ ユーザフィードバックのためのインターフェーシング方法
JP2016162459A (ja) * 2015-02-27 2016-09-05 イマージョン コーポレーションImmersion Corporation ユーザの気分に基づく動作の生成

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
""18 Facebook スタンプで感情をもっと表現する スタンプを拡大して友達を驚かせよう!"", IPHONE&IPAD お得技全集, JPN6019029577, 1 August 2016 (2016-08-01), JP, pages 74, ISSN: 0004087506 *
"ドラゴンクエストヒーローズ 闇竜と世界樹の城", デンゲキバズーカ!!, vol. 第2巻, 第4号, JPN6020012239, 21 February 2015 (2015-02-21), pages 72 - 73, ISSN: 0004245138 *
佐々木和宏ほか1名: ""Messenger 34 巨大ないいね! どうすれば送れるの?"", 定番のLINE&FACEBOOK+MESSENGER,INSTAGRAM, vol. 初版, JPN6019029579, 30 September 2016 (2016-09-30), JP, pages 245, ISSN: 0004087508 *
西村優里ほか1名: ""おかおチャット:表情認識を利用したスタンプ推薦システム"", インタラクション2016論文集[ONLINE], JPN6019029578, 24 February 2016 (2016-02-24), JP, pages 841 - 844, ISSN: 0004087507 *

Also Published As

Publication number Publication date
CN107153496A (zh) 2017-09-12
US20190012527A1 (en) 2019-01-10
CN107153496B (zh) 2020-04-28
US10984226B2 (en) 2021-04-20
JP6688340B2 (ja) 2020-04-28

Similar Documents

Publication Publication Date Title
JP6688340B2 (ja) 表情アイコンを入力するための方法及び装置
US12425716B2 (en) Content capture with audio input feedback
US12063321B2 (en) Modular camera interface with context-based display elements utilizing first and second lens
US20230274655A1 (en) Displaying augmented reality content with tutorial content
CN110968736B (zh) 视频生成方法、装置、电子设备及存储介质
CN109726624B (zh) 身份认证方法、终端设备和计算机可读存储介质
KR102856286B1 (ko) 검출된 객체들에 대한 증강 현실 콘텐츠의 음성 기반 선택
JP7225188B2 (ja) ビデオを生成する方法および装置
CN104992709B (zh) 一种语音指令的执行方法及语音识别设备
KR20090097891A (ko) 문서 제어 방법, 시스템 및 프로그램 제품
KR20140114238A (ko) 오디오와 결합된 이미지 표시 방법
JP2022088304A (ja) ビデオを処理するための方法、装置、電子機器、媒体及びコンピュータプログラム
KR20100062207A (ko) 화상통화 중 애니메이션 효과 제공 방법 및 장치
CN110992958B (zh) 内容记录方法、装置、电子设备及存储介质
WO2013189317A1 (zh) 基于人脸信息的多媒体交互方法及装置及终端
CN113703585A (zh) 交互方法、装置、电子设备及存储介质
JP2016102920A (ja) 文書記録システム及び文書記録プログラム
WO2022127486A1 (zh) 界面主题切换方法及装置、终端、存储介质
US11163822B2 (en) Emotional experience metadata on recorded images
JP2018073237A (ja) 会議情報表示システム、会議情報表示方法および会議情報表示プログラム
CN107452381B (zh) 一种多媒体语音识别装置及方法
CN110349577A (zh) 人机交互方法、装置、存储介质及电子设备
CN114880062A (zh) 聊天表情展示方法、设备、电子设备及存储介质
CN114024929A (zh) 语音消息处理方法、装置、电子设备及介质
JP7206741B2 (ja) 健康状態判定システム、健康状態判定装置、サーバ、健康状態判定方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200403

R150 Certificate of patent or registration of utility model

Ref document number: 6688340

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees