[go: up one dir, main page]

JP2017208051A - 技術支援装置、方法、プログラムおよびシステム - Google Patents

技術支援装置、方法、プログラムおよびシステム Download PDF

Info

Publication number
JP2017208051A
JP2017208051A JP2016101960A JP2016101960A JP2017208051A JP 2017208051 A JP2017208051 A JP 2017208051A JP 2016101960 A JP2016101960 A JP 2016101960A JP 2016101960 A JP2016101960 A JP 2016101960A JP 2017208051 A JP2017208051 A JP 2017208051A
Authority
JP
Japan
Prior art keywords
information
presentation
feature point
user
theme
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016101960A
Other languages
English (en)
Other versions
JP6670677B2 (ja
Inventor
純 塩田
Jun Shiota
純 塩田
允 滝澤
Makoto Takizawa
允 滝澤
英嗣 小林
Hidetsugu Kobayashi
英嗣 小林
田中 裕之
Hiroyuki Tanaka
裕之 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Inc
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016101960A priority Critical patent/JP6670677B2/ja
Publication of JP2017208051A publication Critical patent/JP2017208051A/ja
Application granted granted Critical
Publication of JP6670677B2 publication Critical patent/JP6670677B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ユーザが作業を行う際に適切な技術支援を行う、技術支援装置、方法、プログラム及びシステムを提供する。【解決手段】技術支援装置10は、カメラ30が撮影して得た処理対象に関する画像である対象画像を取得し、この画像から特徴点情報を検出し、この特徴点情報を特徴点情報格納手段14に格納し、格納した特徴点情報のフレーム間の差分情報を抽出する。操作端末40から、処理対象に対するユーザの作業のテーマを示すテーマ情報を取得し、差分情報及びテーマ情報に基づいて、作業の状況、ユーザが作業する対象領域の情報、ユーザの動作を認識し、それらの結果に基づいて、提示情報格納手段20に格納されている提示情報からユーザへの提示情報を取得し、この情報に対して所定処理を施した情報を出力し、提示タイミング格納部23から提示情報を提示するタイミング情報を取得し、所定処理を施した提示情報を出力装置60に出力する。【選択図】図1

Description

本発明の実施形態は、技術支援装置、方法、プログラムおよびシステムに関する。
ユーザは、スマートフォンやタブレット等の端末上のアプリケーションやwebコンテンツを参考にしながら作業及び技術を行うことがある。
例えば、ユーザがメイクを行う場合は、スマートフォンやタブレット等の端末を用いて、インターネット上の動画やイラストを参考にすることが多い。
従来技術として、ユーザによる端末の操作により選択された情報を取得する技術や、ユーザが手を挙げる、振る等の明示的なジェスチャを行うのを契機に、情報を取得する技術が存在する(例えば非特許文献1参照)。
杉本拓也ら、音声認識とジェスチャ機能を用いた料理者支援、情報処理学会第76回全国大会、p。4-879、 (2014)
しかしながら、ユーザがメイク道具を持ちメイクを行うのと並行して、メイクするテーマやパーツを選択する等のために、当該ユーザが端末を操作することは困難である。
また、上記のように、ユーザがメイク道具を持ちメイクを行うのと並行して、情報を取得するために、当該ユーザが上記のように端末を操作したりジェスチャを行うことは困難である。
したがって、従来技術では、ユーザが作業を行う際に適切な技術支援を行うことができなかった。
この発明は上記事情に着目してなされたもので、その目的とするところは、ユーザが作業を行う際に適切な技術支援を行うことができる技術支援装置、方法、プログラムおよびシステムを提供することにある。
上記目的を達成するために、この発明の第1の観点に係る技術支援装置は、
処理対象に関する画像である対象画像を取得する画像取得手段と、前記取得した対象画像から特徴点情報を検出する特徴点検出手段と、前記検出した特徴点情報を格納する特徴点情報格納手段と、前記格納した特徴点情報のフレーム間の差分情報を抽出する差分抽出手段と、前記処理対象に対するユーザの作業のテーマを示すテーマ情報を選択するテーマ選択手段と、前記ユーザに対する提示情報を格納する提示情報格納手段と、前記差分情報および前記選択した前記テーマ情報に基づいて、前記作業の状況を認識する状況認識手段と、前記差分情報および前記選択したテーマ情報に基づいて、前記処理対象に対してユーザが作業する対象領域を認識する対象領域認識手段と、前記差分情報に基づいて、前記ユーザの動作を認識する動作認識手段と、前記差分抽出手段により前記差分情報が抽出された場合に、前記状況認識手段による認識の結果、前記対象領域認識手段により認識した前記対象領域の情報、および前記動作認識手段による認識の結果に基づいて、前記提示情報格納手段に格納される提示情報から前記ユーザへの提示情報を取得する提示情報取得手段と、前記取得した提示情報に対して所定の処理を施した情報を生成する提示情報生成手段と、提示内容ごとに、前記提示情報を提示するタイミングに関する情報を格納する提示タイミング格納手段と、前記提示情報生成手段により生成された情報をもとに、前記提示タイミング格納手段から前記提示情報を提示するタイミングに関する情報を取得し、この情報をもとに、所定の処理を施した提示情報を出力装置に出力する提示タイミング制御手段とを含む。
さらに、この発明の第2の観点に係る技術支援装置は、第1の観点において、前記特徴点検出手段は、前記対象画像の特徴点情報を抽出し、前記ユーザが参考とする作業の状況を示す状況情報を格納する参考状態格納手段をさらに有し、前記状況認識手段は、前記特徴点情報および前記状況情報に基づいて、前記ユーザの作業の状況を判定する状況判定手段を有する。
さらに、この発明の第3の観点に係る技術支援装置は、第1の観点において、前記処理対象は、前記ユーザが作業に用いる道具を含み、前記特徴点検出手段は、前記対象画像の特徴点情報を抽出し、前記差分抽出手段は、前記特徴点情報に基づく前記差分情報を抽出し、前記ユーザが作業に用いる道具、および、前記道具を用いた作業の対象である対象領域の関係を示す道具情報を格納する道具情報格納手段をさらに備え、前記対象領域認識手段は、前記特徴点情報に基づいて前記対象領域を取得する対象領域取得手段と、前記特徴点情報に基づく前記差分情報および前記道具情報に基づいて、前記対象領域および前記道具の情報を取得する道具認識手段と、前記対象領域取得手段により取得した前記対象領域および前記道具認識手段により取得した前記対象領域および前記道具の情報の判定を行い、判定結果を前記対象領域認識手段による認識の結果として出力する対象領域判定手段とをさらに有する。
さらに、この発明の第4の観点に係る技術支援装置は、第2の観点において、前記参考状態格納手段は、前記テーマの種別ごとに前記状況情報を格納し、前記状況判定手段は、前記テーマ選択手段により選択したテーマ情報、前記特徴点情報に基づく前記差分情報、および前記状況情報に基づいて、前記テーマ選択手段により選択したテーマ情報にかかわる、前記ユーザの作業の状況を判定する。
さらに、この発明の第5の観点に係る技術支援装置は、第3の観点において、前記道具情報格納手段は、前記テーマの種別ごとに前記道具情報を格納し、前記対象領域取得手段は、前記テーマ選択手段により選択したテーマ情報および前記特徴点情報に基づく前記差分情報に基づいて前記対象領域を取得し、前記道具認識手段は、前記テーマ選択手段により選択したテーマ情報、前記特徴点情報に基づく前記差分情報、に基づいて、前記対象領域および前記道具の情報を取得する。
すなわちこの発明によれば、ユーザが作業を行う際に適切な技術支援を行うことができる。
本発明の実施形態における技術支援装置の一例を示すブロック図。 本発明の実施形態における技術支援装置が抽出する特徴点情報の構成を表形式で示す図。 本発明の実施形態における技術支援装置が抽出する顔特徴点情報の構成を表形式で示す図。 本発明の実施形態における技術支援装置が顔特徴点情報から得た差分情報の一例を表形式で示す図。 本発明の実施形態における技術支援装置が特徴点情報から得た差分情報の一例を表形式で示す図。 本発明の実施形態における技術支援装置の状況認識部の詳細構成の一例を示すブロック図。 本発明の実施形態における技術支援装置の提示情報格納部に格納される提示情報の一例を表形式で示す図。 本発明の実施形態における技術支援装置の参考状態格納部に格納される状況情報の一例を表形式で示す図。 本発明の実施形態における技術支援装置の対象領域認識部の詳細構成の一例を示すブロック図。 本発明の実施形態における技術支援装置の道具情報格納部に格納される道具情報の一例を表形式で示す図。 本発明の実施形態における技術支援装置の提示タイミング格納部に格納される提示タイミング情報の一例を表形式で示す図。 本発明の実施形態における技術支援装置による人物認証に伴うあいさつの提示の手順の一例を示すフローチャート。 本発明の実施形態における技術支援装置による人物認証に伴うあいさつの提示における表示画面の一例を示す図。 本発明の実施形態における技術支援装置によるメイク情報の提示の手順の一例を示すフローチャート。 本発明の実施形態における技術支援装置による部位確認における表示画面の一例を示す図。 本発明の実施形態における技術支援装置によるメイク情報の提示における表示画面の一例を示す図。 本発明の実施形態における技術支援装置による生活情報の提示の手順の第1の例を示すフローチャート。 本発明の実施形態における技術支援装置による生活情報の提示の手順の第2の例を示すフローチャート。 本発明の実施形態における技術支援装置による生活情報の提示における表示画面の一例を示す図。 本発明の実施形態における技術支援装置による情報保存および前回情報の提示の手順の一例を示すフローチャート。 本発明の実施形態における技術支援装置による情報保存における表示画面の一例を示す図。 本発明の実施形態における技術支援装置による前回情報の提示における表示画面の一例を示す図。
以下、図面を参照しながら本開示の一実施形態に係る技術支援装置、方法、プログラムおよびシステムについて詳細に説明する。なお、以下の実施形態では、同一の番号を付した部分については同様の動作を行うものとして、重ねての説明を省略する。
本発明は、画像情報を用いて、ユーザのメイクしている状況を認識し、ユーザの状況に応じた情報提示を行うものである。
本発明により、ユーザによる明示的なジェスチャがなくても、ユーザの自然なメイクの所作から画像情報を用いてユーザの状況を認識(または予測)ができる。
また、ユーザは、端末の操作やジェスチャをしなくても、上記の状況に応じた情報を取得することができる。
また、ユーザは、端末の操作やジェスチャをしなくても、メイク以外の生活に必要な情報を能動的に受け取ることができる。
図1は、本発明の実施形態における技術支援装置の一例を示すブロック図である。
図1に示すように、技術支援装置10は、画像取得部11、特徴点検出部12、差分抽出部13、特徴点情報格納部14、テーマ選択部15、状況認識部16、対象領域認識部17、動作認識部18、提示情報取得部19、提示情報格納部20、提示情報生成部21、提示タイミング制御部22、提示タイミング格納部23を有する。
画像取得部11は、カメラ30が撮影して得た、処理対象に関する画像(対象画像ともいう)画像を取得する。カメラ30は、図1に示すように技術支援装置10の外部に存在してもよいし、技術支援装置10に内蔵されていてもよい。画像取得部11は、取得した画像に対して、補正処理などの前処理を行う。画像取得部11は、この処理を施した画像を特徴点検出部12に出力する。
具体的には、補正処理としては、画像の解像度の大きさを調整する処理、画像中の影を除去する処理、画像中の対象領域(ユーザの部位またはパーツ)に他の物体(手やメイク道具等)が重なってしまったときに物体の除去を行う処理、背景抽出などによる画像中の検出の対象となる領域を限定する処理、左右を反転する処理等が挙げられる。ここでは、カメラ30により処理対象への作業経過を撮像し続けることを想定し、画像取得部11が、一定の間隔、例えば30〜60ms程度の間隔で画像の各フレームを取得すると想定する。
特徴点検出部12は、画像取得部11から対象画像(または前処理された対象画像)を受け取る。特徴点検出部12は、この対象画像の各フレームから特徴点情報を検出する。特徴点情報とは、対象画像と、この対象画像における特徴点の位置関係、色に関する情報を含む。
特徴点検出部12は、同じ対象画像から検出した特徴点情報を、差分抽出部13に出力する。
次に、特徴点情報の詳細について説明する。
メイクの場合、特徴点情報とは、一般的な特徴点情報と顔特徴点情報の2つが考えられる。今回の場合、一般的な特徴点情報は、顔特徴点情報と区別され、顔特徴点情報と重複しないものとする。顔特徴点情報とは、対象画像と、この対象画像における処理領域との位置関係、色に関する情報を含む。処理領域は、処理対象に対してユーザが作業する部分であり、部位またはパーツともいう。顔のパーツは、例えば左眉毛、右眉毛、左目、右目、鼻、口、左頬、右頬など、顔を印象付けるパーツが挙げられる。
図2は、本発明の実施形態における技術支援装置が抽出する特徴点情報の構成を表形式で示す図である。
特徴点検出部12は、取得した画像について、Harrisa法やKLT法等の特徴点検出方法を用いて特徴点情報を導出する。この図2に示すように、特徴点情報は、特徴点座標p_aと、色(実測値)c_aが対応付けられる。また、特徴点座標p_aは、2次元だけでなく、1次元座標から3次元座標までのいずれかを想定しているが、さらに高次元の座標も同様に用いることができる。色(実測値)c_aとは、1ピクセルごとのRGB値やRGBA値、HSV値、または、領域内の全ピクセルにおけるRGB値やRGBA値、HSV値の平均値が考えられるが、色が指定できる値であればどのような情報でもよい。後述する色(実測値)c_bなどのその他の色の情報についても同様である。
図3は、本発明の実施形態における技術支援装置が抽出する顔特徴点情報の構成を表形式で示す図である。
特徴点検出部12は、Viola-Jonesの方法等の顔検出方法を用いて、画像における顔特徴点情報を取得する。図3は、本発明の実施形態における技術支援装置が抽出する顔特徴点情報の構成を表形式で示す図である。図3に示すように、顔特徴点情報は、部位ID、特徴点座標p_b、色(実測値)c_bが対応付けられる。部位IDは、例えばユーザの顔のパーツを一意に識別するための識別子である。
特徴点検出部12は、特徴点検出において補正処理を行っても良い。具体的には、顔を正面にする処理、画像中の対象領域に手や影等の物体が重なってしまったときに物体の除去を行う処理、黒子や傷を消す処理、顔以外の部分をトリミングする処理等が挙げられる。
差分抽出部13は、特徴点検出部12から特徴点情報を取得する。差分抽出部13は、差分を抽出すると、提示情報取得部19、提示情報格納部20に作業開始信号を出力する。差分抽出部13は、取得した特徴点情報を特徴点情報格納部14に格納する。
差分抽出部13は、特徴点情報格納部14に格納される、時系列で隣接する各フレームの特徴点情報から差分情報を取得する。差分情報は、差分値とその位置を表した情報を含む。特徴点情報格納部14には、時系列で連続する例えば10前後のフレームが格納され、古いフレームから順次上書きされる。
差分抽出部13は、取得した差分情報を対象領域認識部17に出力する。また、差分抽出部13は、取得した差分情報を状況認識部16および対象領域認識部17に出力する。
次に、差分情報の詳細について説明する。
メイクの場合、差分情報とは、一般的な特徴点情報に基づいて抽出した差分情報と、顔特徴点情報に基づいて抽出した顔の差分情報がある。図4は、本発明の実施形態における技術支援装置が顔特徴点情報から得た顔差分情報の一例を表形式で示す図である。図4に示すように、差分抽出部13が顔特徴点情報から得た顔差分情報は、部位ID、特徴点座標(実測値)p_b、色(実測値)c_b、差分値d_bが対応付けられる。
差分抽出部13は、最新のフレームに関する色情報と、最新のフレームのよりも前のフレームに関する色情報とを比較し、2値の差や最小二乗法等を用いて、上記の顔差分情報における差分値d_bを算出する。差分値d_bは1ピクセル単位でもある領域の平均値でも構わない。また、顔差分情報や差分情報は、1フレーム同士の色の差分値に限らず、例えば画像の状態(一時的な光の照り返し等)の変化に対応できるように、複数フレーム同士の色の差分の平均値等であってもよい。
図5は、本発明の実施形態における技術支援装置が特徴点情報から得た差分情報の一例を表形式で示す図である。図5に示すように、差分抽出部13が特徴点情報から得た差分情報は、図4に示す、顔特徴点から得た顔差分情報の部位IDを含まず、特徴点座標(実測値)p_a、色(実測値)c_a、差分値d_aが対応付けられる。
特徴点情報格納部14は、いわゆるバッファであり、例えば不揮発性メモリなどの記憶装置で実現でき、1フレームごとに顔特徴点情報や特徴点情報を格納することができる。
外部コンテンツDB50は、例えば不揮発性メモリなどの記憶装置で実現でき、メイクに関するコンテンツ(化粧品や美容に関するwebサイト、化粧品会社や美容関連の会社のデータベース、ユーザのメイクについての過去の履歴を保存するアプリケーション等)や、メイクに関係ないコンテンツ(電車の運行状況や天気予報のアプリケーション等)等の外部コンテンツ70と、その外部コンテンツ70のどの情報をどのように使用するかをユーザが事前に選択し、格納したものである。例えば、外部コンテンツ70が化粧品のwebサイトの場合、新商品が発売したという情報がアップデートされたら、その商品の詳細情報や使い方の動画をメイクのアドバイス情報として提示するという情報を外部コンテンツDB50に格納されることが考えられる。また、外部コンテンツ70が天気予報のアプリケーションの場合、天気予報情報がアップデートされたら、メイクアドバイスと合わせて提示するという情報を格納されることが考えられる。外部コンテンツDB50には、この外部コンテンツ70にアクセスするためのURLなどを登録しておけばよい。
テーマ選択部15は、例えばタブレットなどの操作端末40によりユーザから指定されたテーマ情報を取得する。操作端末40は技術支援装置10と一体でも構わない。テーマ情報は、作業のカテゴリを示し、メイクの場合、テーマ情報とは、可愛い系や大人っぽい系等、ユーザが参考とするメイクのカテゴリを示す。メイクのテーマのカテゴリは設定値により変更できてもよく、テーマを一意に識別するための識別子をテーマIDとする。テーマ情報は、操作端末40や外部コンテンツDB50から得た情報を元に設定してもよい。例えば、操作端末40に組み込まれている写真等のメディアを保存するアプリケーションで管理される写真、外部コンテンツDB50に登録された外部コンテンツ70の化粧品会社のWebページやSNS上のトレンドメイク、ユーザのお気に入りメイク等からテーマ情報を取得する。
図6は、本発明の実施形態における技術支援装置の状況認識部の詳細構成の一例を示すブロック図である。
図6に示すように、状況認識部16は、状況判定部16aと参考状態格納部16bとを含む。
テーマ選択部15は、テーマ情報を状況認識部16内の状況判定部16aと、対象領域認識部17内の道具認識部17b、同じく対象領域認識部17内の対象領域取得部17aに出力する。対象領域取得部17a、道具認識部17bについては後述する。
状況認識部16の状況判定部16aは、差分抽出部13から差分情報を、テーマ選択部15からテーマ情報をそれぞれ取得する。状況判定部16aは、差分情報とテーマ情報とに基づいて、ユーザの作業の状況を判定する。状況判定部16aは、状況の判定結果を提示情報取得部19に出力する。
対象領域認識部17は、差分抽出部13から差分情報を取得する。対象領域認識部17は、取得した差分情報をもとに、画像中の対象領域(ユーザの部位またはパーツ)や使用する道具を認識する。対象領域認識部17は、認識した対象領域や道具を示す情報を提示情報取得部19に出力する。対象領域認識部17の構成や動作の詳細については後述する。
また、動作認識部18は、差分抽出部13から差分情報を取得し、これらの差分情報をもとに、画像中のユーザの笑顔やジェスチャ等の広義の動作を認識し、この認識の結果を提示情報取得部19に出力する。
提示情報格納部20は、例えば不揮発性メモリなどの記憶装置を有し、この記憶装置に以下で述べる提示情報を格納する。提示情報取得部19は、状況認識部16から状況判定結果を、対象領域認識部17から対象領域や道具を示す情報を、差分抽出部13から作業開始信号を、動作認識部18から動作を示す情報をそれぞれ取得する。
提示情報取得部19は、取得した、状況判定結果、対象領域や道具を示す情報、および作業開始信号、動作を示す情報をもとに、状況判定結果、対象領域や道具、動作を示す情報と提示情報格納部20に格納される提示情報とを比較し、これら状況判定結果、対象領域、道具、動作を示す情報に対応する状況ID、テーマID、部位ID、道具ID、動作IDに対応付けられる提示情報を取得する。図7に示すように、提示情報とは、ユーザに対し提示する内容と提示形式とに関する情報を含む。提示情報取得部19は、取得した提示情報を提示情報生成部21へ出力する。
図7は、本発明の実施形態における技術支援装置の提示情報格納部に格納される提示情報の一例を表形式で示す図である。
図7に示すように、提示情報格納部20に格納される提示情報は、状況ID、テーマID、部位ID、道具ID、動作ID、提示内容、内容詳細、および提示形式が対応付けられる。
状況IDとは、「アプリ起動=0’」、「作業前=0」、「作業中=1」、「作業後=2」、「アプリケーション起動中=3」等の、ユーザによる作業の状態(状況)を一意に識別するための識別子である。道具IDとは、例えばユーザがメイクに使用する道具を一意に識別するための識別子である。ここでは、メイク道具のメーカ、カラー、色味、商品番号などから構成される識別子である。動作IDとは、「ユーザの笑顔=0」、「手を上げる=1」等の動作を一意に識別するための識別子である。提示情報における各種IDの「-」とは、IDの種別を問わないことを指す。
提示内容とは、ユーザへのあいさつやメイクのアドバイスに加え、メイクや美容以外の、例えば生活に必要な情報や雑談等が挙げられる。
提示形式とは、(1)文章やイラスト、動画、音声で出力する、(2)提示する内容を画像で生成し、その画像を対象画像に重畳させる、(3)外部コンテンツDB50に登録された外部コンテンツ70と連携し、チャット形式で表示、リンクをユーザに提示する等が挙げられる。また、同じ提示内容に対し、これらの提示形式を複数組み合わせてもよい。
差分抽出部13からの作業開始信号を取得した場合、提示情報格納部20は、外部コンテンツDB50に登録されたアプリケーション(例:電車の運行状況)において、情報(例:電車の遅延等情報)がアップデートされているか確認し、アップデートされているときに、このアップデートされた情報をユーザに情報提示するために外部コンテンツDB50から取得し、上書き保存する。また、提示情報格納部20は、本アプリケーション起動中に、外部コンテンツDB50上にあるアプリケーションにおいて、情報がアップデートされたときに、このアップデートされた情報をユーザに情報提示するために外部コンテンツDB50から取得し、上書き保存する。そして、提示情報取得部19は、「状況ID=3」に対応する提示情報を取得し、提示情報生成部21へ出力する。
提示情報生成部21は、提示情報取得部19から提示情報を受け取る。提示情報生成部21は、この受け取った提示情報の補正処理や提示情報を出力する形式にする処理(例えば、出力形式が画像の場合は描画処理)を行い、この処理が施された提示情報を提示タイミング制御部22に出力する。
提示情報の補正処理とは、提示情報が画像である場合、対象の画像の色や提示位置のバランスを調整する処理等が考えられる。
次に、状況認識部16の詳細について説明する。
状況認識部16の状況判定部16aは、差分抽出部13から差分情報を、テーマ選択部15からテーマ情報をそれぞれ取得する。
参考状態格納部16bは、例えば不揮発性メモリなどの記憶装置であり、テーマごとにユーザが参考とする作業の状況を示す状況情報を、事前に格納する。
図8は、本発明の実施形態における技術支援装置の参考状態格納部に格納される状況情報の一例を表形式で示す図である。図8に示すように、参考状態格納部16bに格納される状況情報は、テーマID、部位ID、特徴点座標(理論値)p’_b、色(理論値)c’_b、差分値d’_b、状況IDが対応付けられる。
上記の特徴点座標(理論値)p’_b、色(理論値)c’_b、差分値d’_b、状況IDは設定値であり、例えば操作端末40に対する操作による設定によって変更可能である。また、色(理論値)c’_bは外部コンテンツDB50や操作端末40から取得したテーマ情報に応じても変更可能である。
状況判定部16aは、取得した差分情報とテーマ情報とを用いて、参考状態格納部16bから状況情報を取得する。
状況判定部16aは、この取得した状況情報を提示情報取得部19へ出力する。
次にメイクの場合の状況情報の取得の具体例について説明する。状況判定部16aは所定条件(設定により変更可)を満たす、顔差分情報上の1行または複数の行で定められる差分値d_b、およびこの差分値d_bに対応付けられる部位ID、特徴点座標(実測値)p_b、色(実測値)c_bが対応付けられる特定顔差分情報を、上記のように取得した顔差分情報から抽出する。
状況判定部16aは、(1)テーマ選択部15から取得したテーマ情報であるテーマID、顔差分情報から抽出した特定顔差分情報における部位IDとの組み合わせと、(2)参考状態格納部16bから取得した状況情報のテーマID、部位IDの組み合わせとを比較する。
これらの比較した各種のIDが同種のIDの間で同値となる場合、状況判定部16aは、(1)特定顔差分情報の一要素であり、上記の比較した各IDに対応する色(実測値)c_bと、(2)参考状態格納部16bに格納される状況情報の一要素である、上記の比較した各IDに対応する色(理論値)c’_bとの差分値を算出する。
状況判定部16aは、この算出した差分値と、参考状態格納部16bに格納される状況情報の各行の差分値d’_bの範囲とを比較し、この範囲に、上記の算出した差分値が含まれる場合、この範囲の差分値d’_bに対応する状況ID(0、1または2)、テーマID、部位IDを状況情報から取得する。
次に、対象領域認識部17の詳細について説明する。図9は、本発明の実施形態における技術支援装置の対象領域認識部(の詳細構成の一例を示すブロック図である。
図9に示すように、対象領域認識部17は、対象領域取得部17a、道具認識部17b、対象領域判定部17c、道具情報格納部17dを有する。対象領域認識部17は、対象領域取得部17a、対象領域判定部17cのみを含む構成でもよいし、または、道具認識部17b、対象領域判定部17c、道具情報格納部17dのみを含む構成でもよいし、または対象領域取得部17aのみを含む構成でもよいし、道具認識部17b、道具情報格納部17dのみを含む構成でもよい。
対象領域取得部17aは、差分抽出部13から顔差分情報を、テーマ選択部15からテーマ情報をそれぞれ取得する。対象領域取得部17aは、取得した差分情報とテーマ情報から、対象領域の情報を取得する。対象領域取得部17aは、決定した対象領域の情報を対象領域判定部17cへ出力する。具体的には、対象領域取得部17aは、取得した顔差分情報について、各部位で差分値がある設定値(設定により変更可能)以上の座標点において、部位ごとに色分けする。例えば、眉毛の領域内で差分値がある設定値以上の座標点を赤色、目の領域内で差分値がある設定値以上の座標点を青色、頬の領域内で差分値がある設定値以上の座標点を緑色、唇の領域内で差分値がある設定値以上の座標点を黄色とする。対象領域取得部17aは、各部位内で色付けされた座標点において隣接する座標点が複数ある場合、それらの隣接する座標点からなる領域の輪郭を抽出する。このとき、対象領域取得部17aは、隣接する座標点が複数ある場合、隣接する座標点から構成する領域の面積がX以上である場合等、座標点から生成される領域の条件を設定により変更できるものとする。対象領域取得部17aは、この抽出した輪郭のうち、最もy座標が小さい(画面の上部)部位を対象領域と判定する。
道具認識部17bは、差分抽出部13から差分情報を、テーマ選択部からテーマ情報をそれぞれ取得する。道具認識部17bは、取得した差分情報とテーマ情報を用いて、道具情報格納部17dから対象領域や使用する道具の情報を取得する。道具認識部17bは、取得した対象領域の情報を対象領域判定部へ17cに出力する。
道具認識部17bによる対象領域や道具の情報の取得は、統計的な機械学習によるパターンマッチング方法等や一般的な物体認識であり、手法は問わない。
道具情報格納部17dでは、ユーザが作業に用いる道具と処理領域との関係を示す道具情報があらかじめ格納されている。
図10は、本発明の実施形態における技術支援装置の道具情報格納部に格納される道具情報の一例を表形式で示す図である。図10に示すように、道具情報は、テーマID、部位ID、道具ID、特徴点座標(理論値)p’_a、色(理論値)c’_aが対応付けられる。
道具認識部17bは、テーマ選択部15から取得したテーマIDと道具情報格納部17dに格納される道具情報におけるテーマIDとを比較する。道具認識部17bは、これら比較したテーマIDが同値のものにおいて、道具情報格納部17dに格納されている道具情報における該当のテーマIDに対応付けられる特徴点座標(理論値)p’_a、色(理論値)c’_aと、差分抽出部13から取得した差分情報の各行における特徴点座標p_a、色(実測値)c_aとの差分(や類似度等)を算出する。
この算出した差分の値が、ある設定値(設定により変更可能)以内である場合(類似度の場合は、ある設定値以上の値である場合)、道具認識部17bは、この差分の値の算出に用いた特徴点座標(理論値)p’_a、色(理論値)c’_aに対応する部位ID、テーマID、道具IDを道具情報から取得する。
例えば、道具認識部17bは、差分情報から物体認識等を用いてメイク道具を認識する。道具認識部17bは、この認識したメイク道具の特徴点座標p_aや色(実測値)c_aの組み合わせと、道具情報格納部17dに格納される道具情報における特徴点座標(理論値)p’_aや色(理論値)c’_aの組み合わせとを比較し、比較したそれぞれの値が同じもしくは所定条件を満たして近い場合、この比較した特徴点座標(理論値)p’_aや色(理論値)c’_aの組み合わせに対応付けられる部位ID、テーマID、道具IDを対象領域の情報として道具情報から取得する。
また、ユーザが商品購入時に購入した商品(例えばメイク道具)の情報を操作端末40への操作により設定する場合に、外部コンテンツDB50が化粧品メーカのWebコンテンツ等の外部コンテンツ70上にある商品の情報としてその特徴点座標や色情報を得て、道具情報として道具情報格納部17dに格納されることも考えられる。また、道具情報における特徴点座標(理論値)p’_aや色(理論値)c’_aは機械学習から得た値でもよい。
対象領域判定部17cは、対象領域取得部17aと道具認識部17bとから対象領域や道具の情報を受け取る。対象領域判定部17cは、受け取った対象領域や道具の判定を行い、判定結果を対象領域認識部17による認識結果として提示情報取得部19へ出力する。
判定の方法は、操作端末40への操作による設定により変更可能である。例えば、対象領域取得部17aと道具認識部17bの双方から取得した対象領域の情報が同等であれば、対象領域判定部17cは、この対象領域の情報を提示情報取得部19に対象領域の情報を出力することが考えられる。または、対象領域判定部17cは、対象領域取得部17aまたは道具認識部17bのどちらか一方のみから対象領域や道具の情報を受け取った場合、そのまま対象領域や道具の情報を提示情報取得部19に出力することが考えられる。
提示タイミング制御部22では、提示情報生成部21から、処理が施された提示情報を受け取る。提示タイミング制御部22は、受け取った提示情報を元に、提示タイミング格納部23から提示タイミング情報を取得し、この提示タイミング情報を元に、処理を施された提示情報を出力装置60へ出力する。出力装置60は、技術支援装置10と一体でも構わない。提示タイミング格納部23は、例えば不揮発性メモリなどの記憶装置で実現され,提示内容ごとに、提示情報を提示するタイミングに関する情報が事前に格納されている。提示タイミング情報とは、提示情報を出力装置60に出力するときの条件であり、提示タイミング制御部22からの参照を可能にする。
ここで、提示情報の提示タイミングの制御の具体例について説明する。図11は、本発明の実施形態における技術支援装置の提示タイミング格納部23に格納される提示タイミング情報の一例を表形式で示す図である。
図11に示すように、提示タイミング格納部23に格納される提示タイミング情報は、提示番号(図7に示した提示情報の「No.」と同値)、提示内容(図7に示した提示情報の「提示内容」と同値)、提示条件が対応付けられて構成される。
提示タイミング制御部22は、提示情報生成部21により生成された提示情報と、この提示情報に対応付けられる提示番号(図7に示した提示情報の「No.」)とを受け取る。提示タイミング制御部22は、この受け取った提示番号と、提示タイミング格納部23に格納される提示タイミング情報における提示番号とを比較し、比較した値が同値のときに、対応する提示タイミング情報(提示条件)を取得し、この取得した情報を出力装置60に出力する。
次に、技術支援装置10による技術支援のための動作や表示画面の例について説明する。
(例1)
まず、人物認証に伴うあいさつの提示について説明する。
図12は、本発明の実施形態における技術支援装置による人物認証に伴うあいさつの提示の手順の一例を示すフローチャートである。
図13は、本発明の実施形態における技術支援装置による人物認証に伴うあいさつの提示における表示画面の一例を示す図である。
人物認証のために、差分抽出部13は、特徴点検出部12から受け取った、カメラ30により撮影した画像からユーザの顔特徴点情報を取得した場合に、この顔特徴点情報を、ユーザ個人を特定できる名前、プロフィール(年齢、出身地、日常読んでいる雑誌、趣味など)と対応付けて参考特徴点情報として特徴点情報格納部14に保存することができる。ユーザ個人を特定できる名前やプロフィールの情報は、提示情報格納部20や操作端末40、外部コンテンツDB50を介して外部コンテンツ70に保存されてもよい。この参考特徴点情報は、該当のユーザが操作端末40に対して削除のための所定の操作を行なわない限り削除されない。
技術支援装置10を動作させてから提示情報を未だ出力装置60のモニタ画面に表示していない場合で、差分抽出部13は、特徴点検出部12から、カメラ30により撮影した画像からユーザの顔特徴点情報を受け取る、すなわち、ユーザの顔を検出する(S11)。すると、差分抽出部13は、この顔特徴点情報と、上記の参照特徴点情報とを取得し、これらを比較して、参照特徴点情報上で、検出した顔特徴点情報と一致または類似する情報に対応付けられる名前を取得することで人物認識を行ない(S12)、この名前に関連付けられるプロフィールを読み込む(S13)。
この例では、差分抽出部13は、名前、プロフィールを提示情報格納部20に出力する。また、提示情報格納部20は、取得した名前とプロフィールを該当する提示内容に格納する。
上記のように提示情報を未だ表示していない場合で、提示情報取得部19は、差分抽出部13から作業開始信号を受け取ると、「状況ID=0’」と変換し、この「状況ID=0’」を取得すると、ユーザの撮影画像を出力装置60のモニタ画面に表示させ、かつ、提示情報格納部20に格納される、図7に示す提示情報の「NO。1」の行の内容詳細で定められる「○○(ユーザの名前)さん、こんにちは!」とのあいさつを、音声により出力装置60の図示しないスピーカから出力させる。また、図13に示すように出力装置60のモニタ画面に表示させてもよい。
次に、ユーザがメイクを施しているパーツに応じて、アドバイスであるメイク情報を提示することについて説明する。
図14は、本発明の実施形態における技術支援装置によるメイク情報の提示の手順の一例を示すフローチャートである。
図15は、本発明の実施形態における技術支援装置による部位確認における表示画面の一例を示す図である。
図16は、本発明の実施形態における技術支援装置によるメイク情報の提示における表示画面の一例を示す図である。
上記のあいさつの提示の後、提示情報生成部21は、あいさつを提示されたことをテーマ選択部15に通知する。すると、テーマ選択部15は、上記のあいさつの提示において取得したプロフィールと、操作端末40や外部コンテンツDB50などで管理される、該当のユーザの睡眠時間、スケジュール、運動量(例えば歩数)等に基づいて導出された、ユーザに適したテーマ、ここではメイクテーマを取得する。そのメイクテーマの中から、ユーザが操作端末40を用いてメイクテーマを選択すると、テーマ情報が状況認識部16、対象領域認識部17、動作認識部18へ出力される。そして、ユーザが写る撮影画像を表示させた状態で、状況認識部16が、状況ID「0」を含む状況情報を提示情報取得部19に出力し、対象領域認識部17の対象領域判定部17cが、ユーザがメイクし始めるパーツ(ユーザの眉)に対応する部位IDを提示情報取得部19に出力する、つまり、ユーザがメイクし始めるパーツの検出がなされるとする(S21)。
すると、提示情報取得部19は、提示情報格納部20に格納される、図7に示す提示情報のうち、「NO。11」の行で定められる「眉毛のメイクね!」との確認メッセージを、図15に示すように出力装置60の画面上に表示させる。
そして、提示情報取得部19は、上記の確認メッセージの表示から後、この確認メッセージに代えて、提示情報格納部20に格納される、図7に示す提示情報のうち、「NO。12」の行で定められる、メイクのポイント、方法のアドバイス情報として、上記の検出したメイクテーマに紐づいたメイク方法のポイントのメッセージやメイク方法の動画を図16に示すように出力装置60の画面上に表示させる(S22)。
このメイクのポイント、方法のアドバイス情報を表示させた状態で、提示情報取得部19は、画面上のユーザの撮影画像における、S21で検出した、ユーザがメイクし始めるパーツに対応する領域に、このパーツに対してメイクを施す領域の画像を重畳させて表示させる(S23)。
これにより、ユーザがメイクを施すパーツに応じて、このパーツに関するメイクの情報をユーザに提示することができる。また、メイクテーマに基づくS24で表示されたアドバイス情報に、ユーザの趣向に沿わない場合、ユーザによる操作端末への所定の操作により、テーマ選択部15に、ユーザに適したテーマを再度検出させるようにしてもよいし、この検出によらず、ユーザによる操作端末への所定の操作により、任意のメイクテーマを設定し、このメイクテーマに紐づいたメイク方法のポイントのメッセージやメイク方法の動画を上記のように出力装置60の画面上に表示させてもよい。同様にして、使用しているメイク道具に関しても、メイク道具に関する情報を提示することができる。
次に、生活情報を提示することについて説明する。図17は、本発明の実施形態における技術支援装置による生活情報の提示の手順の第1の例を示すフローチャートである。図18は、本発明の実施形態における技術支援装置による生活情報の提示の手順の第2の例を示すフローチャートである。図19は、本発明の実施形態における技術支援装置による生活情報の提示における表示画面の一例を示す図である。
ユーザによるメイクの開始前、かつユーザが写る撮影画像を表示させた状態で、天気予報アプリケーションの天気予報情報がアップデートされ、提示情報格納部20に最新の天気予報情報が保存されている(S31)。かつ、状況認識部16が、状況ID「0」を含む状況情報が提示情報取得部19に出力される、つまり、ユーザがメイクしようとしていることの検出がなされると(S32)、提示情報取得部19は、提示情報格納部20に格納される、図7に示す提示情報のうち、「NO。6」の行で定められる、天気予報情報、およびこの天気に基づくメイクのアドバイスのメッセージ、例えば「今日の天気は雨だよ。湿度が高いからベースメイクは薄めでね!」とのメッセージを、図19に示すように出力装置60の画面上に表示させる(S33)。S31のアップデートとS32の検出は順序が逆でもよい。
また、ユーザが本アプリケーションを起動しているとき、外部コンテンツDB50の電車運行情報がアップデートされると、提示情報格納部20に最新の電車運行情報が保存されていると(S31A)、提示情報取得部19は、提示情報格納部20に格納される、図7に示す提示情報のうち、「NO。5」の行で定められる電車の運行状況のメッセージ、例えば「□線は遅延しているよ!」とのメッセージを、図19に示すように出力装置60の画面上に表示させる(S32A)。「NO。5」の行で定められる電車の運行状況のメッセージは、「状況ID=3」であるため、メイクの作業状況には依存せず、本アプリケーションが起動中であればいつでも表示してよい。
これにより、提示する内容を応じて適切なときに、このユーザに生活情報を提示することができる。
次に、ユーザによるメイク完了後のメイク画像の保存および、次回のメイク開始時のテーマ選定について説明する。
図20は、本発明の実施形態における技術支援装置による情報保存および前回情報の提示の手順の一例を示すフローチャートである。
図21は、本発明の実施形態における技術支援装置による情報保存における表示画面の一例を示す図である。
図22は、本発明の実施形態における技術支援装置による前回情報の提示における表示画面の一例を示す図である。
外部コンテンツDB50に登録されるアプリケーションには、例えば、ユーザの笑顔やピースをする等の表情や動作を認識したのを契機にそのユーザの撮影画像を保存し、その画像を管理するものもあると考えられる。このことから、外部コンテンツDB50には、メイク後の笑顔やピースをするなどの表情や動作を示す画像の特徴点情報に基づく差分情報が格納されていることも考えられ、この場合、この差分情報を事前に動作認識部18が取得する。ユーザによるメイクの完了後、かつこのメイク完了後に撮影された画像(例えば笑顔やピース)を表示させた状態で、動作認識部18が、差分抽出部13から差分情報(図2に示す特徴点情報から得た差分情報)および顔差分情報(図3に示す顔特徴点情報から得た差分情報)を取得し、これらの差分情報および顔差分情報と、外部コンテンツDB50から取得した笑顔やピースをするなどの表情や動作を示す画像の顔差分情報(ユーザの顔の部分)や差分情報(ユーザの顔以外の手など)とを比較し、差分情報および顔差分情報が、顔差分情報や差分情報と一致もしくは類似する、つまり、ユーザがメイクを完了していることの検出がなされると(S41)、ユーザが、メイク完了後の撮影画像、日付、メイクテーマ(例えば「お出かけ用」、メイクアイテムの情報源のURL、メイク方法の情報源のURL、ユーザによるメイクのお気に入り度)の保存を望む場合は、操作端末40に対する所定操作等を行なう。
すると、テーマ選択部15は、テーマ情報を追加し、このテーマ情報に紐づけて、メイク完了後の撮影画像と、日付、メイク方法やポイント等のメイク情報を例えば外部コンテンツDB50を介して外部コンテンツ70や操作端末40に保存させる(S42)。さらに、提示情報格納部20には、例えば「No。=3、状況ID=0、テーマID=2、部位ID=-、道具ID=-、提示内容=メイクテーマ(過去のお気に入りメイク)の詳細、内容詳細=以下の2つがあるよ!(過去のメイク内容)」という提示情報を格納しているとすると、提示情報格納部20は、外部コンテンツDB50から「内容詳細」に対応するメイク完了後の撮影画像、日付、メイクテーマ、メイク情報を取得し、保存する。上記のメイクのお気に入り度は、メイク完了後にユーザが操作端末40への操作等を行うことで設定されることができる。
また、ユーザが、メイク完了後の撮影画像、日付、メイクテーマの保存を望まない場合は、操作端末40に対する所定操作等を行うことで、保存を行わないようにすることもできる。
また、この保存とともに、提示情報取得部19は、上記の日付、メイクテーマなどの保存の通知メッセージ(例えば、上手にできたね!保存しておくね。)とのメッセージを、図21に示すように出力装置60の画面上に表示させる。
そして、技術支援装置10の使用を終了し、ユーザが次回のメイクを行う際に、技術支援装置10を再び動作させ、上記の人物認証が再度なされた後で、かつユーザが写る撮影画像を表示させた状態で、ユーザが操作端末40に対して、前回の同じメイクテーマに従うメイク方法などの提示を指示するための操作(例えば、「前にしたお出かけ用のメイク方法を教えて!」などの文字入力や音声入力)を行なう。
すると、提示情報取得部19は、提示情報格納部20における上記の「No。3」に対応する提示情報、すなわち、上記のように前回以前の、ここでは過去2回のメイク完了時に保存した、メイク完了後の撮影画像、日付、メイクテーマ(例えば「お出かけ用」、メイクアイテムの情報源のURL、メイク方法の情報源のURL、ユーザによるメイクのお気に入り度)を取得する。提示情報取得部19は、提示情報格納部20に格納される、図7に示す提示情報のうち、「NO。2」の行で定められる、上記の取得した各種情報を取得した後に、「No。3」の提示情報を取得し、図22に示すように出力装置60の画面上に表示させる(S43)。
以上のように、本実施形態では、技術支援装置10により、ユーザがメイク作業を行う際に、適切な技術支援を行うことができる。
(処理分割および配置について)
なお、上述の実施形態では、1つの技術支援装置10として処理を実行している例を示しているが、この処理をサーバとクライアント(ユーザ端末)とで分散して実行させてもよい。
例えば、処理コストが高い処理(例えば、特徴点検出部12、差分抽出部13、状況認識部16、対象領域認識部17、動作認識部18、提示情報取得部19、提示情報生成部21、提示タイミング制御部22による処理)をサーバで実行し、大量のデータを必要とするデータベース(例えば、特徴点情報格納部14、提示情報格納部20、提示タイミング格納部23、外部コンテンツDB50)をサーバの記憶装置に実現し、その他の機能(例えば、画像取得部11,テーマ選択部15)をクライアントで実行する処理構成としてもよい。
または、提示情報を生成するまでの処理(画像取得部11、特徴点検出部12、差分抽出部13、特徴点情報格納部14、テーマ選択部15、状況認識部16、対象領域認識部17、動作認識部18、提示情報取得部19、提示情報生成部21、外部コンテンツDB50による処理)をクライアントで実行し、提示情報の提示タイミングの制御(提示タイミング制御部22、提示タイミング格納部23)をサーバで実行する処理構成としてもよい。
上記のようにサーバとクライアントとで処理を分散して処理を実行する場合では、これらのサーバとクライアントとの間での画像や座標値情報などのやり取りが必要となるため、画像の全フレームをやりとりする代わりに、やり取りする画像の間引き処理や画像形式の変更処理等を行うことが望ましい。間引き処理は、例えば、画像の数フレームおきについて行なったり、画像の前フレームと現在のフレームとの差分のみについて行なったりすればよい。また、変更処理は、例えば、1フレームの画像データでなく、特徴点検出部12で特定された特徴点の座標情報のみを取り出してもよい。また、変更処理は、画像取得部11で、圧縮処理等をした画像データを取り出すことも考えられる。さらに、差分抽出部13で抽出した差分情報の座標情報を取り出すことも考えられる。
(メイク以外の適用例)
上述の説明では、技術支援装置10の適用例としてユーザがメイクを行なう場合を想定して説明したが、これに限らず、例えば、ドクターや医大生に対する手術のコーチングにも適応できる。
具体的には、画像取得部11としては、タブレット等の端末のインカメラや周辺に取り付けたカメラから画像を取得する構成が挙げられる。また、出力装置60としては、タブレットやモニタやHMD(ヘッドマウントディスプレイ)(登録商標)等を用いることが挙げられる。
特徴点検出部12としては、人体(人体模型)での手術する領域周辺を撮影した画像において、体の部位や骨筋等の身体の特徴点を抽出することが挙げられる。
差分抽出部13としては、体の部位や骨筋等の身体の特徴点等の、手術状態に関する特徴点情報と、画像全体における特徴点情報を特徴点情報格納部14に格納し、格納された特徴点情報と最新フレームの特徴点情報とを比較して差分情報を得ることが挙げられる。
状況認識部16の状況判定部16aとしては、差分情報を用いて、参考状態格納部16bから手術前、手術中、手術後等の作業状況を導き出すことが挙げられる。
参考状態格納部16bとしては、手術内容や身体の部位ごとに、画像の特徴点座標や色の理論値(人体模型と人の身体)、差分値に対する状況情報(状況ID)を格納することが挙げられる。
対象領域認識部17としては対象領域取得部17aとしては、身体に関する差分情報を元に対象領域を取得することが挙げられる。対象領域とは、身体の部位と考えられる。また、この道具認識部17bは、特徴点情報を用いて道具情報格納部17dに格納される道具情報から対象領域(部位ID)や道具を示す情報を取得することができる。
道具情報格納部17dには、メスやピンセット等の手術道具に関する特徴点情報と色情報の理論値を事前に格納することができる。
対象領域判定部17cは、対象領域取得部17aと道具認識部17bとから受け取った対象領域や道具を判定し、この判定結果を提示情報取得部19に出力することができる。
動作認識部18は、差分抽出部13から取得した差分情報をもとに手を挙げる等の動作を認識し、動作を示す情報を、提示情報取得部19へ出力する。
提示情報取得部19は、受け取った状況情報と対象領域道具の判定結果とを用いて、提示情報格納部20から提示情報を取得し、提示情報生成部21へ出力することができる。
提示情報格納部20には、手術の方法やポイント等手術に関する情報や緊急手術への対応や災害情報等、手術以外の情報を格納すさることができる。提示情報生成部21では、提示情報を受け取って、提示情報を補正し出力する形式にして、提示タイミング制御部22へ出力する。
提示タイミング制御部22は、受け取った処理を施された提示情報を用いて、提示タイミング格納部23から提示タイミング情報を取得する。提示タイミング格納部23には、手術の方法やポイント等手術に関する情報や緊急手術への対応や災害情報等、手術以外の情報といった提示する内容に対応して提示するタイミングの情報が格納されている。提示タイミング制御部22は、取得した提示タイミングに合わせて処理を施された提示情報を出力装置60へ出力する。
(その他の適用例)
なお、技術支援装置10は、手術以外にも、例えば筆を用いた習字等文字の書き方のコーチング、工場の作業支援等にも適用することができる。つまり、ユーザの作業の情報やユーザが使用する道具の情報が取得できるケースであれば、どのようなものでも本実施形態に係る技術支援装置10を利用できる。
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
また、各実施形態に記載した手法は、計算機(コンピュータ)に実行させることができるプログラム(ソフトウエア手段)として、例えば磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD、MO等)、半導体メモリ(ROM、RAM、フラッシュメモリ等)等の記録媒体に格納し、また通信媒体により伝送して頒布することもできる。なお、媒体側に格納されるプログラムには、計算機に実行させるソフトウエア手段(実行プログラムのみならずテーブルやデータ構造も含む)を計算機内に構成させる設定プログラムをも含む。本装置を実現する計算機は、記録媒体に記録されたプログラムを読み込み、また場合により設定プログラムによりソフトウエア手段を構築し、このソフトウエア手段によって動作が制御されることにより上述した処理を実行する。なお、本明細書でいう記録媒体は、頒布用に限らず、計算機内部あるいはネットワークを介して接続される機器に設けられた磁気ディスクや半導体メモリ等の記憶媒体を含むものである。
10…技術支援装置、11…画像取得部、12…特徴点検出部、13…差分抽出部、14…特徴点情報格納部、15…テーマ選択部、16…状況認識部、17…対象領域認識部、18…動作認識部、19…提示情報取得部、20…提示情報格納部、21…提示情報生成部、22…提示タイミング制御部、23…提示タイミング格納部、30…カメラ、40…操作端末、50…外部コンテンツDB、60…出力装置、70…外部コンテンツ。

Claims (8)

  1. 処理対象に関する画像である対象画像を取得する画像取得手段と、
    前記取得した対象画像から特徴点情報を検出する特徴点検出手段と、
    前記検出した特徴点情報を格納する特徴点情報格納手段と、
    前記格納した特徴点情報のフレーム間の差分情報を抽出する差分抽出手段と、
    前記処理対象に対するユーザの作業のテーマを示すテーマ情報を選択するテーマ選択手段と、
    前記ユーザに対する提示情報を格納する提示情報格納手段と、
    前記差分情報および前記選択した前記テーマ情報に基づいて、前記作業の状況を認識する状況認識手段と、
    前記差分情報および前記選択したテーマ情報に基づいて、前記処理対象に対してユーザが作業する対象領域を認識する対象領域認識手段と、
    前記差分情報に基づいて、前記ユーザの動作を認識する動作認識手段と、
    前記差分抽出手段により前記差分情報が抽出された場合に、前記状況認識手段による認識の結果、前記対象領域認識手段により認識した前記対象領域の情報、および前記動作認識手段による認識の結果に基づいて、前記提示情報格納手段に格納される提示情報から前記ユーザへの提示情報を取得する提示情報取得手段と、
    前記取得した提示情報に対して所定の処理を施した情報を生成する提示情報生成手段と、
    提示内容ごとに、前記提示情報を提示するタイミングに関する情報を格納する提示タイミング格納手段と、
    前記提示情報生成手段により生成された情報をもとに、前記提示タイミング格納手段から前記提示情報を提示するタイミングに関する情報を取得し、この情報をもとに、所定の処理を施した提示情報を出力装置に出力する提示タイミング制御手段と
    を備えたことを特徴とする技術支援装置。
  2. 前記差分抽出手段は、
    前記特徴点情報に基づく前記差分情報を抽出し、
    前記ユーザが参考とする作業の状況を示す状況情報を格納する参考状態格納手段をさらに備え、
    前記状況認識手段は、
    前記差分情報および前記状況情報に基づいて、前記ユーザの作業の状況を判定する状況判定手段を有する
    ことを特徴とする請求項1に記載の技術支援装置。
  3. 前記処理対象は、前記ユーザが作業に用いる道具を含み、
    前記差分抽出手段は、
    前記特徴点情報に基づく前記差分情報を抽出し、
    前記ユーザが作業に用いる道具、および、前記道具を用いた作業の対象である対象領域の関係を示す道具情報を格納する道具情報格納手段をさらに備え、
    前記対象領域認識手段は、
    前記特徴点情報に基づく前記差分情報に基づいて前記対象領域を取得する対象領域取得手段と、
    前記特徴点情報に基づく前記差分情報および前記道具情報に基づいて、前記対象領域および前記道具の情報を取得する道具認識手段と、
    前記対象領域取得手段により取得した前記対象領域および前記道具認識手段により取得した前記対象領域および前記道具の情報の判定を行い、判定結果を前記対象領域認識手段による認識の結果として出力する対象領域判定手段とをさらに有する
    ことを特徴とする請求項1に記載の技術支援装置。
  4. 前記参考状態格納手段は、
    前記テーマの種別ごとに前記状況情報を格納し、
    前記状況判定手段は、
    前記テーマ選択手段により選択したテーマ情報、前記特徴点情報に基づく前記差分情報、および前記状況情報に基づいて、前記テーマ選択手段により選択したテーマ情報にかかわる、前記ユーザの作業の状況を判定する
    ことを特徴とする請求項2に記載の技術支援装置。
  5. 前記道具情報格納手段は、
    前記テーマの種別ごとに前記道具情報を格納し、
    前記対象領域取得手段は、
    前記テーマ選択手段により選択したテーマ情報および前記特徴点情報に基づく前記差分情報に基づいて前記対象領域を取得し、
    前記道具認識手段は、
    前記テーマ選択手段により選択したテーマ情報、前記特徴点情報に基づく前記差分情報に基づいて、前記対象領域および前記道具の情報を取得する
    ことを特徴とする請求項3に記載の技術支援装置。
  6. ユーザに対する提示情報を格納する提示情報格納手段を有する技術支援装置に適用される方法であって、
    処理対象に関する画像である対象画像を取得し、
    前記取得した対象画像から特徴点情報を検出し、
    前記検出した特徴点情報を特徴点情報格納手段に格納し、
    前記格納した特徴点情報のフレーム間の差分情報を抽出し、
    前記処理対象に対するユーザの作業のテーマを示すテーマ情報を選択し、
    前記差分情報および前記選択した前記テーマ情報に基づいて、前記作業の状況を認識し、
    前記差分情報および前記選択したテーマ情報に基づいて、前記処理対象に対してユーザが作業する対象領域を認識し、
    前記差分情報に基づいて、前記ユーザの動作を認識し、
    前記差分情報が抽出された場合に、前記状況の認識の結果、前記認識した前記対象領域の情報、および前記ユーザの動作の認識の結果に基づいて、前記提示情報格納手段に格納される提示情報から前記ユーザへの提示情報を取得し、
    前記取得した提示情報に対して所定の処理を施した情報を生成し、
    前記生成された情報をもとに、提示内容ごとに、前記提示情報を提示するタイミングに関する情報を格納する提示タイミング格納手段から、前記提示情報を提示するタイミングに関する情報を取得し、この情報をもとに、所定の処理を施した提示情報を出力装置に出力する
    ことを特徴とする技術支援方法。
  7. コンピュータを、請求項1から請求項5のいずれか1項に記載の技術支援装置の各手段として実行させるためのプログラム。
  8. クライアントとサーバを含む技術支援システムであって、
    前記サーバは、
    処理対象に関する画像である対象画像から特徴点情報を検出する特徴点検出手段と、
    前記特徴点情報のフレーム間の差分情報を抽出する差分抽出手段と、
    前記検出した特徴点情報を格納する特徴点情報格納手段と、
    前記差分情報および前記処理対象に対するユーザの作業のテーマを示すテーマ情報に基づいて、前記作業の状況を認識する状況認識手段と、
    前記ユーザに対する提示情報および前記テーマ情報に基づいて、前記処理対象に対してユーザが作業する対象領域を認識する対象領域認識手段と、
    前記差分情報に基づいて、前記ユーザの動作を認識する動作認識手段と、
    前記差分抽出手段が前記差分情報を抽出した場合に、前記状況認識手段による認識の結果、および前記対象領域認識手段により認識した前記対象領域の情報に基づいて、前記提示情報から前記ユーザへの提示情報を取得する提示情報取得手段と、
    前記提示情報を格納する提示情報格納手段と、
    前記取得した提示情報に対して所定の処理を施した情報を生成する提示情報生成手段と、
    前記提示情報生成手段により出力された情報をもとに、前記提示情報を提示するタイミングに関する情報を取得し、この情報をもとに、所定の処理を施した提示情報を出力装置に出力する提示タイミング制御手段と、
    提示内容ごとに、前記提示情報を提示するタイミングに関する情報を格納する提示タイミング格納手段と、を具備し、
    前記クライアントは、
    前記対象画像を取得する画像取得手段と、
    前記テーマ情報を選択するテーマ選択手段と、を具備することを特徴とする技術支援システム。
JP2016101960A 2016-05-20 2016-05-20 技術支援装置、方法、プログラムおよびシステム Active JP6670677B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016101960A JP6670677B2 (ja) 2016-05-20 2016-05-20 技術支援装置、方法、プログラムおよびシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016101960A JP6670677B2 (ja) 2016-05-20 2016-05-20 技術支援装置、方法、プログラムおよびシステム

Publications (2)

Publication Number Publication Date
JP2017208051A true JP2017208051A (ja) 2017-11-24
JP6670677B2 JP6670677B2 (ja) 2020-03-25

Family

ID=60415612

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016101960A Active JP6670677B2 (ja) 2016-05-20 2016-05-20 技術支援装置、方法、プログラムおよびシステム

Country Status (1)

Country Link
JP (1) JP6670677B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019159817A (ja) * 2018-03-13 2019-09-19 株式会社サイトビジット 試験コミュニティシステム
WO2020084842A1 (ja) * 2018-10-24 2020-04-30 株式会社資生堂 プログラム、情報処理装置、定量化方法及び情報処理システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002072861A (ja) * 2000-09-01 2002-03-12 Ibic Service:Kk 理容技術講習システム
JP2008009914A (ja) * 2006-06-30 2008-01-17 Canon Inc 画像処理装置、画像処理方法、プログラム、記憶媒体
JP2012094130A (ja) * 2010-10-01 2012-05-17 Raytron:Kk 動作解析装置
JP2012181688A (ja) * 2011-03-01 2012-09-20 Sony Corp 情報処理装置、情報処理方法、情報処理システムおよびプログラム
JP2014191813A (ja) * 2013-03-28 2014-10-06 Ntt Docomo Inc 化粧行為支援装置、化粧行為支援システム及び化粧行為支援方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002072861A (ja) * 2000-09-01 2002-03-12 Ibic Service:Kk 理容技術講習システム
JP2008009914A (ja) * 2006-06-30 2008-01-17 Canon Inc 画像処理装置、画像処理方法、プログラム、記憶媒体
JP2012094130A (ja) * 2010-10-01 2012-05-17 Raytron:Kk 動作解析装置
JP2012181688A (ja) * 2011-03-01 2012-09-20 Sony Corp 情報処理装置、情報処理方法、情報処理システムおよびプログラム
JP2014191813A (ja) * 2013-03-28 2014-10-06 Ntt Docomo Inc 化粧行為支援装置、化粧行為支援システム及び化粧行為支援方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019159817A (ja) * 2018-03-13 2019-09-19 株式会社サイトビジット 試験コミュニティシステム
WO2020084842A1 (ja) * 2018-10-24 2020-04-30 株式会社資生堂 プログラム、情報処理装置、定量化方法及び情報処理システム
CN112912925A (zh) * 2018-10-24 2021-06-04 株式会社资生堂 程序、信息处理装置、定量化方法以及信息处理系统
JPWO2020084842A1 (ja) * 2018-10-24 2021-10-07 株式会社 資生堂 プログラム、情報処理装置、定量化方法及び情報処理システム
JP7408562B2 (ja) 2018-10-24 2024-01-05 株式会社 資生堂 プログラム、情報処理装置、定量化方法及び情報処理システム

Also Published As

Publication number Publication date
JP6670677B2 (ja) 2020-03-25

Similar Documents

Publication Publication Date Title
JP6055160B1 (ja) 化粧品情報提供システム、化粧品情報提供装置、化粧品情報提供方法、及びプログラム
US11893828B2 (en) System and method for image de-identification
JP5991536B2 (ja) メイクアップ支援装置、メイクアップ支援方法、およびメイクアップ支援プログラム
US10360715B2 (en) Storage medium, information-processing device, information-processing system, and avatar generating method
WO2020019904A1 (zh) 图像处理方法、装置、计算机设备及存储介质
CN109310196B (zh) 化妆辅助装置以及化妆辅助方法
KR20240050463A (ko) 얼굴 재연을 위한 시스템 및 방법
US20160134840A1 (en) Avatar-Mediated Telepresence Systems with Enhanced Filtering
JP6369246B2 (ja) 似顔絵生成装置、似顔絵生成方法
CN107204027B (zh) 图像处理装置、显示装置、动画生成方法以及动画显示方法
WO2015122195A1 (ja) 印象分析装置、ゲーム装置、健康管理装置、広告支援装置、印象分析システム、印象分析方法、プログラム、及びプログラム記録媒体
WO2018076622A1 (zh) 图像处理方法、装置及终端
JP2020016961A (ja) 情報処理装置、情報処理方法、および情報処理プログラム
JP5949030B2 (ja) 画像生成装置、画像生成方法及びプログラム
US20160110909A1 (en) Method and apparatus for creating texture map and method of creating database
JP2019048026A (ja) 生体情報解析装置及び手肌解析方法
JP6710095B2 (ja) 技術支援装置、方法、プログラムおよびシステム
JP2011022733A (ja) メーキャップシミュレーション装置、メーキャップシミュレーションプログラム及び対面販売支援方法
JP6670677B2 (ja) 技術支援装置、方法、プログラムおよびシステム
KR102247481B1 (ko) 나이 변환된 얼굴을 갖는 직업영상 생성 장치 및 방법
JP7314509B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP7247579B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2015114946A (ja) 画像処理装置、プログラムおよび画像処理方法
US20200260017A1 (en) Image processing device, image communication system, and image processing method
JP6078896B2 (ja) メイクアップ支援装置およびメイクアップ支援方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180606

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200302

R150 Certificate of patent or registration of utility model

Ref document number: 6670677

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350