[go: up one dir, main page]

JP2019057119A - Space plan proposal system, space plan proposal method, program for executing space plan proposal system, and display terminal used in space plan proposal system - Google Patents

Space plan proposal system, space plan proposal method, program for executing space plan proposal system, and display terminal used in space plan proposal system Download PDF

Info

Publication number
JP2019057119A
JP2019057119A JP2017180917A JP2017180917A JP2019057119A JP 2019057119 A JP2019057119 A JP 2019057119A JP 2017180917 A JP2017180917 A JP 2017180917A JP 2017180917 A JP2017180917 A JP 2017180917A JP 2019057119 A JP2019057119 A JP 2019057119A
Authority
JP
Japan
Prior art keywords
target image
image
physical information
sensitivity
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017180917A
Other languages
Japanese (ja)
Other versions
JP6975878B2 (en
Inventor
朋大 岸田
Tomohiro Kishida
朋大 岸田
はるか 天沼
Haruka Amanuma
はるか 天沼
透 中村
Toru Nakamura
透 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2017180917A priority Critical patent/JP6975878B2/en
Publication of JP2019057119A publication Critical patent/JP2019057119A/en
Application granted granted Critical
Publication of JP6975878B2 publication Critical patent/JP6975878B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】空間イメージを所定の感性項目に変換し、ニュアンスの個人差による影響を排除し適切に空間プランを提案できる空間プラン提案システム、空間プラン提案方法、その実行プログラム及び表示端末を提供する。【解決手段】空間プラン提案システム1は、取得部21と、出力部22と、物理情報抽出部31と、目標画像抽出部32と、感性項目抽出部33と、を備える。取得部21は、空間に関する空間画像を取得する。物理情報抽出部31は、取得部21が取得した空間画像から物理情報を抽出する。目標画像抽出部32は、物理情報抽出部31が抽出した物理情報に近い物理的特長を有する目標画像6を抽出する。感性項目抽出部33は、目標画像抽出部32が抽出した目標画像6に対応する感性項目を抽出する。出力部22は、目標画像抽出部32が抽出した目標画像6と、感性項目抽出部33が抽出した感性項目と、を出力する。【選択図】図1A space plan proposal system, a space plan proposal method, an execution program thereof, and a display terminal are provided that can convert a spatial image into predetermined sensitivity items, eliminate the influence of individual differences in nuances, and propose a space plan appropriately. A space plan proposal system includes an acquisition unit, an output unit, a physical information extraction unit, a target image extraction unit, and a sensitivity item extraction unit. The acquisition unit 21 acquires a spatial image related to the space. The physical information extraction unit 31 extracts physical information from the spatial image acquired by the acquisition unit 21. The target image extraction unit 32 extracts the target image 6 having physical characteristics close to the physical information extracted by the physical information extraction unit 31. The sensitivity item extraction unit 33 extracts sensitivity items corresponding to the target image 6 extracted by the target image extraction unit 32. The output unit 22 outputs the target image 6 extracted by the target image extraction unit 32 and the sensitivity items extracted by the sensitivity item extraction unit 33. [Selection] Figure 1

Description

本発明は、空間プラン提案システム、空間プラン提案方法、空間プラン提案システムを実行させるプログラム及び空間プラン提案システムに用いられる表示端末に関する。   The present invention relates to a space plan proposal system, a space plan proposal method, a program for executing a space plan proposal system, and a display terminal used in the space plan proposal system.

従来、ユーザ(顧客)の要望に合ったインテリアを構築するために、専門のアドバイザーが居住空間のインテリアの提案を行っている。また、インテリアの提案を支援するために、特許文献1に記載されたインテリアコーディネート支援装置などが知られている。   Conventionally, in order to construct interiors that meet the needs of users (customers), specialized advisors have proposed interiors for living spaces. Also, an interior coordination support device described in Patent Document 1 is known in order to support interior proposals.

特許文献1記載のインテリアコーディネート支援装置においては、6程度に分類したインテリア指向の中からユーザの指向に合う分類を選ばせることで、ユーザの要望を抽出するものである。   In the interior coordination support apparatus described in Patent Document 1, a user's request is extracted by selecting a classification that matches the user's orientation from among the interior orientations classified into about six.

特開2001−142924号公報JP 2001-142924 A

しかしながら、特許文献1記載のインテリアコーディネート支援装置を用いても、当該支援装置の分類が適したものでない場合、空間プランの適切な提案ができない。また、当該支援装置では、分類に応じた複数の代表的な空間の画像が表示されるが、ユーザの理想の空間イメージが曖昧な場合や表示される画像に理想の空間イメージに近いものがない場合等は、1つの画像を選択することが難しい。   However, even if the interior coordination support device described in Patent Document 1 is used, if the support device is not suitable for classification, an appropriate space plan cannot be proposed. Further, in the support device, images of a plurality of representative spaces according to the classification are displayed. However, when the user's ideal spatial image is ambiguous or the displayed image is not close to the ideal spatial image. In some cases, it is difficult to select one image.

それ故、ユーザ自らの言葉で説明してもらう方が、ユーザの理想の空間を適切に抽出できることも少なくない。しかしながら、言葉のニュアンスは個人差が大きく、言葉による説明からユーザ所望の空間を提案できるか否かは専門のアドバイザーの力量に大きく左右されてしまう。   For this reason, it is often the case that the user's own space can appropriately extract the user's ideal space. However, the nuances of words vary greatly from person to person, and whether or not a user-desired space can be proposed based on the explanation by words greatly depends on the ability of a professional advisor.

本発明は、かかる課題に鑑みてなされたものである。その目的は、空間イメージを所定の感性項目に変換することで、ニュアンスの個人差による影響を排除し、適切に空間プランを提案できる空間プラン提案システム、空間プラン提案方法及びその実行プログラムを提供することである。また、その空間プラン提案システムに用いられる表示端末を提供することである。   The present invention has been made in view of such problems. The object is to provide a space plan proposal system, a space plan proposal method, and an execution program thereof that can appropriately propose a spatial plan by converting the spatial image into a predetermined sensitivity item to eliminate the influence of individual differences in nuances. That is. Moreover, it is providing the display terminal used for the space plan proposal system.

上記課題を解決するために、本発明に係る空間プラン提案システムは、空間に関する空間画像を取得する取得部と、前記取得部が取得した前記空間画像から物理情報を抽出する物理情報抽出部と、前記物理情報抽出部が抽出した前記物理情報に近い物理的特長を有する目標画像を抽出するも目標画像抽出部と、前記目標画像抽出部が抽出した前記目標画像に対応する感性項目を出力する出力部と、を備える。   In order to solve the above problems, a space plan proposal system according to the present invention includes an acquisition unit that acquires a spatial image related to space, a physical information extraction unit that extracts physical information from the spatial image acquired by the acquisition unit, A target image having physical characteristics close to the physical information extracted by the physical information extraction unit is also output, and a target image extraction unit and an output for outputting a sensitivity item corresponding to the target image extracted by the target image extraction unit A section.

また、本発明に係る空間プラン提案方法は、空間に関する空間画像を取得する取得ステップと、前記取得ステップで取得された前記空間画像から物理情報を抽出する物理情報抽出ステップと、前記物理情報抽出ステップが抽出した前記物理情報に近い物理的特長を有
する目標画像を抽出するも目標画像抽出ステップと、前記目標画像抽出ステップが抽出した前記目標画像に対応する感性項目を抽出する感性項目抽出ステップと、前記目標画像抽出ステップで抽出された目標画像と、前記感性項目抽出ステップで抽出された感性項目とをする出力する出力ステップと、を含む。
The spatial plan proposing method according to the present invention includes an acquisition step of acquiring a spatial image related to a space, a physical information extraction step of extracting physical information from the spatial image acquired in the acquisition step, and the physical information extraction step. A target image having a physical feature close to the physical information extracted by the target image extraction step, and a sensitivity item extraction step for extracting a sensitivity item corresponding to the target image extracted by the target image extraction step; And an output step of outputting the target image extracted in the target image extraction step and the sensitivity item extracted in the sensitivity item extraction step.

また、本発明に係るプログラムは、コンピュータに、空間に関する空間画像を取得する取得ステップと、前記取得ステップで取得された前記空間画像から物理情報を抽出する物理情報抽出ステップと、前記物理情報抽出ステップが抽出した前記物理情報に近い物理的特長を有する目標画像を抽出するも目標画像抽出ステップと、前記目標画像抽出ステップが抽出した前記目標画像に対応する感性項目を抽出する感性項目抽出ステップと、前記目標画像抽出ステップで抽出された目標画像と、前記感性項目抽出ステップで抽出された感性項目と、をする出力する出力ステップと、を含む空間プラン提案方法を実行させる。   Further, the program according to the present invention includes an acquisition step of acquiring a spatial image related to a space in a computer, a physical information extraction step of extracting physical information from the spatial image acquired in the acquisition step, and the physical information extraction step. A target image having a physical feature close to the physical information extracted by the target image extraction step, and a sensitivity item extraction step for extracting a sensitivity item corresponding to the target image extracted by the target image extraction step; A spatial plan proposing method including an output step of outputting the target image extracted in the target image extraction step and the sensitivity item extracted in the sensitivity item extraction step is executed.

また、本発明に係る表示端末は、空間に関する空間画像を取得する取得部と、前記取得部が取得した前記空間画像から物理情報を抽出する物理情報抽出部と、前記物理情報抽出部が抽出した前記物理情報に近い物理的特長を有する目標画像を抽出するも目標画像抽出部と、前記目標画像抽出部が抽出した前記目標画像に対応する感性項目を抽出する感性項目抽出部と、前記目標画像抽出部が抽出した前記目標画像と、前記感性項目抽出部が抽出した感性項目と、を出力する出力部と、を備える空間プラン提案システムの前記出力部から出力された感性項目と目標画像とを表示する。   Further, the display terminal according to the present invention includes an acquisition unit that acquires a spatial image related to space, a physical information extraction unit that extracts physical information from the spatial image acquired by the acquisition unit, and the physical information extraction unit. A target image extraction unit that extracts a target image having physical characteristics close to the physical information, a sensitivity item extraction unit that extracts a sensitivity item corresponding to the target image extracted by the target image extraction unit, and the target image The sensitivity item and the target image output from the output unit of the space plan proposal system comprising: the output unit that outputs the target image extracted by the extraction unit and the sensitivity item extracted by the sensitivity item extraction unit. indicate.

本発明に係る空間プラン提案システムによれば、空間イメージを所定の感性項目に変換することで、ニュアンスの個人差による影響を排除し、適切に空間プランを提案できる。   According to the space plan proposal system according to the present invention, by converting a spatial image into a predetermined sensitivity item, it is possible to eliminate the influence of individual differences in nuances and propose a space plan appropriately.

同様に本発明に係る空間プラン提案方法、その実行プログラム又は空間プラン提案システムに用いられる表示端末を用いれば、空間イメージを所定の感性項目に変換することで、ニュアンスの個人差による影響を排除し、適切に空間プランを提案できる。   Similarly, using the display terminal used in the space plan proposal method, the execution program thereof, or the space plan proposal system according to the present invention, the influence of individual differences in nuances can be eliminated by converting the spatial image into predetermined sensitivity items. Can propose a space plan appropriately.

実施の形態1に係る空間プラン提案システムを示すブロック図Block diagram showing a space plan proposing system according to the first embodiment 出力部の出力表示の一例を示す図The figure which shows an example of the output display of an output part 画像データベースの一例を示す図Figure showing an example of an image database 感性項目抽出のための感性構造の一例を示す図The figure which shows an example of the sensitivity structure for sensitivity item extraction 実施の形態1に係る空間プラン提案システムの動作を示すフローチャートThe flowchart which shows operation | movement of the space plan proposal system which concerns on Embodiment 1. 実施の形態2に係る空間プラン提案システムを示すブロック図Block diagram showing a space plan proposing system according to the second embodiment 実施の形態2に係る空間プラン提案システムの動作を示すフローチャートThe flowchart which shows operation | movement of the space plan proposal system which concerns on Embodiment 2.

以下では、本発明の実施の形態に係る空間プラン提案システム、空間プラン提案方法、その実行プログラム及び空間プラン提案システムに用いられる表示端末について、図面を用いて詳細に説明する。なお、以下に説明する実施の形態は、いずれも本発明の一具体例を示すものであって、数値、構成要素、ステップの順序等についても一例に過ぎず、本発明を限定する趣旨のものではない。   Hereinafter, a space plan proposal system, a space plan proposal method, an execution program thereof, and a display terminal used in the space plan proposal system according to an embodiment of the present invention will be described in detail with reference to the drawings. Note that each of the embodiments described below shows a specific example of the present invention, and numerical values, components, order of steps, etc. are merely examples, and are intended to limit the present invention. is not.

また、各図は模式図であり、必ずしも厳密に図示されたものではない。また、各図において、実質的に同一の構成については、同一の符号を付しており、重複する説明は省略又は簡略化する。   Each figure is a mimetic diagram and is not necessarily illustrated strictly. Moreover, in each figure, about the substantially same structure, the same code | symbol is attached | subjected and the overlapping description is abbreviate | omitted or simplified.

(実施の形態1)
以下、図1〜5を用いて、本発明に係る空間プラン提案システムの実施の形態1について説明する。
(Embodiment 1)
Hereinafter, Embodiment 1 of the space plan proposal system according to the present invention will be described with reference to FIGS.

ここで、図1は、実施の形態1に係る空間プラン提案システムを示すブロック図である。図2は、出力部の出力表示の一例を示す図である。図3は、画像データベースの一例を示す図である。図4は、感性項目抽出のための感性構造の一例を示す図である。また、図5は、実施の形態1に係る空間プラン提案システムの動作を示すフローチャートである。   Here, FIG. 1 is a block diagram showing the space plan proposing system according to the first embodiment. FIG. 2 is a diagram illustrating an example of an output display of the output unit. FIG. 3 is a diagram illustrating an example of an image database. FIG. 4 is a diagram illustrating an example of a sensitivity structure for extracting sensitivity items. FIG. 5 is a flowchart showing the operation of the space plan proposal system according to Embodiment 1.

[構成]
空間プラン提案システム1は、取得したユーザ(顧客)51の理想に近い空間画像から、ニュアンスの個人差による影響を排除した所定の感性項目を出力することができ、ユーザ(顧客)51の嗜好に合った空間プランの提案に用いることができるシステムである。空間プラン提案システム1は、端末2と、サーバ装置3とを備える。端末2は、例えば、スマートフォン、携帯電話、タブレットといった携帯端末や、パーソナルコンピュータ(PC)等である。また、サーバ装置3は、例えば、コンピュータ機器等である。
[Constitution]
The space plan proposal system 1 can output a predetermined sensitivity item that excludes the influence of individual differences in nuances from the acquired spatial image that is close to the ideal of the user (customer) 51, so that the preference of the user (customer) 51 is satisfied. It is a system that can be used to propose a suitable space plan. The space plan proposal system 1 includes a terminal 2 and a server device 3. The terminal 2 is, for example, a mobile terminal such as a smartphone, a mobile phone, or a tablet, or a personal computer (PC). The server device 3 is, for example, a computer device.

ここで、空間プラン提案システム1によって提案できる空間には、例えば、浴室、リビング、キッチン、寝室等、あらゆる部屋や建物が含まれ、これらの空間についてユーザの嗜好に合った空間プランの提案ができる。   Here, the space that can be proposed by the space plan proposal system 1 includes, for example, any room or building such as a bathroom, living room, kitchen, bedroom, etc., and a space plan that suits the user's preference can be proposed for these spaces. .

端末2は、ユーザ(顧客)51やユーザ(設計者)52が操作等するものである。端末2は、取得部21と、出力部22とを備える。取得部21は、ユーザ(顧客)51の理想に近い空間の画像を取得する。また、出力部22は、空間プラン提案システム1によって抽出された感性項目及び目標画像6を出力する。なお、出力部22は、感性項目のみを出力するようにしてもよい。   The terminal 2 is operated by a user (customer) 51 or a user (designer) 52. The terminal 2 includes an acquisition unit 21 and an output unit 22. The acquisition unit 21 acquires an image of a space close to the ideal of the user (customer) 51. The output unit 22 outputs the sensitivity items and the target image 6 extracted by the space plan proposal system 1. Note that the output unit 22 may output only the sensitivity items.

ここで、感性項目とは、目標画像抽出部32において抽出される目標画像6に対応付けられて、あらかじめ感性項目データベース42に登録されている言葉のことであり、例えば、「明るい」や「開放的な」等といった言葉である。なお、感性項目として用いる言葉については、空間プラン提案システム1の使用者等によって、適宜に設定可能である。   Here, the sensitivity item is a word that is associated with the target image 6 extracted by the target image extraction unit 32 and registered in advance in the sensitivity item database 42. For example, “sensitivity” or “open” It's a word like In addition, about the word used as a sensitivity item, the user etc. of the space plan proposal system 1 can set suitably.

サーバ装置3は、取得部21で取得した空間画像を処理し、ユーザ(顧客)51の理想の空間に関する感性項目を抽出する。サーバ装置3は、物理情報抽出部31と、目標画像抽出部32と、感性項目抽出部33と、記憶部4とを備える。   The server device 3 processes the spatial image acquired by the acquisition unit 21 and extracts a sensitivity item related to the ideal space of the user (customer) 51. The server device 3 includes a physical information extraction unit 31, a target image extraction unit 32, a sensitivity item extraction unit 33, and a storage unit 4.

物理情報抽出部31は、取得部21が取得した空間画像から、床色や壁色等の物理情報を抽出する。目標画像抽出部32は、物理情報抽出部31が抽出した物理情報に類似する物理情報を有する目標画像6を、後述する画像データベース41を参照して、抽出する。また、感性項目抽出部33は、後述する感性項目データベース42を参照して、目標画像抽出部32が抽出した目標画像6に対応する感性項目を抽出する。   The physical information extraction unit 31 extracts physical information such as a floor color and a wall color from the spatial image acquired by the acquisition unit 21. The target image extraction unit 32 extracts the target image 6 having physical information similar to the physical information extracted by the physical information extraction unit 31 with reference to an image database 41 described later. In addition, the sensitivity item extraction unit 33 refers to a sensitivity item database 42 described later, and extracts a sensitivity item corresponding to the target image 6 extracted by the target image extraction unit 32.

ここで、物理情報とは、空間設計に用いられるような情報であって、例えば、床色、壁色、照明色、照明照度、床部材等であるが、これらは提案内容や設計を行う場所等によって適宜に設定可能である。   Here, the physical information is information used for space design, for example, floor color, wall color, illumination color, illumination illuminance, floor member, etc. It can be set appropriately according to the above.

また、目標画像6とは、空間プランの提案のために用いられる、あらかじめ画像データベース41に記録されている画像であり、図2に示す、画像1又は画像2のように出力部22に出力させる。目標画像6については、例えばリビングの空間プランを提案する場合には、床や天井や壁や家具や照明等が表示されているリビングの写真やCG画像等の画像である。   The target image 6 is an image recorded in advance in the image database 41, which is used for the proposal of the space plan, and is output to the output unit 22 like the image 1 or the image 2 shown in FIG. . For example, when the living space plan is proposed, the target image 6 is an image of a living room or a CG image on which a floor, a ceiling, a wall, furniture, lighting, or the like is displayed.

記憶部4は、画像データベース41と、感性項目データベース42と、を備える。画像データベース41には、複数の目標画像6と、その目標画像6に対応した物理情報が記録されている。また、感性項目データベース42には、目標画像6に対応付けられた複数の感性項目が記録されている。   The storage unit 4 includes an image database 41 and a sensitivity item database 42. In the image database 41, a plurality of target images 6 and physical information corresponding to the target images 6 are recorded. In addition, a plurality of sensitivity items associated with the target image 6 are recorded in the sensitivity item database 42.

ここで、目標画像6に対応した物理情報とは、例えば、その目標画像6に表示されている床や天井等の色や、照明の照度等である。これらの情報がそれぞれの目標画像6と対応付けられて画像データベース41に記録されている。   Here, the physical information corresponding to the target image 6 is, for example, the color of the floor or ceiling displayed in the target image 6, the illumination illuminance, or the like. These pieces of information are recorded in the image database 41 in association with each target image 6.

図示しないが、端末2及びサーバ装置3のそれぞれは、互いに通信を行う通信部を有する。実施の形態1においては、通信部は無線によって通信を行う。なお、通信の方式は、無線に限られず、有線による通信方式を採用してもよい。   Although not shown, each of the terminal 2 and the server device 3 includes a communication unit that communicates with each other. In the first embodiment, the communication unit performs wireless communication. The communication method is not limited to wireless, and a wired communication method may be adopted.

以下では、空間プラン提案システム1が備える各構成要素について詳細に説明する。   Below, each component with which the space plan proposal system 1 is provided is demonstrated in detail.

[取得部]
取得部21は、ユーザ(顧客)51の理想に近い空間画像を取得する。具体的には、ユーザ(顧客)51或いはユーザ(設計者)52によって、端末2を介して入力された空間画像を取得する。
[Acquisition part]
The acquisition unit 21 acquires a spatial image close to the ideal of the user (customer) 51. Specifically, a spatial image input via the terminal 2 by the user (customer) 51 or the user (designer) 52 is acquired.

ここで、空間プラン提案システム1で用いられる空間画像は、提案する空間と同じ空間についての画像であり、例えば、浴室についての提案を行う場合は浴室の画像である。   Here, the space image used in the space plan proposal system 1 is an image for the same space as the space to be proposed, for example, a bathroom image when making a proposal for a bathroom.

また、空間画像については、あらかじめ定められたフォーマットの画像であってもよく、あらかじめ定められたフォーマットとは異なる画像であってもよい。また、フォーマットを定めなくてもよい。   In addition, the spatial image may be an image in a predetermined format or an image different from the predetermined format. Also, the format need not be defined.

ここで、空間画像のあらかじめ定められたフォーマットとしては、天井や床や壁の位置が固定されたフォーマットを用いるこができる。そして、ユーザ(顧客)51やユーザ(設計者)52によって天井色や床色や壁色が変更可能となっている。なお、家具や照明の位置等も、ユーザ(顧客)51やユーザ(設計者)52によって変更可能としてもよい。   Here, as a predetermined format of the spatial image, a format in which the position of the ceiling, floor, or wall is fixed can be used. The ceiling color, floor color, and wall color can be changed by the user (customer) 51 and the user (designer) 52. The positions of furniture and lighting may be changed by the user (customer) 51 or the user (designer) 52.

あらかじめ空間画像のフォーマットを定めた場合は、ユーザ(顧客)51にフォーマット画像の壁や床や天井の色等を好みのものに設定してもらうことで空間画像を得ることができる。この場合、物理情報抽出部31が自動的に床や壁や天井等を認識できるような構成にすることが好ましい。そのような構成にすることで、ユーザ(顧客)51やユーザ(設計者)52が、都度空間画像内の床や壁や天井等の範囲を指定する必要がなく、簡便な操作で感性項目や目標画像6を抽出することができる。   When the format of the spatial image is determined in advance, the spatial image can be obtained by having the user (customer) 51 set the color of the wall, floor, or ceiling of the formatted image to a desired one. In this case, it is preferable that the physical information extraction unit 31 can automatically recognize the floor, wall, ceiling, and the like. With such a configuration, it is not necessary for the user (customer) 51 or the user (designer) 52 to specify a range such as a floor, a wall, or a ceiling in the space image each time, and the sensitivity item and the target can be easily operated. Image 6 can be extracted.

また、あらかじめ空間画像のフォーマットを定めた場合であっても、そのフォーマットとは異なる画像を取得部21で取得可能としてもよい。ユーザ(顧客)51の好みがフォーマットに合ってない場合や、フォーマットとは異なる画像の方がユーザ(顧客)51の理想を表現できる場合、等でも適切に空間プランの提案をすることができるようになるためである。   Even if the format of the spatial image is determined in advance, an image different from the format may be acquired by the acquisition unit 21. If the preferences of the user (customer) 51 do not match the format, or if an image different from the format can represent the ideal of the user (customer) 51, it is possible to appropriately propose a spatial plan. Because it becomes.

この場合、ユーザ(顧客)51やユーザ(設計者)52が、空間画像内の床や壁や天井等の範囲を指定することで物理情報抽出部31が、壁や床や天井等の範囲を認識し、物理情報を抽出する。ユーザ(顧客)51やユーザ(設計者)52は、取得部21において、空間画像内の床や壁や天井等の範囲を指定する。   In this case, when the user (customer) 51 or the user (designer) 52 designates a range such as a floor, a wall, or a ceiling in the spatial image, the physical information extraction unit 31 recognizes the range such as the wall, the floor, or the ceiling. Extract physical information. The user (customer) 51 or the user (designer) 52 designates a range such as a floor, a wall, or a ceiling in the spatial image in the acquisition unit 21.

また、空間画像のフォーマットを定めなくてもよい。この場合も、ユーザ(顧客)51やユーザ(設計者)52が、都度空間画像内の床や壁や天井等の範囲を指定することで物理情報抽出部31が、壁や床や天井等の範囲を把握し、物理情報を抽出する。この場合も、ユーザ(顧客)51やユーザ(設計者)52は、取得部21において、空間画像内の床や壁や天井等の範囲を指定する。   Also, the format of the spatial image need not be defined. In this case as well, the user (customer) 51 or the user (designer) 52 designates the range of the floor, wall, ceiling, etc. in the space image each time, so that the physical information extraction unit 31 determines the range of the wall, floor, ceiling, etc. Understand and extract physical information. Also in this case, the user (customer) 51 or the user (designer) 52 designates a range such as a floor, a wall, or a ceiling in the spatial image in the acquisition unit 21.

[出力部]
出力部22は、感性項目抽出部33が抽出した感性項目を出力する。出力部22から、空間イメージについて所定の感性項目として出力されるため、ニュアンスの個人差による影響を排除し、適切に空間プランを提案できる。
[Output section]
The output unit 22 outputs the sensitivity item extracted by the sensitivity item extraction unit 33. Since the output unit 22 outputs a spatial image as a predetermined sensitivity item, it is possible to eliminate the influence of individual differences in nuances and propose a spatial plan appropriately.

また、目標画像抽出部32が抽出した目標画像6を、さらに抽出するようにしてもよい。さらに、目標画像抽出部32が抽出した目標画像6に対応する物理情報を、さらに出力するようにしてもよい。   Further, the target image 6 extracted by the target image extraction unit 32 may be further extracted. Further, physical information corresponding to the target image 6 extracted by the target image extraction unit 32 may be further output.

この場合、出力する目標画像6を空間プランの1つとして提案することができ、その空間プランが採用されれば、その物理情報を用いて空間設計をすることができる。また、出力部22から出力された目標画像6を見ることで、出力結果がユーザ(顧客)51の嗜好に合致しているか否かを判断することが可能になる。   In this case, the target image 6 to be output can be proposed as one of the space plans, and if the space plan is adopted, the space design can be performed using the physical information. Further, by looking at the target image 6 output from the output unit 22, it is possible to determine whether or not the output result matches the preference of the user (customer) 51.

実施の形態1においては、出力部22は、図2に示すような出力表示よって、感性項目と目標画像6と物理情報を出力する。図2は、目標画像抽出部32が2つの目標画像6を抽出した場合における出力表示の一例である。なお、出力部22に出力される目標画像6の数は2つに限られず、目標画像抽出部32が抽出したすべての目標画像6を出力する。   In the first embodiment, the output unit 22 outputs the sensitivity item, the target image 6, and the physical information by output display as shown in FIG. FIG. 2 is an example of an output display when the target image extraction unit 32 extracts two target images 6. Note that the number of target images 6 output to the output unit 22 is not limited to two, and all the target images 6 extracted by the target image extraction unit 32 are output.

実施の形態1においては、出力部22には、出力された目標画像6の選択機能があり、出力部22において選択された画像についての感性項目及び物理情報のみが表示される。図2に示す出力表示の例では、出力部22において選択されている画像1が、選択されていない画像2と比べて大きく表示されている。この構成によって、ユーザ(顧客)51の嗜好に合った目標画像6の感性項目及び物理情報のみが出力されるため、出力部22の出力表示がすっきりと見やすくなる。   In the first embodiment, the output unit 22 has a function of selecting the output target image 6, and only the sensitivity items and physical information about the image selected by the output unit 22 are displayed. In the example of the output display shown in FIG. 2, the image 1 selected in the output unit 22 is displayed larger than the image 2 not selected. With this configuration, only the sensitivity items and physical information of the target image 6 that match the preference of the user (customer) 51 are output, so that the output display of the output unit 22 is clearly visible.

なお、出力表示において、出力部22において選択されている画像の表示方法は、他の画像に比べて大きく表示される表示方法に限られない。出力部22において選択されている画像が、他の画像よりも強調されていればよい。例えば、出力部22において選択されている画像のみが赤枠で囲まれてもよいし、或いは、選択されていない画像の色彩が薄く表示されていてもよい。   In the output display, the display method of the image selected in the output unit 22 is not limited to the display method that is displayed larger than other images. The image selected in the output unit 22 only needs to be emphasized more than other images. For example, only the image selected in the output unit 22 may be surrounded by a red frame, or the color of an image not selected may be displayed lightly.

また、出力部22に出力される物理情報は、出力部22において選択されている画像に対応する感性項目及び物理情報のみでなくてもよい。例えば、目標画像抽出部32が抽出した目標画像6のすべての感性項目及び物理情報を同時に表示するような構成とすることもできる。   The physical information output to the output unit 22 may not be only the sensitivity items and physical information corresponding to the image selected in the output unit 22. For example, all the sensitivity items and physical information of the target image 6 extracted by the target image extraction unit 32 may be displayed simultaneously.

出力部22での画像の選択方法としては、キーボードやマウス等を用いて選択することができる。なお、出力部22がタッチパネルディスプレイである場合は、出力表示上の目標画像6をタップすることで、画像の選択をするような構成とすることもできる。   As an image selection method in the output unit 22, selection can be performed using a keyboard, a mouse, or the like. When the output unit 22 is a touch panel display, the target image 6 on the output display can be tapped to select an image.

ここで、さらに、出力部22が、出力する目標画像6において用いられている床材や壁材等の商品番号や商品情報を同時に出力するような構成としてもよい。かかる構成にすれ
ば、空間プランと同時にそれに用いる商品についても提案することができるため、より効率的な提案が可能になる。
Here, the output unit 22 may be configured to simultaneously output product numbers and product information such as floor materials and wall materials used in the target image 6 to be output. With such a configuration, it is possible to propose a product used for the space plan at the same time, so that more efficient proposal can be made.

また、ユーザ(顧客)51用の出力部22aとユーザ(設計者)52用の出力部22bの2つの出力部22を有する構成とし、ユーザ(顧客)51用の出力部22aには目標画像6を、ユーザ(設計者)52用の出力部22bには物理情報を出力するようにしてもよい。なお、この場合、感性項目は、2つの出力部22a及び22bの双方に出力される。   Further, the output unit 22 a for the user (customer) 51 and the output unit 22 b for the user (designer) 52 are configured to have two output units 22, and the target image 6 is displayed on the output unit 22 a for the user (customer) 51. Alternatively, physical information may be output to the output unit 22b for the user (designer) 52. In this case, the sensitivity item is output to both of the two output units 22a and 22b.

また、これら2つの出力部22は、異なる端末に設置されている構成とすることもできる。これら2つの出力部22が異なる端末2に設置されていれば、ユーザ(顧客)51とユーザ(設計者)52とが、離れた場所にいる場合でも空間プラン提案システム1を活用することができる。この場合、それぞれの端末には、メールやチャットや電話等の相互にやりとりができる通信手段が備わっていることが好ましい。   Moreover, these two output parts 22 can also be set as the structure installed in a different terminal. If these two output units 22 are installed in different terminals 2, the space plan proposal system 1 can be used even when the user (customer) 51 and the user (designer) 52 are in remote locations. . In this case, it is preferable that each terminal is provided with a communication means such as mail, chat, and telephone that can communicate with each other.

出力部22は、例えば、液晶装置や有機EL(Electro Luminescence)表示装置のようなディスプレイ装置等を用いることができる。   For example, a display device such as a liquid crystal device or an organic EL (Electro Luminescence) display device can be used as the output unit 22.

[物理情報抽出部]
物理情報抽出部31は、取得部21において取得した空間画像から、物理情報を抽出する。物理情報抽出部31が抽出した物理情報は、目標画像抽出部32が目標画像6を抽出するために用いられる。
[Physical information extraction unit]
The physical information extraction unit 31 extracts physical information from the spatial image acquired by the acquisition unit 21. The physical information extracted by the physical information extraction unit 31 is used for the target image extraction unit 32 to extract the target image 6.

物理情報抽出部31が抽出する物理情報としては、例えば、壁色、床色、天井色、照明の照度、照明の色温度等であるが、物理情報として用いられる情報は、提案する空間によって適宜に設定可能である。   The physical information extracted by the physical information extraction unit 31 is, for example, wall color, floor color, ceiling color, illumination illuminance, illumination color temperature, etc. Information used as physical information depends on the proposed space. Can be set.

物理情報抽出部31は、取得部21が、あらかじめ定められたフォーマットの空間画像を取得した場合であっても、あらかじめ定められたフォーマットではない空間画像を取得した場合であっても、取得部21が取得した空間画像から適切に物理情報を抽出することができる。また、空間画像のフォーマットが定められていない場合でも、取得部21が取得した空間画像から適切に物理情報を抽出することができる。   Even if the acquisition unit 21 acquires a spatial image in a predetermined format or a spatial image that does not have a predetermined format, the physical information extraction unit 31 acquires the acquisition unit 21. Can appropriately extract physical information from the acquired spatial image. Even when the format of the spatial image is not defined, the physical information can be appropriately extracted from the spatial image acquired by the acquisition unit 21.

あらかじめ定められたフォーマットの空間画像とは、壁や床や天井や照明等の位置が決まっており、その壁色、床色、天井色、照明の照度、照明の色温度等をユーザ(顧客)51の理想に近いものに設定した画像のことである。   The position of the wall, floor, ceiling, lighting, etc. is determined from the space image in a predetermined format, and the wall color, floor color, ceiling color, illumination illuminance, illumination color temperature, etc. are specified by the user (customer) 51. This is an image set to be close to the ideal.

この場合、壁や床や天井等の位置があらかじめ定まっているため、物理情報抽出部31が床や壁等の範囲を自動で認識し、床色や壁色等の物理情報を抽出することができる。つまり、ユーザ(顧客)51やユーザ(設計者)52が空間画像内の床や壁等の範囲を指定する必要なく、物理情報抽出部31が物理情報を抽出することができる。   In this case, since the positions of the wall, floor, ceiling, etc. are determined in advance, the physical information extraction unit 31 can automatically recognize the range of the floor, wall, etc. and extract physical information such as the floor color and wall color. That is, the physical information extraction unit 31 can extract physical information without the need for the user (customer) 51 or the user (designer) 52 to specify a range such as a floor or a wall in the spatial image.

また、あらかじめ定められたフォーマットでない空間画像の場合は、物理情報抽出部31は、ユーザ(顧客)51やユーザ(設計者)52が空間画像内の床や壁や天井等の範囲を指定することで壁や床や天井等の範囲を認識し、物理情報を抽出する。   In the case of a spatial image that is not in a predetermined format, the physical information extraction unit 31 allows the user (customer) 51 or the user (designer) 52 to specify a range such as a floor, wall, or ceiling in the spatial image. Recognize ranges such as walls, floors, and ceilings, and extract physical information.

フォーマットとは異なる空間画像でも物理情報が抽出できるため、ユーザ(顧客)51の好みがフォーマットに合ってない場合や、フォーマットとは異なる画像の方がユーザ(顧客)51の理想を表現できる場合等でも適切に空間プランの提案をすることができる。   Since physical information can be extracted even in a spatial image different from the format, the user (customer) 51's preferences do not match the format, or the image different from the format can express the ideal of the user (customer) 51. But I can make a space plan proposal appropriately.

また、あらかじめフォーマットを定めない場合でも、物理情報抽出部31は、取得部2
1が取得した空間画像内の床や壁や天井等の範囲をユーザ(顧客)51やユーザ(設計者)52が指定することで壁や床や天井等の範囲を認識し、物理情報を抽出する。
Even if the format is not determined in advance, the physical information extraction unit 31 is not limited to the acquisition unit 2.
When a user (customer) 51 or a user (designer) 52 designates a range such as a floor, wall, or ceiling in the spatial image acquired by 1, the range such as a wall, floor, or ceiling is recognized, and physical information is extracted.

この場合、フォーマットを定めない方がユーザ(顧客)51の理想を表現できる場合等でも適切に空間プランの提案をすることができる。   In this case, it is possible to appropriately propose a space plan even when the ideal of the user (customer) 51 can be expressed by a person who does not define the format.

物理情報抽出部31は、取得部21が取得した空間画像を画像解析することで、物理情報を抽出する。例えば、壁色の物理情報を抽出する際、物理情報抽出部31は、空間画像内の壁と認識している範囲のピクセルの色を用いて壁色の物理情報を抽出する。   The physical information extraction unit 31 extracts physical information by performing image analysis on the spatial image acquired by the acquisition unit 21. For example, when extracting the physical information of the wall color, the physical information extraction unit 31 extracts the physical information of the wall color using the color of the pixel in the range recognized as the wall in the spatial image.

この際、壁と認識している範囲の全てのピクセルの色の平均値を壁色の物理情報として抽出してもよいし、また、壁と認識している範囲の全てのピクセルの色の中間値を壁色の物理情報として抽出してもよい。   At this time, the average value of the colors of all the pixels in the range recognized as the wall may be extracted as physical information of the wall color, or the middle of the colors of all the pixels in the range recognized as the wall The value may be extracted as wall color physical information.

床色や天井色についても同様に、物理情報抽出部31が空間画像内で床や天井と認識している範囲のピクセルの色を用いて、床色や天井色の物理情報を抽出する。また、照明の色温度等については、物理情報抽出部31が空間画像内で照明があると認識している範囲の周辺のピクセルの色等を用いて、照明の色温度の物理情報を抽出する。   Similarly, for the floor color and the ceiling color, the physical information extraction unit 31 extracts the physical information of the floor color and the ceiling color using the color of the pixel that is recognized as the floor or the ceiling in the spatial image. As for the color temperature of the illumination, etc., the physical information extraction unit 31 extracts the physical information of the color temperature of the illumination using the color of the surrounding pixels in the range recognized as illumination in the spatial image. .

[目標画像抽出部]
目標画像抽出部32は、画像データベース41を参照して、物理情報抽出部31が抽出した物理情報を用いて、取得部21が取得した空間画像に近い目標画像6を抽出する。より具体的には、目標画像抽出部32は、物理情報抽出部31が抽出した物理情報との誤差が小さい物理情報を有する目標画像6を抽出する。
[Target image extraction unit]
The target image extraction unit 32 refers to the image database 41 and extracts the target image 6 that is close to the spatial image acquired by the acquisition unit 21 using the physical information extracted by the physical information extraction unit 31. More specifically, the target image extraction unit 32 extracts the target image 6 having physical information with a small error from the physical information extracted by the physical information extraction unit 31.

目標画像6とは、空間プランの提案に用いられる画像のことである。複数の目標画像6が、それぞれの目標画像6に対応する物理情報とともに、後述する画像データベース41に図3に示す一例のように記録されている。   The target image 6 is an image used for space plan proposal. A plurality of target images 6 are recorded together with physical information corresponding to each target image 6 in an image database 41 described later as an example shown in FIG.

なお、壁色や、天井色や、床色については、図3中では、C12やC13等の表記となっているが、実際には数値データとして記録されている。色の数値化については、例えば、RGB表記等を用いることができる。   The wall color, ceiling color, and floor color are represented as C12, C13, etc. in FIG. 3, but are actually recorded as numerical data. For the digitization of colors, for example, RGB notation can be used.

以下においては、物理情報抽出部31が抽出した物理情報と、それぞれの目標画像6の有する物理情報との誤差の算出方法について説明する。なお、物理情報抽出部31が抽出した物理情報の項目と、目標画像6の有する物理情報の項目とは一致する。   Hereinafter, a method for calculating an error between the physical information extracted by the physical information extraction unit 31 and the physical information of each target image 6 will be described. The physical information item extracted by the physical information extraction unit 31 matches the physical information item of the target image 6.

誤差の算出に当たって、まず、物理情報の項目ごとに空間画像の物理情報と目標画像6の物理情報との差の絶対値を算出する。ここで、物理情報の項目とは、色温度や壁色や天井色等の項目のことである。例えば、空間画像における床面照度が130である場合、図3中の画像1の床面照度は250であるため、物理情報の項目「床面照度」についての空間画像と目標画像6である図3中の画像1との差の絶対値は120である。   In calculating the error, first, the absolute value of the difference between the physical information of the spatial image and the physical information of the target image 6 is calculated for each item of physical information. Here, the items of physical information are items such as color temperature, wall color, and ceiling color. For example, when the floor surface illuminance in the spatial image is 130, the floor surface illuminance of the image 1 in FIG. 3 is 250, and thus the diagram is the spatial image and target image 6 for the physical information item “floor illuminance”. The absolute value of the difference from image 1 in 3 is 120.

続いて、上述の手順で算出した差の絶対値に重視度を乗じた値について全ての物理情報の項目で算出し、その和を空間画像とその目標画像6(この場合は図3中の画像1)との誤差値として算出する。   Subsequently, a value obtained by multiplying the absolute value of the difference calculated in the above-described procedure by the importance is calculated for all items of physical information, and the sum is obtained as a spatial image and its target image 6 (in this case, the image in FIG. 3). It is calculated as an error value from 1).

ここで、重視度とは、物理情報の項目のそれぞれの誤差値に対する寄与度の差を小さくし、且つ、空間プランを適切に提案するという観点において重視すべき物理情報の項目の誤差値に対する寄与度を大きくするための数値である。物理情報の数値は、その項目によ
って大きくオーダーが異なるものであるため、適切な空間プランの提案のためには、各項目間の誤差値に対する寄与度の差を小さくしなければならない。重視度は、物理情報の各項目に対し、一定値があらかじめ設定されている。
Here, the importance is the contribution to the error value of the physical information item that should be emphasized from the viewpoint of reducing the difference in contribution to each error value of the physical information item and appropriately proposing a spatial plan. It is a numerical value for increasing the degree. Since the numerical value of physical information varies greatly depending on the item, in order to propose an appropriate spatial plan, the difference in contribution to the error value between each item must be reduced. The importance level is set in advance for each item of physical information.

実施の形態1において、目標画像抽出部32は、この誤差値が最も小さい目標画像6を抽出する。なお、目標画像抽出部32が抽出する目標画像6は1つでなくてもよい。例えば、誤差値の小さい順に所定数(例えば3つや4つ)の目標画像6を抽出してもよい。また、誤差値が一定値以下の目標画像6の全てを抽出するような構成としてもよい。   In the first embodiment, the target image extraction unit 32 extracts the target image 6 having the smallest error value. Note that the target image 6 extracted by the target image extraction unit 32 may not be one. For example, a predetermined number (for example, three or four) of target images 6 may be extracted in ascending order of error values. Further, a configuration may be adopted in which all the target images 6 having error values equal to or less than a certain value are extracted.

[感性項目抽出部]
感性項目抽出部33は、感性項目データベース42を参照して、目標画像抽出部32が抽出した目標画像6に対応した感性項目を抽出する。感性項目とは、対応付けられた目標画像6を現す言葉のことであり、例えば、「明るい」や「開放的な」といった言葉である。なお、上述の通り、感性項目として用いる言葉については、空間プラン提案システム1の使用者等によって、適宜に設定可能である。
[Sensitive Item Extraction Unit]
The sensitivity item extraction unit 33 refers to the sensitivity item database 42 and extracts sensitivity items corresponding to the target image 6 extracted by the target image extraction unit 32. The sensitivity item is a word representing the associated target image 6, for example, “bright” or “open”. As described above, the words used as the sensitivity items can be appropriately set by the user of the space plan proposal system 1 or the like.

目標画像6と感性項目とは、感性構造を用いて対応付けられている。より具体的には、目標画像6についての感性構造パスによって繋がっている感性項目が、その目標画像6に対応付けられている感性項目である。   The target image 6 and the sensitivity item are associated with each other using a sensitivity structure. More specifically, the sensitivity items connected by the sensitivity structure path for the target image 6 are sensitivity items associated with the target image 6.

ここで、感性構造とは、図4に示すような、共分散構造分析を用いて作成された構造のことである。なお、共分散構造分析を用いなくても、重回帰分析と数量化1類の2つの分析手法を組み合わせる等すれば、同様の分析が可能であるが、実施の形態1においては、共分散構造分析を採用している。   Here, the sensitivity structure is a structure created using covariance structure analysis as shown in FIG. Even if the covariance structure analysis is not used, the same analysis can be performed by combining the two analysis methods of the multiple regression analysis and the quantification type 1, but in the first embodiment, the covariance structure is used. Adopt analysis.

図4に示した感性構造中のそれぞれの感性項目は、感性項目Aを除き、感性項目データベース42に感性項目として記録されている言葉である。また、感性項目Aは、価値判断を示すものであり、例えば、「理想的な」や「好きな」等の言葉である。   Each sensitivity item in the sensitivity structure shown in FIG. 4 is a word recorded as a sensitivity item in the sensitivity item database 42 except for the sensitivity item A. Sensitivity item A indicates value judgment, for example, “ideal” or “like”.

以下においては、感性構造の作成法について簡単に説明する。まず、複数(例えば20人や50人等)のアンケート受験者に、複数の目標画像6についてアンケートを実施する。このアンケートにおいて提示する複数の目標画像6とは、画像データベース41に登録されている目標画像6である。   In the following, a method for creating a sensory structure will be briefly described. First, a questionnaire is conducted on a plurality of target images 6 for a plurality of questionnaire examinees (for example, 20 people, 50 people, etc.). The plurality of target images 6 presented in this questionnaire are target images 6 registered in the image database 41.

アンケート項目については、それぞれの目標画像6を見て、アンケート受験者が感じる所定の感性項目の価値判断の度合いについて、例えば10段階で、たずねるものである。アンケート項目でたずねる感性項目については、感性項目データベース42に登録されている感性項目である。   As for the questionnaire items, each target image 6 is viewed, and the degree of value judgment of a predetermined sensitivity item felt by the questionnaire examinee is asked, for example, in 10 stages. Sensitivity items to be asked in the questionnaire items are sensitivity items registered in the sensitivity item database 42.

例えば、アンケート項目の感性項目が「明るい」である場合、目標画像6を見て、感性項目「明るい」に対して感じる評価の度合いが6であれば、アンケート受験者はそのアンケート項目に6と回答する。   For example, when the sensitivity item of the questionnaire item is “bright”, if the degree of evaluation felt for the sensitivity item “bright” is 6 when the target image 6 is viewed, To answer.

なお、アンケート対象の人数や価値判断の度合いは上記のものに限定されない。例えば、100人にアンケートをとり、価値判断を5段階で評価してもよい。   In addition, the number of questionnaire subjects and the degree of value judgment are not limited to the above. For example, a questionnaire may be taken for 100 people and the value judgment may be evaluated in five stages.

次に、それぞれの感性項目で、影響があると思われる感性項目間に推定のパスを引き、上記アンケート結果を用いて、各パスのそれぞれにおける影響度を算出する。そして、所定の指標によって、そのパスの適合度を検証する。所定の指標とは、例えば、GFI(Goodness of Fit Index)、AGFI(Adjusted GFI)
、CFI(Comparative Fit Index)、RMSEA(Root mean Squre Error Apporoximation)等がある。
Next, for each sensitivity item, an estimated path is drawn between the sensitivity items that are considered to be affected, and the degree of influence in each path is calculated using the questionnaire result. Then, the adaptability of the path is verified by a predetermined index. Examples of the predetermined index include GFI (Goodness of Fit Index) and AGFI (Adjusted GFI).
, CFI (Comparative Fit Index), RMSEA (Root Mean Square Error Approximation), and the like.

これらの指標が、所定の基準値を満たしていれば、そのパスは適合度が高く、そのパスは有意なパスであると評価できる。所定の基準値としては、GFI、AGFI及びCFIの各々ついては、0.9以上の数値であれば適合度が高いと評価できる。また、RMSEAについては、0.1未満の数値であれば適合度が高いと評価できる。   If these indices satisfy a predetermined reference value, the path has a high degree of fitness, and it can be evaluated that the path is a significant path. As the predetermined reference value, for each of GFI, AGFI, and CFI, if the numerical value is 0.9 or more, it can be evaluated that the fitness is high. As for RMSEA, if the numerical value is less than 0.1, it can be evaluated that the fitness is high.

適合度の検証の結果、有意でないパスが含まれる場合は、推定パスを引きなおし、影響度の算出及び適合度の検証を行う、という作業を有意なパスのみが存在する状態になるまで繰り返す。このようにして得られた有意なパスのみを有する構造を、感性構造として採用する。上述の手順で得られた感性構造は、分析に用いた目標画像6によってそのパスやパスの影響度が異なる。   As a result of the verification of the fitness, if an insignificant path is included, the estimated path is redrawn, and the calculation of the influence and the verification of the fitness are repeated until only a significant path exists. A structure having only a significant path obtained in this manner is adopted as the sensitivity structure. The sensitivity structure obtained by the above-described procedure differs in the path and the influence of the path depending on the target image 6 used for the analysis.

感性構造のパスの中で、特に影響度の大きなパスを複数選び、選ばれた複数のパスとそのパスに直接繋がる複数の感性語とから成る全体を、その感性構造の導出のために分析した目標画像6の感性構造パスとして採用する。特に影響度の大きなパスの選び方としては、例えば、影響度の大きい順に所定数(例えば3つや5つ等)のパスを選んでもよい。或いは、影響度が所定値以上であるパスの全てを選んでもよい。   Among the sensibility structure paths, a plurality of paths having a particularly high influence were selected, and the whole of the selected paths and a plurality of sensibility words directly connected to the paths was analyzed in order to derive the sensibility structure. This is adopted as the sensitivity structure path of the target image 6. As a method of selecting a path having a particularly large influence degree, for example, a predetermined number of paths (for example, three or five) may be selected in descending order of the influence degree. Alternatively, all the paths whose influence degree is a predetermined value or more may be selected.

そして、感性項目抽出部33は、目標画像抽出部32が抽出した目標画像6に対応する感性構造パスにつながっている全ての感性項目を抽出する。ここで、感性構造パスは、その感性構造を作成するために分析に用いた目標画像6と対応付けられている。   Then, the sensitivity item extraction unit 33 extracts all the sensitivity items connected to the sensitivity structure path corresponding to the target image 6 extracted by the target image extraction unit 32. Here, the emotional structure path is associated with the target image 6 used for analysis in order to create the emotional structure.

実施の形態1においては、感性項目データベース42には、目標画像6とそれに対応した感性構造とが対応づけられて記録されている。感性項目抽出部33は、感性項目データベース42を参照して、目標画像抽出部32が抽出した目標画像6に対応する感性構造内の感性構造パスにつながった感性項目を抽出する。   In the first embodiment, the sensitivity image database 42 records the target image 6 and the sensitivity structure corresponding to the target image 6. The sensitivity item extraction unit 33 refers to the sensitivity item database 42 and extracts the sensitivity items connected to the sensitivity structure path in the sensitivity structure corresponding to the target image 6 extracted by the target image extraction unit 32.

例えば、目標画像抽出部32が抽出した目標画像6に対応する感性構造パスが図4中に太線で示す感性構造パスである場合は、感性項目抽出部33は、感性項目A、B1、C1、C2及びD1を抽出する。   For example, if the emotional structure path corresponding to the target image 6 extracted by the target image extraction unit 32 is the emotional structure path indicated by a bold line in FIG. 4, the sensitivity item extraction unit 33 selects the sensitivity items A, B1, C1, Extract C2 and D1.

なお、感性項目データベース42には、感性構造を介さず、目標画像6と感性項目とが直接対応付けられていてもよい。   It should be noted that the target image 6 and the sensitivity item may be directly associated with the sensitivity item database 42 without using the sensitivity structure.

[画像データベース]
画像データベース41には、図3に示すように、複数の目標画像6と、その目標画像6に対応した物理情報とが記録されている。画像データベース41に記録されている物理情報は、物理情報抽出部31が抽出する物理情報と一致する。物理情報は、例えば、壁色や床色や照明の色温度等であるが、提案する空間に応じて適宜設定可能である。
[Image database]
As shown in FIG. 3, a plurality of target images 6 and physical information corresponding to the target images 6 are recorded in the image database 41. The physical information recorded in the image database 41 matches the physical information extracted by the physical information extraction unit 31. The physical information is, for example, a wall color, a floor color, a color temperature of illumination, and the like, and can be appropriately set according to the proposed space.

目標画像抽出部32は、画像データベース41を参照して、物理情報抽出部31が抽出した物理情報との誤差が小さい物理情報を有する目標画像6を抽出する。目標画像抽出部32は、目標画像6を、1つだけ抽出してもよいし、複数抽出してもよい。   The target image extraction unit 32 refers to the image database 41 and extracts the target image 6 having physical information with a small error from the physical information extracted by the physical information extraction unit 31. The target image extraction unit 32 may extract only one target image 6 or a plurality of target images 6.

[感性項目データベース]
感性項目データベース42には、目標画像6に対応付けられた感性構造が記録されている。感性項目抽出部33は、感性項目データベース42を参照して、目標画像抽出部32が抽出した目標画像6に対応する感性構造パスにつながっている全ての感性項目を抽出す
る。ここで、感性構造パスは、その感性構造を作成するために分析に用いた目標画像6と対応付けられている。
[Sensitivity Item Database]
In the sensitivity item database 42, a sensitivity structure associated with the target image 6 is recorded. The sensitivity item extraction unit 33 refers to the sensitivity item database 42 and extracts all sensitivity items connected to the sensitivity structure path corresponding to the target image 6 extracted by the target image extraction unit 32. Here, the emotional structure path is associated with the target image 6 used for analysis in order to create the emotional structure.

なお、実施の形態1において、感性項目データベース42には、目標画像6に複数の感性項目が直接対応付けられて記録されていてもよい。   In the first embodiment, a plurality of sensitivity items may be directly associated with the target image 6 and recorded in the sensitivity item database 42.

[動作]
以下においては、図5のフローチャートを用いて、実施の形態1に係る空間プラン提案システム1の動作について説明する。
[Operation]
Below, operation | movement of the space plan proposal system 1 which concerns on Embodiment 1 is demonstrated using the flowchart of FIG.

まず、取得部21が、ユーザ(顧客)51の理想の空間に近い空間画像を取得する(ステップS10)。取得部21が取得する空間画像については、あらかじめ定められたフォーマットの画像であってもよく、あらかじめ定められたフォーマットとは異なる画像であってもよい。また、フォーマットを定めなくてもよい。   First, the acquisition unit 21 acquires a spatial image close to the ideal space of the user (customer) 51 (step S10). The spatial image acquired by the acquisition unit 21 may be an image in a predetermined format or may be an image different from the predetermined format. Also, the format need not be defined.

フォーマットでない空間画像の場合は、物理情報抽出部31は、ユーザ(顧客)51やユーザ(設計者)52が空間画像内の床や壁や天井等の範囲を指定しなければならない。また、フォーマットを定めない場合も、ユーザ(顧客)51やユーザ(設計者)52が空間画像内の床や壁や天井等の範囲を指定しなければならない。   In the case of a spatial image that is not in a format, the physical information extraction unit 31 requires the user (customer) 51 or the user (designer) 52 to specify a range such as a floor, wall, or ceiling in the spatial image. Even when the format is not determined, the user (customer) 51 or the user (designer) 52 must specify a range such as a floor, a wall, or a ceiling in the space image.

続いて、物理情報抽出部31が、取得部21が取得した空間画像から物理情報を抽出する(ステップS20)。物理情報抽出部31は、取得部21が取得した空間画像を画像解析することで、物理情報を抽出する。例えば、壁色の物理情報を抽出する際、物理情報抽出部31は、空間画像内の壁と認識している範囲のピクセルの色を用いて壁色の物理情報を抽出する。また、照明の色温度等については、物理情報抽出部31が空間画像内で照明があると認識している範囲の周辺のピクセルの色等を用いて、照明の色温度の物理情報を抽出する。   Subsequently, the physical information extraction unit 31 extracts physical information from the spatial image acquired by the acquisition unit 21 (step S20). The physical information extraction unit 31 extracts physical information by performing image analysis on the spatial image acquired by the acquisition unit 21. For example, when extracting the physical information of the wall color, the physical information extraction unit 31 extracts the physical information of the wall color using the color of the pixel in the range recognized as the wall in the spatial image. As for the color temperature of the illumination, etc., the physical information extraction unit 31 extracts the physical information of the color temperature of the illumination using the color of the surrounding pixels in the range recognized as illumination in the spatial image. .

次に、目標画像抽出部32が、画像データベース41を参照して、物理情報抽出部31が抽出した物理情報との誤差が小さい物理情報を有する目標画像6を抽出する(ステップS30)。誤差の検証のために、目標画像抽出部32は、物理情報抽出部31が抽出した物理情報と、画像データベース41内の目標画像6の物理情報とを用いて、誤差値を算出する。   Next, the target image extraction unit 32 refers to the image database 41 and extracts the target image 6 having physical information with a small error from the physical information extracted by the physical information extraction unit 31 (step S30). In order to verify the error, the target image extraction unit 32 calculates an error value using the physical information extracted by the physical information extraction unit 31 and the physical information of the target image 6 in the image database 41.

そして、目標画像抽出部32は、この誤差値が最も小さい目標画像6を抽出する。なお、目標画像抽出部32が抽出する目標画像6は1つでなくてもよい。例えば、誤差値の小さい順に所定数(例えば3つや4つ)の目標画像6を抽出してもよい。また、誤差値が一定値以下の目標画像6の全てを抽出するような構成としてもよい。   Then, the target image extraction unit 32 extracts the target image 6 having the smallest error value. Note that the target image 6 extracted by the target image extraction unit 32 may not be one. For example, a predetermined number (for example, three or four) of target images 6 may be extracted in ascending order of error values. Further, a configuration may be adopted in which all the target images 6 having error values equal to or less than a certain value are extracted.

次に、感性項目抽出部33が、感性項目データベース42を参照して、目標画像抽出部32が抽出した目標画像6に対応する感性項目を抽出する(ステップS40)。感性項目抽出部33は、目標画像抽出部32が抽出した目標画像6に対応する感性構造パスにつながっている全ての感性項目を抽出する。   Next, the sensitivity item extraction unit 33 refers to the sensitivity item database 42 and extracts the sensitivity item corresponding to the target image 6 extracted by the target image extraction unit 32 (step S40). The sensitivity item extraction unit 33 extracts all the sensitivity items connected to the sensitivity structure path corresponding to the target image 6 extracted by the target image extraction unit 32.

そして、出力部22が、ステップS30で抽出された目標画像6と、ステップS40で抽出された感性項目とを出力する(ステップS50)。なお、ステップS50において、出力部22は、さらに、出力する目標画像6に対応する物理情報を出力してもよい。   Then, the output unit 22 outputs the target image 6 extracted in step S30 and the sensitivity item extracted in step S40 (step S50). In step S50, the output unit 22 may further output physical information corresponding to the target image 6 to be output.

上述の動作をする空間プラン提案システム1によれば、空間イメージを所定の感性項目に変換することで、ニュアンスの個人差による影響を排除し、適切に空間プランを提案で
きる。
According to the spatial plan proposing system 1 that performs the above-described operation, by converting a spatial image into a predetermined sensitivity item, it is possible to eliminate the influence of individual differences in nuances and appropriately propose a spatial plan.

(実施の形態2)
以下では、図6及び図7を用いて、本発明の実施の形態2について説明する。図6は、実施の形態2に係る空間プラン提案システムを示すブロック図である。また、図7は、実施の形態2に係る空間プラン提案システムの動作を示すフローチャートである。
(Embodiment 2)
Below, Embodiment 2 of this invention is demonstrated using FIG.6 and FIG.7. FIG. 6 is a block diagram showing a space plan proposing system according to the second embodiment. FIG. 7 is a flowchart showing the operation of the space plan proposal system according to Embodiment 2.

実施の形態2は、画像探索部34を有する点で、実施の形態1と異なる。以下の説明では、実施の形態1での説明との重複部分については、説明を省略或いは簡略化する。また、実施の形態1と同様の構成については、同じ符号を付して説明する。   The second embodiment is different from the first embodiment in that an image search unit 34 is provided. In the following description, the description overlapping with the description in Embodiment 1 is omitted or simplified. The same components as those in the first embodiment will be described with the same reference numerals.

[構成]
実施の形態2に係る空間プラン提案システム1は、ユーザ(顧客)51の理想に近い空間画像から、ニュアンスの個人差による影響を排除した所定の感性項目を出力することができ、ユーザ(顧客)51の嗜好に合った空間プランの提案に用いることができる。空間プラン提案システム1は、端末2と、サーバ装置3とを備える。端末2は、例えば、スマートフォン、携帯電話、タブレットといった携帯端末や、パーソナルコンピュータ(PC)等である。また、サーバ装置3は、例えば、コンピュータ機器等である。
[Constitution]
The spatial plan proposing system 1 according to the second embodiment can output a predetermined sensitivity item that excludes the influence of individual differences in nuances from a spatial image close to the ideal of the user (customer) 51, and the user (customer) It can be used to propose a space plan that suits 51 preferences. The space plan proposal system 1 includes a terminal 2 and a server device 3. The terminal 2 is, for example, a mobile terminal such as a smartphone, a mobile phone, or a tablet, or a personal computer (PC). The server device 3 is, for example, a computer device.

端末2は、ユーザ(顧客)51やユーザ(設計者)52が操作等するものである。端末2は、取得部21と、出力部22とを備える。取得部21と出力部22とは、実施の形態1のものとほぼ同様の構成であり、実施の形態1と同様の端末2を用いることができる。   The terminal 2 is operated by a user (customer) 51 or a user (designer) 52. The terminal 2 includes an acquisition unit 21 and an output unit 22. The acquisition unit 21 and the output unit 22 have substantially the same configuration as that of the first embodiment, and the same terminal 2 as that of the first embodiment can be used.

サーバ装置3は、取得部21で取得した空間画像を処理し、ユーザ(顧客)51の理想の空間に関する感性項目を抽出する。サーバ装置3は、物理情報抽出部31と、目標画像抽出部32と、感性項目抽出部33と、画像探索部34と、記憶部4とを備える。物理情報抽出部31と、目標画像抽出部32と、感性項目抽出部33とは、実施の形態1のものと同様の構成である。   The server device 3 processes the spatial image acquired by the acquisition unit 21 and extracts a sensitivity item related to the ideal space of the user (customer) 51. The server device 3 includes a physical information extraction unit 31, a target image extraction unit 32, a sensitivity item extraction unit 33, an image search unit 34, and a storage unit 4. The physical information extraction unit 31, the target image extraction unit 32, and the sensitivity item extraction unit 33 have the same configuration as that of the first embodiment.

画像探索部34は、感性項目データベース42を参照し、感性項目抽出部33が抽出した感性項目の全てを有する感性構造パスを探索し、その感性構造パスに対応する目標画像6を空間プラン画像7として抽出する。出力部22は、感性項目抽出部33が抽出した感性項目と目標画像抽出部32が抽出した目標画像6に加え、画像探索部34が抽出した空間プラン画像7を出力する。   The image search unit 34 refers to the sensitivity item database 42, searches for a sensitivity structure path having all of the sensitivity items extracted by the sensitivity item extraction unit 33, and selects the target image 6 corresponding to the sensitivity structure path as the spatial plan image 7. Extract as The output unit 22 outputs the spatial plan image 7 extracted by the image search unit 34 in addition to the sensitivity item extracted by the sensitivity item extraction unit 33 and the target image 6 extracted by the target image extraction unit 32.

目標画像6に加え、空間プラン画像7をも出力することで、複数の空間プランを提案することができ、ユーザ(顧客)51は、その中からより自分の嗜好に合った空間プランを選択することができる。なお、画像探索部34が抽出した空間プラン画像7の中に、既に目標画像抽出部32が抽出した目標画像6が含まれる場合は、その重複した空間プラン画像7については、画像探索部34は抽出しないことが好ましい。   A plurality of spatial plans can be proposed by outputting the spatial plan image 7 in addition to the target image 6, and the user (customer) 51 selects a spatial plan that suits his / her preference from among them. be able to. Note that if the target image 6 already extracted by the target image extraction unit 32 is included in the space plan image 7 extracted by the image search unit 34, the image search unit 34 determines the overlapping space plan image 7. It is preferable not to extract.

記憶部4は、画像データベース41と、感性項目データベース42と、を備える。画像データベース41と、感性項目データベース42とは、実施の形態1のものと同様の構成である。   The storage unit 4 includes an image database 41 and a sensitivity item database 42. The image database 41 and the sensitivity item database 42 have the same configuration as that of the first embodiment.

[画像探索部]
画像探索部34は、感性項目データベース42を参照し、感性項目抽出部33が抽出した感性項目の全てを有する感性構造パスを探索し、その感性構造パスに対応する目標画像6を空間プラン画像7として抽出する。そして、出力部22は、感性項目抽出部33が抽出した感性項目と目標画像抽出部32が抽出した目標画像6に加え、画像探索部34が抽
出した空間プラン画像7を出力する。
[Image search unit]
The image search unit 34 refers to the sensitivity item database 42, searches for a sensitivity structure path having all of the sensitivity items extracted by the sensitivity item extraction unit 33, and selects the target image 6 corresponding to the sensitivity structure path as the spatial plan image 7. Extract as Then, the output unit 22 outputs the space plan image 7 extracted by the image search unit 34 in addition to the sensitivity item extracted by the sensitivity item extraction unit 33 and the target image 6 extracted by the target image extraction unit 32.

なお、目標画像6と空間プラン画像7とは、出力部22において、別の項目として、目標画像6と空間プラン画像7とが区別されるように出力表示されてもよく、或いは、同じ項目として、目標画像6と空間プラン画像7とが区別されないように出力表示されてもよい。   The target image 6 and the space plan image 7 may be output and displayed as different items in the output unit 22 so that the target image 6 and the space plan image 7 are distinguished from each other, or as the same item. The target image 6 and the space plan image 7 may be output and displayed so as not to be distinguished.

なお、画像探索部34は、感性項目抽出部33が抽出した感性項目の全ての感性項目を有する感性構造を探索する構成に限られない。例えば、画像探索部34は、感性項目抽出部33が抽出した感性項目の内、所定割合(例えば7割や8割)の感性項目を有する感性構造パスを探索し、その感性構造パスに対応する目標画像6を空間プラン画像7として抽出してもよい。   In addition, the image search part 34 is not restricted to the structure which searches the sensitivity structure which has all the sensitivity items of the sensitivity item which the sensitivity item extraction part 33 extracted. For example, the image search unit 34 searches for the emotional structure path having a predetermined ratio (for example, 70% or 80%) of the sensitivity items extracted by the sensitivity item extraction unit 33, and corresponds to the sensitivity structure path. The target image 6 may be extracted as the space plan image 7.

この場合、出力部22は、さらに、画像探索部34が抽出した空間プラン画像7に対応する感性構造パスにつながった感性項目を出力するのが好ましい。空間プランに対するニュアンスの個人差による影響を排除した感性項目の選択肢をさらに出力することができ、より適切にユーザ(顧客)51の嗜好に合う空間プランの提案を行うことができる。   In this case, it is preferable that the output unit 22 further outputs a sensitivity item connected to the sensitivity structure path corresponding to the space plan image 7 extracted by the image search unit 34. It is possible to further output sensitivity item choices that exclude the influence of individual differences in nuance on the space plan, and to propose a space plan that more appropriately matches the preference of the user (customer) 51.

[動作]
以下においては、図7のフローチャートを用いて、実施の形態2に係る空間プラン提案システム1の動作について説明する。
[Operation]
Below, operation | movement of the space plan proposal system 1 which concerns on Embodiment 2 is demonstrated using the flowchart of FIG.

まず、取得部21が、ユーザ(顧客)51の理想の空間に近い空間画像を取得する(ステップS10)。取得部21が取得する空間画像については、あらかじめ定められたフォーマットの画像であってもよく、あらかじめ定められたフォーマットとは異なる画像であってもよい。また、フォーマットを定めなくてもよい。   First, the acquisition unit 21 acquires a spatial image close to the ideal space of the user (customer) 51 (step S10). The spatial image acquired by the acquisition unit 21 may be an image in a predetermined format or may be an image different from the predetermined format. Also, the format need not be defined.

フォーマットでない空間画像の場合は、物理情報抽出部31は、ユーザ(顧客)51やユーザ(設計者)52が空間画像内の床や壁や天井等の範囲を指定しなければならない。また、フォーマットを定めない場合も、ユーザ(顧客)51やユーザ(設計者)52が空間画像内の床や壁や天井等の範囲を指定しなければならない。   In the case of a spatial image that is not in a format, the physical information extraction unit 31 requires the user (customer) 51 or the user (designer) 52 to specify a range such as a floor, wall, or ceiling in the spatial image. Even when the format is not determined, the user (customer) 51 or the user (designer) 52 must specify a range such as a floor, a wall, or a ceiling in the space image.

続いて、物理情報抽出部31が、取得部21が取得した空間画像から物理情報を抽出する(ステップS20)。物理情報抽出部31は、取得部21が取得した空間画像を画像解析することで、物理情報を抽出する。例えば、壁色の物理情報を抽出する際、物理情報抽出部31は、空間画像内の壁と認識している範囲のピクセルの色を用いて壁色の物理情報を抽出する。また、照明の色温度等については、物理情報抽出部31が空間画像内で照明があると認識している範囲の周辺のピクセルの色等を用いて、照明の色温度の物理情報を抽出する。   Subsequently, the physical information extraction unit 31 extracts physical information from the spatial image acquired by the acquisition unit 21 (step S20). The physical information extraction unit 31 extracts physical information by performing image analysis on the spatial image acquired by the acquisition unit 21. For example, when extracting the physical information of the wall color, the physical information extraction unit 31 extracts the physical information of the wall color using the color of the pixel in the range recognized as the wall in the spatial image. As for the color temperature of the illumination, etc., the physical information extraction unit 31 extracts the physical information of the color temperature of the illumination using the color of the surrounding pixels in the range recognized as illumination in the spatial image. .

次に、目標画像抽出部32が、画像データベース41を参照して、物理情報抽出部31が抽出した物理情報との誤差が小さい物理情報を有する目標画像6を抽出する(ステップS30)。誤差の検証のために、目標画像抽出部32は、物理情報抽出部31が抽出した物理情報と、画像データベース41内の目標画像6の物理情報とを用いて、誤差値を算出する。   Next, the target image extraction unit 32 refers to the image database 41 and extracts the target image 6 having physical information with a small error from the physical information extracted by the physical information extraction unit 31 (step S30). In order to verify the error, the target image extraction unit 32 calculates an error value using the physical information extracted by the physical information extraction unit 31 and the physical information of the target image 6 in the image database 41.

そして、目標画像抽出部32は、この誤差値が最も小さい目標画像6を抽出する。なお、目標画像抽出部32が抽出する目標画像6は1つでなくてもよい。例えば、誤差値の小さい順に所定数(例えば3つや4つ)の目標画像6を抽出してもよい。また、誤差値が一定値以下の目標画像6の全てを抽出するような構成としてもよい。   Then, the target image extraction unit 32 extracts the target image 6 having the smallest error value. Note that the target image 6 extracted by the target image extraction unit 32 may not be one. For example, a predetermined number (for example, three or four) of target images 6 may be extracted in ascending order of error values. Further, a configuration may be adopted in which all the target images 6 having error values equal to or less than a certain value are extracted.

次に、感性項目抽出部33が、感性項目データベース42を参照して、目標画像抽出部32が抽出した目標画像6に対応する感性項目を抽出する(ステップS40)。感性項目抽出部33は、目標画像抽出部32が抽出した目標画像6に対応する感性構造パスにつながっている全ての感性項目を抽出する。   Next, the sensitivity item extraction unit 33 refers to the sensitivity item database 42 and extracts the sensitivity item corresponding to the target image 6 extracted by the target image extraction unit 32 (step S40). The sensitivity item extraction unit 33 extracts all the sensitivity items connected to the sensitivity structure path corresponding to the target image 6 extracted by the target image extraction unit 32.

次に、画像探索部34が、感性項目データベース42を参照して、感性項目抽出部33が抽出した感性項目を用いて空間プラン画像7を抽出する(ステップS45)。画像探索部34は、感性項目抽出部33が抽出した感性項目の全てを有する感性構造パスを探索し、その感性構造パスに対応する目標画像6を空間プラン画像7として抽出する。   Next, the image search unit 34 refers to the sensitivity item database 42 and extracts the space plan image 7 using the sensitivity items extracted by the sensitivity item extraction unit 33 (step S45). The image search unit 34 searches for a Kansei structure path having all of the Kansei items extracted by the Kansei item extracting unit 33 and extracts a target image 6 corresponding to the Kansei structure path as a space plan image 7.

そして、出力部22が、ステップS30で抽出された目標画像6と、ステップS40で抽出された感性項目と、ステップS45で抽出された空間プラン画像7とを出力する(ステップS50)。なお、ステップS50において、出力部22は、さらに、出力する目標画像6や空間プラン画像7に対応する物理情報を出力してもよい。   Then, the output unit 22 outputs the target image 6 extracted in step S30, the sensitivity item extracted in step S40, and the space plan image 7 extracted in step S45 (step S50). In step S50, the output unit 22 may further output physical information corresponding to the target image 6 and the space plan image 7 to be output.

上述の動作をする空間プラン提案システム1によれば、空間イメージを所定の感性項目に変換することで、ニュアンスの個人差による影響を排除し、適切に空間プランを提案できる。   According to the spatial plan proposing system 1 that performs the above-described operation, by converting a spatial image into a predetermined sensitivity item, it is possible to eliminate the influence of individual differences in nuances and appropriately propose a spatial plan.

(実施の形態3)
本発明は、空間プラン提案方法としても有用である。以下では、実施の形態3に係る空間プラン提案方法について説明する。以下の説明では、実施の形態1及び2での説明との重複部分については、説明を省略或いは簡略化する。また、実施の形態1及び2と同様の構成については、同じ符号を付して説明する。
(Embodiment 3)
The present invention is also useful as a space plan proposal method. Below, the space plan proposal method according to Embodiment 3 will be described. In the following description, the description overlapping with the description in Embodiments 1 and 2 is omitted or simplified. The same configurations as those in Embodiments 1 and 2 will be described with the same reference numerals.

実施の形態3に係る空間プラン提案方法は、ユーザ(顧客)51の理想に近い空間画像から、ニュアンスの個人差による影響を排除した所定の感性項目を導出でき、ユーザ(顧客)51の嗜好に合った空間プランの提案に用いることができる方法である。空間プラン提案方法は、取得ステップと、物理情報抽出ステップと、目標画像抽出ステップと、感性項目抽出ステップと、出力ステップと、が含まれる。   The spatial plan proposing method according to the third embodiment can derive a predetermined sensitivity item that excludes the influence of individual differences in nuances from a spatial image that is close to the ideal of the user (customer) 51. This is a method that can be used to propose a suitable space plan. The space plan proposal method includes an acquisition step, a physical information extraction step, a target image extraction step, a sensitivity item extraction step, and an output step.

取得ステップにおいては、ユーザ(顧客)51の理想の空間に近い空間画像が取得される。取得される空間画像については、あらかじめ定められたフォーマットの画像であってもよく、あらかじめ定められたフォーマットとは異なる画像であってもよい。また、フォーマットを定められていなくてもよい。   In the acquisition step, a spatial image close to the ideal space of the user (customer) 51 is acquired. The acquired spatial image may be an image in a predetermined format or an image different from the predetermined format. Further, the format may not be determined.

なお、フォーマットでない空間画像の場合は、物理情報抽出部31は、ユーザ(顧客)51やユーザ(設計者)52が空間画像内の床や壁や天井等の範囲を指定しなければならない。また、フォーマットを定めない場合も、ユーザ(顧客)51やユーザ(設計者)52が空間画像内の床や壁や天井等の範囲を指定しなければならない。   In the case of a spatial image that is not in a format, the physical information extraction unit 31 requires the user (customer) 51 or the user (designer) 52 to specify a range such as a floor, wall, or ceiling in the spatial image. Even when the format is not determined, the user (customer) 51 or the user (designer) 52 must specify a range such as a floor, a wall, or a ceiling in the space image.

続いて、物理情報抽出ステップにおいて、取得ステップにおいて取得した空間画像から物理情報が抽出される。物理情報抽出ステップでは、取得ステップで取得した空間画像を画像解析することで、物理情報を抽出する。例えば、壁色の物理情報を抽出する場合は、空間画像内の壁と認識している範囲のピクセルの色を用いて壁色の物理情報を抽出する。また、照明の色温度等については、空間画像内で照明があると認識している範囲の周辺のピクセルの色等を用いて、照明の色温度の物理情報を抽出する。   Subsequently, in the physical information extraction step, physical information is extracted from the spatial image acquired in the acquisition step. In the physical information extraction step, physical information is extracted by performing image analysis on the spatial image acquired in the acquisition step. For example, when extracting wall color physical information, the wall color physical information is extracted using the color of pixels in a range recognized as a wall in the spatial image. As for the color temperature of the illumination, physical information on the color temperature of the illumination is extracted using the color of the surrounding pixels in the range in which the illumination is recognized in the spatial image.

次に、目標画像抽出ステップにおいて、画像データベース41が参照され、物理情報抽
出ステップで抽出した物理情報との誤差が小さい物理情報を有する目標画像6が抽出される。誤差の検証のために、目標画像抽出ステップでは、物理情報抽出ステップで抽出した物理情報と、画像データベース41内の目標画像6の物理情報とを用いて、誤差値を算出する。
Next, in the target image extraction step, the image database 41 is referred to, and the target image 6 having physical information with a small error from the physical information extracted in the physical information extraction step is extracted. In order to verify the error, in the target image extraction step, an error value is calculated using the physical information extracted in the physical information extraction step and the physical information of the target image 6 in the image database 41.

そして、目標画像抽出ステップでは、この誤差値が最も小さい目標画像6を抽出する。なお、目標画像抽出ステップで抽出される目標画像6は1つでなくてもよい。例えば、誤差値の小さい順に所定数(例えば3つや4つ)の目標画像6を抽出してもよい。また、誤差値が一定値以下の目標画像6の全てを抽出するような構成としてもよい。   In the target image extraction step, the target image 6 having the smallest error value is extracted. Note that the number of target images 6 extracted in the target image extraction step may not be one. For example, a predetermined number (for example, three or four) of target images 6 may be extracted in ascending order of error values. Further, a configuration may be adopted in which all the target images 6 having error values equal to or less than a certain value are extracted.

次に、感性項目抽出ステップにおいて、感性項目データベース42が参照され、目標画像抽出ステップで抽出された目標画像6に対応する感性項目が抽出される。感性項目抽出ステップは、目標画像抽出ステップで抽出した目標画像6に対応する感性構造パスにつながっている全ての感性項目を抽出する。   Next, in the sensitivity item extraction step, the sensitivity item database 42 is referred to, and the sensitivity items corresponding to the target image 6 extracted in the target image extraction step are extracted. The sensitivity item extraction step extracts all sensitivity items connected to the sensitivity structure path corresponding to the target image 6 extracted in the target image extraction step.

そして、出力ステップにおいて、目標画像抽出ステップで抽出された目標画像6と、感性項目抽出ステップで抽出された感性項目と、が出力される。なお、出力ステップにおいては、さらに、出力する目標画像6に対応する物理情報を出力してもよい。   In the output step, the target image 6 extracted in the target image extraction step and the sensitivity items extracted in the sensitivity item extraction step are output. In the output step, physical information corresponding to the target image 6 to be output may be further output.

上述の動作をする空間プラン提案方法を用いれば、ユーザ(顧客)51の理想に近い空間画像から、ニュアンスの個人差による影響を排除した所定の感性項目を導出でき、ユーザ(顧客)51の嗜好に合った空間プランの提案に用いることができる。   By using the spatial plan proposing method that operates as described above, it is possible to derive a predetermined sensitivity item that eliminates the influence of individual differences in nuances from a spatial image that is close to the ideal of the user (customer) 51. It can be used to propose a space plan that suits your needs.

また、空間プラン提案方法は、画像探索ステップを含んでいてもよい。画像探索ステップにおいては、感性項目データベース42が参照され、感性項目抽出ステップで抽出された感性項目を用いて空間プラン画像7が抽出される。画像探索ステップでは、感性項目抽出ステップで抽出された感性項目の全てを有する感性構造パスを探索し、その感性構造パスに対応する目標画像6を空間プラン画像7として抽出する。   Moreover, the space plan proposal method may include an image search step. In the image search step, the sensitivity item database 42 is referred to, and the space plan image 7 is extracted using the sensitivity items extracted in the sensitivity item extraction step. In the image search step, a Kansei structure path having all of the Kansei items extracted in the Kansei item extraction step is searched, and a target image 6 corresponding to the Kansei structure path is extracted as a space plan image 7.

この場合、出力ステップにおいて、目標画像抽出ステップで抽出された目標画像6と、感性項目抽出ステップで抽出された感性項目に加え、画像探索ステップで抽出された空間プラン画像7が出力される。   In this case, in the output step, in addition to the target image 6 extracted in the target image extraction step and the sensitivity item extracted in the sensitivity item extraction step, the space plan image 7 extracted in the image search step is output.

(実施の形態4)
本発明は、空間プラン提案方法を実行させるプログラムとしても有用である。以下では、実施の形態4に係る空間プラン提案方法を実行させるプログラムについて説明する。以下の説明では、実施の形態1〜3での説明との重複部分については、説明を省略或いは簡略化する。また、実施の形態1〜3と同様の構成については、同じ符号を付して説明する。
(Embodiment 4)
The present invention is also useful as a program for executing a space plan proposing method. Below, the program which performs the space plan proposal method which concerns on Embodiment 4 is demonstrated. In the following description, the description overlapping with the description in the first to third embodiments will be omitted or simplified. Moreover, about the structure similar to Embodiment 1-3, the same code | symbol is attached | subjected and demonstrated.

空間プラン提案方法を実行させるプログラムは、ユーザ(顧客)51の理想に近い空間画像から、ニュアンスの個人差による影響を排除した所定の感性項目を導出でき、ユーザ(顧客)51の嗜好に合った空間プランの提案に用いることができるプログラムである。空間プラン提案方法を実行させるプログラムは、コンピュータに、取得ステップと、物理情報抽出ステップと、目標画像抽出ステップと、感性項目抽出ステップと、出力ステップとを含む空間プラン提案システムを実行させる。   The program for executing the spatial plan proposal method can derive a predetermined sensitivity item that excludes the influence of individual differences in nuances from a spatial image close to the ideal of the user (customer) 51, and matches the preference of the user (customer) 51. It is a program that can be used to propose spatial plans. A program for executing a spatial plan proposal method causes a computer to execute a spatial plan proposal system including an acquisition step, a physical information extraction step, a target image extraction step, a sensitivity item extraction step, and an output step.

なお、取得ステップと、物理情報抽出ステップと、目標画像抽出ステップと、感性項目抽出ステップと、出力ステップと、は実施の形態3で説明したものと同様のものである。   The acquisition step, the physical information extraction step, the target image extraction step, the sensitivity item extraction step, and the output step are the same as those described in the third embodiment.

空間プラン提案方法を実行させるプログラムを用いれば、ユーザ(顧客)51の理想に近い空間画像から、ニュアンスの個人差による影響を排除した所定の感性項目を導出でき、ユーザ(顧客)51の嗜好に合った空間プランの提案に用いることができる。   By using a program for executing the spatial plan proposal method, it is possible to derive a predetermined sensibility item that eliminates the influence of individual differences in nuances from a spatial image close to the ideal of the user (customer) 51. It can be used to propose a suitable space plan.

空間プラン提案方法を実行させるプログラムは、画像探索ステップを含んでいてもよい。画像探索ステップにおいては、感性項目データベース42が参照され、感性項目抽出ステップで抽出された感性項目を用いて空間プラン画像7が抽出される。画像探索ステップでは、感性項目抽出ステップで抽出された感性項目の全てを有する感性構造パスを探索し、その感性構造パスに対応する目標画像6を空間プラン画像7として抽出する。   The program for executing the space plan proposal method may include an image search step. In the image search step, the sensitivity item database 42 is referred to, and the space plan image 7 is extracted using the sensitivity items extracted in the sensitivity item extraction step. In the image search step, a Kansei structure path having all of the Kansei items extracted in the Kansei item extraction step is searched, and a target image 6 corresponding to the Kansei structure path is extracted as a space plan image 7.

この場合、出力ステップにおいて、目標画像抽出ステップで抽出された目標画像6と、感性項目抽出ステップで抽出された感性項目に加え、画像探索ステップで抽出された空間プラン画像7が出力される。   In this case, in the output step, in addition to the target image 6 extracted in the target image extraction step and the sensitivity item extracted in the sensitivity item extraction step, the space plan image 7 extracted in the image search step is output.

(実施の形態5)
本発明は、表示端末としても有用である。以下では、実施の形態5に係る表示端末について説明する。以下の説明では、実施の形態1〜4での説明との重複部分については、説明を省略或いは簡略化する。また、実施の形態1〜4と同様の構成については、同じ符号を付して説明する。
(Embodiment 5)
The present invention is also useful as a display terminal. Below, the display terminal which concerns on Embodiment 5 is demonstrated. In the following description, the description overlapping with the description in Embodiments 1 to 4 is omitted or simplified. Moreover, about the structure similar to Embodiment 1-4, the same code | symbol is attached | subjected and demonstrated.

実施の形態5に係る表示端末は、ユーザ(顧客)51の理想に近い空間画像から、ニュアンスの個人差による影響を排除した所定の感性項目を出力することができ、ユーザ(顧客)51の嗜好に合った空間プランの提案に用いることができる。実施の形態5に係る表示端末は、実施の形態1や実施の形態2の空間プラン提案システム1において、端末2として用いることができる。   The display terminal according to Embodiment 5 can output a predetermined sensitivity item that excludes the influence of individual differences in nuances from a spatial image that is close to the ideal of the user (customer) 51. It can be used to propose a space plan that suits your needs. The display terminal according to the fifth embodiment can be used as the terminal 2 in the space plan proposing system 1 according to the first or second embodiment.

実施の形態5に係る表示端末は、空間プラン提案システム1の取得部21と、出力部22とを有する。そして、取得部21で取得する空間画像と、出力部22から出力される目標画像6及び感性項目と、を表示する。   The display terminal according to Embodiment 5 includes an acquisition unit 21 and an output unit 22 of the space plan proposal system 1. Then, the spatial image acquired by the acquisition unit 21 and the target image 6 and the sensitivity item output from the output unit 22 are displayed.

実施の形態5に係る表示端末を用いれば、空間イメージを所定の感性項目に変換することで、ニュアンスの個人差による影響を排除し、適切に空間プランを提案できる。   By using the display terminal according to the fifth embodiment, by converting the spatial image into a predetermined sensitivity item, it is possible to eliminate the influence of individual differences in nuances and propose a spatial plan appropriately.

(実施の形態に係る空間プラン提案システム、空間プラン提案方法、空間プラン提案方法を実行するためのプログラム及び表示端末の効果等)
ここで、上述した空間プラン提案システム1、空間プラン提案方法、空間プラン提案方法を実行するためのプログラム及び表示端末の要点について、あらためて説明する。
(Space plan proposal system, space plan proposal method, program for executing space plan proposal method, effect of display terminal, etc.)
Here, the main points of the space plan proposal system 1, the space plan proposal method, the program for executing the space plan proposal method, and the display terminal will be described again.

空間プラン提案システム1は、取得部21と、出力部22と、物理情報抽出部31と、目標画像抽出部32と、感性項目抽出部33と、を備える。取得部21は、空間に関する空間画像を取得する。物理情報抽出部31は、取得部21が取得した空間画像から物理情報を抽出する。目標画像抽出部32は、物理情報抽出部31が抽出した物理情報に近い物理的特長を有する目標画像6を抽出する。感性項目抽出部33は、目標画像抽出部32が抽出した目標画像6に対応する感性項目を抽出する。出力部22は、目標画像抽出部32が抽出した目標画像6と、感性項目抽出部33が抽出した感性項目と、を出力する。   The space plan proposal system 1 includes an acquisition unit 21, an output unit 22, a physical information extraction unit 31, a target image extraction unit 32, and a sensitivity item extraction unit 33. The acquisition unit 21 acquires a spatial image related to the space. The physical information extraction unit 31 extracts physical information from the spatial image acquired by the acquisition unit 21. The target image extraction unit 32 extracts the target image 6 having physical characteristics close to the physical information extracted by the physical information extraction unit 31. The sensitivity item extraction unit 33 extracts sensitivity items corresponding to the target image 6 extracted by the target image extraction unit 32. The output unit 22 outputs the target image 6 extracted by the target image extraction unit 32 and the sensitivity items extracted by the sensitivity item extraction unit 33.

上記構成を有する空間プラン提案システム1を用いれば、空間イメージを所定の感性項目に変換することで、ニュアンスの個人差による影響を排除し、適切に空間プランを提案できる。   By using the space plan proposal system 1 having the above configuration, it is possible to appropriately propose a space plan by converting the space image into a predetermined sensitivity item, thereby eliminating the influence of individual differences in nuances.

また、画像探索部34を、さらに備え、画像探索部34は、目標画像抽出部32が抽出した目標画像6に類似する空間プラン画像7を抽出することが好ましい。また、出力部22は、目標画像抽出部32が抽出した目標画像6に対応する感性項目に加え、画像探索部34が抽出した空間プラン画像7に対応する感性項目をも出力することが好ましい。   Further, the image search unit 34 is preferably further provided, and the image search unit 34 preferably extracts the space plan image 7 similar to the target image 6 extracted by the target image extraction unit 32. The output unit 22 preferably outputs a sensitivity item corresponding to the spatial plan image 7 extracted by the image search unit 34 in addition to the sensitivity item corresponding to the target image 6 extracted by the target image extraction unit 32.

上記構成によって、目標画像6に加え、空間プラン画像7をも出力することで、複数の空間プランを提案することができ、ユーザ(顧客)51は、その中からより自分の嗜好に合った空間プランを選択することができる。また、空間プランに対するニュアンスの個人差による影響を排除した感性項目の選択肢をさらに出力することができ、より適切にユーザ(顧客)51の嗜好に合う空間プランの提案を行うことができる。   With the above configuration, a plurality of space plans can be proposed by outputting the space plan image 7 in addition to the target image 6, and the user (customer) 51 can select a space that suits his / her preference from among them. You can select a plan. In addition, it is possible to further output the choices of sensitivity items that exclude the influence of individual differences in nuances with respect to the space plan, and it is possible to more appropriately propose a space plan that matches the preference of the user (customer) 51.

また、画像探索部34は、感性構造に基づいて、目標画像抽出部32が抽出した目標画像6に類似する空間プラン画像7を抽出することが好ましい。   Moreover, it is preferable that the image search part 34 extracts the space plan image 7 similar to the target image 6 which the target image extraction part 32 extracted based on the sensitivity structure.

また、出力部22は、さらに、目標画像抽出部32が抽出した目標画像6に対応する物理情報を出力することが好ましい。   Moreover, it is preferable that the output unit 22 further outputs physical information corresponding to the target image 6 extracted by the target image extraction unit 32.

上記構成によって、出力部22が出力する目標画像6を空間プランの1つとして提案し、その目標画像6に対応する物理情報を用いて空間設計をすることができる。   With the above configuration, the target image 6 output by the output unit 22 can be proposed as one of the spatial plans, and spatial design can be performed using physical information corresponding to the target image 6.

また、出力部22は、目標画像抽出部32が抽出した目標画像6に対応する物理情報に加え、画像探索部34が抽出した空間プラン画像7に対応する物理情報を出力することが好ましい。   The output unit 22 preferably outputs physical information corresponding to the spatial plan image 7 extracted by the image search unit 34 in addition to the physical information corresponding to the target image 6 extracted by the target image extraction unit 32.

上記構成によって、出力部22が出力する目標画像6だけでなく空間プラン画像7をも空間プランの選択肢の1つとして提案し、その目標画像6及び空間プラン画像7に対応する物理情報を用いて空間設計をすることができる。   With the above configuration, not only the target image 6 output by the output unit 22 but also the space plan image 7 is proposed as one of the options for the space plan, and physical information corresponding to the target image 6 and the space plan image 7 is used. Space design can be done.

また、実施の形態1に係る空間プラン提案システム1は、画像データベース41と、感性項目データベース42と、をさらに備えることが好ましい。画像データベース41には、物理情報と対応付けられた目標画像6が記憶されている。感性項目データベース42には、目標画像6に対応付けられた感性項目が記憶されている。そして、目標画像抽出部32は、画像データベース41を参照することで、空間画像から抽出された物理情報に近い物理的特徴を有する目標画像6を抽出する。感性項目抽出部33は、感性項目データベース42を参照することで、目標画像6に対応する感性項目を抽出する。   Moreover, it is preferable that the space plan proposal system 1 according to Embodiment 1 further includes an image database 41 and a sensitivity item database 42. The image database 41 stores a target image 6 associated with physical information. The sensitivity item database 42 stores sensitivity items associated with the target image 6. Then, the target image extraction unit 32 refers to the image database 41 to extract the target image 6 having physical characteristics close to the physical information extracted from the spatial image. The sensitivity item extraction unit 33 refers to the sensitivity item database 42 to extract sensitivity items corresponding to the target image 6.

また、実施の形態2に係る空間プラン提案システム1は、画像データベース41と、感性項目データベース42と、をさらに備えることが好ましい。目標画像抽出部32は、画像データベース41を参照することで、空間画像から抽出された物理情報に近い物理的特徴を有する目標画像6を抽出する。感性項目抽出部33は、感性項目データベース42を参照することで、目標画像6に対応する感性項目を抽出する。画像探索部34は、感性項目データベース42を参照することで、空間プラン画像7に対応する感性項目を抽出する。   In addition, the space plan proposal system 1 according to Embodiment 2 preferably further includes an image database 41 and a sensitivity item database 42. The target image extraction unit 32 refers to the image database 41 to extract the target image 6 having physical characteristics close to the physical information extracted from the spatial image. The sensitivity item extraction unit 33 refers to the sensitivity item database 42 to extract sensitivity items corresponding to the target image 6. The image search unit 34 extracts a sensitivity item corresponding to the space plan image 7 by referring to the sensitivity item database 42.

空間プラン提案方法は、取得ステップと、出力ステップと、目標画像抽出ステップと、物理情報抽出ステップと、感性項目抽出ステップと、を含む。取得ステップでは、空間に関する空間画像が取得される。物理情報抽出ステップでは、取得ステップで取得された空間画像から物理情報が抽出される。目標画像抽出ステップでは、物理情報抽出ステップが抽出した物理情報に近い物理的特長を有する目標画像6が抽出される。感性項目抽出ステップでは、目標画像抽出ステップが抽出した目標画像6に対応する感性項目を抽出する。
出力ステップでは、目標画像抽出ステップで抽出された目標画像6と、感性項目抽出ステップで抽出された感性項目と、が出力される。
The space plan proposal method includes an acquisition step, an output step, a target image extraction step, a physical information extraction step, and a sensitivity item extraction step. In the acquisition step, a spatial image regarding the space is acquired. In the physical information extraction step, physical information is extracted from the spatial image acquired in the acquisition step. In the target image extraction step, the target image 6 having physical characteristics close to the physical information extracted by the physical information extraction step is extracted. In the sensitivity item extraction step, a sensitivity item corresponding to the target image 6 extracted in the target image extraction step is extracted.
In the output step, the target image 6 extracted in the target image extraction step and the sensitivity item extracted in the sensitivity item extraction step are output.

上記構成を有する空間プラン提案方法を用いれば、ユーザ(顧客)51の理想に近い空間画像から、ニュアンスの個人差による影響を排除した所定の感性項目を導出でき、ユーザ(顧客)51の嗜好に合った空間プランの提案に用いることができる。   By using the spatial plan proposing method having the above-described configuration, it is possible to derive a predetermined sensitivity item that excludes the influence due to individual differences in nuances from a spatial image close to the ideal of the user (customer) 51, and to satisfy the preference of the user (customer) 51. It can be used to propose a suitable space plan.

空間プラン提案方法を実行させるプログラムは、取得ステップと、出力ステップと、目標画像抽出ステップと、物理情報抽出ステップと、感性項目抽出ステップと、を含む空間プラン提案方法を実行させる。取得ステップでは、空間に関する空間画像が取得される。物理情報抽出ステップでは、取得ステップで取得された空間画像から物理情報が抽出される。目標画像抽出ステップでは、物理情報抽出ステップが抽出した物理情報に近い物理的特長を有する目標画像6が抽出される。感性項目抽出ステップでは、目標画像抽出ステップが抽出した目標画像6に対応する感性項目を抽出する。出力ステップでは、目標画像抽出ステップで抽出された目標画像6と、感性項目抽出ステップで抽出された感性項目と、が出力される。   The program for executing the space plan proposing method executes the space plan proposing method including an acquisition step, an output step, a target image extraction step, a physical information extraction step, and a sensitivity item extraction step. In the acquisition step, a spatial image regarding the space is acquired. In the physical information extraction step, physical information is extracted from the spatial image acquired in the acquisition step. In the target image extraction step, the target image 6 having physical characteristics close to the physical information extracted by the physical information extraction step is extracted. In the sensitivity item extraction step, a sensitivity item corresponding to the target image 6 extracted in the target image extraction step is extracted. In the output step, the target image 6 extracted in the target image extraction step and the sensitivity item extracted in the sensitivity item extraction step are output.

上記構成を有する空間プラン提案方法を実行させるプログラムを用いれば、ユーザ(顧客)51の理想に近い空間画像から、ニュアンスの個人差による影響を排除した所定の感性項目を導出でき、ユーザ(顧客)51の嗜好に合った空間プランの提案ができる。   By using the program for executing the spatial plan proposing method having the above-described configuration, it is possible to derive a predetermined sensitivity item that excludes the influence of individual differences in nuances from the spatial image close to the ideal of the user (customer) 51, and the user (customer) A space plan that suits 51 preferences can be proposed.

表示端末は、取得部21と、出力部22と、物理情報抽出部31と、目標画像抽出部32と、感性項目抽出部33とを備える空間プラン提案システム1の出力部22から出力される感性項目と目標画像6とを表示する。取得部21は、空間に関する空間画像を取得する。物理情報抽出部31は、取得部21が取得した空間画像から物理情報を抽出する。目標画像抽出部32は、物理情報抽出部31が抽出した物理情報に近い物理的特長を有する目標画像6を抽出する。感性項目抽出部33は、目標画像抽出部32が抽出した目標画像6に対応する感性項目を抽出する。出力部22は、目標画像抽出部32が抽出した目標画像6と、感性項目抽出部33が抽出した感性項目と、を出力する。   The display terminal has a sensitivity output from the output unit 22 of the space plan proposal system 1 including an acquisition unit 21, an output unit 22, a physical information extraction unit 31, a target image extraction unit 32, and a sensitivity item extraction unit 33. The item and the target image 6 are displayed. The acquisition unit 21 acquires a spatial image related to the space. The physical information extraction unit 31 extracts physical information from the spatial image acquired by the acquisition unit 21. The target image extraction unit 32 extracts the target image 6 having physical characteristics close to the physical information extracted by the physical information extraction unit 31. The sensitivity item extraction unit 33 extracts sensitivity items corresponding to the target image 6 extracted by the target image extraction unit 32. The output unit 22 outputs the target image 6 extracted by the target image extraction unit 32 and the sensitivity items extracted by the sensitivity item extraction unit 33.

上記構成を有する表示端末によれば、空間イメージを所定の感性項目に変換することで、ニュアンスの個人差による影響を排除し、適切に空間プランを提案できる。   According to the display terminal having the above configuration, by converting the spatial image into a predetermined sensitivity item, it is possible to eliminate the influence of individual differences in nuances and appropriately propose a spatial plan.

(その他の実施の形態)
以上、実施の形態1〜5を用いて、本発明に係る空間プラン提案システム1、空間プラン提案方法、空間プラン提案方法を実行させるプログラム及び表示端末について説明してきた。しかしながら、空間プラン提案システム1、空間プラン提案方法、空間プラン提案方法を実行させるプログラム及び表示端末の実施態様は、実施の形態1〜5に限定されるものではない。
(Other embodiments)
As described above, the space plan proposal system 1, the space plan proposal method, the program for executing the space plan proposal method, and the display terminal according to the present invention have been described using the first to fifth embodiments. However, embodiments of the space plan proposal system 1, the space plan proposal method, the program for executing the space plan proposal method, and the display terminal are not limited to the first to fifth embodiments.

例えば、出力部22は、ディスプレイ等の画面に表示することを想定しているが、出力部22の出力方法は画面表示に限定されるものではない。出力部22は、VR(Virtual Reality)映像等を用いて、目標画像6や空間プラン画像7をユーザ(顧客)51やユーザ(設計者)52が3次元的に認識できる方式で出力するようにしてもよい。VR映像を用いた場合、ユーザ(顧客)51やユーザ(設計者)52が、より感覚的に提案される空間について理解することができるため、よりユーザ(顧客)51の嗜好に合った空間の提案を行うことができる。   For example, the output unit 22 is assumed to be displayed on a screen such as a display, but the output method of the output unit 22 is not limited to screen display. The output unit 22 uses a VR (Virtual Reality) video or the like to output the target image 6 and the spatial plan image 7 in a manner that the user (customer) 51 and the user (designer) 52 can recognize in a three-dimensional manner. May be. When VR video is used, the user (customer) 51 and the user (designer) 52 can understand the space proposed more sensuously, so the space of the user (customer) 51 is more suitable for the taste. Proposals can be made.

また、ユーザ(顧客)51がスマートフォンやタブレット等の個人端末にソフトウェアをインストールして、個人端末に入力した言語情報から、自動で空間プランを提案するよ
うなサービスとして、空間プラン提案システム1を活用することもできる。この場合、特定のユーザ(設計者)52がいる必要はないが、空間プラン提案システム1が出力した情報が、メール等の手段によって1又は複数の設計業者や建設業者等に送信されることが好ましい。
In addition, the user (customer) 51 installs software on a personal terminal such as a smartphone or a tablet, and uses the spatial plan proposal system 1 as a service that automatically proposes a spatial plan from language information input to the personal terminal. You can also In this case, there is no need to have a specific user (designer) 52, but the information output by the space plan proposal system 1 may be transmitted to one or a plurality of designers, builders, etc. by means such as e-mail. preferable.

なお、上述の実施の形態1〜5については、本発明の実施態様の例示に過ぎず、数値や形状等についても好ましいものの例示に過ぎず、本発明はこれらの実施の形態にのみ限定されるものではない。本発明の技術的思想の範囲を逸脱しない範囲で、構成に適宜変更を加えることは可能である。   In addition, about the above-mentioned Embodiments 1-5, it is only an illustration of the embodiment of this invention, is only an illustration of what is preferable also about a numerical value, a shape, etc., and this invention is limited only to these embodiment. It is not a thing. The configuration can be appropriately changed without departing from the scope of the technical idea of the present invention.

1 空間プラン提案システム
2 端末
21 取得部
22 出力部
3 サーバ装置
31 物理情報抽出部
32 目標画像抽出部
33 感性項目抽出部
34 画像探索部
4 記憶部
41 画像データベース
42 感性項目データベース
51 ユーザ(顧客)
52 ユーザ(設計者)
6 目標画像
7 空間プラン画像
DESCRIPTION OF SYMBOLS 1 Spatial plan proposal system 2 Terminal 21 Acquisition part 22 Output part 3 Server apparatus 31 Physical information extraction part 32 Target image extraction part 33 Sensitivity item extraction part 34 Image search part 4 Memory | storage part 41 Image database 42 Sensitivity item database 51 User (customer)
52 users (designers)
6 Target image 7 Spatial plan image

Claims (10)

空間に関する空間画像を取得する取得部と、
前記取得部が取得した前記空間画像から物理情報を抽出する物理情報抽出部と、
前記物理情報抽出部が抽出した前記物理情報に近い物理的特長を有する目標画像を抽出する目標画像抽出部と、
前記目標画像抽出部が抽出した前記目標画像に対応する感性項目を抽出する感性項目抽出部と、
前記目標画像抽出部が抽出した前記目標画像と、前記感性項目抽出部が抽出した感性項目と、を出力する出力部と、を備える空間プラン提案システム。
An acquisition unit for acquiring a spatial image related to the space;
A physical information extraction unit that extracts physical information from the spatial image acquired by the acquisition unit;
A target image extraction unit for extracting a target image having physical characteristics close to the physical information extracted by the physical information extraction unit;
A sensitivity item extraction unit that extracts a sensitivity item corresponding to the target image extracted by the target image extraction unit;
A space plan proposal system comprising: an output unit that outputs the target image extracted by the target image extraction unit and the sensitivity item extracted by the sensitivity item extraction unit.
画像探索部を、さらに備え、
前記画像探索部は、前記目標画像抽出部が抽出した前記目標画像に類似する空間プラン画像を抽出し、
前記出力部は、前記目標画像抽出部が抽出した目標画像に対応する感性項目に加え、前記画像探索部が抽出した空間プラン画像に対応する感性項目をも出力する請求項1記載の空間プラン提案システム。
An image search unit;
The image search unit extracts a spatial plan image similar to the target image extracted by the target image extraction unit;
The space plan proposal according to claim 1, wherein the output unit outputs a sensitivity item corresponding to the spatial plan image extracted by the image search unit in addition to the sensitivity item corresponding to the target image extracted by the target image extraction unit. system.
前記画像探索部は、感性構造に基づいて、前記目標画像抽出部が抽出した目標画像に類似する空間プラン画像を抽出する請求項2記載の空間プラン提案システム。   The space plan suggestion system according to claim 2, wherein the image search unit extracts a space plan image similar to the target image extracted by the target image extraction unit based on a sensitivity structure. 前記出力部は、さらに、前記目標画像抽出部が抽出した目標画像に対応する物理情報を出力する請求項1記載の空間プラン提案システム。   The space plan proposal system according to claim 1, wherein the output unit further outputs physical information corresponding to the target image extracted by the target image extraction unit. 前記出力部は、前記目標画像抽出部が抽出した目標画像に対応する物理情報に加え、前記画像探索部が抽出した空間プラン画像に対応する物理情報を出力する請求項2又は3記載の空間プラン提案システム。   The spatial plan according to claim 2 or 3, wherein the output unit outputs physical information corresponding to the spatial plan image extracted by the image search unit in addition to physical information corresponding to the target image extracted by the target image extraction unit. Proposal system. 前記物理情報と対応付けられた目標画像が記憶された画像データベースと、
前記目標画像に対応付けられた感性項目が記憶された感性項目データベースと、を備え、
前記目標画像抽出部は、前記画像データベースを参照することで、前記空間画像から抽出された物理情報に近い物理的特徴を有する目標画像を抽出し、
前記感性項目抽出部は、前記感性項目データベースを参照することで、前記目標画像に対応する感性項目を抽出する請求項1〜5のいずれか一項記載の空間プラン提案システム。
An image database in which target images associated with the physical information are stored;
A sensitivity item database in which sensitivity items associated with the target image are stored,
The target image extraction unit extracts a target image having physical characteristics close to physical information extracted from the spatial image by referring to the image database,
The space plan proposal system according to any one of claims 1 to 5, wherein the sensitivity item extraction unit extracts a sensitivity item corresponding to the target image by referring to the sensitivity item database.
前記物理情報と対応付けられた目標画像と、前記物理情報と対応付けられた空間プラン画像と、が記憶された画像データベースと、
前記目標画像に対応付けられた感性項目と、前記空間プラン画像に対応付けられた感性項目と、が記憶された感性項目データベースと、を備え、
前記目標画像抽出部は、前記画像データベースを参照することで、前記空間画像から抽出された物理情報に近い物理的特徴を有する目標画像を抽出し、
前記感性項目抽出部は、前記感性項目データベースを参照することで、前記目標画像に対応する感性項目を抽出し、
前記画像探索部は、前記感性項目データベースを参照することで、前記空間プラン画像に対応する感性項目を抽出する請求項2又は3記載の空間プラン提案システム。
An image database in which a target image associated with the physical information and a spatial plan image associated with the physical information are stored;
A sensitivity item database in which sensitivity items associated with the target image and sensitivity items associated with the space plan image are stored;
The target image extraction unit extracts a target image having physical characteristics close to physical information extracted from the spatial image by referring to the image database,
The sensitivity item extraction unit extracts a sensitivity item corresponding to the target image by referring to the sensitivity item database,
The space plan proposal system according to claim 2 or 3, wherein the image search unit extracts a sensitivity item corresponding to the space plan image by referring to the sensitivity item database.
空間に関する空間画像を取得する取得ステップと、
前記取得ステップで取得された前記空間画像から物理情報を抽出する物理情報抽出ステ
ップと、
前記物理情報抽出ステップが抽出した前記物理情報に近い物理的特長を有する目標画像を抽出するも目標画像抽出ステップと、
前記目標画像抽出ステップが抽出した前記目標画像に対応する感性項目を抽出する感性項目抽出ステップと、
前記目標画像抽出ステップで抽出された目標画像と、前記感性項目抽出ステップで抽出された感性項目と、をする出力する出力ステップと、を含む空間プラン提案方法。
An acquisition step of acquiring a spatial image relating to the space;
A physical information extraction step of extracting physical information from the spatial image acquired in the acquisition step;
A target image extraction step for extracting a target image having physical characteristics close to the physical information extracted by the physical information extraction step;
A sensitivity item extraction step of extracting a sensitivity item corresponding to the target image extracted by the target image extraction step;
A spatial plan proposing method including an output step of outputting the target image extracted in the target image extraction step and the sensitivity item extracted in the sensitivity item extraction step.
コンピュータに、
空間に関する空間画像を取得する取得ステップと、
前記取得ステップで取得された前記空間画像から物理情報を抽出する物理情報抽出ステップと、
前記物理情報抽出ステップが抽出した前記物理情報に近い物理的特長を有する目標画像を抽出するも目標画像抽出ステップと、
前記目標画像抽出ステップが抽出した前記目標画像に対応する感性項目を抽出する感性項目抽出ステップと、
前記目標画像抽出ステップで抽出された目標画像と、前記感性項目抽出ステップで抽出された感性項目と、をする出力する出力ステップと、を含む空間プラン提案方法を実行させるプログラム。
On the computer,
An acquisition step of acquiring a spatial image relating to the space;
A physical information extraction step of extracting physical information from the spatial image acquired in the acquisition step;
A target image extraction step for extracting a target image having physical characteristics close to the physical information extracted by the physical information extraction step;
A sensitivity item extraction step of extracting a sensitivity item corresponding to the target image extracted by the target image extraction step;
A program for executing a space plan proposing method including: an output step for outputting a target image extracted in the target image extraction step and a sensitivity item extracted in the sensitivity item extraction step.
空間に関する空間画像を取得する取得部と、
前記取得部が取得した前記空間画像から物理情報を抽出する物理情報抽出部と、
前記物理情報抽出部が抽出した前記物理情報に近い物理的特長を有する目標画像を抽出するも目標画像抽出部と、
前記目標画像抽出部が抽出した前記目標画像に対応する感性項目を抽出する感性項目抽出部と、
前記目標画像抽出部が抽出した前記目標画像と、前記感性項目抽出部が抽出した感性項目と、を出力する出力部と、を備える空間プラン提案システムの前記出力部から出力された感性項目と目標画像とを表示する表示端末。
An acquisition unit for acquiring a spatial image related to the space;
A physical information extraction unit that extracts physical information from the spatial image acquired by the acquisition unit;
A target image extraction unit that extracts a target image having physical characteristics close to the physical information extracted by the physical information extraction unit;
A sensitivity item extraction unit that extracts a sensitivity item corresponding to the target image extracted by the target image extraction unit;
Sensitivity items and targets output from the output unit of the space plan proposal system comprising: an output unit that outputs the target image extracted by the target image extraction unit and the sensitivity item extracted by the sensitivity item extraction unit. A display terminal that displays images.
JP2017180917A 2017-09-21 2017-09-21 A display terminal used for a space plan proposal system, a space plan proposal method, a program for executing a space plan proposal system, and a space plan proposal system. Active JP6975878B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017180917A JP6975878B2 (en) 2017-09-21 2017-09-21 A display terminal used for a space plan proposal system, a space plan proposal method, a program for executing a space plan proposal system, and a space plan proposal system.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017180917A JP6975878B2 (en) 2017-09-21 2017-09-21 A display terminal used for a space plan proposal system, a space plan proposal method, a program for executing a space plan proposal system, and a space plan proposal system.

Publications (2)

Publication Number Publication Date
JP2019057119A true JP2019057119A (en) 2019-04-11
JP6975878B2 JP6975878B2 (en) 2021-12-01

Family

ID=66107626

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017180917A Active JP6975878B2 (en) 2017-09-21 2017-09-21 A display terminal used for a space plan proposal system, a space plan proposal method, a program for executing a space plan proposal system, and a space plan proposal system.

Country Status (1)

Country Link
JP (1) JP6975878B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021110975A (en) * 2020-01-06 2021-08-02 国立大学法人電気通信大学 Property information search system, property information search method, and property information search program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273359A (en) * 2000-03-28 2001-10-05 Matsushita Electric Works Ltd Support system for selection of illumination plan
US20020032546A1 (en) * 2000-09-13 2002-03-14 Matsushita Electric Works, Ltd. Method for aiding space design using network, system therefor, and server computer of the system
JP2002163308A (en) * 2000-09-13 2002-06-07 Matsushita Electric Works Ltd Three-dimensional space design support system using network
JP2003150655A (en) * 2001-08-29 2003-05-23 Sekisui Chem Co Ltd Building plan proposing system, proposing method for building plan and building plan proposing device
JP2015022533A (en) * 2013-07-19 2015-02-02 東日本旅客鉄道株式会社 Tint design evaluation device, and tint design evaluation method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273359A (en) * 2000-03-28 2001-10-05 Matsushita Electric Works Ltd Support system for selection of illumination plan
US20020032546A1 (en) * 2000-09-13 2002-03-14 Matsushita Electric Works, Ltd. Method for aiding space design using network, system therefor, and server computer of the system
KR20020021074A (en) * 2000-09-13 2002-03-18 이마이 기요스케 Method and system for supporting three dimensional spatial design using network, and server for such system
JP2002163308A (en) * 2000-09-13 2002-06-07 Matsushita Electric Works Ltd Three-dimensional space design support system using network
JP2003150655A (en) * 2001-08-29 2003-05-23 Sekisui Chem Co Ltd Building plan proposing system, proposing method for building plan and building plan proposing device
JP2015022533A (en) * 2013-07-19 2015-02-02 東日本旅客鉄道株式会社 Tint design evaluation device, and tint design evaluation method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021110975A (en) * 2020-01-06 2021-08-02 国立大学法人電気通信大学 Property information search system, property information search method, and property information search program
JP7466139B2 (en) 2020-01-06 2024-04-12 国立大学法人電気通信大学 Property information search system, property information search method, and property information search program

Also Published As

Publication number Publication date
JP6975878B2 (en) 2021-12-01

Similar Documents

Publication Publication Date Title
US11164384B2 (en) Mobile device image item replacements
US20160048497A1 (en) System and method for generating an interior design
JP2018503174A (en) 3D autostereoscopic modeling method and program based on 2D drawing
JP2017204249A (en) Space plan proposal system
JP7129591B2 (en) SPATIAL PLAN PROPOSAL SYSTEM, SPATIAL PLAN PROPOSAL METHOD, PROGRAM FOR EXECUTION OF SPATIAL PLAN PROPOSAL METHOD, AND DISPLAY TERMINAL USED FOR SPATIAL PLAN PROPOSAL SYSTEM
US20160321732A1 (en) Product search apparatus, product search system, server system, and product search method
JP5855890B2 (en) Hair color simulation system and method, and computer program
JP2014102767A (en) Interior selection support system and interior selection support method
US20220148269A1 (en) Information providing apparatus, information providing system, and information providing method
CA3166342A1 (en) Automatic question setting method, apparatus and system
US20110142336A1 (en) Similar shader search apparatus and method using image feature extraction
JP6359253B2 (en) Emotion extraction method, emotion extraction program, emotion extraction device, and building design method
JP2003141180A (en) Lifestyle image simulation system, method and program
JP5418740B1 (en) Color arrangement changing device, color arrangement changing method, and color arrangement changing program
JP2014164687A (en) Interior coordination support system and interior coordination support method
JP6975878B2 (en) A display terminal used for a space plan proposal system, a space plan proposal method, a program for executing a space plan proposal system, and a space plan proposal system.
JP2023132142A (en) Information processing method, information processing apparatus, and information processing program
JP5683751B2 (en) Image processing apparatus, image processing apparatus control method, program, and information storage medium
JP2004185647A (en) Picture impression evaluation device, picture impression evaluation method and picture impression evaluation program
CN116420169A (en) System, method and interface for identifying a coated surface
KR102575025B1 (en) Apparatus and method for providing interior information
JP6664061B2 (en) Spatial image proposal system, spatial image proposal device and program
Uluçay Determination of Color Preferences and Trend Colors in Hotel Room Interior Design
KR102591489B1 (en) Synthetic data generation system and method using virtual environment
KR102068660B1 (en) Drawing making method and apparatus thereof

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20190121

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210921

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211004

R151 Written notification of patent or utility model registration

Ref document number: 6975878

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151