[go: up one dir, main page]

JP2018036937A - 画像処理装置、画像処理システム、画像処理プログラムおよびラベル - Google Patents

画像処理装置、画像処理システム、画像処理プログラムおよびラベル Download PDF

Info

Publication number
JP2018036937A
JP2018036937A JP2016170638A JP2016170638A JP2018036937A JP 2018036937 A JP2018036937 A JP 2018036937A JP 2016170638 A JP2016170638 A JP 2016170638A JP 2016170638 A JP2016170638 A JP 2016170638A JP 2018036937 A JP2018036937 A JP 2018036937A
Authority
JP
Japan
Prior art keywords
image
vehicle
label
image processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016170638A
Other languages
English (en)
Inventor
有里 木下
Yuuri Kinoshita
有里 木下
充一 梅村
Michikazu Umemura
充一 梅村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP2016170638A priority Critical patent/JP2018036937A/ja
Priority to US16/322,252 priority patent/US20190197738A1/en
Priority to CN201780053266.4A priority patent/CN109690639A/zh
Priority to PCT/JP2017/015266 priority patent/WO2018042747A1/ja
Publication of JP2018036937A publication Critical patent/JP2018036937A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66FHOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
    • B66F17/00Safety devices, e.g. for limiting or indicating lifting force
    • B66F17/003Safety devices, e.g. for limiting or indicating lifting force for fork-lift trucks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66FHOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
    • B66F9/00Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes
    • B66F9/06Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes movable, with their loads, on wheels or the like, e.g. fork-lift trucks
    • B66F9/075Constructional features or details
    • B66F9/0755Position control; Position detectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66FHOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
    • B66F9/00Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes
    • B66F9/06Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes movable, with their loads, on wheels or the like, e.g. fork-lift trucks
    • B66F9/075Constructional features or details
    • B66F9/20Means for actuating or controlling masts, platforms, or forks
    • B66F9/24Electrical devices or systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/463Colour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/50Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/52Measurement of colour; Colour measuring devices, e.g. colorimeters using colour charts
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Structural Engineering (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Geology (AREA)
  • Civil Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Human Computer Interaction (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Emergency Alarm Devices (AREA)
  • Image Processing (AREA)
  • Forklifts And Lifting Vehicles (AREA)

Abstract

【課題】人物の姿勢変化に強く、産業車両または車両系建設機械に該当する車両が走行する任意の位置において、車両の周囲に存在する人物を検出することのできる画像処理装置を提供する。【解決手段】産業車両または車両系建設機械に該当する車両に搭載された撮像部で撮像された画像を取得する画像取得部と、前記画像取得部が取得した前記画像に、所定の位置関係を有する所定の2色以上の領域が含まれるか否かの判定処理を実行する判定部と、前記判定部の判定処理結果に応じた通知処理を実行する通知部とを備える。【選択図】図2

Description

本発明は、画像処理装置、画像処理システム、画像処理プログラムおよびラベルに関する。
従来、倉庫、工場または空港などの施設での荷役作業にフォークリフトが用いられる。フォークリフトはオーバーハングに荷物を載せる構造上、車体重量は見た目以上に重たい。このため、フォークリフトが低速走行していたとしても、人物と接触することにより重大な事故につながる可能性が高い。このような問題は、フォークリフトに代表される産業車両のみならず、油圧ショベルなどの車両系建設機械においても生じる。
このような問題を解決するために、特許文献1には、車両系建設機械の周囲に存在する人物を検知する建設機械用人物検知システムが開示されている。特許文献1では車両系建設機械としてのショベルに取り付けられたカメラの撮像画像を用いてショベルの周辺に位置する人物を検知している。具体的には、特許文献1では、撮像画像からHOG(Histograms of Oriented Gradients)特徴量を抽出し、抽出したHOG特徴量から人物の候補領域を識別している。また、人物の候補領域の画像を、人物を真正面から見たような画像に変換した上で、当該画像に含まれる画素の輝度勾配等を用いてヘルメットの領域を抽出している。
また、特許文献2には、フォークリフトの周辺の人物検知するためのフォークリフトの安全装置が開示されている。フォークリフトおよび人物に予め定められた色で互いに異なる形状を描き、天井に予め設置された固定カメラでフォークリフトおよび人物を撮像する。安全装置は、撮像した画像から上記形状を抽出することにより、フォークリフトおよび人物を検出し、フォークリフトと人物が一定距離以内に接近すると発報する。
国際公開第2015/186570号 特開平9−169500号公報
しかしながら、特許文献1に記載のシステムは、HOG特徴量を用いて人物の候補領域を識別しているため、人物がしゃがみこんだり、倒れ込んだりした場合に、正確に人物の候補領域を識別することができない。また、ヘルメットを抽出する際に、人物の候補領域の画像を、人物を真正面から見たような画像に変換している。このため、人物がしゃがみこんだり、倒れ込んだりした場合には、正確にヘルメットの領域を抽出することができない。このように、特許文献1に記載のシステムは姿勢変化に弱いという課題がある。
特許文献2に記載の安全装置は、天井にカメラを固定することが前提となっているため、カメラが設置されていない位置をフォークリフトが走行した場合には、人物を検出することができないという課題がある。
本発明はこのような課題を解決するためになされたものであり、人物の姿勢変化に強く、産業車両または車両系建設機械に該当する車両が走行する任意の位置において、車両の周囲に存在する人物を検出することのできる画像処理装置、画像処理システムおよび画像処理プログラムを提供することを目的とする。
また、画像処理により高精度に検出されるラベルを提供することも目的とする。
(1)上記目的を達成するために、本発明の一実施態様に係る画像処理装置は、産業車両または車両系建設機械に該当する車両に搭載された撮像部で撮像された画像を取得する画像取得部と、前記画像取得部が取得した前記画像に、所定の位置関係を有する所定の2色以上の領域が含まれるか否かの判定処理を実行する判定部と、前記判定部の判定処理結果に応じた通知処理を実行する通知部とを備える。
(8)本発明の他の実施態様に係る画像処理システムは、検出対象物に取り付けられる所定の2色以上の領域が所定の位置関係で配置されているラベルと、前記検出対象物を検出する画像処理装置とを備え、前記画像処理装置は、産業車両または車両系建設機械に該当する車両に搭載された撮像部で撮像された画像を取得する画像取得部と、前記画像取得部が取得した前記画像に、前記所定の2色以上の領域が含まれるか否かの判定処理を実行する判定部と、前記判定部の判定処理結果に応じた通知を行う通知部とを有する。
(9)本発明の他の実施態様に係る画像処理プログラムは、コンピュータを、産業車両または車両系建設機械に該当する車両に搭載された撮像部で撮像された画像を取得する画像取得部と、前記画像取得部が取得した前記画像に、所定の2色以上の領域が含まれるか否かの判定処理を実行する判定部と、前記判定部の判定処理結果に応じた通知処理を実行する通知部として機能させるための画像処理プログラムである。
(10)本発明の他の実施態様に係るラベルは、上述の画像処理装置により所定の2色以上の領域が含まれるか否かの判定対象とされるラベルであって、前記所定の2色以上の領域が所定の位置関係で配置されている。
なお、本発明は、このような特徴的な処理部を備える画像処理装置として実現することができるだけでなく、画像処理装置に含まれる特徴的な処理部が実行する処理をステップとする画像処理方法として実現することができる。また、上述の画像処理プログラムを、CD−ROM(Compact Disc-Read Only Memory)等のコンピュータ読取可能な非一時的な記録媒体やインターネット等の通信ネットワークを介して流通させることができるのは、言うまでもない。また、本発明は、画像処理装置の一部又は全部を実現する半導体集積回路として実現することもできる。
本発明によると、人物の姿勢変化に強く、産業車両または車両系建設機械に該当する車両が走行する任意の位置において、車両の周囲に存在する人物を検出することのできる画像処理装置、画像処理システムおよび画像処理プログラムを提供することができる。
また、画像処理により高精度に検出されるラベルを提供することもできる。
実施の形態1に係る画像処理システムの取付例を示す図である。 実施の形態1に係る画像処理システムの機能的な構成を示すブロック図である。 上方から見たフォークリフトの模式図である。 人物が被るヘルメットを側方から見た図である。 人物が被るヘルメットを上方から見た図である。 各色ラベルのマンセル表色系における表現を示す図である。 画像上の緑色領域と赤色領域との一例を示す図である。 画像上の緑色領域と赤色領域との一例を示す図である。 後方監視カメラが撮像した画像の一例を示す図である。 実施の形態1に係る画像処理装置が実行する処理のフローチャートである。 閾値設定処理(図8のS4)の詳細なフローチャートである。 人物が被るヘルメットを側方から見た図である。 人物が被るヘルメットを側方から見た図である。 人物が被るヘルメットを側方から見た図である。 人物を正面から見た図である。 実施の形態2に係る画像処理システムの機能的な構成を示すブロック図である。 実施の形態2に係る画像処理装置が実行する処理のフローチャートである。 実施の形態3に係る画像処理システムの機能的な構成を示すブロック図である。 実施の形態3に係る画像処理装置が実行する処理のフローチャートである。 閾値設定部が保持している位置と緑色領域の閾値との関係を示すデータテーブルの一例を示す図である。 実施の形態4に係る画像処理システムの取付例を示す図である。 実施の形態4に係る画像処理システムの機能的な構成を示すブロック図である。 上方から見たフォークリフトの模式図である。 実施の形態4に係る画像処理装置が実行する処理のフローチャートである。
[本願発明の実施形態の概要]
最初に本発明の実施形態の概要を列記して説明する。
(1)本発明の一実施形態に係る画像処理装置は、産業車両または車両系建設機械に該当する車両に搭載された撮像部で撮像された画像を取得する画像取得部と、前記画像取得部が取得した前記画像に、所定の位置関係を有する所定の2色以上の領域が含まれるか否かの判定処理を実行する判定部と、前記判定部の判定処理結果に応じた通知処理を実行する通知部とを備える。
この構成によると、産業車両または車両系建設機械に該当する車両に搭載された撮像部で撮像された画像に、所定の位置関係を有する所定の2色以上の領域が含まれるか否かを判定し、判定処理結果に応じた通知を行うことができる。このため、人物や人物が被るヘルメットなどに所定の2色以上の領域が配置されたラベルを付しておくことにより、当該人物を検出することができる。このような色領域を抽出する処理は、色領域が撮像部に映っていれば実行可能である。このため、人物の姿勢変化に強く、車両が走行する任意の位置において、車両の周囲に存在する人物を検出することができる。
(2)また、前記撮像部は、前記車両の後方を撮像範囲とする前記車両上の位置に設置された後方監視カメラを含み、前記画像取得部は、前記後方監視カメラで撮像された前記車両の後方画像を取得し、前記判定部は、前記車両が前進している場合には、前記車両の後方画像に対する前記判定処理を停止してもよい。
この構成によると、車両の後方や側方は車両のドライバーの死角となる。このため、後方監視カメラで撮像された車両の後方画像に対して判定処理を実行することにより、死角に存在する人物を検出することができる。また、死角に人物が存在する場合に、ドライバーに適切に通知を行うことができる。また、車両が発進する場合にも人物と接触する可能性が高い。このため、車両が停止している場合に判定処理および通知処理を実行することで、車両の発進直前において、ドライバーの死角に人物が存在する場合に、ドライバーに適切に通知を行うことができる。これにより、車両の周囲に存在する人物と車両との接触を未然に防止することができる。なお、車両が前進している場合には、ドライバーは慎重を期して運転を行っており、特に車両の後方を監視する必要はない。この構成によると、車両が前進している場合には、判定処理を停止している。このため、人物が検出されたことをドライバーに不必要に通知することを防止することができる。
(3)また、前記撮像部は、さらに、前記車両の前方を撮像範囲とする前記車両上の位置に設置された前方監視カメラを含み、前記画像取得部は、さらに、前記前方監視カメラで撮像された前記車両の前方画像を取得し、前記判定部は、前記車両が前進している場合には、さらに、前記車両の前方画像に対する前記判定処理を実行してもよい。
この構成によると、車両が前進している場合には、前方監視カメラで撮像された車両の前方画像に対して判定処理が実行される。これにより、車両の前方に存在する人物を検出することができる。また、前方に人物が存在する場合に、ドライバーに適切に通知を行うことができる。これにより、車両の周囲に存在する人物と車両との接触を未然に防止することができる。
(4)また、前記判定部は、前記画像を構成する各画素の所定の色空間上の画素値と所定の閾値とに基づいて、前記所定の2色以上の領域を抽出する色抽出部を含み、前記画像取得部は、前記車両の所定位置に設置された前記所定の2色以上の参照用ラベルを前記撮像部が撮像した画像を取得し、前記画像処理装置は、さらに、前記参照用ラベルの画像の前記色空間上の画素値に基づいて、前記所定の閾値を設定する閾値設定部を備えてもよい。
この構成によると、検出対象の人物やヘルメットに取り付けられるラベルと同様の環境下に配置された参照用ラベルの画素値に基づいて、閾値を設定することができる。このため、閾値を正確に設定することができ、これにより、領域を正確に抽出することができる。
(5)また、前記閾値設定部は、前記車両の周囲の照度変化を検出した場合に、前記所定の閾値を設定してもよい。
このように照度変化が検出された場合に閾値を設定することで、車両の周囲の環境が変化した場合であっても、正確に領域を抽出することができる。
(6)また、前記判定部は、前記画像を構成する各画素の所定の色空間上の値と所定の閾値とに基づいて、前記所定の2色以上の領域を抽出する色抽出部を含み、前記画像処理装置は、さらに、前記車両の位置に基づいて、前記所定の閾値を設定する閾値設定部を備えてもよい。
この構成によると、車両の位置に基づいて閾値を設定することができる。例えば、車両の位置と閾値とを予め対応付けておくことで、車両が屋内を走行している場合と屋外を走行している場合とで閾値を変更することができる。これにより、車両の周囲の環境が変化した場合であっても、正確に領域を抽出することができる。
(7)また、前記判定部は、前記画像取得部が取得した前記画像のうち、前記車両に設置されたミラーを撮像したミラー領域の像に対して、前記判定処理を実行してもよい。
この構成によると、死角部分を確認するために車両に取り付けられたミラー越しに人物が映った場合であっても、当該人物の像に対して判定処理が実行される。このため、死角領域に存在する人物を正確に検出することができる。
(8)本発明の他の実施形態に係る画像処理システムは、検出対象物に取り付けられる所定の2色以上の領域が所定の位置関係で配置されているラベルと、前記検出対象物を検出する画像処理装置とを備え、前記画像処理装置は、産業車両または車両系建設機械に該当する車両に搭載された撮像部で撮像された画像を取得する画像取得部と、前記画像取得部が取得した前記画像に、前記所定の2色以上の領域が含まれるか否かの判定処理を実行する判定部と、前記判定部の判定処理結果に応じた通知を行う通知部とを有する。
この構成によると、人物などの検出対象物に所定の2色以上の領域が配置されたラベルが取り付けられる。また、画像処理装置は、産業車両または車両系建設機械に該当する車両に搭載された撮像部で撮像された画像に所定の2色以上の領域が含まれるか否かを判定し、判定処理結果に応じた通知を行うことができる。このような色領域を抽出する処理は、色領域が撮像部に映っていれば実行可能である。このため、人物の姿勢変化に強く、車両が走行する任意の位置において、車両の周囲に存在する人物を検出することができる。
(9)本発明の他の実施形態に係る画像処理プログラムは、コンピュータを、産業車両または車両系建設機械に該当する車両に搭載された撮像部で撮像された画像を取得する画像取得部と、前記画像取得部が取得した前記画像に、所定の2色以上の領域が含まれるか否かの判定処理を実行する判定部と、前記判定部の判定処理結果に応じた通知処理を実行する通知部として機能させるための画像処理プログラムである。
この画像処理プログラムによると、上述した画像処理装置としてコンピュータを機能させることができる。このため、上述した画像処理装置と同様の作用および効果を奏することができる。
(10)本発明の他の実施形態に係るラベルは、上述の画像処理装置により所定の2色以上の領域が含まれるか否かの判定対象とされるラベルであって、前記所定の2色以上の領域が所定の位置関係で配置されている。
この構成によると、ラベルには、所定の2色以上の領域が所定の位置関係で配置されている。このため、このラベルを人物などの検出対象物に取り付けることにより、上述の画像処理装置により、高精度に当該検出対象物を検出することができる。
(11)また、各色の領域間に所定の間隙が設けられていてもよい。
この構成によると、車両の走行時の振動などにより撮像部で撮像された画像に乱れが生じている場合であっても、ある領域の色が隣接する領域の色と混じり合って撮像されるのを防止することができる。このため、上述の画像処理装置により、検出対象物を精度良く検出することができる。
(12)また、各色の領域は、蛍光テープ、蛍光塗料または発光素子を含んで構成されていてもよい。
これにより、夜間や曇天などの照度が低い環境下であっても、ラベルを認識しやすくすることができる。
[本願発明の実施形態の詳細]
以下、本発明の実施の形態について、図面を用いて詳細に説明する。なお、以下で説明する実施の形態は、いずれも本発明の好ましい一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置および接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。本発明は、特許請求の範囲によって特定される。よって、以下の実施の形態における構成要素のうち、本発明の最上位概念を示す独立請求項に記載されていない構成要素については、本発明の課題を達成するのに必ずしも必要ではないが、より好ましい形態を構成するものとして説明される。
(実施の形態1)
以下、実施の形態1に係る画像処理システムについて説明する。
<画像処理システムの構成>
図1は、実施の形態1に係る画像処理システムの取付例を示す図である。図2は、実施の形態1に係る画像処理システムの機能的な構成を示すブロック図である。
画像処理システム1は、フォークリフト25の周囲を監視するためのシステムであり、後方監視カメラ20と、画像処理装置10と、音出力装置30と、表示装置40と、端末装置50と、シフトセンサ112とを備える。なお、図1および図2に示す画像処理システム1の構成は一例であり、例えば、音出力装置30、表示装置40および端末装置50のいずれかが備えられていなくてもよい。
また、画像処理装置10、後方監視カメラ20、音出力装置30、表示装置40およびシフトセンサ112が取り付けられる車両は、フォークリフト25に限定されるものではなく、フォークリフト25以外の産業車両に取り付けられていてもよいし、油圧ショベルなどの車両系建設機械に取り付けられていてもよい。後方監視カメラ20がこれらに取り付けられることにより、これらの車両の周囲を監視することができる。
後方監視カメラ20は、撮像部を構成し、例えば、フォークリフト25の後方を撮像可能な位置(例えば、フォークリフト25のフォークヘッドガード後端位置など)に取り付けられ、フォークリフト25の後方の画像を撮像する。後方監視カメラ20のカメラレンズは、例えば、画角120°以上の超広角レンズである。
図3は、上方から見たフォークリフト25の模式図である。図3において、左側がフォークリフト25の前方であり、右側がフォークリフト25の後方である。図3に示すように、フォークリフト25の後方には、後方監視カメラ20による後方撮像領域21が設定される。この後方撮像領域21は、例えば、フォークリフト25が最高時速10km/hで走行した場合に、2秒間で移動可能な範囲を含むように設定される。つまり、後方監視カメラ20は、後方撮像領域21を撮像可能な位置に設置される。これにより、後方監視カメラ20は、後方撮像領域21内に存在する人物71を撮像することができる。後方撮像領域21をこのように設定したのは、人物71を発見してから2秒間あれば、ドライバーはフォークリフト25を停止させることができると考えられるからである。なお、後方監視カメラ20は単眼カメラを想定しているが、ステレオカメラなどの多眼カメラを用いてもよい。
フォークリフト25の後方には、フォークリフト25の後方撮像領域21から外れる死角領域22が生じる場合がある。この死角領域22をカバーするために、フォークリフト25の後方撮像領域21内にミラー60が設置されている。つまり、後方監視カメラ20がミラー60越しに撮像した場合の後方撮像領域61が死角領域22をカバーするようにミラー60を配置することにより、後方監視カメラ20が、死角領域22に存在する人物72を撮像することができる。なお、死角領域22を撮像するために、ミラー60の代わりに、後方監視カメラ20とは異なる他のカメラを配置してもよい。
画像処理装置10は、フォークリフト25に設置されたコンピュータである。画像処理装置10は、後方監視カメラ20に接続され、後方監視カメラ20が撮像した後方撮像領域21および61の画像から、人物71および72を検出する。なお、本実施の形態では、人物71および72には、必ず所定の2色以上の領域が所定の位置関係で配置されているラベルを付けているものとする。
図4Aは、人物が被るヘルメットを側方から見た図であり、図4Bは、そのヘルメットを上方から見た図である。図4Aおよび図4Bに示すように、ヘルメット80には、ラベル90Aが貼り付けられている。ラベル90Aは、平行に配置された青ラベル90B、赤ラベル90Rおよび緑ラベル90Gから構成される。図4Aに示すように、ヘルメット80の幅が283mm、高さが148mmとした場合、ラベル90Aの幅は約60mm、長さは約180〜250mmとすることができる。なお、青ラベル90Bおよび赤ラベル90Rとの間、および赤ラベル90Rと緑ラベル90Gとの間には、それぞれ間隙領域90Sが設けられている。間隙領域90Sは、例えば黒色の領域であり、2〜3mmの幅を有する。図4Bに示すように、同様のラベル90Aがヘルメット80の上方にも貼り付けられている。また、ラベル90Aは、ヘルメット80の反対側の側面および前後にも貼り付けられている。このように、あらゆる箇所にラベル90Aを貼り付けることで、人物がどのような姿勢(直立、しゃがみ込み等)を行っても、いずれかのラベル90Aが後方監視カメラ20に撮像されるようにすることができる。
ラベル90Aは、光の3原色のラベルである赤ラベル90R、緑ラベル90Gおよび青ラベル90Bから構成されている。図5は、各色ラベルのマンセル表色系(JISZ8721)における表現を示す図である。同図において、H、V、Cは、それぞれマンセル表色系における色相、明度、彩度を示す。つまり、赤ラベル90Rの色彩は、マンセル表色系の色相(H)が10P〜7.5YRの範囲に含まれ、明度(V)が3以上であり、彩度(C)が2以上である。緑ラベル90Gの色彩は、マンセル表色系の色相(H)が2.5GY〜2.5BGの範囲に含まれ、明度(V)が3以上であり、彩度(C)が2以上である。青ラベル90Bの色彩は、マンセル表色系の色相(H)が5BG〜5Pの範囲に含まれ、明度(V)が1以上であり、彩度(C)が1以上である。ただし、ラベル90Aは、光の3原色のラベルから構成されるものには限定されず、それ以外の色のラベルから構成されていてもよい。
また、青ラベル90B、赤ラベル90Rおよび緑ラベル90Gは、蛍光テープにより構成されていたり、これらのラベルに蛍光塗料が塗られたりしていることが好ましい。これにより、夜間や曇天などの照度が低い環境下であっても、ラベルを認識しやすくすることができる。また、赤外線カメラなどの特殊なカメラを用いなくてもラベルを認識することができる。
画像処理装置10は、後方監視カメラ20が撮像した画像からラベル90Aを検出することにより、人物の検出を行う。なお、画像処理装置10の詳細な構成については後述する。
音出力装置30は、例えば、フォークリフト25のドライバーの座席付近に設置され、スピーカーを含んで構成される。音出力装置30は、画像処理装置10に接続され、画像処理装置10が人物71または人物72を検出したことをドライバーに通知する通知音を出力する。
表示装置40は、例えば、フォークリフト25のドライバーが視認可能な位置に設置され、液晶ディスプレイなどを含んで構成される。表示装置40は、画像処理装置10に接続され、画像処理装置10が人物71または人物72を検出したことを知らせる画像を表示する。
端末装置50は、例えば、フォークリフト25を管理する管理室などフォークリフト25と離れた場所に設置されるコンピュータである。端末装置50は、画像処理装置10に接続され、画像処理装置10が人物71または人物72を検出したことを知らせる画像または音を出力したり、人物71または人物72を検出したことを時刻情報とともにログ情報として記録したりする。なお、端末装置50と画像処理装置10との間は、4Gなどの通信規格に従った携帯電話回線や、Wi−Fi(登録商標)などの無線LAN(Local Area Network)により接続されていてもよい。
なお、端末装置50は、人物71または72が携帯するスマートフォンなどであってもよい。これにより、画像処理装置10により自身が検出されたこと、つまり、近くにフォークリフト25が存在することを、人物71または72に通知することができる。
なお、画像処理装置10、後方監視カメラ20、音出力装置30および表示装置40の機能が、スマートフォンやカメラ付のコンピュータなどに備えられていてもよい。例えば、図1に示した後方監視カメラ20の位置に、スマートフォンを取り付けることにより、スマートフォンが撮像した画像を、スマートフォンが処理して、人物71および72を検出する。また、スマートフォンが検出結果を音または画像により通知する。ただし、スマートフォンが後方監視カメラ20の位置に取り付けられている場合には、ドライバーは画像を見ることができない。このため、別のタブレット装置などをドライバーが視認可能な位置に設置し、タブレット装置がスマートフォンから送信された画像を表示するようにしてもよい。タブレット装置とスマートフォンとの間は、例えば、Wi−Fi(登録商標)、Bluetooth(登録商標)、Zigbee(登録商標)などの無線通信規格に従い無線接続されていてもよい。
図1および図2を参照して、シフトセンサ112は、シフトレバーの近くに取り付けられ、シフトレバーの位置を検出するセンサである。シフトセンサ112は、例えば、変位センサまたはスイッチを含んで構成される。
<画像処理装置10の構成>
図2を参照して、画像処理装置10の機能的な構成についてより詳細に説明する。
画像処理装置10は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、通信I/F(インタフェース)、タイマーなどを備える一般的なコンピュータにより構成される。画像処理装置10は、HDDまたはROMからRAMに読み出したコンピュータプログラムを実行することにより実現される機能的な構成として、画像取得部11と、判定部12と、色抽出部13と、通知部14と、閾値設定部15と、車両状態判定部16とを備える。
画像取得部11は、通信I/Fを介して、後方監視カメラ20が撮像した画像を取得する。つまり、図1に示した後方撮像領域21および61を後方監視カメラ20が撮像した画像を取得する。
判定部12は、画像取得部11が取得した画像に、所定の2色以上の領域(ここでは、緑色領域、赤色領域および青色領域)が含まれるか否かの判定処理を実行する。
具体的には、判定部12は、色抽出部13を含む。色抽出部13は、画像取得部11が取得した画像を構成する各画素の色空間上の画素値と所定の閾値とに基づいて、緑色領域、赤色領域および青色領域を抽出する。ここでは、色空間としてHSV色空間を想定する。また、HSV色空間上の画素値として、色相(H)、彩度(S)および明度(V)を想定する。
なお、画像取得部11が取得した画像がRGB色空間の画素値から構成される場合には、色抽出部13は、RGB色空間の画素値をHSV色空間の画素値に変換した上で、領域抽出処理を行う。RGB色空間の画素値からHSV色空間の画素値への変換は例えば、以下の式1〜式3に従い実行される。
ここで、R、G、Bは、それぞれ、変換前の画素の赤色成分、緑色成分、青色成分を表す。また、MAXおよびMINは、それぞれ、変換前の画素の赤色成分、緑色成分、青色成分の最大値および最小値を表す。
色抽出部13には、例えば、緑色の色相(H)の閾値として、120±25が設定され、緑色の彩度(S)の閾値として70および100が設定され、緑色の明度(V)の閾値として70および100が設定されているものとする。色抽出部13は、ある画素の色相(H)が120−25以上かつ120+25以下で、彩度(S)が70以上かつ100以下で、明度(V)が70以上かつ100以下である場合に、当該画素を緑色画素として抽出する。同様に、色抽出部13は、赤色の色相(H)、彩度(S)および明度(V)の閾値を用いて、画像中から赤色画素を抽出し、青色の色相(H)、彩度(S)および明度(V)の閾値を用いて、画像中から青色画素を抽出する。
色抽出部13は、緑色画素、赤色画素および青色画素に対してそれぞれラベリング処理を施して緑色領域、赤色領域および青色領域を抽出する。なお、色抽出部13は、抽出した緑色領域、赤色領域および青色領域の各々に対して膨張収縮処理や領域サイズによるフィルタリング処理を施すことによりノイズ領域を除去してもよい。
判定部12は、色抽出部13が抽出した赤色領域、緑色領域および青色領域が所定の位置関係を有している場合には、画像取得部11が取得した画像に緑色領域、赤色領域および青色領域が含まれると判定する。例えば、判定部12は、画像上で緑色領域の重心位置から所定距離範囲内に赤色領域が存在し、かつ赤色領域の重心位置から所定距離範囲内に青色領域が存在する場合には、画像に緑色領域、赤色領域および青色領域が含まれると判定する。判定部12は、画像に緑色領域、赤色領域および青色領域が含まれると判定した場合には、画像に人物が映っており、フォークリフト25の周囲に人物が存在すると判定する。
図6Aおよび図6Bは、画像上の緑色領域と赤色領域との一例を示す図である。図6Aに示すように、緑色領域82Gの重心位置83を中心とする円で示される所定距離範囲84内に、赤色領域82Rが含まれていれば、画像上で緑色領域82Gの重心位置83から所定距離範囲84内に赤色領域82Rが存在すると判定される。
一方、図6Bに示すように、緑色領域82Gの重心位置83を中心とする円で示される所定距離範囲84内に、赤色領域82Rが含まれていなければ、画像上で緑色領域82Gの重心位置83から所定距離範囲84内に赤色領域82Rが存在しないと判定される。
ここで、所定距離範囲84の円の直径は、例えば、緑色領域82Gの最も長い辺の長さとしてもよい。緑色領域82Gが矩形以外の領域の場合には、緑色領域82Gの外接矩形の最も長い辺の長さを、所定距離範囲84の円の直径としてもよい。ただし、当該直径は、これら以外の値でも良い。
通知部14は、判定部12の判定処理結果に応じた通知処理を実行する。例えば、判定部12がフォークリフト25の周囲に人物が存在すると判定した場合には、通知部14は、通信I/Fを介して音出力装置30に対して所定の音信号を送信すること、音出力装置30に通知音を出力させる。これにより、ドライバーに対してフォークリフト25の周囲に人物がいることを通知する。
また、判定部12が同様の判定をした場合に、通知部14は、通信I/Fを介して表示装置40に所定の画像信号を送信することで、表示装置40に人物を検出したことを知らせる画像を表示させる。これにより、ドライバーに対してフォークリフト25の周囲に人物がいることを通知する。
また、判定部12が同様の判定をした場合に、通知部14は、通信I/Fを介して端末装置50に対して、人物を検出したことを示す情報を送信することで、端末装置50に音や画像の出力処理をさせたり、ログ情報の記録処理をさせたりする。通知部14は、その際に、検出時刻の情報を送信してもよい。
閾値設定部15は、フォークリフト25に貼り付けられた後述する参照用ラベルの画像の色空間上の画素値に基づいて、色抽出部13が各色領域を抽出する際に用いる閾値を設定する。
ここで、フォークリフト25に貼り付けられた参照用ラベルについて説明する。図7は、後方監視カメラ20が撮像した画像の一例を示す図である。フォークリフト25の車体の予め定められた位置に参照用ラベル100が貼り付けられている。参照用ラベル100は、ラベル90Aと同じ素材のラベルであることが望ましい。参照用ラベル100は、青ラベル100Bと、赤ラベル100Rと、緑ラベル100Gとを含む。赤ラベル100R、緑ラベル100Gおよび青ラベル100Bの色彩は、それぞれ、赤ラベル90R、緑ラベル90Gおよび青ラベル90Bの色彩と同じである。
なお、参照用ラベル100の貼り付け位置は、フォークリフト25の車体に限定されるものではなく、例えば、図7に示すように、ミラー60を支持する棒状部材など、人物が存在する環境と同様の環境の位置に参照用ラベル100Aが貼り付けられていてもよい。参照用ラベル100Aは、参照用ラベル100と同様に、青ラベル100Bと、赤ラベル100Rと、緑ラベル100Gとを含む。このように、参照用ラベル100Aを地面とほぼ垂直な面に設けることで、参照用ラベル100Aは、車体に貼り付けられた参照用ラベル100に比べ、太陽光や照明光の影響を受けにくい。よって、参照用ラベル100Aを撮像した画像を用いて閾値を設定することにより、参照用ラベル100を撮像した画像を用いて閾値を設定する場合に比べ、より正確に閾値を設定することができる。
閾値設定部15は、画像中の青ラベル100B、赤ラベル100Rおよび緑ラベル100Gが確実に検出されるように、閾値を設定する。つまり、閾値設定部15は、各色ラベルのHSV色空間上の画素値が、当該色の閾値内に含まれように、閾値を設定する。なお、閾値の設定方法の詳細については後述する。
車両状態判定部16は、通信I/Fを介してシフトセンサ112からシフトレバーの位置検出結果を取得し、取得した位置検出結果に基づいて、シフトレンジがRレンジ(リバースレンジ)であるか否かを判定する。シフトレンジがRレンジの状態で、フォークリフト25が走行していれば、フォークリフト25は直線後退もしくは旋回後退またはその両方の動作を行っていることになる。ただし、シフトレンジがRレンジで、かつブレーキが掛けられている場合には、上記した動作は行っていないものの、ブレーキが外されることにより、上記動作が開始されるため、上記動作の準備状態と考えることができる。
車両状態判定部16による車両状態の判定結果は、画像処理装置10の動作を制御するために用いられる。
<画像処理装置10の処理の流れ>
次に、画像処理装置10が実行する処理の流れについて説明する。
図8は、実施の形態1に係る画像処理装置10が実行する処理のフローチャートである。
車両状態判定部16は、シフトセンサ112によるシフトレバーの位置検出結果に基づいて、シフトレンジがRレンジであるか否かを判定する(S1)。
シフトレンジがRレンジ以外であると、車両状態判定部16が判定した場合には、(S1でNO)、ステップS9に進む。例えば、シフトレンジがDレンジ(ドライブレンジ)であり、フォークリフト25が前進している場合には、ステップS9に進む。
シフトレンジがRレンジであると、車両状態判定部16が判定した場合には(S1でYES)、画像取得部11は、後方監視カメラ20が撮像した画像を取得する(S2)。
閾値設定部15は、閾値更新タイミングか否かを判断する(S3)。実施の形態1では、閾値は所定の時間間隔で周期的に変更するものとする。例えば、1分間隔で閾値を変更するようにしてもよい。つまり、閾値設定部15は、閾値を前回設定してから、または画像処理装置10が動作を開始してから、所定の時間が経過していれば、閾値更新タイミングであると判断し、所定の時間が経過していなければ、閾値更新タイミングではないと判断する。
閾値更新タイミングであれば(S3でYES)、閾値設定部15は、閾値を設定する(S4)。閾値設定処理(S4)については後述する。
判定部12は、画像取得部11が取得した画像中からミラー領域の像を抽出し、当該像を所定倍率(例えば、2倍)で拡大する(S5)。例えば、図7に示したように画像中にはミラー60が映っており、判定部12は、ミラー60の領域の像を所定倍率で拡大する。小面積のミラー60で広範囲の死角領域22を映すため、通常、凸面鏡がミラー60として用いられる。凸面鏡の鏡像は、同一の対象物を直接撮像する場合に比べて小さいという課題がある。このため、ミラー60の領域の像を拡大することにより、同一の対象物を直接撮像した場合と同様の精度で、判定処理(領域抽出処理)を実行することができる。ただし、ミラー60の領域の像を拡大する処理(S5)は必須の処理ではない。
色抽出部13は、画像から、赤色領域、緑色領域および青色領域を抽出する(S6)。その際、色抽出部13は、画像からミラー領域を除いた像と、ミラー領域を拡大した像のそれぞれについて領域抽出処理を行う。これにより、ミラー60に映った人物の領域が二重に検出されるのを防止することができる。
判定部12は、色抽出部13が抽出した赤色領域、緑色領域および青色領域が所定の位置関係を有しているか否かを判断する(S7)。例えば、赤色領域、緑色領域および青色領域として、図4Aに示したような赤ラベル90R、緑ラベル90Gおよび青ラベル90Bが、それぞれ抽出されたとする。判定部12は、赤ラベル90R、緑ラベル90Gおよび青ラベル90Bの重心位置をそれぞれ算出する。判定部12は、緑ラベル90Gの重心位置と赤ラベル90Rとの重心位置との間の距離が所定距離以内であり、かつ、赤ラベル90Rの重心位置と青ラベル90Bの重心位置との間の距離が所定距離以内である場合に、赤ラベル90R、緑ラベル90Gおよび青ラベル90Bが所定の位置関係を有すると判定する。
3色の領域が所定の位置関係を有していれば(S7でYES)、判定部12は、画像に人物が映っていると判断し、通知部14が、フォークリフト25の周囲に人物を検出したことを、音出力装置30、表示装置40および端末装置50に通知する(S8)。なお、通知部14による通知処理は、例えば、後方監視カメラ20と人物との距離が所定距離(例えば、3m)以内になった場合に行うようにしてもよい。ここで、後方監視カメラ20と人物との距離は、色抽出部13が抽出した画像上でのラベル90Aのサイズに基づいて決定される。つまり、通知部14は、ラベル90Aのサイズと距離との関係を示したテーブルを保持しており、このテーブルを参照することにより、距離を決定してもよい。また、検出の精度を向上させるため、通知部14は、後方監視カメラ20から所定距離以内の人物が所定回数(例えば、5回)以上連続して検出された場合にのみ、通知処理を行ってもよい。
3色の領域が所定の位置関係を有していなければ(S7でNO)、ステップS9に進む。
通知処理(S8)の後、処理の終了タイミングとなっていれば(S9でYES)、画像処理装置10は、処理を終了する。処理の終了タイミングとは、例えば、フォークリフト25のエンジンが停止したことを示す信号を画像処理装置10が受信した場合などである。
処理の終了タイミングでなければ(S9でNO)、ステップS1に戻り、ステップS1〜S8の処理が繰り返し実行される。
図9は、閾値設定処理(図8のS4)の詳細なフローチャートである。
閾値設定部15は、閾値設定処理の対象色である赤色、緑色および青色の各色について、以下に説明するS41〜S44の処理を実行する(ループA)。
以下では、対象色を赤色として説明するが、対象色が緑色および青色の場合にも同様の処理が行われる。
閾値設定部15は、画像取得部11が取得した画像から、赤ラベル100Rの領域の色相(H)、彩度(S)および明度(V)の平均を算出する(S41)。つまり、赤ラベル100Rの領域内の各画素のRGB色空間における赤色成分(R)、緑色成分(G)および青色成分(B)を、HSV色空間における色相(H)、彩度(S)および明度(V)に変換し、赤ラベル100Rの領域内で色相(H)、彩度(S)および明度(V)の平均を算出する。なお、RGB色空間の画素値からHSV色空間の画素値への変換は、上述した式1〜式3に従い実行される。
閾値設定部15は、赤色領域の色相(H)の閾値に、色相(H)の平均±25を設定する(S42)。
閾値設定部15は、赤色領域の彩度(S)の閾値に、(彩度(S)の平均−20)と100を設定する(S43)。
閾値設定部15は、赤色領域の明度(V)の閾値に、(明度(V)の平均−20)と100を設定する(S44)。
これにより、赤ラベル100Rの領域を抽出可能な色相(H)、彩度(S)および明度(V)の閾値を設定することができる。
<実施の形態1の効果>
以上説明したように、実施の形態1によると、ヘルメット80に、3色のラベルが所定の位置関係で配置されている。また、判定部12は、後方監視カメラ20が撮像した画像中から3色の領域を抽出し、3色の領域が所定の位置関係で配置されているか否かを判定している。これにより、判定部12は、フォークリフト25の周囲の人物の存否を判定している。色領域を抽出する処理は、色領域が後方監視カメラ20に映っていれば実行可能である。このため、人物が姿勢変化をした場合でも、安定して人物を検出することができる。また、特許文献2に記載の技術のように、人物の検出領域が制限されることもない。このため、フォークリフト25が走行する任意の位置において、フォークリフト25の周囲に存在する人物を検出することができる。
また、画像処理装置10は、シフトレンジがRレンジである場合、つまり、フォークリフト25が直線後退もしくは旋回後退またはその両方の動作をしている場合に、人物を検出するための処理(画像取得処理、判定処理および通知処理等)を実行している。このため、画像処理装置10は、ドライバーの死角となるフォークリフト25の後方や車両に人物が存在する場合に、ドライバーに対して適切に通知を行うことができる。
また、画像処理装置10は、ブレーキが掛けられていたとしても、シフトレンジがRレンジである場合には、人物を検出するための処理を実行している。このため、フォークリフト25が発信する直前において、ドライバーの死角に人物が存在する場合に、ドライバーに対して適切に通知を行うことができる。
また、画像処理装置10は、フォークリフト25が前進している場合には、人物を検出するための処理を実行しないようにしている。フォークリフト25が前進している場合には、フォークリフト25の後方を監視する必要はない。つまり、フォークリフト25の後方に人物が存在したとしてもドライバーに通知する必要はない。よって、この構成によると、人物が検出されたことをドライバーに不必要に通知することを防止することができる。
また、閾値設定部15は、人物が被るヘルメットに取り付けられるラベル90Aと同様の環境下に配置された参照用ラベル100の画素値に基づいて、閾値を設定している。このため、閾値を正確に設定することができ、これにより、色抽出部13は、ラベル90Aを正確に抽出することができる。
また、判定部12が画像中のミラー60の領域の像を所定倍率で拡大した上で、色抽出部13による各色の領域抽出処理と、判定部12による判定処理が行われる。つまり、死角部分を確認するためにフォークリフト25に取り付けられたミラー60越しに人物が映った場合であっても、当該人物の像が拡大された後に処理が実行される。このため、死角領域に存在する人物を正確に検出することができる。なお、実施の形態1では、ミラー60の鏡像を拡大した上で、判定処理(領域抽出処理)を行ったが、当該像の拡大は必須ではない。つまり、ミラー60の領域の像を拡大することなく、判定処理(領域抽出処理)を実行してもよい。
また、ラベル90Aには、所定の2色以上の領域(赤ラベル90R、緑ラベル90G、青ラベル90B)が所定の位置関係で配置されている。このため、ラベル90Aを人物が取り付けることにより、画像処理装置10により、人物を検出することができる。
また、ラベル90Aには、隣接する色ラベル間に間隙領域90Sを設けている。これにより、フォークリフト25の走行時の振動などにより後方監視カメラ20で撮像された画像に乱れが生じている場合であっても、ある色ラベルの色が隣接する色ラベルの色と混じり合って撮像されるのを防止することができる。これにより、画像処理装置10により、人物を精度良く検出することができる。
(変形例)
ヘルメットに貼り付けられるラベルは、図4Aおよび図4Bに示されたものに限定されるものではない。例えば、ラベルは、2色のラベルから構成されていてもよい。図10は、人物が被るヘルメットを側方から見た図である。図10に示すように、ヘルメット80には、赤ラベル90Rおよび緑ラベル90Gから構成されるラベル90Cが貼り付けられている。図10にヘルメット80の幅が、283mm、高さが148mmとした場合、ラベル90Cの幅は約40mm、長さは約180〜250mmとすることができる。なお、赤ラベル90Rと緑ラベル90Gとの間には間隙領域90Sが設けられている。ラベル90Cと同様のラベルがヘルメット80の反対側の側面、前後および上方にも貼り付けられる。
また、ヘルメットに貼り付けられる各色ラベルの形状が色ごとに異なっており、配置もより複雑であってもよい。図11は、人物が被るヘルメットを側方から見た図である。図11に示すように、ヘルメット80には、ラベル90Dが貼り付けられていてもよい。ラベル90Dは、中央に配置された赤ラベル90Rと、赤ラベル90Rの右上および左下に隣接する位置に配置された緑ラベル90Gと、赤ラベル90Rの左上および右下に隣接する位置に配置された青ラベル90Bとを含む。図11から分かるように、赤ラベル90Rのサイズは、青ラベル90Bおよび緑ラベル90Gのサイズよりも大きい。また、各ラベル間には間隙領域90Sが設けられている。また、ラベル90Dと同様のラベルがヘルメット80の反対側の側面、前後および上方にも貼り付けられる。
また、ヘルメットに貼り付けられる各色ラベルは、LED(Light Emitting Diode)や有機EL(electroluminescence)などの発光素子により構成されていてもよい。図12は、人物が被るヘルメットを側方から見た図である。図12に示すように、ヘルメット80には、ラベル91が取り付けられている。ラベル91は、青色LEDで構成される青ラベル91Bと、赤色LEDで構成される赤ラベル91Rと、緑色LEDで構成される緑ラベル91Gとを含む。各LEDは、ヘルメット80に取り付けられたリチウムイオン電池などの二次電池により駆動される。また、ラベル91と同様のラベルがヘルメット80の反対側の側面、前後および上方にも取り付けられている。LEDを用いてラベル91を構成することで、夜間や曇天などの照度が低い環境下であっても、ラベル91を認識しやすくすることができる。
また、ラベルはヘルメット80に取り付けられるのではなく、人物が身に着ける衣類や腕章などに取り付けられていてもよい。図13は、人物を正面から見た図である。人物は、ラベル90Fが取り付けられた腕章を両腕にはめている。ラベル90Fは、青ラベル90B、赤ラベル90Rおよび緑ラベル90Gから構成され、各ラベル間には間隙領域90Sが設けられている。
(実施の形態2)
実施の形態1では、閾値設定部15は所定の時間間隔で周期的に閾値を変更することとしたが、実施の形態2では、閾値設定部15は、フォークリフト25の周囲の照度変化が検出された場合に閾値を変更する。
以下では、実施の形態1と共通する部分についての説明は繰り返さず、実施の形態1と異なる部分について中心に説明する。
図14は、実施の形態2に係る画像処理システムの機能的な構成を示すブロック図である。
画像処理システム1Aは、図2に示した実施の形態1に係る画像処理システム1の構成において、さらに、照度センサ115を備える。照度センサ115は、フォークリフト25の周囲の照度を検出するセンサである。照度センサ115は、例えば、受光素子を含んで構成される。照度センサ115は、例えば、後方監視カメラ20の近傍に設けられる。なお、照度センサ115を用いずとも、後方監視カメラ20の画像からフォークリフト25の周囲の照度を判断するようにしてもよい。
図15は、実施の形態2に係る画像処理装置10が実行する処理のフローチャートである。
ステップS1、S2、S4〜S9の処理は、図8に示したステップS1、S2、S4〜S9の処理と同様である。実施の形態2では、図8に示したステップS3の処理の代わりに、ステップS13の処理を実行する。
つまり、閾値設定部15は、照度センサ115が検出した照度を保持し、現在の照度と、前回閾値を設定した際に保持した照度との照度差に基づいて、フォークリフト25の周囲の照度が変化したか否かを判断する(S13)。つまり、閾値設定部15は、照度差が所定の照度閾値以上となっていれば照度が変化したと判断し(照度変化を検出し)、照度差が所定の照度閾値未満であれば照度が変化していないと判断する(照度変化を検出しない)。
閾値設定部15は、照度変化を検出した場合には、閾値設定処理(S4)を実行する。
なお、閾値設定部15は、画像処理装置10の起動直後の初回の判断処理(S13)では、必ず照度変化を検出するようにし、閾値設定処理(S4)を実行するようにしてもよい。
以上説明したように、実施の形態2によると、照度変化が検出された場合に閾値を設定することができる。これにより、フォークリフト25の周囲の環境が変化した場合であっても、正確に色領域を抽出することができる。これにより、フォークリフト25の周囲に存在する人物を正確に検出することができる。
(実施の形態3)
実施の形態1では、閾値設定部15は所定の時間間隔で周期的に閾値を変更することとしたが、実施の形態3では、照度センサ115は、フォークリフト25の位置に基づいて閾値を設定する。
以下では、実施の形態1と共通する部分についての説明は繰り返さず、実施の形態1と異なる部分について中心に説明する。
図16は、実施の形態3に係る画像処理システムの機能的な構成を示すブロック図である。
画像処理システム1Bは、図2に示した実施の形態1に係る画像処理システム1の構成において、さらに、位置センサ114を備える。位置センサ114は、フォークリフト25の位置を検出するセンサである。位置センサ114は、例えば、GPS(Global Positioning System)センサを含んで構成される。位置センサ114は、フォークリフト25の任意の位置に設置可能であるが、GPS衛星からの電波を受信しやすい位置に取り付けるのが好ましい。
図17は、実施の形態3に係る画像処理装置10が実行する処理のフローチャートである。
ステップS1、S2、S5〜S9の処理は、図8に示したステップS1、S2、S5〜S9の処理と同様である。実施の形態3では、図8に示したステップS3およびS4の代わりに、ステップS23およびS24の処理を実行する。
つまり、閾値設定部15は、位置センサ114から位置情報を取得する(S23)。位置情報は、例えば、フォークリフト25の緯度および経度を示す情報である。
閾値設定部15は、取得した位置情報に基づいて、各色の領域を抽出する際の閾値を決定する(S24)。図18は、閾値設定部15が保持している位置と緑色領域の閾値との関係を示すデータテーブルの一例を示す図である。このデータテーブルは、データテーブルに示される位置内にフォークリフト25が存在する場合の、緑色領域を抽出するための色相(H)、彩度(S)および明度(V)の閾値を示している。
例えば、閾値設定部15は、位置センサ114から取得した位置情報(緯度、経度)が、(34°40′39″,135°26′8″)−(34°40′36″,135°26′13″)の範囲内に入っていれば、緑色領域の色相(H)の閾値に、120±25を設定し、緑色領域の彩度(S)の閾値に70および100を設定し、緑色領域の明度(V)の閾値に70および100を設定する。
なお、閾値設定部15は、赤色領域および青色領域についても、同様に、位置と閾値との関係を示すデータテーブルを保持しており、位置センサ114から取得した位置情報に基づいて、赤色領域および青色領域の閾値を設定する。
以上説明したように、実施の形態3によると、フォークリフト25の位置に基づいて閾値を設定することができる。これにより、例えば、フォークリフト25が屋内を走行している場合と屋外を走行している場合とで閾値を変更することができる。このように、フォークリフト25の周囲の環境が変化した場合であっても、正確に色領域を抽出することができる。これにより、フォークリフト25の周囲に存在する人物を正確に検出することができる。
(実施の形態4)
実施の形態1〜3では、フォークリフト25の後方の人物を検出する例について説明した。実施の形態4では、フォークリフト25の後方の人物のみならず、前方の人物を検出する例についても説明する。
以下では、実施の形態1〜3と共通する部分についての説明は繰り返さず、実施の形態1〜3と異なる部分について中心に説明する。
図19は、実施の形態4に係る画像処理システムの取付例を示す図である。図20は、実施の形態4に係る画像処理システムの機能的な構成を示すブロック図である。
画像処理システム1Cは、図2に示した実施の形態1に係る画像処理システム1の構成において、さらに、前方監視カメラ26を備える。
前方監視カメラ26は、後方監視カメラ20とともに撮像部を構成し、例えば、フォークリフト25の前方を撮像可能な位置(例えば、フォークリフト25に設けられた棒状治具など)に取り付けられ、フォークリフト25の前方の画像を撮像する。前方監視カメラ26のカメラレンズは、例えば、画角150°以上の超広角レンズである。
図21は、上方から見たフォークリフト25の模式図である。図21において、左側がフォークリフト25の前方であり、右側がフォークリフト25の後方である。図21に示すように、フォークリフト25の前方および後方には、前方監視カメラ26による前方撮像領域27と、後方監視カメラ20による後方撮像領域21とがそれぞれ設定される。後方撮像領域21については、実施の形態1で説明した通りである。前方撮像領域27は、例えば、フォークリフト25が最高時速10km/hで走行した場合に、2秒間で移動可能な範囲を含むように設定される。つまり、前方監視カメラ26は、前方撮像領域27を撮像可能な位置に設置される。これにより、前方監視カメラ26は、前方撮像領域27内に存在する人物を撮像することができる。前方撮像領域27をこのように設定したのは、人物を発見してから2秒間あれば、ドライバーはフォークリフト25を停止させることができると考えられるからである。なお、前方監視カメラ26は単願カメラを想定しているが、ステレオカメラなどの多眼カメラを用いてもよい。
画像処理装置10が備える画像取得部11は、通信I/Fを介して、前方監視カメラ26が撮像した画像、または後方監視カメラ20が撮像した画像を取得する。
車両状態判定部16は、実施の形態1で説明した判定処理に加え、以下の処理を実行する。つまり、車両状態判定部16は、通信I/Fを介してシフトセンサ112からシフトレバーの位置検出結果を取得し、取得した位置検出結果に基づいて、シフトレンジがDレンジであるか否かを判定する。シフトレンジがDレンジの状態で、フォークリフト25が走行していれば、フォークリフト25は直線前進もしくは旋回前進またはその両方の動作を行っていることになる。ただし、シフトレンジがDレンジで、かつブレーキが掛けられている場合には、上記した動作は行っていないものの、ブレーキが外されることにより、上記動作が開始されるため、上記動作の準備状態と考えることができる。
次に、画像処理装置10が実行する処理の流れについて説明する。
図22は、実施の形態4に係る画像処理装置10が実行する処理のフローチャートである。
車両状態判定部16は、シフトセンサ112によるシフトレバーの位置検出結果に基づいて、シフトレンジがRレンジであるか否かを判定する(S1a)。
シフトレンジがRレンジであると、車両状態判定部16が判定した場合には(S1aでYES)、画像取得部11は、後方監視カメラ20が撮像した画像を取得する(S2a)。その後、後方監視カメラ20が撮像した画像に対して、ステップS3〜S9の処理を実行する。ステップS3〜S9の処理は実施の形態1で説明した通りである。
シフトレンジがRレンジ以外であると、車両状態判定部16が判定した場合には、(S1aでNO)、車両状態判定部16は、シフトセンサ112によるシフトレバーの位置検出結果に基づいて、シフトレンジがDレンジであるか否かを判定する(S1b)。なお、Lレンジまたは2レンジなどの前進動作時のシフトレンジも、Dレンジに含まれるものとしてもよい。つまり、シフトレンジがLレンジなどの前進動作時のシフトレンジの場合には、車両状態判定部16は、シフトレンジがDレンジであると判定してもよい。
シフトレンジがDレンジであると、車両状態判定部16が判定した場合には(S1aでYES)、画像取得部11は、前方監視カメラ26が撮像した画像を取得する(S2b)。その後、前方監視カメラ26が撮像した画像に対して、ステップS3〜S9の処理を実行する。ステップS3〜S9の処理は、対象とする画像が、前方監視カメラ26が撮像した画像である点を除き、実施の形態1で説明した通りである。これにより、前方監視カメラ26の前方撮像領域27内に歩行者が存在する場合には、当該歩行者を検出し、ドライバーに歩行者の検出結果を通知することができる。
シフトレンジがRレンジおよびDレンジのいずれでもないと、車両状態判定部16が判定した場合には、(S1bでNO)、ステップS9に進む。例えば、シフトレンジがPレンジであり、フォークリフト25が停止している場合には、ステップS9に進む。
以上説明したように、実施の形態4によると、フォークリフト25が前進している場合には、前方監視カメラ26で撮像されたフォークリフト25の前方画像に対して、人物を検出するための処理(画像取得処理、判定処理および通知処理等)が実行される。これにより、フォークリフト25の前方に存在する人物を検出することができる。また、前方に人物が存在する場合に、ドライバーに適切に通知を行うことができる。これにより、フォークリフト25の周囲に存在する人物とフォークリフト25との接触を未然に防止することができる。
<付記>
以上、本発明の実施の形態に係る画像処理システム1について説明したが、本発明は、この実施の形態に限定されるものではない。
例えば、上述の実施の形態では、人物にラベルが取り付けられ、画像処理装置10が人物を検出することしたが、人物以外にラベルを取り付けてもよい。例えば、フォークリフト25の立ち入りが禁止されている場所の近傍にラベルを貼り付けることにより、画像処理装置10が当該場所に近づいたことを検出するようにしてもよい。これにより、フォークリフト25が立入禁止場所に近づいたことをドライバー等に知らせることができる。
また、上述の画像処理装置10の色抽出部13は、HSV色空間上の色相(H)、彩度(S)および明度(V)を閾値処理することにより色領域を抽出したが、閾値処理の対象はHSV色空間上の色相(H)、彩度(S)および明度(V)に限定されるものではない。例えば、画像上の各座標の色彩をマンセル表色系における色相(H)、明度(V)、彩度(C)で表し、色相(H)、明度(V)、彩度(C)を閾値処理することにより色領域を抽出してもよい。また、画像上の各座標の赤色成分(R)、緑色成分(G)、青色成分(B)を閾値処理することにより色領域を抽出してもよい。
また、上述した人物等に取り付けられるラベルは、以下のように構成されてもよい。
つまり、上述の画像処理装置10により所定の2色以上の領域が含まれるか否かの判定対象とされるラベルであって、
所定の2色以上の領域が所定の位置関係で配置されており、
所定の2色以上の領域は、第1色ラベル、第2色ラベルおよび第3色ラベルを含み、
第1色ラベルの色彩は、マンセル表色系の色相(H)が10P〜7.5YRの範囲に含まれ、明度(V)が3以上であり、彩度(C)が2以上であり、
第2色ラベルの色彩は、マンセル表色系の色相(H)が2.5GY〜2.5BGの範囲に含まれ、明度(V)が3以上であり、彩度(C)が2以上であり、
第3色ラベルの色彩は、マンセル表色系の色相(H)が5BG〜5Pの範囲に含まれ、明度(V)が1以上であり、彩度(C)が1以上である。
また、上述の画像処理装置10を構成する構成要素の一部または全部は、1個のシステムLSIから構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。RAMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。
また、コンピュータを画像処理装置10として機能させるためのコンピュータプログラムは、コンピュータ読取可能な非一時的な記録媒体、例えば、ハードディスクドライブ、CD−ROM、半導体メモリなどに記録したものとしてもよい。このようなコンピュータプログラムは、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
また、上記コンピュータプログラムに含まれる各ステップは、複数のコンピュータにより実行されてもよい。
さらに、上記実施の形態および上記変形例をそれぞれ組み合わせるとしてもよい。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1、1A、1B、1C 画像処理システム
10 画像処理装置
11 画像取得部
12 判定部
13 色抽出部
14 通知部
15 閾値設定部
16 車両状態判定部
20 後方監視カメラ
25 フォークリフト
30 音出力装置
40 表示装置
50 端末装置
60 ミラー
90A、90C、90D、90F、91 ラベル
90B、91B、100B 青ラベル
90G、91G、100G 緑ラベル
90R、91R、100R 赤ラベル
90S 間隙領域
100 参照用ラベル
112 シフトセンサ
114 位置センサ
115 照度センサ

Claims (12)

  1. 産業車両または車両系建設機械に該当する車両に搭載された撮像部で撮像された画像を取得する画像取得部と、
    前記画像取得部が取得した前記画像に、所定の位置関係を有する所定の2色以上の領域が含まれるか否かの判定処理を実行する判定部と、
    前記判定部の判定処理結果に応じた通知処理を実行する通知部と
    を備える画像処理装置。
  2. 前記撮像部は、前記車両の後方を撮像範囲とする前記車両上の位置に設置された後方監視カメラを含み、
    前記画像取得部は、前記後方監視カメラで撮像された前記車両の後方画像を取得し、
    前記判定部は、前記車両が前進している場合には、前記車両の後方画像に対する前記判定処理を停止する
    請求項1に記載の画像処理装置。
  3. 前記撮像部は、さらに、前記車両の前方を撮像範囲とする前記車両上の位置に設置された前方監視カメラを含み、
    前記画像取得部は、さらに、前記前方監視カメラで撮像された前記車両の前方画像を取得し、
    前記判定部は、前記車両が前進している場合には、さらに、前記車両の前方画像に対する前記判定処理を実行する
    請求項2に記載の画像処理装置。
  4. 前記判定部は、前記画像を構成する各画素の所定の色空間上の画素値と所定の閾値とに基づいて、前記所定の2色以上の領域を抽出する色抽出部を含み、
    前記画像取得部は、前記車両の所定位置に設置された前記所定の2色以上の参照用ラベルを前記撮像部が撮像した画像を取得し、
    前記画像処理装置は、さらに、前記参照用ラベルの画像の前記色空間上の画素値に基づいて、前記所定の閾値を設定する閾値設定部を備える
    請求項1〜請求項3のいずれか1項に記載の画像処理装置。
  5. 前記閾値設定部は、前記車両の周囲の照度変化を検出した場合に、前記所定の閾値を設定する
    請求項4に記載の画像処理装置。
  6. 前記判定部は、前記画像を構成する各画素の所定の色空間上の値と所定の閾値とに基づいて、前記所定の2色以上の領域を抽出する色抽出部を含み、
    前記画像処理装置は、さらに、前記車両の位置に基づいて、前記所定の閾値を設定する閾値設定部を備える
    請求項1〜請求項3のいずれか1項に記載の画像処理装置。
  7. 前記判定部は、前記画像取得部が取得した前記画像のうち、前記車両に設置されたミラーを撮像したミラー領域の像に対して、前記判定処理を実行する
    請求項1〜請求項6のいずれか1項に記載の画像処理装置。
  8. 検出対象物に取り付けられる所定の2色以上の領域が所定の位置関係で配置されているラベルと、
    前記検出対象物を検出する画像処理装置とを備え、
    前記画像処理装置は、
    産業車両または車両系建設機械に該当する車両に搭載された撮像部で撮像された画像を取得する画像取得部と、
    前記画像取得部が取得した前記画像に、前記所定の2色以上の領域が含まれるか否かの判定処理を実行する判定部と、
    前記判定部の判定処理結果に応じた通知を行う通知部とを有する
    画像処理システム。
  9. コンピュータを、
    産業車両または車両系建設機械に該当する車両に搭載された撮像部で撮像された画像を取得する画像取得部と、
    前記画像取得部が取得した前記画像に、所定の2色以上の領域が含まれるか否かの判定処理を実行する判定部と、
    前記判定部の判定処理結果に応じた通知処理を実行する通知部
    として機能させるための画像処理プログラム。
  10. 請求項1〜請求項7のいずれか1項に記載の画像処理装置により所定の2色以上の領域が含まれるか否かの判定対象とされるラベルであって、
    前記所定の2色以上の領域が所定の位置関係で配置されている
    ラベル。
  11. 各色の領域間に所定の間隙が設けられている
    請求項10に記載のラベル。
  12. 各色の領域は、蛍光テープ、蛍光塗料または発光素子を含んで構成される
    請求項10または請求項11に記載のラベル。
JP2016170638A 2016-09-01 2016-09-01 画像処理装置、画像処理システム、画像処理プログラムおよびラベル Pending JP2018036937A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016170638A JP2018036937A (ja) 2016-09-01 2016-09-01 画像処理装置、画像処理システム、画像処理プログラムおよびラベル
US16/322,252 US20190197738A1 (en) 2016-09-01 2017-04-14 Image processing device, image processing system, recording medium and label
CN201780053266.4A CN109690639A (zh) 2016-09-01 2017-04-14 图像处理装置、图像处理系统、图像处理程序和标签
PCT/JP2017/015266 WO2018042747A1 (ja) 2016-09-01 2017-04-14 画像処理装置、画像処理システム、画像処理プログラムおよびラベル

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016170638A JP2018036937A (ja) 2016-09-01 2016-09-01 画像処理装置、画像処理システム、画像処理プログラムおよびラベル

Publications (1)

Publication Number Publication Date
JP2018036937A true JP2018036937A (ja) 2018-03-08

Family

ID=61300472

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016170638A Pending JP2018036937A (ja) 2016-09-01 2016-09-01 画像処理装置、画像処理システム、画像処理プログラムおよびラベル

Country Status (4)

Country Link
US (1) US20190197738A1 (ja)
JP (1) JP2018036937A (ja)
CN (1) CN109690639A (ja)
WO (1) WO2018042747A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020027139A1 (ja) * 2018-07-31 2020-02-06 住友建機株式会社 ショベル
JP2020152473A (ja) * 2019-03-18 2020-09-24 住友重機械工業株式会社 作業機械
JP2022016902A (ja) * 2020-07-13 2022-01-25 三菱ロジスネクスト株式会社 人検知装置、産業車両、及び人検知方法
CN115307741A (zh) * 2022-08-09 2022-11-08 国家能源集团宁夏煤业有限责任公司 报警信息的设定方法以及其设定装置
US12180047B2 (en) 2019-12-03 2024-12-31 Kabushiki Kaisha Toyota Jidoshokki Industrial vehicle

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019146066A1 (ja) * 2018-01-26 2019-08-01 オリンパス株式会社 内視鏡画像処理装置、内視鏡画像処理方法及びプログラム
JP7020359B2 (ja) * 2018-09-28 2022-02-16 株式会社豊田自動織機 警告装置
WO2020158597A1 (ja) * 2019-01-31 2020-08-06 住友電気工業株式会社 画像処理装置、画像処理方法、画像処理システム、運搬車輌、及びコンピュータプログラム
WO2020199471A1 (zh) * 2019-04-02 2020-10-08 北京极智嘉科技有限公司 一种高位机器人、归还仓储容器的校准方法及存储介质
JP7338398B2 (ja) * 2019-10-21 2023-09-05 株式会社アイシン 車両用画像処理装置
US11166624B2 (en) * 2020-02-21 2021-11-09 Ambu A/S Medical visualization system
JP7267222B2 (ja) * 2020-02-26 2023-05-01 三菱ロジスネクスト株式会社 処理装置、処理方法、報知システム及びプログラム
CN111738142B (zh) * 2020-06-19 2023-09-22 福建省海峡智汇科技有限公司 一种用于判断空气开关状态的方法和系统
US12091303B2 (en) * 2020-09-14 2024-09-17 Lance A. Stacy Motorized vehicles having sensors and methods of operating the same
JP7613155B2 (ja) * 2021-02-26 2025-01-15 株式会社豊田自動織機 産業車両
JP2025177718A (ja) * 2024-05-24 2025-12-05 株式会社豊田自動織機 障害物検出装置
CN120510699B (zh) * 2025-07-22 2025-09-26 四川省中车铁投轨道交通有限公司 基于互联网平台的无人值守站台监控报警系统及方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6490840A (en) * 1987-09-30 1989-04-07 Tokyo Keiki Kk Obstacle detector for working vehicle
JPH0232229A (ja) * 1988-07-21 1990-02-02 Kubota Ltd 穀粒選別装置用穀粒分布検出装置
JP2003105807A (ja) * 2001-09-27 2003-04-09 Komatsu Ltd 作業車両の侵入禁止領域での停止制御方法及びその制御装置
JP2005153051A (ja) * 2003-11-25 2005-06-16 Matsushita Electric Works Ltd 加工機械の安全装置
JP2012216029A (ja) * 2011-03-31 2012-11-08 Namco Bandai Games Inc プログラム、情報記憶媒体、端末、サーバ、及びマーカー表示体

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3178701B2 (ja) * 1995-12-21 2001-06-25 日本輸送機株式会社 フォークリフトの安全装置
US7845560B2 (en) * 2004-12-14 2010-12-07 Sky-Trax Incorporated Method and apparatus for determining position and rotational orientation of an object
JP4328286B2 (ja) * 2004-12-14 2009-09-09 本田技研工業株式会社 顔領域推定装置、顔領域推定方法及び顔領域推定プログラム
US20070065004A1 (en) * 2005-08-01 2007-03-22 Topcon Corporation Three-dimensional measurement system and method of the same, and color-coded mark
EP2120211B1 (en) * 2007-01-23 2020-07-29 NEC Corporation Marker generating system and method
US9177210B2 (en) * 2007-10-30 2015-11-03 Hki Systems And Service Llc Processing container images and identifiers using optical character recognition and geolocation
JP5035284B2 (ja) * 2009-03-25 2012-09-26 株式会社日本自動車部品総合研究所 車両周辺表示装置
WO2010144900A1 (en) * 2009-06-12 2010-12-16 Magna Electronics Inc. Scalable integrated electronic control unit for vehicle
KR101751405B1 (ko) * 2010-10-22 2017-06-27 히다치 겡키 가부시키 가이샤 작업 기계의 주변 감시 장치
JP5639024B2 (ja) * 2011-09-27 2014-12-10 富士重工業株式会社 画像処理装置
JP6029306B2 (ja) * 2012-03-29 2016-11-24 住友建機株式会社 作業機械用周辺監視装置
US20150169980A1 (en) * 2012-06-26 2015-06-18 Honda Motor Co., Ltd. Object recognition device
JP5961472B2 (ja) * 2012-07-27 2016-08-02 日立建機株式会社 作業機械の周囲監視装置
CN104885122B (zh) * 2012-12-25 2017-06-23 本田技研工业株式会社 车辆周围监测装置
US20140200863A1 (en) * 2013-01-11 2014-07-17 The Regents Of The University Of Michigan Monitoring proximity of objects at construction jobsites via three-dimensional virtuality in real-time
JP6376354B2 (ja) * 2013-03-29 2018-08-22 パナソニックIpマネジメント株式会社 駐車支援システム
US9170581B2 (en) * 2013-09-30 2015-10-27 Crown Equipment Limited Industrial vehicles with overhead light based localization
CN106462962B (zh) * 2014-06-03 2020-08-04 住友重机械工业株式会社 施工机械用人检测系统以及挖土机
JP6457278B2 (ja) * 2015-01-23 2019-01-23 トヨタ自動車株式会社 物体検出装置及び物体検出方法
EP3086196B1 (en) * 2015-04-21 2017-04-05 Hexagon Technology Center GmbH Method and control system for surveying and mapping a terrain while operating a bulldozer
CN110023996A (zh) * 2016-12-07 2019-07-16 住友电气工业株式会社 图像处理程序、颜色标签、检测装置、图像处理装置、图像处理方法以及图像处理系统
US20200126331A1 (en) * 2017-06-21 2020-04-23 Sumitomo Electric Industries, Ltd. Operation system, on-board device, industrial vehicle, forklift, computer program, data structure, and operation method
US11181925B2 (en) * 2018-02-23 2021-11-23 Crown Equipment Corporation Systems and methods for optical target based indoor vehicle navigation

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6490840A (en) * 1987-09-30 1989-04-07 Tokyo Keiki Kk Obstacle detector for working vehicle
JPH0232229A (ja) * 1988-07-21 1990-02-02 Kubota Ltd 穀粒選別装置用穀粒分布検出装置
JP2003105807A (ja) * 2001-09-27 2003-04-09 Komatsu Ltd 作業車両の侵入禁止領域での停止制御方法及びその制御装置
JP2005153051A (ja) * 2003-11-25 2005-06-16 Matsushita Electric Works Ltd 加工機械の安全装置
JP2012216029A (ja) * 2011-03-31 2012-11-08 Namco Bandai Games Inc プログラム、情報記憶媒体、端末、サーバ、及びマーカー表示体

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020027139A1 (ja) * 2018-07-31 2020-02-06 住友建機株式会社 ショベル
KR20210037607A (ko) * 2018-07-31 2021-04-06 스미토모 겐키 가부시키가이샤 쇼벨
JPWO2020027139A1 (ja) * 2018-07-31 2021-08-26 住友建機株式会社 ショベル
JP7396987B2 (ja) 2018-07-31 2023-12-12 住友建機株式会社 ショベル
US11987959B2 (en) 2018-07-31 2024-05-21 Sumitomo Construction Machinery Co., Ltd. Shovel
KR102735341B1 (ko) 2018-07-31 2024-11-27 스미토모 겐키 가부시키가이샤 쇼벨
JP2020152473A (ja) * 2019-03-18 2020-09-24 住友重機械工業株式会社 作業機械
JP7258613B2 (ja) 2019-03-18 2023-04-17 住友重機械工業株式会社 作業機械
US12180047B2 (en) 2019-12-03 2024-12-31 Kabushiki Kaisha Toyota Jidoshokki Industrial vehicle
JP2022016902A (ja) * 2020-07-13 2022-01-25 三菱ロジスネクスト株式会社 人検知装置、産業車両、及び人検知方法
JP7149990B2 (ja) 2020-07-13 2022-10-07 三菱ロジスネクスト株式会社 人検知装置、産業車両、及び人検知方法
CN115307741A (zh) * 2022-08-09 2022-11-08 国家能源集团宁夏煤业有限责任公司 报警信息的设定方法以及其设定装置

Also Published As

Publication number Publication date
WO2018042747A1 (ja) 2018-03-08
US20190197738A1 (en) 2019-06-27
CN109690639A (zh) 2019-04-26

Similar Documents

Publication Publication Date Title
JP2018036937A (ja) 画像処理装置、画像処理システム、画像処理プログラムおよびラベル
KR102552285B1 (ko) 휴대 전자 장치 및 그 동작 방법
US10322804B2 (en) Device that controls flight altitude of unmanned aerial vehicle
US11030464B2 (en) Privacy processing based on person region depth
JP7009987B2 (ja) 自動運転システム及び自動運転方法
US20150009327A1 (en) Image capture device for moving vehicles
KR101481051B1 (ko) 개인용 블랙박스 장치 및 그의 동작 방법
US20200273200A1 (en) Camera localization based on skeletal tracking
US20210179289A1 (en) Aerial vehicle, communication terminal and non-transitory computer-readable medium
WO2016143306A1 (ja) 警告装置、警告方法及び警告プログラム
US9286689B2 (en) Method and device for detecting the gait of a pedestrian for a portable terminal
KR101147212B1 (ko) 주변상황 인식을 이용한 개인안전 장치, 시스템 및 방법
US20210052156A1 (en) Gaze detector, method for controlling gaze detector, method for detecting corneal reflection image position, and storage medium
US20210304474A1 (en) Information processing apparatus, information processing method, and program
US20250148612A1 (en) Information processing apparatus and program
US20210279486A1 (en) Collision avoidance and pedestrian detection systems
KR101224534B1 (ko) 모션인식 기능을 가지는 이미지프로세싱에 의한 자동화재인식 시스템
US20190371005A1 (en) Recording medium, color label, detection device, image processing device, image processing method and image processing system
JP6299630B2 (ja) 警告装置、警告方法及び警告プログラム
CN109969919B (zh) 异物进入梯级的警示方法、警示装置及自动扶梯或人行道
JP7354461B2 (ja) 監視システム及び監視方法
JP2015176155A (ja) 歩行者保護システムおよび歩行者保護プログラム
KR20170075523A (ko) 차량용 주변 감시 장치 및 방법
Hedin et al. Clustering and geometrical features for classi cation of humans in three dimensional data
JP2019179532A (ja) マーカ検出システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200131

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200218

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200818