[go: up one dir, main page]

TWI906033B - 影像收集方法及影像擷取裝置 - Google Patents

影像收集方法及影像擷取裝置

Info

Publication number
TWI906033B
TWI906033B TW113143708A TW113143708A TWI906033B TW I906033 B TWI906033 B TW I906033B TW 113143708 A TW113143708 A TW 113143708A TW 113143708 A TW113143708 A TW 113143708A TW I906033 B TWI906033 B TW I906033B
Authority
TW
Taiwan
Prior art keywords
image
pixel
target
coverage density
coordinates
Prior art date
Application number
TW113143708A
Other languages
English (en)
Inventor
黃羿寧
林應誠
吳欣怡
何丹期
Original Assignee
財團法人工業技術研究院
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 財團法人工業技術研究院 filed Critical 財團法人工業技術研究院
Priority to TW113143708A priority Critical patent/TWI906033B/zh
Application granted granted Critical
Publication of TWI906033B publication Critical patent/TWI906033B/zh

Links

Landscapes

  • Studio Devices (AREA)

Abstract

一種影像收集方法及影像擷取裝置。該方法包括:根據已擷取的目標物件的一或多個第一影像,獲取一或多個第一影像各自的第一涵蓋密度資料,以決定一或多個再拍攝位置;根據一或多個再拍攝位置,渲染對應一或多個再拍攝位置的一或多個拍攝位置建議標記於影像擷取裝置所即時顯示的對應現實空間的畫面內;以及若影像擷取裝置的當前位置及當前視角符合目標拍攝位置建議標記,自動對目標物件擷取對應目標拍攝位置建議標記的目標第二影像。藉此,本公開提供一種能夠有效引導使用者完成3D物件建模所需之影像收集的方法。

Description

影像收集方法及影像擷取裝置
本公關於一種3D物件建模的相關方法,尤其是關於一種用於3D物件建模的影像收集方法及其對應的影像擷取裝置。
隨著3D建模技術的發展,越來越多應用場景需要將實體物件轉換成3D模型。傳統的3D掃描設備成本高昂且使用限制多,因此基於多視角影像的3D重建技術逐漸普及。然而,現有的影像收集方式主要依賴於使用者的拍攝經驗,難以保證收集到的影像資料能夠均勻涵蓋物件的各個視角。此外,現有技術缺乏對已收集影像的即時評估機制,導致使用者無法在拍攝過程中得知資料的完整性,常常需要多次重複拍攝才能獲得理想的建模結果。雖然部分現有的解決方案提供了基本的拍攝引導功能,例如利用柵格地圖或拍攝軌跡來判斷是否已環繞整個物件,但這些方法往往無法根據實際拍攝狀況動態更新建議,也缺乏對影像品質的評估機制。
本公開提供一種影像收集方法及其對應的影像擷取裝置。本公開計算影像的涵蓋密度資料,評估已收集影像的完整性,並根據評估結果提供拍攝建議,結合擴增實境(AR)技術進行視覺化引導,協助使用者完成3D物件建模所需的影像收集工作。本公開提供自動拍攝功能,當使用者移動至指定位置時,系統進行影像擷取,提升影像收集的效率。
本公開的一或多個實施例提供適用於經由電子裝置來建構對應一目標物件的3D物件模型的一種影像收集方法。所述方法包括:根據已擷取的該目標物件的一或多個第一影像,獲取該一或多個第一影像各自的第一涵蓋密度資料;根據該一或多個第一影像各自的該第一涵蓋密度資料,決定一或多個再拍攝位置;根據該一或多個再拍攝位置,渲染對應該一或多個再拍攝位置的一或多個拍攝位置建議標記於該電子裝置所即時顯示的對應該現實空間的畫面內;針對該一或多個拍攝位置建議標記中的一目標拍攝位置建議標記,反應於判定該電子裝置的當前位置及當前視角符合該目標拍攝位置建議標記,自動對該目標物件擷取對應該目標拍攝位置建議標記的目標第二影像。
在本公開的一或多個實施例中,其中所述方法還包括:在擷取對應該一或多個拍攝位置建議標記的一或多個第二影像後,獲取該一或多個第二影像各自的第二涵蓋密度資料;根據該些第一影像各自的該第一涵蓋密度資料及該一或多個第二影像各自的該第二涵蓋密度資料,獲取對應該目標物件的一涵蓋密度平均值;以及若該涵蓋密度平均值大於或等於一預設平均密度門檻值,判定用以建構該3D物件模型的影像資料已收集完畢,並且使用所擷取的該一或多個第一影像及該一或多個第二影像來執行對應該目標物件的3D物件重建運作,以建構對應該目標物件的該3D物件模型。
在本公開的一或多個實施例中,其中所述方法還包括:若該涵蓋密度平均值小於該預設平均密度門檻值,判定用以建構該3D物件模型的該影像資料尚未收集完畢;根據該些第一影像各自的該第一涵蓋密度資料及該一或多個第二影像各自的該第二涵蓋密度資料,決定一或多個另一再拍攝位置;根據對應該一或多個另一再拍攝位置,渲染對應該一或多個另一再拍攝位置的一或多個另一拍攝位置建議標記於該電子裝置所即時顯示的對應該現實空間的該畫面內;以及針對該一或多個另一拍攝位置建議標記中的一目標另一拍攝位置建議標記,反應於判定該電子裝置的當前位置及當前視角符合該目標另一拍攝位置建議標記,自動對該目標物件擷取對應該目標另一拍攝位置建議標記的目標第三影像。
在本公開的一或多個實施例中,其中在擷取第一影像或第二影像之前,所述方法還包括:獲取該目標物件的基準平面及邊界框,以建立該目標物件對應於現實空間的3D座標系及3D拍攝範圍。
在本公開的一或多個實施例中,其中每個拍攝位置建議標記包括對應該3D座標系及該3D拍攝範圍的建議3D座標及對應該建議3D座標的建議第二視角,所述方法更包括:判斷該電子裝置的該當前位置的當前3D座標是否對應一或多個建議3D座標中的一目標建議3D座標,並且判斷該電子裝置的該當前視角是否對應該目標建議3D座標的目標建議第二視角;若該當前3D座標對應該目標建議3D座標且該當前視角對應該目標建議第二視角,判定該電子裝置的該當前位置及該當前視角符合對應的目標拍攝位置建議標記,並且自動執行對該目標物件的影像擷取操作,以擷取對應該目標拍攝位置建議標記的目標第二影像。
在本公開的一或多個實施例中,其中該3D拍攝範圍包括多個像素3D座標,所述方法還包括:識別每個第一影像的擷取位置及第一視角,其中該擷取位置包括當該電子裝置擷取每個第一影像時,該電子裝置位於該3D座標系內的第一3D座標;以及根據一涵蓋密度分布模型 獲取每個第一影像的對應該目標物件的該第一涵蓋密度資料,其中該第一涵蓋密度資料包括對應該第一影像的多個第一像素的多個第一涵蓋密度值及該些第一像素映射至該些像素3D座標中的多個第一像素3D座標,其中該些第一像素3D座標經由對應該第一影像的該擷取位置及該第一視角所決定。
在本公開的一或多個實施例中,其中根據該涵蓋密度分布模型獲取每個第一影像的對應該目標物件的該第一涵蓋密度資料的步驟包括:識別每個第一影像的該些第一像素內的中心像素;識別每個第一影像的該些第一像素中對應該目標物件的多個目標像素;獲取每個目標像素與該中心像素之間的參考距離;根據每個目標像素的該參考距離,基於該涵蓋密度分布模型查找每個目標像素的第一涵蓋密度值,其中該涵蓋密度分布模型依據該電子裝置的拍攝視野參數和該擷取位置與該目標物件之間的相對距離來動態設定。
在本公開的一或多個實施例中,其中所述方法還包括:將該3D拍攝範圍的該些像素3D座標投影至一2D平面,以產生對應的2D映射圖,其中該2D映射圖包括對應該些像素3D座標的多個像素2D座標;根據每個第一影像的對應該目標物件的該第一涵蓋密度資料,更新該2D映射圖,其中每個像素2D座標記錄對應的像素3D座標的最大的第一涵蓋密度值。
在本公開的一或多個實施例中,其中根據該一或多個第一影像各自的該第一涵蓋密度資料,決定該一或多個再拍攝位置的步驟包括:根據該些第一影像各自的該第一涵蓋密度資料,獲取對應該目標物件的一涵蓋密度平均值;以及若該涵蓋密度平均值小於一預設平均密度門檻值,根據該2D映射圖,識別第一涵蓋密度值低於預設密度門檻值的一或多個低密度像素3D座標;以及根據該一或多個低密度像素3D座標及對應的一或多個視角,決定該一或多個再拍攝位置。
在本公開的一或多個實施例中,其中根據該一或多個低密度像素3D座標及對應的該一或多個視角,決定該一或多個再拍攝位置的步驟包括:識別該一或多個低密度像素3D座標中具有最低的第一涵蓋密度值的目標低密度像素3D座標;根據該目標低密度像素3D座標,決定對應的目標再拍攝位置;推估對應該目標再拍攝位置的預期第一影像及對應該預期第一影像的預期第一涵蓋密度資料;根據該預期第一涵蓋密度資料更新該2D映射圖,並且重新識別第一涵蓋密度值低於預設密度門檻值的新的一或多個低密度像素3D座標;以及重複上述步驟,直到該些像素3D座標中不存在低於該預設密度門檻值的低密度像素3D座標。
在本公開的一或多個實施例中,其中所述方法還包括:記錄每個第一涵蓋密度資料內的所述多個第一涵蓋密度值於對應的像素3D座標;根據每個像素3D座標記錄的該些第一涵蓋密度值,識別第一涵蓋密度值低於預設密度門檻值的一或多個低密度像素3D座標;以及根據該一或多個低密度像素3D座標及對應的一或多個視角,決定該一或多個再拍攝位置。
在本公開的一或多個實施例中,其中所述方法還包括:利用擴增實境(AR)技術,根據該一或多個再拍攝位置,渲染對應該一或多個再拍攝位置的該一或多個拍攝位置建議標記於該電子裝置所即時顯示的對應該現實空間的該畫面內,以讓該一或多個拍攝位置建議標記於對應該畫面的視覺上,是被嵌入且固定在該現實空間中。
本公開的一或多個實施例提供用於建構對應目標物件的3D物件模型的一種影像擷取裝置。影像擷取裝置包括:處理器;儲存裝置,耦接至該處理器,用以儲存多個程式碼模組;相機模組,耦接至該處理器;及顯示器,耦接至該處理器。其中,該處理器經由執行儲存該些程式碼模組而被設置以:根據已擷取的該目標物件的一或多個第一影像,獲取該一或多個第一影像各自的第一涵蓋密度資料;根據該一或多個第一影像各自的該第一涵蓋密度資料,決定一或多個再拍攝位置;根據該一或多個再拍攝位置,渲染對應該一或多個再拍攝位置的一或多個拍攝位置建議標記於該顯示器所即時顯示的對應該現實空間的畫面內;針對該一或多個拍攝位置建議標記中的一目標拍攝位置建議標記,反應於判定該影像擷取裝置的當前位置及當前視角符合該目標拍攝位置建議標記,控制該相機模組自動對該目標物件擷取對應該目標拍攝位置建議標記的目標第二影像。
基於上述,本公開所提供的影像收集方法及影像擷取裝置,經由涵蓋密度資料計算及對應的評估機制,判斷已拍攝影像對目標物件之涵蓋程度,並動態決定再拍攝位置。本公開利用擴增實境技術,將拍攝位置建議標記渲染於電子裝置即時顯示的畫面(也稱,3D物件建模介面)中,便於引導影像擷取裝置移動至適當的拍攝位置。本公開更提供自動影像擷取功能,於影像擷取裝置移動至指定位置時,判斷當前位置及視角是否符合拍攝位置建議標記,若符合則自動擷取影像。本公開藉由涵蓋密度平均值及密度門檻值之設定,確保影像收集的完整性,並考量目標物件之擺放環境,提供符合實際環境條件的拍攝建議。
爲讓本發明的上述特徵和優點能更明顯易懂,下文特舉實施例,並配合所附圖式作詳細說明如下。
現在將詳細參照本公開/揭露的優選實施例,在附圖中示出所述優選實施例的範例。盡可能地在圖式及說明中使用相同的參考編號來指代相同的元件或類似的元件。
應理解的是,本公開中所使用的術語“系統”和“網路”常常可互換地使用。本公開中的術語“和/或”僅為描述相關聯物件的關聯關係,這意味著可能存在四種關係,例如A和/或B,這可意味著四種情形:A、B、A和B、A或B。另外,本公開中的字元“/”大體上指示相關聯物件處於“或”關係。
圖1A是根據本公開的一實施例所繪示的影像擷取裝置的方塊圖。
在一實施例中,影像擷取裝置100包括處理器110、儲存裝置120、記憶體130、相機模組140以及顯示器150。其中,處理器110分別與儲存裝置120、記憶體130、相機模組140及顯示器150電性連接。
影像擷取裝置100可以是智慧型電話、智慧型攜帶裝置、頭戴式顯示器、平板電腦、數位相機或其他具備影像擷取功能的可攜式電子裝置。在某些實施例中,影像擷取裝置100還可以包含其他感測器,例如慣性測量單元(IMU, Inertial Measurement Unit),用於輔助判斷影像擷取裝置100的位置及姿態。在一實施例中,影像擷取裝置100也可以是無人機,更可自動地移動到所建議的再拍攝位置擷取對應的影像。
在本實施例中,處理器110根據儲存在儲存裝置120中的程式碼模組,控制相機模組140擷取目標物件的影像,並即時透過顯示器150顯示相機模組140所擷取的影像及拍攝位置建議標記。處理器110計算已擷取影像的涵蓋密度資料,決定再拍攝位置,並將對應的拍攝位置建議標記渲染於顯示器150所顯示的畫面中。此外,處理器110判斷影像擷取裝置100的當前位置及當前視角是否符合目標拍攝位置建議標記,若符合則控制相機模組140自動擷取影像。例如,在一實施例中,當影像擷取裝置100進入拍攝位置建議標記的預設範圍內(例如角錐體內),且相機視角與建議方向的夾角小於預設角度(例如10度)時,處理器110會自動觸發拍攝。
記憶體130用於暫存處理器110在執行程式碼模組時所需的運算資料,例如涵蓋密度資料、拍攝位置資訊等。儲存裝置120則用於儲存程式碼模組、已擷取的影像資料、3D物件模型等較大量的資料。顯示器150除了顯示相機模組140所擷取的即時影像外,還用於顯示拍攝位置建議標記等視覺化資訊。相機模組140用於擷取目標物件的影像,並將影像資料傳送給處理器110進行處理。
在一實施例中,為了實現影像擷取裝置100的位置及視角判斷,以及擴增實境(AR)功能,影像擷取裝置100可包含以下感測器。(1)慣性測量單元(IMU),例如包括下列一或多者:加速度計(Accelerometer):測量影像擷取裝置100的線性加速度,用於判斷位置變化;陀螺儀(Gyroscope):測量影像擷取裝置100的角速度,用於判斷旋轉角度變化。(2)光學感測元件,例如包括下列一或多者:景深相機(Depth Camera),可測量影像擷取裝置100與目標物件之間的距離;紅外線感測器(IR Sensor),輔助測量空間深度資訊;立體視覺相機(Stereo Camera),透過雙鏡頭獲取深度資訊。
在具體實施情形中,這些感測器的資料可依下列方式整合運用:
(1)空間定位追蹤,例如包括下列一或多個步驟:IMU提供影像擷取裝置100的即時運動資訊;景深相機或立體視覺相機提供環境的3D空間資訊;GPS或室內定位系統提供絕對位置參考。
(2)視角判定,例如包括下列一或多個步驟:陀螺儀及磁力計判斷影像擷取裝置100的傾斜角度及方向;透過影像處理技術識別目標物件在畫面中的相對位置;結合深度資訊評估拍攝距離是否適當。
(3)AR影像疊加,例如包括下列一或多個步驟:利用IMU資料進行動態影像穩定;透過深度資訊正確放置虛擬物件;根據位置及姿態資訊更新AR標記的顯示位置。
(4)自動拍攝觸發,例如包括下列一或多個條件滿足後觸發自動拍攝功能:當所有感測器資料顯示影像擷取裝置100已到達建議位置;設備姿態符合建議視角;與目標物件的距離在合適範圍內;影像穩定度達到要求。
這些感測器的數據可以透過感測器融合(Sensor Fusion)技術整合處理,提供更準確的位置及姿態估計。處理器110可根據這些綜合資訊,即時判斷影像擷取裝置100是否達到適合的拍攝條件,並相應地控制相機模組140進行自動拍攝。
另一方面,在具體實施情形中,處理器110可以是中央處理單元(CPU, Central Processing Unit)、圖形處理單元(GPU, Graphics Processing Unit)、數位訊號處理器(DSP, Digital Signal Processor)、專用積體電路(ASIC, Application-Specific Integrated Circuit)、現場可程式邏輯閘陣列(FPGA, Field-Programmable Gate Array)或其他適合執行本公開方法的運算單元。處理器110負責執行儲存在儲存裝置120或記憶體130中的程式指令,以實現本公開的影像收集方法。
儲存裝置120可以是快閃記憶體(Flash Memory)、固態硬碟(SSD, Solid State Drive)、硬碟(HDD, Hard Disk Drive)或其他非揮發性儲存媒體。儲存裝置120用於用以實現本方法的各種資料或參數以及實現本公開方法所需的程式碼模組及其他資料。此外,儲存裝置120還可以儲存操作系統和應用程式(如,3D建模應用程式)等軟體。
記憶體130可以是隨機存取記憶體(RAM, Random Access Memory)、動態隨機存取記憶體(DRAM, Dynamic Random Access Memory)或其他揮發性記憶體。
相機模組140可以包含一個或多個影像感測器,例如互補式金氧半導體(CMOS, Complementary Metal-Oxide-Semiconductor)感測器或電荷耦合元件(CCD, Charge-Coupled Device)感測器,以及相關的光學元件如鏡頭組、光圈等。顯示器150可以是液晶顯示器(LCD, Liquid Crystal Display)、有機電激發光顯示(OELD, Organic Electroluminescence Display)或其他適合的顯示裝置。
圖1B是根據本公開的一實施例所繪示的顯示拍攝位置建議標記及已擷取影像於影像擷取裝置所顯示的畫面的示意圖。
在一實施例中,圖1B展示了影像擷取裝置100的顯示器150所呈現的畫面IMG1。在此畫面IMG1中,處理器110同時顯示已擷取影像IG1以及拍攝位置建議標記CM。
具體來說,中間的立方塊例如為目標物件。已擷取影像IG1是根據已擷取的目標物件的第一影像來呈現的縮圖。這些縮圖IG1分佈在畫面IMG1中目標物件周圍的不同位置,其位置對應於實際的擷取位置,藉此提供使用者直觀的空間參考。每個已擷取影像IG1會以當時的拍攝視角來使用對應的傾斜度呈現於顯示器150的畫面中。使用者也可看到所拍攝的圖片的樣子。
處理器110根據這些已擷取影像IG1各自的第一涵蓋密度資料,計算並決定多個再拍攝位置。這些再拍攝位置以拍攝位置建議標記CM的形式呈現在畫面IMG1中。每個拍攝位置建議標記CM呈現為四棱錐體的形狀,其平面相對於頂點的方向是指向建議的拍攝方向,頂點可以想像為建議的拍攝時的視野來源。可以看到,這些拍攝位置建議標記CM分布在畫面IMG1中尚未有已擷取影像IG1的區域,表示這些位置需要補充拍攝以提升涵蓋密度。
透過在同一個畫面IMG1中同時顯示已擷取影像IG1及拍攝位置建議標記CM,使用者可以清楚地了解已完成拍攝的位置以及建議的補拍位置,有助於完成完整的影像收集工作。這種視覺化的方式讓使用者能直觀地理解拍攝進度,提升操作的便利性。
圖2是根據本公開的一實施例所繪示的影像收集方法的流程圖。請參照圖2,在一實施例中,本公開的影像收集方法包含步驟S210至步驟S240。
在步驟S210中,根據已擷取的目標物件的一或多個第一影像,獲取該一或多個第一影像各自的第一涵蓋密度資料。具體而言,處理器110可識別每個第一影像的擷取位置及第一視角,其中該擷取位置包括影像擷取裝置100擷取每個第一影像時,影像擷取裝置100位於3D座標系內的第一3D座標。接著,處理器110根據涵蓋密度分布模型,計算每個第一影像對應目標物件的第一涵蓋密度資料,其中該第一涵蓋密度資料包括對應該第一影像的多個第一像素的多個第一涵蓋密度值,以及該些第一像素映射至像素3D座標中的多個第一像素3D座標。
更詳細來說,在一實施例中,在開始擷取影像之前,處理器110會先建立拍攝環境的空間參考系統。具體而言,處理器110透過相機模組140及其他感測器的協助,偵測目標物件所在的基準平面(例如桌面或牆面),並調整圍繞住目標物件的邊界框的位置及大小,使邊界框完整包覆目標物件。基於該基準平面及邊界框,處理器110建立以目標物件為中心的3D座標系,並定義出3D拍攝範圍。該3D拍攝範圍包含多個像素3D座標,用於後續的涵蓋密度計算。
當影像擷取裝置100擷取第一影像時,處理器110會記錄擷取當下的空間資訊。具體來說,處理器110識別每個第一影像的擷取位置(即影像擷取裝置100在3D座標系中的第一3D座標)及拍攝方向(即第一視角)。這些空間資訊可以元資料的形式來儲存,以對應所擷取得第一影像。
在獲取第一影像後,處理器110根據涵蓋密度分布模型計算第一影像的涵蓋密度資料。該計算過程包括:首先,處理器110在第一影像的像素中識別出中心像素,並找出所有對應目標物件的目標像素。接著,處理器110計算每個目標像素與中心像素之間的參考距離。根據這些參考距離,處理器110利用涵蓋密度分布模型為每個目標像素指派第一涵蓋密度值。
最後,處理器110將這些目標像素透過擷取位置及第一視角的空間關係,映射到3D拍攝範圍中的對應像素3D座標,從而建立起2D影像與3D空間的對應關係。這種映射關係使得系統能夠評估目標物件在3D空間中各個部位的涵蓋情況,進而決定是否需要補充拍攝。
值得注意的是,在一實施例中,涵蓋密度分布模型會根據影像擷取裝置100的實際拍攝條件動態調整。這些條件包括:相機模組140的視野參數(例如視角大小、焦距等),以及影像擷取裝置100與目標物件之間的相對距離。透過動態調整模型參數,可以更準確地評估每個像素對目標物件的涵蓋程度。例如,在一實施例中,涵蓋密度分布模型會根據兩個因素動態調整:
(1)相機模組的視場角(Field of View, FOV): 當FOV較大時(如廣角鏡頭),由於單次拍攝可涵蓋較大範圍,涵蓋密度分布曲線會相應變寬;當FOV較小時(如長焦鏡頭),由於單次拍攝涵蓋範圍較小,曲線會變窄。
(2)與目標物件的相對距離: 當距離較遠時,單一視角可涵蓋較大範圍,使得涵蓋密度分布曲線變寬且較平緩;當距離較近時,單一視角涵蓋範圍較小,使得涵蓋密度分布曲線變窄且較陡峭。
這種動態調整涵蓋密度分布曲線的機制確保了在不同拍攝條件下都能準確評估涵蓋密度。
在步驟S220中,根據該一或多個第一影像各自的該第一涵蓋密度資料,決定一或多個再拍攝位置。具體而言,處理器110可將3D拍攝範圍的像素3D座標投影至一2D平面,產生對應的2D映射圖。該2D映射圖包括對應該些像素3D座標的多個像素2D座標。處理器110根據每個第一影像的第一涵蓋密度資料更新該2D映射圖,其中每個像素2D座標記錄對應的像素3D座標的最大第一涵蓋密度值。接著,處理器110可根據2D映射圖,識別第一涵蓋密度值低於預設密度門檻值的一或多個低密度像素3D座標,並根據該一或多個低密度像素3D座標及對應的一或多個視角,決定該一或多個再拍攝位置。
在步驟S230中,根據該一或多個再拍攝位置,渲染對應該一或多個再拍攝位置的一或多個拍攝位置建議標記於電子裝置所即時顯示的對應現實空間的畫面內。具體而言,處理器110可利用擴增實境技術,將拍攝位置建議標記疊加於顯示器150即時顯示的實景畫面中。每個拍攝位置建議標記可包括對應3D座標系及3D拍攝範圍的建議3D座標,以及對應該建議3D座標的建議第二視角。
在步驟S240中,針對該一或多個拍攝位置建議標記中的一目標拍攝位置建議標記,反應於判定該電子裝置的當前位置及當前視角符合該目標拍攝位置建議標記,自動對該目標物件擷取對應該目標拍攝位置建議標記的目標第二影像。具體而言,處理器110可根據各種感測器(如IMU、景深相機等)的資料,判斷影像擷取裝置100的當前3D座標是否對應建議3D座標,以及當前視角是否對應建議第二視角。若符合條件,則控制相機模組140自動執行影像擷取操作。
在本實施例中,上述步驟可重複執行,直到所有拍攝位置的涵蓋密度值達到預設門檻值,或整體涵蓋密度平均值達到預設平均密度門檻值為止。這種方式確保收集到的影像資料足以支援後續的3D物件重建作業。
具體來說,如同另一個實施例:所述方法還包括:在擷取對應該一或多個拍攝位置建議標記的一或多個第二影像後,獲取該一或多個第二影像各自的第二涵蓋密度資料;根據該些第一影像各自的該第一涵蓋密度資料及該一或多個第二影像各自的該第二涵蓋密度資料,獲取對應該目標物件的一涵蓋密度平均值;以及若該涵蓋密度平均值大於或等於一預設平均密度門檻值,判定用以建構該3D物件模型的影像資料已收集完畢,並且使用所擷取的該一或多個第一影像及該一或多個第二影像來執行對應該目標物件的3D物件重建運作,以建構對應該目標物件的該3D物件模型。
其中,若該涵蓋密度平均值小於該預設平均密度門檻值,判定用以建構該3D物件模型的該影像資料尚未收集完畢;根據該些第一影像各自的該第一涵蓋密度資料及該一或多個第二影像各自的該第二涵蓋密度資料,決定一或多個另一再拍攝位置;根據對應該一或多個另一再拍攝位置,渲染對應該一或多個另一再拍攝位置的一或多個另一拍攝位置建議標記於該電子裝置所即時顯示的對應該現實空間的該畫面內;以及針對該一或多個另一拍攝位置建議標記中的一目標另一拍攝位置建議標記,反應於判定該電子裝置的當前位置及當前視角符合該目標另一拍攝位置建議標記,自動對該目標物件擷取對應該目標另一拍攝位置建議標記的目標第三影像。
簡單來說,在一實施例中,當影像擷取裝置100完成目標第二影像的擷取後,處理器110會進一步執行涵蓋密度評估及後續拍攝控制。具體而言,處理器110先獲取該一或多個第二影像各自的第二涵蓋密度資料,並結合先前第一影像的第一涵蓋密度資料,計算目標物件的整體涵蓋密度平均值。若該涵蓋密度平均值達到或超過預設平均密度門檻值,處理器110判定已收集足夠的影像資料,隨即使用所有已擷取的第一影像及第二影像,執行3D物件重建運作,建構目標物件的3D物件模型。
反之,若涵蓋密度平均值低於預設平均密度門檻值,處理器110會根據現有的第一及第二涵蓋密度資料,決定新的再拍攝位置,並在顯示器150的畫面中渲染對應的另一拍攝位置建議標記。當影像擷取裝置100的位置及視角符合目標另一拍攝位置建議標記時,處理器110會自動控制相機模組140擷取目標第三影像,以補充影像資料的完整性。此過程可重複進行,直到達到預期的涵蓋密度要求為止。
圖3是根據本公開的另一實施例所繪示的影像收集方法的流程圖。
在另一實施例中,接續圖2的流程圖,本公開的影像收集方法更包含步驟S310至步驟S370。
在步驟S310中,當影像擷取裝置100完成對應拍攝位置建議標記的一或多個第二影像的擷取後,處理器110獲取該一或多個第二影像各自的第二涵蓋密度資料。這些第二涵蓋密度資料的計算方式與先前第一影像的涵蓋密度資料計算方式相同,皆是基於涵蓋密度分布模型進行運算。
在步驟S320中,處理器110結合第一影像的第一涵蓋密度資料及第二影像的第二涵蓋密度資料,計算目標物件的整體涵蓋密度平均值。具體而言,處理器110會考量所有已擷取影像對目標物件各個部位的涵蓋程度,綜合評估整體的涵蓋情況。
在步驟S330中,處理器110判斷該涵蓋密度平均值是否已達到或超過預設平均密度門檻值。此門檻值可根據使用者對3D物件模型品質的要求來設定(此要求可透過相關的軟體/介面進行設定)。若判斷結果為「是」,則進入步驟S340;若判斷結果為「否」,則進入步驟S350。在一實施例中,處理器110利用結構相似性(Structural Similarity Index, SSIM)作為評估模型品質的指標。SSIM值越高,表示重建模型與實際物件的結構相似度越高。處理器110根據預期的SSIM目標值,動態調整預設平均密度門檻值(SSIM越高,預設平均密度門檻值會被設定的越高)。處理器110可接收輸入資料(如,使用者可藉由3D物件建模介面來設定期望的物件品質)來設定對應的SSIM值,進而動態調整預設平均密度門檻值。
在步驟S340中,處理器110判定已收集足夠的影像資料,可以開始進行3D物件模型的建構。此時,處理器110使用所有已擷取的第一影像及第二影像,執行目標物件的3D物件重建運作,產生對應的3D物件模型。
若涵蓋密度平均值未達標準,則進入步驟S350。
在步驟S350中,處理器110根據現有的第一及第二涵蓋密度資料,分析目標物件上涵蓋密度不足的區域,決定一或多個另一再拍攝位置。這些新的拍攝位置主要針對涵蓋密度較低的區域進行補充。
在步驟S360中,處理器110將對應這些另一再拍攝位置的另一拍攝位置建議標記,渲染於顯示器150即時顯示的現實空間畫面中。這些新的拍攝建議標記同樣採用擴增實境技術來呈現,協助使用者準確定位。
在步驟S370中,當影像擷取裝置100的當前位置及當前視角符合某一目標另一拍攝位置建議標記時,處理器110控制相機模組140自動擷取對應的目標第三影像。完成這次擷取後,處理器110執行另一次的迭代流程,例如,再根據新的拍攝位置建議標記(如,目標另一拍攝位置建議標記)進行拍攝和獲取新的影像(如,目標第三影像),以進入到步驟S310,執行另一輪的迭代流程(如箭頭A31所示)。處理器110會重新計算涵蓋密度並評估是否需要繼續補拍。
此迭代流程會持續進行,直到整體涵蓋密度平均值達到預設要求,確保最終的3D物件模型具有足夠的細節精確度。
另一方面,如同箭頭A32所示,在不執行步驟S370的情況下(例如,用戶自己使用影像擷取裝置100進行補拍),所擷取的影像作為新的第二影像,接續執行步驟S310,以開啟新的一輪迭代流程。
在一實施例中,當處理器110判定影像資料收集完畢後,會開始執行3D物件重建運作。此重建運作例如可包含以下步驟:首先,處理器110對所有已擷取的第一影像及第二影像進行預處理。具體而言,處理器110可執行影像校正,包括消除鏡頭畸變、調整曝光度及白平衡,以確保影像品質的一致性。接著,處理器110執行特徵點偵測與匹配。處理器110在每張影像中識別特徵點(例如SIFT、SURF或ORB特徵點),並在不同影像之間建立特徵點的對應關係。在獲得特徵點對應關係後,處理器110執行結構動作(Structure from Motion, SfM)運算。接著,處理器110使用三角測量方法,將二維影像中的特徵點還原為三維空間中的點雲資料。完成點雲重建後,處理器110執行網格化處理,將點雲轉換為三維網格模型。完成上述步驟後,處理器110將建構好的3D物件模型儲存在儲存裝置120中。該3D物件模型包含幾何網格資料及對應的紋理資訊,可用於後續的顯示、編輯或其他應用。
圖4A是根據本公開的一實施例所繪示的建立該標物件對應於現實空間的3D座標系及3D拍攝範圍的示意圖。
在一實施例中,如圖4A所示,本公開首先透過相機模組140取得現實空間中的目標物件TB(例如玩具熊)的影像。接著,處理器110偵測目標物件TB所在的基準平面RP(例如桌面、地面或牆面),並建立以座標系原點OP為中心的3D座標系,其中X軸及Z軸平行於基準平面RP,Y軸垂直於基準平面RP。座標系原點OP可預設為目標物件的對應基準平面的中心點。
在建立3D座標系後,在一實施例中,邊界框OF的位置及大小可自適應地對應目標物件TB的大小尺寸來調整。對應該目標物件TB的高度y(或較長的邊長),邊界框OF可設定成高度為2y的立方體,用於完整包覆目標物件TB。處理器110根據邊界框OF的尺寸,計算3D拍攝範圍的半徑R。在另一實施例子中,邊界框OF的尺寸可基於對應每個座標軸的邊長加上一個預定長度。
具體而言,在一實施例中,處理器110首先計算從邊界框OF的中心(即座標系原點OP)到邊界框OF的頂點的距離r。該距離r可透過以下公式計算: r = √(x² + (2y)² + z²) 其中x、y、z分別為邊界框OF在X、Y、Z軸方向的半長度(在此例子中,x和z皆為y)。
接著,處理器110使用r及Sigmoid縮放函數來計算實際的3D拍攝範圍半徑R: R=r*scale = r*[(upper - lower)/(1 + exp(-k·(-r-d₀))) + lower]。
其中:upper為scale的最大值(例如3);lower為scale的最小值(例如1);d₀為sigmoid函數的中心點(例如0.25);k為Sigmoid曲線陡峭程度(例如10)。透過這種方式,處理器110可根據目標物件TB的實際大小,動態調整3D拍攝範圍的半徑r。當邊界框OF較大時,拍攝範圍會相應增加,但增加的幅度會逐漸趨緩,以避免拍攝距離過遠;當邊界框OF較小時,拍攝範圍會相應減少,但仍保持足夠的最小距離,以確保完整捕捉目標物件TB的影像。
這種基於邊界框OF大小動態調整拍攝範圍的方式,可以確保後續在提供建議的拍攝位置時,建議的拍攝位置既不會太近(導致無法完整拍攝目標物件TB),也不會太遠(導致影像細節不足),從而提高影像收集的效率及品質。
圖4B是根據本公開的一實施例所繪示的對應擷取影像點位的涵蓋密度值的分布曲線的示意圖。
在一實施例中,請參照圖4B,圖4B的上半部分為涵蓋密度分布曲線的CV1的圖表CT4,下半部分為對應的空間示意圖,其中顯示了目標物件TB位於基準平面RP上,並被3D拍攝範圍CR(半徑為R)所包圍。
當影像擷取裝置100擷取影像時,處理器110首先在影像中識別出中心像素(即圖中的擷取影像點位P0)。接著,處理器110識別出對應目標物件TB的目標像素,例如圖中所示位於目標物件TB兩端的像素點P1和P2。
為了計算每個目標像素的涵蓋密度值,處理器110需要獲取每個目標像素與中心像素P0之間的參考距離。例如,在一實施例中,這些距離可以利用半正矢公式(Haversine formula)計算,該公式考慮了球面上兩點間的實際距離。在另一實施例中,這些距離可以利用下列方法之一來計算:
(1)歐幾里得距離(Euclidean Distance)計算:將影像中的像素位置轉換為2D平面座標;使用公式 d = √((x₁-x₀)² + (y₁-y₀)²) 計算兩點間距離。
(2)深度資訊結合法:利用景深相機或立體視覺獲取每個像素的深度值;結合像素的2D位置及深度值,建立3D空間座標;計算3D空間中的實際距離。
(3)相機參數轉換法:利用相機的內部參數(焦距、主點等);將像素座標轉換為相機座標系統;計算相機座標系統中的空間距離。
(4)角度距離法:計算目標像素相對於中心像素的視角;結合已知的拍攝距離換算實際距離;適合處理球面或圓柱面物體。
在本實施例中,參考距離以物件表面與基準點的距離表示,其單位可為像素或實際距離單位。
涵蓋密度分布曲線CV1呈現類似高斯分布的形狀(將原高斯分布峰值等比放大至1)。以擷取影像點位(也稱基準點,其對應中心像素)P0為中心,涵蓋密度分布曲線CV1顯示了不同距離對應的涵蓋密度值。當目標像素位於中心像素P0附近時(距離接近0),其涵蓋密度值接近1;隨著與中心像素P0的距離增加,涵蓋密度值逐漸降低,最終在距離較遠時(如±60單位距離)趨近於0。在此例子中,中心像素P0的涵蓋密度值設為1。應注意的是,圖中的距離單位數字僅為示例性質。
具體而言,在本實施例中,涵蓋密度分布曲線CV1的形狀可以預先設定為固定的態樣。但本發明並不限於此,
例如,在另一實施例中,涵蓋密度分布曲線CV1的形狀可動態調整。更具體來說,處理器110依據影像擷取裝置100的拍攝視野參數(例如視角大小、焦距等)和影像擷取裝置100與目標物件TB之間的相對距離,動態調整涵蓋密度分布模型的參數。這種調整可確保:(1)當影像擷取裝置100距離目標物件TB較近時,涵蓋密度分布曲線較窄且較陡峭,表示每個像素對應較小的空間範圍;(2)當影像擷取裝置100距離目標物件TB較遠時,涵蓋密度分布曲線較寬且較平緩,表示每個像素對應較大的空間範圍。
透過這種方式,處理器110可以計算影像中每個目標像素的涵蓋密度值,進而評估整張影像對目標物件TB的涵蓋程度。這些涵蓋密度值後續將用於決定是否需要補充拍攝,以及建議的補拍位置。
圖5是根據本公開的一實施例所繪示的根據已擷取多個影像產生對應的2D映射圖的示意圖。圖5展示了本公開如何將3D空間中的涵蓋密度資訊轉換為2D映射圖。如圖所示,圖5包含一個3D拍攝範圍中的多個影像擷取位置的示意圖FG1及其對應的2D映射圖MAP1,兩者透過投影轉換步驟A51相連結。
在3D空間分布圖FG1中,每個藍色圓點代表一個影像擷取位置,這些位置呈現出螺旋狀的分布,表示影像擷取裝置100環繞目標物件進行多角度拍攝的軌跡。每個擷取位置都對應一組涵蓋密度資料,這些資料反映了該位置所拍攝影像對目標物件的涵蓋程度。
處理器110採用UV映射(UV Mapping)技術,將3D拍攝範圍內的像素3D座標投影到2D平面上。這個過程類似於將地球表面(3D球體)展開成世界地圖(2D平面)的原理。具體而言,處理器110將3D空間中的點p(x,y,z)映射至2D平面上的點p(u,v),其中u和v分別代表2D映射圖上的水平和垂直座標。
在2D映射圖MAP1中,顏色代表涵蓋密度值的大小,從深藍色(約0.2)到黃色(約0.8)不等。每個影像擷取位置所對應的中心像素和多個目標像素各自的涵蓋密度值及3D像素可映射到2D映射圖MAP1。相同座標僅會保留最大的涵蓋密度值。
也就是說,2D映射圖MAP1中的每個像素2D座標都對應到原始3D空間中的一個位置,其顏色反映了該位置的涵蓋密度值。當多個影像的涵蓋範圍重疊時,處理器110會保留最大的涵蓋密度值作為該像素的最終值。
舉例來說,若有三張影像分別對某一3D像素座標的涵蓋密度值為0.3、0.6和0.4,則該3D像素座標在2D映射圖MAP1上的2D像素座標會記錄為0.6的涵蓋密度值(對應較淺的綠色)。這種方式確保2D映射圖能夠準確反映每個區域被最佳拍攝的程度。
透過這種映射方式,處理器110可以:直觀地呈現目標物件各個部位的拍攝覆蓋情況,快速識別涵蓋密度較低的區域(顏色較深的部分),評估整體的拍攝完整度;進而為後續的補拍位置的決策提供依據。
此外,2D映射圖的優勢在於:降低資料處理的複雜度(不需要處理到3D坐標系);提供統一的評估平面;便於視覺化呈現;簡化補拍位置的計算過程。應注意的是,在一實施例中,應用在2D映射圖的各種運作,可藉由硬體(如,圖像處理器)來進行加速。例如,多個涵蓋密度資料的平行合併運算、大量像素點的同時更新、即時的最大涵蓋密度值的比較和更新、再拍攝位置的決定/計算、再拍攝位置的優先順序排序等等。
在實際應用中,處理器110會持續更新2D映射圖MAP1,每當擷取新的影像時,就會根據新的涵蓋密度資料更新對應區域的值,從而即時反映拍攝進度。
在一實施例中,根據該一或多個第一影像各自的該第一涵蓋密度資料,決定該一或多個再拍攝位置的步驟(步驟S220)包括:根據該些第一影像各自的該第一涵蓋密度資料,獲取對應該目標物件的一涵蓋密度平均值;若該涵蓋密度平均值小於一預設平均密度門檻值,根據該2D映射圖,識別第一涵蓋密度值低於預設密度門檻值的一或多個低密度像素3D座標;以及根據該一或多個低密度像素3D座標及對應的一或多個視角,決定該一或多個再拍攝位置。
在一實施例中,處理器110在獲取一或多個第一影像的第一涵蓋密度資料後,會執行下列步驟來決定再拍攝位置:
首先,處理器110根據每個第一影像的第一涵蓋密度資料,計算整體的涵蓋密度平均值。此涵蓋密度平均值代表目前已拍攝影像對目標物件TB的整體涵蓋程度。當涵蓋密度平均值低於預設的平均密度門檻值(例如0.6)時,表示需要補充拍攝更多影像。
接著,處理器110分析2D映射圖,尋找涵蓋密度值較低的區域。具體而言,處理器110識別出2D映射圖中,第一影像中的第一涵蓋密度值低於預設密度門檻值的像素2D座標。接著,處理器110將這些低密度的像素2D座標轉換回對應的像素3D座標,這些3D座標代表目標物件TB表面上需要補充拍攝的位置。
最後,處理器110根據這些低密度像素3D座標,考慮3D拍攝範圍CR的限制,決定新的拍攝位置。這些再拍攝位置會配合適當的拍攝視角,確保能夠有效地提升低密度區域的涵蓋密度值。每個再拍攝位置都在半徑R的3D拍攝範圍CR內,且需考慮基準平面RP的限制。也就是說,所建議的再拍攝位置都會考量現實的基準平面RP的位置,不會建議實務上無法進行拍攝的位置。例如,若基準平面RP對應上方已擺放目標物件的桌面,再拍攝位置不會是在該桌面之下。
在上述的實施例中,根據該一或多個低密度像素3D座標及對應的該一或多個視角,決定該一或多個再拍攝位置的步驟包括:識別該一或多個低密度像素3D座標中具有最低的第一涵蓋密度值的目標低密度像素3D座標;根據該目標低密度像素3D座標,決定對應的目標再拍攝位置;推估對應該目標再拍攝位置的預期第一影像及對應該預期第一影像的預期第一涵蓋密度資料;根據該預期第一涵蓋密度資料更新該2D映射圖,並且重新識別第一涵蓋密度值低於預設密度門檻值的新的一或多個低密度像素3D座標;以及重複上述步驟,直到該些像素3D座標中不存在低於該預設密度門檻值的低密度像素3D座標。
以下利用圖6來說明根據該一或多個低密度像素3D座標及對應的一或多個視角,決定該一或多個再拍攝位置的進一步的細節。
圖6是根據本公開的一實施例所繪示的根據2D映射圖來決定該一或多個再拍攝位置的示意圖。
在一實施例中,在圖6的上半部分3D空間分布圖FG2中,每個藍色圓點代表一個影像擷取位置。每個影像擷取位置都對應一組涵蓋密度資料,這些資料反映了該位置所拍攝影像對目標物件的涵蓋程度。圖6的下半部分展示了一系列2D映射圖MAP61至MAP67,用於說明從這些決定再拍攝位置的迭代過程。
在本實施例中,透過3D空間分布圖FG2的多個影像擷取位置的多筆涵蓋密度資料,可獲取第一個對應最低涵蓋密度值的補拍點(建議的再拍攝位置)。如同箭頭A61所示,從這個第一個補拍點,處理器110可推論出後續的多個補拍點。
更詳細來說,處理器110首先在2D映射圖MAP61中,識別出具有最低第一涵蓋密度值的目標低密度像素2D座標P1(也稱,目標低密度像素位置)。在2D映射圖中,較亮的區域代表涵蓋密度值較高,較暗的區域代表涵蓋密度值較低。處理器110將該目標低密度像素2D座標P1從2D映射圖轉換回3D座標系中的目標低密度像素3D座標,並據此決定對應的目標再拍攝位置。
接著,處理器110可主動“推估”若在該目標再拍攝位置進行拍攝,可能得到的預期第一影像及其對應的預期第一涵蓋密度資料。處理器110根據這些預期資料更新2D映射圖,如MAP62所示,其中原來P1位置的涵蓋密度值有所提升。然後,處理器110在更新後的2D映射圖中,重新識別涵蓋密度值最低的新的目標低密度像素2D座標P2。
此迭代過程持續進行,依序識別出P3(如MAP63所示)、P4(如MAP64所示)、P5(如MAP65所示)、P6(如MAP66所示)及P7(如MAP67所示)等補拍位置。每次識別出新的補拍位置後,處理器110都會推論可提升的涵蓋密度值且對應地更新2D映射圖,反映預期的涵蓋密度改善情況。
此迭代過程會持續進行,直到2D映射圖整體的涵蓋密度值(如,涵蓋密度平均值)不小於預設平均密度門檻值為止。藉由這種方式,處理器110可以有系統地在獲取一批第一影像後,規劃出一系列的補拍位置(也稱,再拍攝位置),確保最終能完整涵蓋目標物件的各個部分,進而提升了補拍位置的建議效率(不需要等到補拍一張,再去建議一個新的補拍位置)。
在一實施例中,影像擷取裝置100利用擴增實境(AR)技術,根據該一或多個再拍攝位置,渲染對應該一或多個再拍攝位置的該一或多個拍攝位置建議標記於影像擷取裝置100(也稱,電子裝置)所即時顯示的對應該現實空間的該畫面內,以讓一或多個拍攝位置建議標記於對應畫面的視覺上,是被嵌入且固定在該現實空間中。
更具體來說,在一實施例中,處理器110利用擴增實境(AR)技術,將拍攝位置建議標記CM嵌入顯示器150所顯示的現實空間畫面中。具體而言,處理器110可整合來自相機模組140以及其他感測器(如慣性測量單元(IMU)、景深相機等)的資料,建立現實空間的3D參考座標系統。
當相機模組140擷取現實空間的畫面時,處理器110會即時追蹤影像擷取裝置100的位置及姿態變化。藉由IMU的加速度計及陀螺儀資料,處理器110可得知影像擷取裝置100的移動軌跡及旋轉角度。同時,透過景深相機或立體視覺相機(如,多鏡頭相機)提供的深度資訊,處理器110能準確判斷影像擷取裝置100與現實空間中各物體的相對距離。
基於這些空間定位資訊,處理器110將已計算得出的再拍攝位置,轉換為現實空間座標系統中的特定位置。接著,處理器110在這些位置渲染拍攝位置建議標記CM。由於已建立起現實空間的參考系統,這些拍攝位置建議標記CM會如同真實物體一般固定在空間中的特定位置,不會隨著影像擷取裝置100的移動而改變位置。
當使用者透過顯示器150觀看現實空間時,這些拍攝位置建議標記CM會自然地融入在畫面中,彷彿它們真實存在於空間中一樣。例如,當使用者手持影像擷取裝置100繞著目標物件移動時,拍攝位置建議標記CM會隨著視角的改變產生適當的視覺變化,包括大小縮放、角度旋轉等,但仍維持在其原本被指定的空間位置。這種視覺效果有助於使用者直觀地理解並移動到建議的拍攝位置。以下用圖7A、7B來進一步描述這個概念。
圖7A、7B是根據本公開的一實施例所繪示的顯示對應再拍攝位置的拍攝位置建議標記於所即時顯示的對應現實空間的畫面的示意圖。
在一實施例中,圖7A及圖7B展示了影像擷取裝置100的顯示器150如何利用擴增實境(AR)技術來顯示拍攝位置建議標記。在此實例中,目標物件TB放置於基準平面RP(圓形桌面)上,處理器110根據先前計算的再拍攝位置,在顯示器150的即時畫面中渲染拍攝位置建議標記CM1及CM2。
如圖7A所示,顯示器150顯示的畫面IMG1中,拍攝位置建議標記CM1位於目標物件TB的右側(具有一個閃電圖案)較遠處,而拍攝位置建議標記CM2則位於目標物件TB的後方較遠處。每個拍攝位置建議標記均以虛線框的形式呈現,其大小和方向指示了建議的拍攝位置和視角。拍攝位置建議標記的形狀類似於四棱錐體,其頂點可對應視野來源,是依據再拍攝位置所建議的拍攝方向來設置的。
當影像擷取裝置100移動到拍攝位置建議標記CM1的位置時,如圖7B的畫面IMG2所示,由於拍攝位置建議標記CM1是鑲嵌在顯示器150所顯示的畫面/介面中,當影像擷取裝置100到達拍攝位置建議標記CM1的位置(移到了圖7A的目標物件TB的右側,面對著閃電圖案),畫面上會僅看到拍攝位置建議標記CM1的平面的虛線方框(可以想像影像擷取裝置100已經進入了拍攝位置建議標記CM1的角錐部分,往拍攝位置建議標記CM1的平面看過去)。而拍攝位置建議標記CM2仍維持原本的立體形狀,但是位置會在圖7B的畫面IMG2中位於拍攝位置建議標記CM1的右側,其用以指示下一個建議的拍攝位置。
這些拍攝位置建議標記在顯示器150的畫面中看起來如同固定在現實空間中,不會隨著影像擷取裝置100的移動而改變在這空間中的位置,這有助於使用者精確地移動到建議的拍攝位置。但是拍攝位置建議標記CM1、CM2的形狀和大小會隨著影像擷取裝置100與他們之間的相對位置而對應地改變(例如,影像擷取裝置100與拍攝位置建議標記之間距離越近,在影像擷取裝置100畫面中所看到的拍攝位置建議標記的大小越大)。當影像擷取裝置100的位置和視角與某一拍攝位置建議標記吻合時,處理器110會自動觸發相機模組140進行影像擷取。
在另一實施例中,處理器110直接在3D座標系中處理涵蓋密度相關的運算。具體而言,處理器110為每個像素3D座標建立對應的資料結構,用以儲存該座標位置的涵蓋密度資訊。
首先,處理器110將每個第一影像的涵蓋密度資料中的第一涵蓋密度值,直接記錄到對應的像素3D座標。舉例來說,當某個第一影像中的目標像素對應到3D空間中的某個像素3D座標時,處理器110會將該目標像素的第一涵蓋密度值儲存到該像素3D座標的資料結構中。若該像素3D座標已有其他第一影像的涵蓋密度值,處理器110會保留最大的涵蓋密度值。
接著,處理器110掃描3D座標系中的所有像素3D座標。對於每個像素3D座標,處理器110比較其記錄的第一涵蓋密度值是否低於預設密度門檻值。若低於該門檻值,處理器110將該像素3D座標標記為低密度像素3D座標。經過完整掃描後,處理器110便得到一組需要補充拍攝的低密度像素3D座標。
最後,處理器110根據這些低密度像素3D座標的空間分布以及各自需要的拍攝視角,在3D拍攝範圍內決定適當的再拍攝位置。這種直接在3D空間中進行運算的方式,可以在不需要座標轉換的情況下,記錄目標物件在空間中的涵蓋情況,進而可判定需要進行補拍的位置。
基於上述,本公開所提供的影像收集方法及影像擷取裝置,經由涵蓋密度資料計算及對應的評估機制,判斷已拍攝影像對目標物件之涵蓋程度,並動態決定再拍攝位置。本公開利用擴增實境技術,將拍攝位置建議標記渲染於電子裝置即時顯示的畫面(也稱,3D物件建模介面)中,便於引導影像擷取裝置移動至適當的拍攝位置。本公開更提供自動影像擷取功能,於影像擷取裝置移動至指定位置時,判斷當前位置及視角是否符合拍攝位置建議標記,若符合則自動擷取影像。本公開藉由涵蓋密度平均值及密度門檻值之設定,確保影像收集的完整性,並考量目標物件之擺放環境,提供符合實際環境條件的拍攝建議。
雖然本發明已以實施例揭露如上,然其並非用以限定本發明,任何所屬技術領域中具有通常知識者,在不脫離本發明的精神和範圍內,當可作些許的更動與潤飾,故本發明的保護範圍當視後附的申請專利範圍所界定者為準。
100:影像擷取裝置 110:處理器 120:儲存裝置 130:記憶體 140:相機模組 150:顯示器 IMG1、IMG2:影像/畫面 IG1:已擷取影像 CM、CM1、CM2:拍攝位置建議標記 S210~S240:步驟 S310~S370:步驟 A31、A32、A51、A61、:箭頭 TB:目標物件 OP:座標系原點 RP:基準平面 OF:邊界框 R:3D拍攝範圍的半徑 CR:3D拍攝範圍 P0:擷取影像點位/中心像素/基準點 P1:第一目標像素點 P2:第二目標像素點 CT4:圖表 CV1:涵蓋密度分布曲線 FG1、FG2:3D空間分布圖 MAP1、MAP61~MAP67:2D映射圖 P1~P7:(圖6)目標低密度像素位置
圖1A是根據本公開的一實施例所繪示的影像擷取裝置的方塊圖。 圖1B是根據本公開的一實施例所繪示的顯示拍攝位置建議標記及已擷取影像於影像擷取裝置所顯示的畫面的示意圖。 圖2是根據本公開的一實施例所繪示的影像收集方法的流程圖。 圖3是根據本公開的另一實施例所繪示的影像收集方法的流程圖。 圖4A是根據本公開的一實施例所繪示的建立該標物件對應於現實空間的3D座標系及3D拍攝範圍的示意圖。 圖4B是根據本公開的一實施例所繪示的對應擷取影像點位的涵蓋密度值的分布曲線的示意圖。 圖5是根據本公開的一實施例所繪示的根據已擷取多個影像產生對應的2D映射圖的示意圖。 圖6是根據本公開的一實施例所繪示的根據2D映射圖來決定該一或多個再拍攝位置的示意圖。 圖7A、7B是根據本公開的一實施例所繪示的顯示對應再拍攝位置的拍攝位置建議標記於所即時顯示的對應現實空間的畫面的示意圖。
S210~S240:步驟

Claims (24)

  1. 一種影像收集方法,適用於經由電子裝置來建構對應一目標物件的3D物件模型,包括: 根據已擷取的該目標物件的一或多個第一影像,獲取該一或多個第一影像各自的第一涵蓋密度資料; 根據該一或多個第一影像各自的該第一涵蓋密度資料,決定一或多個再拍攝位置; 根據該一或多個再拍攝位置,渲染對應該一或多個再拍攝位置的一或多個拍攝位置建議標記於該電子裝置所即時顯示的對應該現實空間的畫面內,其中該一或多個拍攝位置建議標記是經由擴增實境(AR)技術,嵌入在該畫面所顯示的該現實空間中,並且該一或多個拍攝位置建議標記的形狀和大小會隨著與該電子裝置之間的相對位置而改變; 針對該一或多個拍攝位置建議標記中的一目標拍攝位置建議標記,反應於判定該電子裝置的當前位置及當前視角符合該目標拍攝位置建議標記,自動對該目標物件擷取對應該目標拍攝位置建議標記的目標第二影像。
  2. 如請求項1所述的影像收集方法,所述方法還包括: 在擷取對應該一或多個拍攝位置建議標記的一或多個第二影像後,獲取該一或多個第二影像各自的第二涵蓋密度資料; 根據該些第一影像各自的該第一涵蓋密度資料及該一或多個第二影像各自的該第二涵蓋密度資料,獲取對應該目標物件的一涵蓋密度平均值;以及 若該涵蓋密度平均值大於或等於一預設平均密度門檻值,判定用以建構該3D物件模型的影像資料已收集完畢,並且使用所擷取的該一或多個第一影像及該一或多個第二影像來執行對應該目標物件的3D物件重建運作,以建構對應該目標物件的該3D物件模型。
  3. 如請求項2所述的影像收集方法,所述方法還包括: 若該涵蓋密度平均值小於該預設平均密度門檻值,判定用以建構該3D物件模型的該影像資料尚未收集完畢; 根據該些第一影像各自的該第一涵蓋密度資料及該一或多個第二影像各自的該第二涵蓋密度資料,決定一或多個另一再拍攝位置; 根據對應該一或多個另一再拍攝位置,渲染對應該一或多個另一再拍攝位置的一或多個另一拍攝位置建議標記於該電子裝置所即時顯示的對應該現實空間的該畫面內;以及 針對該一或多個另一拍攝位置建議標記中的一目標另一拍攝位置建議標記,反應於判定該電子裝置的當前位置及當前視角符合該目標另一拍攝位置建議標記,自動對該目標物件擷取對應該目標另一拍攝位置建議標記的目標第三影像。
  4. 如請求項1所述的影像收集方法,在擷取第一影像或第二影像之前,所述方法還包括: 獲取該目標物件的基準平面及邊界框,以建立該目標物件對應於現實空間的3D座標系及3D拍攝範圍。
  5. 如請求項4所述的影像收集方法, 其中每個拍攝位置建議標記包括對應該3D座標系及該3D拍攝範圍的建議3D座標及對應該建議3D座標的建議第二視角,所述方法更包括: 判斷該電子裝置的該當前位置的當前3D座標是否對應一或多個建議3D座標中的一目標建議3D座標,並且判斷該電子裝置的該當前視角是否對應該目標建議3D座標的目標建議第二視角 ; 若該當前3D座標對應該目標建議3D座標且該當前視角對應該目標建議第二視角,判定該電子裝置的該當前位置及該當前視角符合對應的目標拍攝位置建議標記,並且自動執行對該目標物件的影像擷取操作,以擷取對應該目標拍攝位置建議標記的目標第二影像。
  6. 如請求項4所述的影像收集方法 ,其中該3D拍攝範圍包括多個像素3D座標,所述方法還包括: 識別每個第一影像的擷取位置及第一視角,其中該擷取位置包括當該電子裝置擷取每個第一影像時,該電子裝置位於該3D座標系內的第一3D座標;以及 根據一涵蓋密度分布模型獲取每個第一影像的對應該目標物件的該第一涵蓋密度資料,其中該第一涵蓋密度資料包括對應該第一影像的多個第一像素的多個第一涵蓋密度值及該些第一像素映射至該些像素3D座標中的多個第一像素3D座標,其中該些第一像素3D座標經由對應該第一影像的該擷取位置及該第一視角所決定。
  7. 如請求項6所述的影像收集方法, 其中根據該涵蓋密度分布模型獲取每個第一影像的對應該目標物件的該第一涵蓋密度資料的步驟包括: 識別每個第一影像的該些第一像素內的中心像素; 識別每個第一影像的該些第一像素中對應該目標物件的多個目標像素; 獲取每個目標像素與該中心像素之間的參考距離; 根據每個目標像素的該參考距離,基於該涵蓋密度分布模型查找每個目標像素的第一涵蓋密度值,其中該涵蓋密度分布模型依據該電子裝置的拍攝視野參數和該擷取位置與該目標物件之間的相對距離來動態設定。
  8. 如請求項6所述的影像收集方法, 所述方法還包括: 將該3D拍攝範圍的該些像素3D座標投影至一2D平面,以產生對應的2D映射圖,其中該2D映射圖包括對應該些像素3D座標的多個像素2D座標; 根據每個第一影像的對應該目標物件的該第一涵蓋密度資料,更新該2D映射圖,其中每個像素2D座標記錄對應的像素3D座標的最大的第一涵蓋密度值。
  9. 如請求項8所述的影像收集方法,根據該一或多個第一影像各自的該第一涵蓋密度資料,決定該一或多個再拍攝位置的步驟包括: 根據該些第一影像各自的該第一涵蓋密度資料,獲取對應該目標物件的一涵蓋密度平均值; 若該涵蓋密度平均值小於一預設平均密度門檻值,根據該2D映射圖,識別第一涵蓋密度值低於預設密度門檻值的一或多個低密度像素3D座標;以及 根據該一或多個低密度像素3D座標及對應的一或多個視角,決定該一或多個再拍攝位置。
  10. 如請求項9所述的影像收集方法,根據該一或多個低密度像素3D座標及對應的該一或多個視角,決定該一或多個再拍攝位置的步驟包括: 識別該一或多個低密度像素3D座標中具有最低的第一涵蓋密度值的目標低密度像素3D座標; 根據該目標低密度像素3D座標,決定對應的目標再拍攝位置; 推估對應該目標再拍攝位置的預期第一影像及對應該預期第一影像的預期第一涵蓋密度資料; 根據該預期第一涵蓋密度資料更新該2D映射圖,並且重新識別第一涵蓋密度值低於預設密度門檻值的新的一或多個低密度像素3D座標;以及 重複上述步驟,直到該些像素3D座標中不存在低於該預設密度門檻值的低密度像素3D座標。
  11. 如請求項6所述的影像收集方法,所述方法還包括: 記錄每個第一涵蓋密度資料內的所述多個第一涵蓋密度值於對應的像素3D座標; 根據每個像素3D座標記錄的該些第一涵蓋密度值,識別第一涵蓋密度值低於預設密度門檻值的一或多個低密度像素3D座標;以及 根據該一或多個低密度像素3D座標及對應的一或多個視角,決定該一或多個再拍攝位置。
  12. 如請求項1所述的影像收集方法, 所述方法還包括: 利用該擴增實境(AR)技術,根據該一或多個再拍攝位置,渲染對應該一或多個再拍攝位置的該一或多個拍攝位置建議標記於該電子裝置所即時顯示的對應該現實空間的該畫面內,以讓該一或多個拍攝位置建議標記於對應該畫面的視覺上,是被嵌入且固定在該現實空間中。
  13. 一種影像擷取裝置,用於建構對應一目標物件的3D物件模型,包括: 一處理器; 一儲存裝置,耦接至該處理器,用以儲存多個程式碼模組; 一相機模組,耦接至該處理器;及 一顯示器,耦接至該處理器, 其中該處理器經由執行儲存該些程式碼模組而被設置以: 根據已擷取的該目標物件的一或多個第一影像,獲取該一或多個第一影像各自的第一涵蓋密度資料; 根據該一或多個第一影像各自的該第一涵蓋密度資料,決定一或多個再拍攝位置; 根據該一或多個再拍攝位置,渲染對應該一或多個再拍攝位置的一或多個拍攝位置建議標記於該顯示器所即時顯示的對應該現實空間的畫面內,其中該一或多個拍攝位置建議標記是經由擴增實境(AR)技術,嵌入在該畫面所顯示的該現實空間中,並且該一或多個拍攝位置建議標記的形狀和大小會隨著與該電子裝置之間的相對位置而改變; 針對該一或多個拍攝位置建議標記中的一目標拍攝位置建議標記,反應於判定該影像擷取裝置的當前位置及當前視角符合該目標拍攝位置建議標記,控制該相機模組自動對該目標物件擷取對應該目標拍攝位置建議標記的目標第二影像。
  14. 如請求項13所述的影像擷取裝置,其中該處理器經由執行儲存在該儲存裝置內的該些程式碼模組而被進一步設置以: 在擷取對應該一或多個拍攝位置建議標記的一或多個第二影像後,獲取該一或多個第二影像各自的第二涵蓋密度資料; 根據該些第一影像各自的該第一涵蓋密度資料及該一或多個第二影像各自的該第二涵蓋密度資料,獲取對應該目標物件的一涵蓋密度平均值;以及 若該涵蓋密度平均值大於或等於一預設平均密度門檻值,判定用以建構該3D物件模型的影像資料已收集完畢,並且使用所擷取的該一或多個第一影像及該一或多個第二影像來執行對應該目標物件的3D物件重建運作,以建構對應該目標物件的該3D物件模型。
  15. 如請求項14所述的影像擷取裝置,其中該處理器更被設置以: 若該涵蓋密度平均值小於該預設平均密度門檻值,判定用以建構該3D物件模型的該影像資料尚未收集完畢; 根據該些第一影像各自的該第一涵蓋密度資料及該一或多個第二影像各自的該第二涵蓋密度資料,決定一或多個另一再拍攝位置; 根據對應該一或多個另一再拍攝位置,渲染對應該一或多個另一再拍攝位置的一或多個另一拍攝位置建議標記於該顯示器所即時顯示的對應該現實空間的該畫面內;以及 針對該一或多個另一拍攝位置建議標記中的一目標另一拍攝位置建議標記,反應於判定該影像擷取裝置的當前位置及當前視角符合該目標另一拍攝位置建議標記,控制該相機模組自動對該目標物件擷取對應該目標另一拍攝位置建議標記的目標第三影像。
  16. 如請求項13所述的影像擷取裝置,其中該處理器更被設置以: 在擷取第一影像或第二影像之前,獲取該目標物件的基準平面及邊界框,以建立該目標物件對應於現實空間的3D座標系及3D拍攝範圍。
  17. 如請求項16所述的影像擷取裝置,其中每個拍攝位置建議標記包括對應該3D座標系及該3D拍攝範圍的建議3D座標及對應該建議3D座標的建議第二視角,其中該處理器更被設置以: 判斷該影像擷取裝置的該當前位置的當前3D座標是否對應一或多個建議3D座標中的一目標建議3D座標,並且判斷該影像擷取裝置的該當前視角是否對應該目標建議3D座標的目標建議第二視角; 若該當前3D座標對應該目標建議3D座標且該當前視角對應該目標建議第二視角,判定該影像擷取裝置的該當前位置及該當前視角符合對應的目標拍攝位置建議標記,並且控制該相機模組自動執行對該目標物件的影像擷取操作,以擷取對應該目標拍攝位置建議標記的目標第二影像。
  18. 如請求項16所述的影像擷取裝置,其中該3D拍攝範圍包括多個像素3D座標,其中該處理器更被設置以: 識別每個第一影像的擷取位置及第一視角,其中該擷取位置包括當該影像擷取裝置擷取每個第一影像時,該影像擷取裝置位於該3D座標系內的第一3D座標;以及 根據一涵蓋密度分布模型獲取每個第一影像的對應該目標物件的該第一涵蓋密度資料,其中該第一涵蓋密度資料包括對應該第一影像的多個第一像素的多個第一涵蓋密度值及該些第一像素映射至該些像素3D座標中的多個第一像素3D座標,其中該些第一像素3D座標經由對應該第一影像的該擷取位置及該第一視角所決定。
  19. 如請求項18所述的影像擷取裝置,其中根據該涵蓋密度分布模型獲取每個第一影像的對應該目標物件的該第一涵蓋密度資料的步驟包括: 識別每個第一影像的該些第一像素內的中心像素; 識別每個第一影像的該些第一像素中對應該目標物件的多個目標像素; 獲取每個目標像素與該中心像素之間的參考距離; 根據每個目標像素的該參考距離,基於該涵蓋密度分布模型查找每個目標像素的第一涵蓋密度值,其中該涵蓋密度分布模型依據該影像擷取裝置的拍攝視野參數和該擷取位置與該目標物件之間的相對距離來動態設定。
  20. 如請求項18所述的影像擷取裝置,其中該處理器更被設置以: 將該3D拍攝範圍的該些像素3D座標投影至一2D平面,以產生對應的2D映射圖,其中該2D映射圖包括對應該些像素3D座標的多個像素2D座標; 根據每個第一影像的對應該目標物件的該第一涵蓋密度資料,更新該2D映射圖,其中每個像素2D座標記錄對應的像素3D座標的最大的第一涵蓋密度值。
  21. 如請求項20所述的影像擷取裝置,其中根據該一或多個第一影像各自的該第一涵蓋密度資料,決定該一或多個再拍攝位置的步驟包括: 根據該些第一影像各自的該第一涵蓋密度資料,獲取對應該目標物件的一涵蓋密度平均值;以及 若該涵蓋密度平均值小於一預設平均密度門檻值,根據該2D映射圖,識別第一涵蓋密度值低於預設密度門檻值的一或多個低密度像素3D座標;以及 根據該一或多個低密度像素3D座標及對應的一或多個視角,決定該一或多個再拍攝位置。
  22. 如請求項21所述的影像擷取裝置,其中根據該一或多個低密度像素3D座標及對應的該一或多個視角,決定該一或多個再拍攝位置的步驟包括: 識別該一或多個低密度像素3D座標中具有最低的第一涵蓋密度值的目標低密度像素3D座標; 根據該目標低密度像素3D座標,決定對應的目標再拍攝位置; 推估對應該目標再拍攝位置的預期第一影像及對應該預期第一影像的預期第一涵蓋密度資料; 根據該預期第一涵蓋密度資料更新該2D映射圖,並且重新識別第一涵蓋密度值低於預設密度門檻值的新的一或多個低密度像素3D座標;以及 重複上述步驟,直到該些像素3D座標中不存在低於該預設密度門檻值的低密度像素3D座標。
  23. 如請求項18所述的影像擷取裝置,其中該處理器更被設置以: 記錄每個第一涵蓋密度資料內的所述多個第一涵蓋密度值於對應的像素3D座標; 根據每個像素3D座標記錄的該些第一涵蓋密度值,識別第一涵蓋密度值低於預設密度門檻值的一或多個低密度像素3D座標;以及 根據該一或多個低密度像素3D座標及對應的一或多個視角,決定該一或多個再拍攝位置。
  24. 如請求項13所述的影像擷取裝置,其中該處理器更被設置以: 利用該擴增實境(AR)技術,根據該一或多個再拍攝位置,渲染對應該一或多個再拍攝位置的該一或多個拍攝位置建議標記於該顯示器所即時顯示的對應該現實空間的該畫面內,以讓該一或多個拍攝位置建議標記於對應該畫面的視覺上,是被嵌入且固定在該現實空間中。
TW113143708A 2024-11-14 2024-11-14 影像收集方法及影像擷取裝置 TWI906033B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
TW113143708A TWI906033B (zh) 2024-11-14 2024-11-14 影像收集方法及影像擷取裝置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW113143708A TWI906033B (zh) 2024-11-14 2024-11-14 影像收集方法及影像擷取裝置

Publications (1)

Publication Number Publication Date
TWI906033B true TWI906033B (zh) 2025-11-21

Family

ID=98603812

Family Applications (1)

Application Number Title Priority Date Filing Date
TW113143708A TWI906033B (zh) 2024-11-14 2024-11-14 影像收集方法及影像擷取裝置

Country Status (1)

Country Link
TW (1) TWI906033B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040105573A1 (en) * 2002-10-15 2004-06-03 Ulrich Neumann Augmented virtual environments
US20190019327A1 (en) * 2017-07-14 2019-01-17 Cappasity Inc. Systems and methods for creating and displaying interactive 3d representations of real objects
CN109565605A (zh) * 2016-08-10 2019-04-02 松下电器(美国)知识产权公司 拍摄技术生成方法以及影像处理装置
CN118827946A (zh) * 2024-07-29 2024-10-22 上海稀宇极智科技有限公司 一种体积视频采集系统的设计方法、装置及设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040105573A1 (en) * 2002-10-15 2004-06-03 Ulrich Neumann Augmented virtual environments
CN109565605A (zh) * 2016-08-10 2019-04-02 松下电器(美国)知识产权公司 拍摄技术生成方法以及影像处理装置
US20190019327A1 (en) * 2017-07-14 2019-01-17 Cappasity Inc. Systems and methods for creating and displaying interactive 3d representations of real objects
CN118827946A (zh) * 2024-07-29 2024-10-22 上海稀宇极智科技有限公司 一种体积视频采集系统的设计方法、装置及设备

Similar Documents

Publication Publication Date Title
CN109658365B (zh) 图像处理方法、装置、系统和存储介质
CN111095923B (zh) 校准装置、校准系统和校准方法
CN107169924B (zh) 三维全景图像的建立方法和系统
TWI555379B (zh) 一種全景魚眼相機影像校正、合成與景深重建方法與其系統
CN108876926B (zh) 一种全景场景中的导航方法及系统、ar/vr客户端设备
JP6560480B2 (ja) 画像処理システム、画像処理方法、及びプログラム
JP5093053B2 (ja) 電子カメラ
CN110648274B (zh) 鱼眼图像的生成方法及装置
JPWO2018235163A1 (ja) キャリブレーション装置、キャリブレーション用チャート、チャートパターン生成装置、およびキャリブレーション方法
WO2017020150A1 (zh) 一种图像处理方法、装置及摄像机
CN108369743A (zh) 使用多方向相机地图构建空间
CN104778656B (zh) 基于球面透视投影的鱼眼图像校正方法
KR20160116075A (ko) 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치 및 그 방법
CN107111598A (zh) 使用超声深度感测的光流成像系统以及方法
CN110517284B (zh) 一种基于激光雷达和ptz摄像机的目标追踪方法
CN105190229A (zh) 三维形状计测装置、三维形状计测方法及三维形状计测程序
CN112146647B (zh) 一种地面纹理的双目视觉定位方法及芯片
CN108629828B (zh) 三维大场景的移动过程中的场景渲染过渡方法
JP2020053774A (ja) 撮像装置および画像記録方法
WO2025256318A1 (zh) 作业机械的辅助图像展示方法、装置、介质及电子设备
CN110544278B (zh) 刚体运动捕捉方法及装置、agv位姿捕捉系统
CN108564654B (zh) 三维大场景的画面进入方式
TWI906033B (zh) 影像收集方法及影像擷取裝置
CN118409589A (zh) 限制区域设置方法、自移动设备、终端设备及存储介质
CN115984099A (zh) 全景成像设备和方法