[go: up one dir, main page]

KR20080034419A - 3D image generation and display system - Google Patents

3D image generation and display system Download PDF

Info

Publication number
KR20080034419A
KR20080034419A KR1020077027432A KR20077027432A KR20080034419A KR 20080034419 A KR20080034419 A KR 20080034419A KR 1020077027432 A KR1020077027432 A KR 1020077027432A KR 20077027432 A KR20077027432 A KR 20077027432A KR 20080034419 A KR20080034419 A KR 20080034419A
Authority
KR
South Korea
Prior art keywords
images
data
image
generating
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
KR1020077027432A
Other languages
Korean (ko)
Inventor
마사히로 이토
Original Assignee
야파 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 야파 코포레이션 filed Critical 야파 코포레이션
Priority to KR1020077027432A priority Critical patent/KR20080034419A/en
Publication of KR20080034419A publication Critical patent/KR20080034419A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/221Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/324Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Electromagnetism (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

웹 브라우저에서 고품질 영상들의 디스플레이를 용이하게 하는 3D 영상 생성 및 디스플레이 시스템은 복수의 서로 다른 영상들 및 컴퓨터 그래픽스 모델링으로부터 3D 영상들을 생성하고 텍스처와 속성 데이터를 가지는 이러한 영상들로부터 3D 객체를 생성하는 수단; 상기 3D 객체를 3D 그래픽스 기술 언어로 3D 묘사 파일로서 변환 및 출력하는 수단; 상기 3D 묘사 파일로부터 3D 객체와 텍스처들을 추출하고, 다양한 속성 데이터를 설정하고, 상기 3D 객체를 편집 및 처리하여 애니메이션 등을 도입하고 다양한 효과들을 배정하는 수단; 웹 브라우저 내에서 디스플레이되도록 압축된 상기 생성된 3D 데이터 파일들로부터 다양한 웹-기반 3D 객체들을 생성하고 웹 브라우저에서 애니메이션으로 3D 장면들을 디스플레이하기 위한 거동 데이터를 생성하는 수단; 웹 브라우저에 3D 장면들을 묘화 및 디스플레이하기 위한 스크립트들, 플러그-인들, 및 애플릿들과 같은 웹-기반 프로그램들과 웹 페이지를 포함하는 실행 파일을 생성하는 수단을 포함한다.A 3D image generation and display system that facilitates the display of high quality images in a web browser is a means for generating 3D images from a plurality of different images and computer graphics modeling and generating 3D objects from these images with texture and attribute data. ; Means for converting and outputting the 3D object as a 3D description file in a 3D graphics description language; Means for extracting 3D objects and textures from the 3D description file, setting various attribute data, editing and processing the 3D object to introduce animation, and assign various effects; Means for generating various web-based 3D objects from the generated 3D data files compressed to be displayed within a web browser and generating behavioral data for displaying 3D scenes with animation in a web browser; And means for generating an executable file that includes a web page and web-based programs such as scripts, plug-ins, and applets for drawing and displaying 3D scenes in a web browser.

Description

3D 영상 생성 및 디스플레이 시스템{3D IMAGE GENERATION AND DISPLAY SYSTEM}3D image generation and display system {3D IMAGE GENERATION AND DISPLAY SYSTEM}

본 발명은 다양한 사진 영상들과 컴퓨터 그래픽스 모델들을 3차원(3D)으로 디스플레이하기 위한 3D 객체(object)를 생성하고 웹 브라우저에서 3D 장면들을 묘화(drawing) 및 디스플레이하기 위해 상기 3D 객체들을 편집 및 처리하는 3D 영상 생성 및 디스플레이 시스템에 관한 것이다.The invention creates a 3D object for displaying various photographic images and computer graphics models in 3D and edits and processes the 3D objects for drawing and displaying 3D scenes in a web browser. It relates to a 3D image generation and display system.

3D 디스플레이들에 사용되는 3D 객체들을 생성하기 위한 당해 기술 분야에서 널리 공지된 다양한 시스템들이 존재한다. 3D 객체들을 모델링하고 디스플레이하기 위해 3D 스캐너를 사용하는 그러한 한 가지 기술은 당해 기술 분야에서 널리 공지된 광-분할 방법(light-sectioning method)(광 슬릿(slit of light)을 투사하여 구현) 등이다. 이 방법은 CCD 카메라를 이용하여 레이저 빔이나 기타 광원에 의해 객체에 투사된 빛의 점들 또는 선들을 캡처하고 삼각 측량의 원리들을 이용하여 카메라로부터의 거리를 측정하여 3D 모델링을 수행한다.There are a variety of systems well known in the art for generating 3D objects for use in 3D displays. One such technique that uses a 3D scanner to model and display 3D objects is a light-sectioning method (implemented by projecting a slit of light) that is well known in the art. . This method uses a CCD camera to capture points or lines of light projected on an object by a laser beam or other light source and to perform 3D modeling by measuring the distance from the camera using the principles of triangulation.

도 13(a)는 광 분할(light sectioning)을 이용하는 종래의 3D 모델링 장치를 도시하는 개략도이다.FIG. 13A is a schematic diagram illustrating a conventional 3D modeling apparatus using light sectioning.

광 슬릿이 광원으로부터 객체에 투사되면 CCD 카메라는 영상들을 캡처한다. 광원이 광 슬릿을 투사하는 방향을 점진적으로 변경시키는 동안 측정되는 전체 객체를 스캐닝함으로써, 도 13(b)에 도시된 것과 같은 영상이 얻어진다. 3D 형상 데이터는 광원과 카메라의 알려진 위치들로부터 삼각 측량 방법에 따라 계산된다. 그러나, 광-분할 방법으로는 객체의 전체 외면이 3차원으로 표현될 수 없기 때문에, 도 14에 도시된 것처럼, 복수의 카메라들을 제공함으로써 객체의 전체 외면을 빙 돌아서 영상들을 수집하여 객체가 숨겨진 영역이 없이 영상화될 수 있도록 해야만 한다.The CCD camera captures images when the light slit is projected onto the object from the light source. By scanning the entire object to be measured while gradually changing the direction in which the light source projects the light slit, an image as shown in Fig. 13B is obtained. 3D shape data is calculated according to the triangulation method from the known positions of the light source and the camera. However, since the entire outer surface of the object cannot be represented in three dimensions by the light-splitting method, as shown in FIG. 14, by providing a plurality of cameras, the entire area of the object is collected to collect images by rotating the entire outer surface of the object. It must be able to be imaged without this.

또한, 이러한 방법들을 통하여 생성된 3D 객체들은 그 후, 웹 브라우저에서 상기 객체들을 3차원적으로 디스플레이하기 위해 필요한 다양한 데이터 프로세스(data process)들은 물론이고, 원하는 용도에 따라 3D 영상을 디스플레이하기 위해 다양한 효과 적용과 애니메이션 프로세스들을 거쳐야 한다. 예를 들어, 통신선의 품질에 맞추기 위해 파일 크기를 줄이는 등에 의해 영상을 최적화해야만 한다.In addition, the 3D objects created through these methods can then be used to display various 3D images according to the desired use, as well as various data processes required for three-dimensionally displaying the objects in a web browser. You have to go through effect application and animation processes. For example, the image must be optimized by reducing the file size to match the quality of the communication line.

한 가지 유형의 3D 영상 디스플레이는 객체들이 스크린으로부터 튀어나오는 듯이 보이는 3D 영상들을 디스플레이하기 위한 액정 패널(liquid crystal panel: LCD) 또는 게임 콘솔에서 사용되는 디스플레이 등이다. 이 기술은 좌우 렌즈가 서로 다른 편광 방향을 가지는 편광 안경과 같은 특별한 안경을 사용한다. 이 3D 영상 디스플레이 장치에서, 좌우 영상들은 좌우 눈으로 보는 경우처럼 동일한 위치들에서 캡처되고 좌측 영상은 좌측 눈으로만 보이고 우측 영상은 우측 눈으로만 보이도록 편광이 이용된다. 다른 예들은 거울이나 프리즘을 이용하는 장치들을 포함한다. 그러나, 이러한 3D 영상 디스플레이들은 관람자(viewer)가 안경을 쓰도록 요구 하는 등의 복잡함을 가진다. 따라서, 안경 없이 3D 영상이 보이도록 하는 렌티큘러 렌즈(lenticular lenses), 시차 장벽(parallax barrier), 또는 기타 장치들을 이용하는 3D 영상 디스플레이 시스템들이 개발되고 상업화되어왔다. 그러한 장치 중 하나는 참조 특허 1(일본 미심사 특허출원공보 H10-271533호)에 개시된 "3D 영상 신호 생성기"이다. 이 장치는 2차원 영상들을 디스플레이하는 데 사용되는 보통의 LCD 시스템 상에서 3D 영상들이 디스플레이될 수 있도록 함으로써 미국 특허 5,410,345 (1995. 4. 25)에 개시된 3D 영상 디스플레이를 개량하였다.One type of 3D image display is a liquid crystal panel (LCD) or a display used in game consoles for displaying 3D images that appear to be objects protruding from the screen. This technique uses special glasses, such as polarized glasses, in which the left and right lenses have different polarization directions. In this 3D image display apparatus, the left and right images are captured at the same positions as in the case of the left and right eyes, and polarization is used so that the left image is seen only by the left eye and the right image is seen by the right eye only. Other examples include devices using mirrors or prisms. However, these 3D image displays have complexity, such as requiring a viewer to wear glasses. Accordingly, 3D image display systems have been developed and commercialized using lenticular lenses, parallax barriers, or other devices that allow 3D images to be viewed without glasses. One such apparatus is a "3D video signal generator" disclosed in Reference Patent 1 (Japanese Unexamined Patent Application Publication H10-271533). This device is an improvement on the 3D image display disclosed in US Pat. No. 5,410,345 (April 25, 1995) by allowing 3D images to be displayed on a common LCD system used to display two-dimensional images.

도 15는 이 3D 영상 신호 생성기를 도시하는 개략도이다. 3D 영상 신호 생성기는 측면 조명 방법에서 측면들에 위치하는 광원(12)을 포함하는 백라이트(1); 앞뒤 방향으로 움직일 수 있는 렌티큘러 렌즈(15); 입사광을 약간 확산시키는 확산기(5); 및 영상을 디스플레이하는 LCD(6)를 포함한다. 도 16의 입체적 디스플레이 영상(20)에 도시된 것처럼, LCD(6)는 각 색깔들 (R, G, 및 B)을 디스플레이하는 픽셀들(P)이 줄무늬 패턴으로 정렬된 당해 기술 분야에서 널리 공지된 구조를 가진다. 단일 픽셀 Pk(k=0-n)는 가로로 정렬된 RGB의 세 가지 서브-픽셀들로 구성된다. 픽셀의 색깔은 부가적 프로세스에서 각 서브-픽셀에 의해 디스플레이되는 3 원색을 혼합함으로써 디스플레이된다.Fig. 15 is a schematic diagram showing this 3D video signal generator. The 3D image signal generator includes a backlight 1 including a light source 12 positioned at sides in a side illumination method; A lenticular lens 15 capable of moving back and forth; A diffuser 5 which slightly diffuses the incident light; And an LCD 6 for displaying an image. As shown in the stereoscopic display image 20 of FIG. 16, the LCD 6 is well known in the art in which pixels P displaying respective colors R, G, and B are arranged in a stripe pattern. Has a structure. A single pixel Pk (k = 0-n) consists of three sub-pixels of horizontally aligned RGB. The color of the pixel is displayed by mixing the three primary colors displayed by each sub-pixel in an additional process.

도 15에 도시된 백라이트(1)를 이용하여 3D 영상을 디스플레이할 때, 렌티큘러 렌즈(15)는 우측 눈(11)으로부터 보여지는 LCD(6) 상의 서브-픽셀 어레이(array)가 좌측 눈(10)으로부터 보여지는 서브-픽셀 어레이와는 다르게 나타나도록 한다. 도 16의 입체적 디스플레이 영상(20)에 기초하여 이 현상을 설명하기 위 해, 우측 눈(11)은 홀수 칼럼들 1, 3, 5, ...의 서브-픽셀들만을 볼 수 있는 반면, 좌측 눈(10)은 짝수 칼럼들 0, 2, 4, ...의 서브 픽셀들만을 볼 수 있다. 따라서, 3D 영상을 디스플레이하기 위해, 3D 영상 신호 생성기는 좌측 및 우측 눈들의 위치들에서 캡처되는 좌측 영상과 우측 영상의 영상 신호들로부터 3D 영상 신호를 생성하고 이들 신호들을 LCD(6)로 공급한다.When displaying a 3D image using the backlight 1 shown in FIG. 15, the lenticular lens 15 has a sub-pixel array on the LCD 6 as seen from the right eye 11. To appear differently from the sub-pixel array seen from To illustrate this phenomenon based on the stereoscopic display image 20 of FIG. 16, the right eye 11 can only see sub-pixels of odd columns 1, 3, 5,. The eye 10 can only see the subpixels of even columns 0, 2, 4,... Thus, to display a 3D image, the 3D image signal generator generates a 3D image signal from the image signals of the left and right images captured at the positions of the left and right eyes and supplies these signals to the LCD 6. .

도 16에 도시된 바와 같이, 입체적 디스플레이 영상(20)은 좌측 영상(21)과 우측 영상(22)의 RGB 신호들을 상호배치(interleave)함으로써 생성된다. 이 방법으로, 3D 영상 신호 생성기는 좌측 영상 신호의 픽셀 P0의 r 및 b 요소들과 우측 영상 신호의 픽셀 P0의 g 요소로부터 3D 영상 신호의 픽셀 P0의 rgb 요소들을 형성하고, 좌측 영상 신호의 픽셀 P1의 g 요소와 우측 영상 신호의 픽셀 P1의 r 및 b 요소들로부터 3D 영상 신호(중앙 칼럼들)의 픽셀 P1의 rgb 요소들을 형성한다. 이러한 상호배치 프로세스로, 보통은 3D 영상 신호는 kth 픽셀(k는 1, 2, ...)의 rgb 요소들은 좌측 영상 신호의 kth 픽셀의 r 및 b 요소들과 우측 영상 신호의 kth 픽셀의 g 요소로부터 형성되고, 3D 영상 신호의 k+1th 영상 픽셀의 rgb 요소들은 좌측 영상 신호의 k+1th 픽셀의 g 요소 및 우측 영상 신호의 픽셀의 r 및 b 요소들로부터 형성된다.As shown in FIG. 16, the stereoscopic display image 20 is generated by interleaving the RGB signals of the left image 21 and the right image 22. In this way, the 3D video signal generator forms rgb elements of pixel P0 of the 3D video signal from r and b elements of pixel P0 of the left video signal and g elements of pixel P0 of the right video signal, and the pixels of the left video signal. Rgb elements of the pixel P1 of the 3D image signal (center columns) are formed from the g element of P1 and the r and b elements of the pixel P1 of the right image signal. With this inter-positioning process, the 3D video signal is usually the rgb elements of kth pixels (k is 1, 2, ...) and the r and b elements of the kth pixel of the left video signal and the gth of kth pixels of the right video signal. And rgb elements of the k + 1th image pixel of the 3D image signal are formed from the g element of the k + 1th pixel of the left image signal and the r and b elements of the pixel of the right image signal.

이 방법에 의해 생성된 3D 영상 신호들은 원 영상에서 동일한 수의 픽셀들로 압축된 3D 영상을 디스플레이할 수 있다. 도 18에 도시된 것처럼, 좌측 눈은 짝수 칼럼들에 디스플레이되는 LCD(6)의 서브 픽셀들만을 볼 수 있는 반면, 우측 눈은 홀수 칼럼들에 디스플레이되는 서브 픽셀들만을 볼 수 있기 때문에, 3D 영상이 디 스플레이될 수 있다. 또한, 렌티큘러 렌즈(15)의 위치를 조정함으로써 3D와 2D 디스플레이 간에 디스플레이를 전환시킬 수 있다.The 3D image signals generated by this method can display a 3D image compressed with the same number of pixels in the original image. As shown in Fig. 18, since the left eye can only see the subpixels of the LCD 6 displayed in even columns, the right eye can see only the subpixels displayed in odd columns, so that the 3D image This can be displayed. In addition, by adjusting the position of the lenticular lens 15, it is possible to switch the display between the 3D and 2D display.

상기 도 15에서 설명된 예는 LCD(6)의 배면에 정렬된 렌티큘러 렌즈(15)를 가지지만, 참조 특허 2(일본 미심사 특허출원공보 H11-72745호)에 개시된 "입체 영상 디스플레이 장치"는 LCD의 정면에 위치하는 렌티큘러 렌즈의 예를 제시한다. 도 19에 도시된 것처럼, 입체 영상 디스플레이 장치는 LCD(25)의 정면에 위치하는 시차 장벽(parallax barrier)(26)(렌티큘러 렌즈도 가능)을 가진다. 이 장치에서는, 우측 눈을 위한 영상 신호들에 의해 구동되는 우측 눈을 위한 픽셀들(Rr, Gr, 및 Br)과 좌측 눈을 위한 영상 신호들에 의해 구동되는 좌측 눈을 위한 픽셀들(RL, GL, 및 BL)의 쌍들로부터 픽셀 그룹들(27R, 27G, 및 27B)이 형성된다. 두 개의 좌측 및 우측 카메라들을 정렬시켜 관람자의 좌측 및 우측 눈들에 해당하는 좌측 및 우측 시점들에서 객체를 촬영함으로써, 두 개의 시차 신호들이 생성된다. 도 20(a) 및 도 20(b)의 예는 동일한 색을 위해 생성된 R 및 L 신호들을 보여준다. 도 20(c)에 도시된 바와 같이 이러한 신호들의 압축 및 결합 수단이 사용되어 R 및 L 신호들을 교호 패턴(R, L, R, L, ...)으로 재정렬함으로써 단일 입체 영상을 형성한다. 결합된 좌우 신호들은 절반으로 압축되어야 하기 때문에, 도 20(d)에 도시된 바와 같이, 단일 입체 영상을 형성하는 실제 신호는 좌측 눈과 우측 눈에 대하여 서로 다른 색들의 영상 데이터 쌍들로 구성된다. 본 예에서, 상기 디스플레이는 시차 장벽 내의 슬릿 위치들을 전환함으로써 2D와 3D 간에 전환될 수 있다.Although the example described in FIG. 15 has a lenticular lens 15 aligned to the back of the LCD 6, the "stereoscopic image display apparatus" disclosed in Reference Patent 2 (Japanese Unexamined Patent Application Publication H11-72745) An example of a lenticular lens positioned in front of the LCD is presented. As shown in FIG. 19, the stereoscopic image display apparatus has a parallax barrier 26 (also a lenticular lens) located in front of the LCD 25. In this device, the pixels Rr, Gr, and Br for the right eye are driven by the image signals for the right eye and the pixels RL, for the left eye are driven by the image signals for the left eye. Pixel groups 27R, 27G, and 27B are formed from pairs of GL and BL. Two parallax signals are generated by aligning the two left and right cameras to photograph the object at left and right viewpoints corresponding to the viewer's left and right eyes. 20 (a) and 20 (b) show the R and L signals generated for the same color. As shown in Fig. 20 (c), compression and combining means of these signals are used to form a single stereoscopic image by rearranging the R and L signals into alternating patterns (R, L, R, L, ...). Since the combined left and right signals must be compressed in half, as shown in Fig. 20 (d), the actual signal forming a single stereoscopic image is composed of pairs of image data of different colors for the left eye and the right eye. In this example, the display can be switched between 2D and 3D by switching slit positions in the parallax barrier.

참조 특허 1: 일본 미심사 특허출원공보 H10-271533호Reference Patent 1: Japanese Unexamined Patent Application Publication H10-271533

참조 특허 2: 일본 미심사 특허출원 공보 H11-72745호Reference Patent 2: Japanese Unexamined Patent Application Publication H11-72745

그러나, 도 13 및 도 14에 설명된 3D 스캐닝 방법은 큰 부피의 데이터를 사용하고 많은 연산들을 필요로 하여, 3D 객체를 생성하는 데 긴 시간이 소요된다. 또한, 장치가 복잡하고 고가이다. 상기 장치는 다양한 효과들과 애니메이션을 3D 객체에 적용하기 위해 특별한 고가의 소프트웨어가 필요하기도 하다.However, the 3D scanning method described in Figs. 13 and 14 uses a large volume of data and requires many operations, so that it takes a long time to generate a 3D object. In addition, the device is complex and expensive. The device also requires special expensive software to apply various effects and animations to the 3D object.

따라서, 본 발명의 한 가지 목적은, 단순한 구성을 가지며 짧은 시간에 복수의 서로 다른 영상들에 기초한 정확한 3D 객체들을 생성하기 위하여 객체의 외면 둘레에 위치되는 복수의 카메라들을 통한 촬영 데이터를 수집하는 방법 대신에, 객체를 회전시키는 스캐닝 테이블 방법을 이용하는 3D 스캐너를 사용한 3D 영상 생성 및 디스플레이 시스템을 제공하는 것이다. 본 3D 영상 생성 및 디스플레이 시스템은 웹 브라우저에서 3D 장면들을 신속하게 묘화 및 디스플레이하기 위하여 3D 객체의 주요 부분들을 편집하고 처리하는 상용 소프트웨어를 이용하여 웹-특유 3D 객체를 생성한다.Accordingly, one object of the present invention is a method of collecting photographic data with a plurality of cameras having a simple configuration and located around an outer surface of an object to generate accurate 3D objects based on a plurality of different images in a short time. Instead, it provides a 3D image generation and display system using a 3D scanner using a scanning table method of rotating an object. The 3D image generation and display system creates web-specific 3D objects using commercial software that edits and processes the major parts of the 3D object in order to quickly draw and display 3D scenes in a web browser.

도 15 내지 도 20에 도시된 입체 영상 장치들에서, 도 15에 도시된 렌티큘러 렌즈의 이동에 의하여 동일한 액정 패널을 사용할 때 2D와 3D 디스플레이들간에 전환하는 시스템 및 도 19에 도시된 시차 장벽을 고정하는 시스템에서처럼 디스플레이 장치들의 형식이 다르면 좌측 및 우측 시차 신호들의 형식이 다르다. 마찬가지로, 다양한 디스플레이 패널들, CRT 스크린들, 3D 셔터 안경, 및 프로젝터와 같은 서로 다른 형식들을 가지는 모든 디스플레이 장치들에 대하여 좌측 및 우측 시차 신호들의 형식이 다르다.In the stereoscopic imaging apparatuses shown in FIGS. 15 to 20, a system for switching between 2D and 3D displays when using the same liquid crystal panel by the movement of the lenticular lens shown in FIG. 15 and the parallax barrier shown in FIG. 19 are fixed. If the types of display devices are different as in the system described above, the types of the left and right parallax signals are different. Likewise, the format of the left and right parallax signals is different for all display devices having different formats, such as various display panels, CRT screens, 3D shutter glasses, and projectors.

VGA 방법 또는 비디오 신호들을 비월주사(interlace)하는 방법과 같은 서로 다른 영상 신호 형식들을 사용할 때에도 좌측 및 우측 시차 신호들의 형식이 다르다.The format of the left and right parallax signals also differs when using different video signal formats, such as the VGA method or the method of interlacing video signals.

또한, 도 15 내지 도 20에서 설명되는 종래 기술에서는, 좌측 및 우측 눈들에 상응하도록 위치된 두 개의 디지털 카메라들에 의하여 촬영된 두 개의 사진 영상들로부터 좌측 및 우측 시차 신호들이 생성된다. 그러나, 원 영상 데이터의 형식이 다를 때, 예컨대, 컴퓨터 그래픽스 모델링 등에 의하여 생성된 객체 및 캐릭터(character) 영상들을 촬영함으로써 생성된 좌측 및 우측 시차 신호를 이용하여 좌측 및 우측 시차 데이터를 직접 생성할 때에는 좌측 및 우측 시차 데이터를 생성하는 방법과 형식이 다르다.Also, in the prior art described with reference to FIGS. 15 to 20, left and right parallax signals are generated from two photographic images taken by two digital cameras positioned corresponding to the left and right eyes. However, when the format of the original image data is different, for example, when directly generating left and right parallax data using left and right parallax signals generated by photographing object and character images generated by computer graphics modeling or the like. The method and format are different for generating left and right parallax data.

따라서, 본 발명의 또 다른 목적은, 다양한 디스플레이 장치들의 차이들은 물론이고, 다양한 입력 영상들과 이러한 입력 영상들의 신호 형식들의 차이들을 일치시킬 수 있는 공통 플랫폼을 생성할 수 있는 좌측 및 우측 시차 신호들을 종합하는 3D 영상들을 생성하고, 이러한 3D 영상들을 웹 브라우저에서 디스플레이하기 위한 3D 영상 생성 및 디스플레이 시스템을 제공하는 것이다.Accordingly, another object of the present invention is to provide left and right parallax signals that can create a common platform that can match the differences between the various input images and the signal formats of these input images as well as the differences of the various display devices. The present invention provides a 3D image generation and display system for generating 3D images to be synthesized and displaying these 3D images in a web browser.

이러한 목적들을 달성하기 위하여, 제1항에 따른 3D 영상 생성 및 디스플레이 시스템은 웹 브라우저에서 3D 영상들을 디스플레이하기 위해 사용되는 3D 객체들을 생성하는 컴퓨터 시스템으로 구성되며, 이 3D 영상 생성 및 디스플레이 시스템은: 복수의 서로 다른 영상들 및/또는 컴퓨터 그래픽스 모델링으로부터 3차원(3D) 영상들을 생성하고 텍스처 및 속성 데이터를 가지는 이러한 영상들로부터 3D 객체를 생성하는 3D 객체 생성 수단; 상기 3D 객체 생성 수단에 의해 생성된 상기 3D 객체의 형식을 변환하고 상기 데이터를 3D 그래픽스 기술 언어에 따라 3D 영상들을 디스플레이하기 위한 3D 묘사 파일로서 출력하는 3D 묘사 파일 출력 수단; 상기 3D 묘사 파일에서 3D 객체를 추출하고, 다양한 속성 데이터를 설정하고, 애니메이션 등을 도입(introduce)하기 위해 상기 3D 객체를 편집 및 처리하고, 결과 데이터를 다시 3D 묘사 파일이나 속성 설정용 임시 파일로서 출력하는 3D 객체 처리 수단; 상기 3D 묘사 파일로부터 텍스처들을 추출하고, 색의 수 등을 줄이기 위해 상기 텍스처들을 편집 및 처리하고, 그리고 상기 결과 데이터를 다시 3D 묘사 파일이나 텍스처 파일로서 출력하는 텍스처 처리 수단; 상기 3D 묘사 파일로부터 3D 객체를 추출하고, 상기 3D 객체를 처리하며 조명 및 재료 성질들과 같은 다양한 효과들을 배정하고, 그리고 상기 결과 데이터를 다시 3D 묘사 파일이나 효과 배정용 임시 파일로서 출력하는 3D 효과 적용 수단; 웹 브라우저에서 3D 영상들을 렌더링(rendering)하기 위해 필요한 다양한 요소들을 상기 3D 묘사 파일, 텍스처 파일, 속성 설정용 임시 파일, 그리고 효과 배정용 임시 파일로부터 추출하고, 그리고 웹 브라우저에서 디스플레이되기 위해 압축된 텍스처 및 속성 데이터를 가지는 다양한 웹-기반 3D 객체들을 생성하는 웹 3D 객체 생성 수단; 상기 3D 객체들의 속성을 제어하고 효과들을 배정함으로써 애니메이션과 함께 웹 브라우저에서 3D 장면들을 디스플레이하기 위해 거동 데이터를 생성하는 거동 데이터 생성 수단; 및 상기 설명된 수단들에 의해 생성, 편집 및 처리되는 상기 웹 3D 객체들과 상기 거동 데이터에 기초하여, 소정의 시차(parallax)로 배정된 복수의 결합 영상들로부터 생성되는 입체 영상들로 웹 브라우저에서 3D 장면들을 묘화 및 디스플레이하기 위한 스크립트들, 플러그-인들, 및 애플릿들을 포함하는 하나 또는 복수의 프로그램들과 웹 페이지를 포함하는 실행 파일을 생성하는 실행 파일 생성 수단을 포함한다.In order to achieve these objects, the 3D image generation and display system according to claim 1 consists of a computer system for generating 3D objects used for displaying 3D images in a web browser, which 3D image generation and display system comprises: 3D object generating means for generating three-dimensional (3D) images from a plurality of different images and / or computer graphics modeling and generating a 3D object from such images having texture and attribute data; 3D description file output means for converting a format of the 3D object generated by the 3D object generating means and outputting the data as a 3D description file for displaying 3D images according to a 3D graphics description language; Edit and process the 3D object to extract 3D objects from the 3D description file, set various property data, introduce animations, etc., and then convert the resulting data back into a 3D description file or a temporary file for property setting. 3D object processing means for outputting; Texture processing means for extracting textures from the 3D description file, editing and processing the textures to reduce the number of colors, and the like, and outputting the result data again as a 3D description file or texture file; 3D effects that extract 3D objects from the 3D description files, process the 3D objects, assign various effects such as lighting and material properties, and output the result data again as 3D description files or temporary files for effect assignment. Application means; Extracts the various elements necessary for rendering 3D images in a web browser from the 3D description file, texture file, temporary file for setting properties, and temporary file for assigning effects, and compressed textures for display in a web browser. And web 3D object generating means for generating various web-based 3D objects having attribute data; Behavior data generating means for generating behavior data for displaying 3D scenes in a web browser with animation by controlling properties of the 3D objects and assigning effects; And stereoscopic images generated from a plurality of combined images assigned to a predetermined parallax based on the web 3D objects and the behavior data generated, edited and processed by the above described means. And executable file generating means for generating an executable file comprising a web page and one or a plurality of programs including scripts, plug-ins, and applets for drawing and displaying 3D scenes.

또한, 제2항에 따른 3D 객체 생성 수단은 객체가 그 위에 올려져서 수평 또는 수직으로 회전하는 턴테이블; 상기 턴테이블 위에 올려진 객체의 영상들을 캡처하여 상기 영상들의 디지털 영상 파일들을 생성하는 디지털 카메라; 상기 턴테이블을 소정 위치들로 회전시키는 턴테이블 제어 수단; 상기 디지털 카메라를 이용하여 상기 턴테이블 제어 수단에 의해 소정의 위치들에 설정된 객체를 촬영하는 촬영 수단; 상기 턴테이블 제어 수단과 상기 촬영 수단을 이용하여 복수의 영상 파일들을 연속적으로 생성하는 연속 영상 제어 수단; 및 상기 연속 영상 제어 수단에 의하여 생성되는 상기 복수의 영상 파일들에 기초하여 3D 영상들을 생성하고 상기 영상들을 3D로 디스플레이하기 위해 상기 3D 영상들로부터 텍스처 및 속성 데이터를 가지는 3D 객체를 생성하는 3D 객체 결합 수단을 포함한다.In addition, the 3D object generating means according to claim 2 comprises a turntable on which the object is placed on it and rotates horizontally or vertically; A digital camera for capturing images of an object mounted on the turntable to generate digital image files of the images; Turntable control means for rotating the turntable to predetermined positions; Photographing means for photographing an object set at predetermined positions by the turntable control means using the digital camera; Continuous image control means for continuously generating a plurality of image files using the turntable control means and the photographing means; And a 3D object generating 3D images based on the plurality of image files generated by the continuous image control means and generating a 3D object having texture and attribute data from the 3D images to display the images in 3D. Coupling means.

또한, 제3항에 따른 3D 객체 생성 수단은 상기 턴테이블 위에서 객체가 회전할 때 상기 객체의 전체 외면을 따라 단일 카메라에 의해 얻어지는 복수의 영상들로부터의 실루엣 데이터를 이용하여 상기 객체의 3차원 형상을 추정하는 실루엣 방법(silhouette method)에 따라 3D 영상들을 생성한다.In addition, the 3D object generating means according to claim 3 uses the silhouette data from a plurality of images obtained by a single camera along the entire outer surface of the object when the object rotates on the turntable to form a three-dimensional shape of the object. 3D images are generated according to an estimated silhouette method.

또한, 제4항에 따른 3D 객체 생성 수단은 카메라에 의해 얻어진 영상들, 컴퓨터 그래픽스 모델링에 의해 만들어진 영상들, 스캐너에 의해 스캐닝된 영상들, 손으로 그린 영상들, 및 다른 저장 매체에 저장된 영상 데이터 등을 포함하는 다양한 영상 데이터를 결합함으로써 합성 장면으로서 단일 3D 영상을 생성한다.Furthermore, the 3D object generating means according to claim 4 further comprises images obtained by a camera, images made by computer graphics modeling, images scanned by a scanner, hand drawn images, and image data stored in another storage medium. A single 3D image is generated as a composite scene by combining various image data including the back.

또한, 제5항에 따른 실행 파일 생성 수단은 소정의 카메라 위치로부터의 시차가 배정되는 우측 눈 영상들과 좌측 눈 영상들에 기초하여 렌더링 기능에 따라 입체 영상들을 묘화 및 디스플레이하기 위해 좌측 및 우측 시차 데이터를 자동적으로 생성하는 자동 좌측 및 우측 시차 데이터 생성 수단; 상기 자동 좌측 및 우측 시차 데이터 생성 수단에 의해 생성되는 좌측 및 우측 시차 데이터 각각을 압축하는 시차 데이터 압축 수단; 상기 압축된 좌측 및 우측 시차 데이터를 결합하는 시차 데이터 결합 수단; 상기 결합된 좌측 및 우측 시차 데이터를 좌측 및 우측 부분들로 분리하고 상기 데이터를 입체 영상 디스플레이 장치 상에 디스플레이 되도록 확장하는 시차 데이터 확장 수단; 및 상기 입체 영상 디스플레이 장치의 조망 각도(화상비, aspect ratio)에 따라 디스플레이 되도록 상기 데이터를 변환하는 디스플레이 데이터 변환 수단을 포함한다.Further, the executable file generating means according to claim 5 further comprises left and right parallax for drawing and displaying stereoscopic images according to a rendering function based on right eye images and left eye images to which parallax from a predetermined camera position is assigned. Automatic left and right parallax data generating means for automatically generating data; Disparity data compression means for compressing each of left and right disparity data generated by the automatic left and right disparity data generating means; Disparity data combining means for combining the compressed left and right disparity data; Disparity data expansion means for dividing the combined left and right disparity data into left and right portions and extending the data to be displayed on a stereoscopic image display device; And display data converting means for converting the data to be displayed according to a viewing angle (aspect ratio) of the stereoscopic image display apparatus.

또한, 제6항에 따른 자동 좌측 및 우측 시차 데이터 생성 수단은 렌더링 기능에 의해 설정되는 가상 카메라에 기초하여 상기 3D 객체 생성 수단에 의하여 생성되는 3D 영상에 해당하는 좌측 및 우측 시차 데이터를 자동적으로 생성한다.The automatic left and right parallax data generating means according to claim 6 automatically generates left and right parallax data corresponding to the 3D image generated by the 3D object generating means based on the virtual camera set by the rendering function. do.

또한, 제7항에 따른 시차 데이터 압축 수단은 픽셀들을 생략함으로써 좌측 및 우측 시차 데이터의 픽셀 데이터를 압축한다.Further, the parallax data compression means according to claim 7 compresses pixel data of left and right parallax data by omitting pixels.

또한, 제8항에 따른 입체 디스플레이 장치는 CRT 스크린, 액정 패널, 플라즈마 디스플레이, 전계발광(electroluminescence: EL) 디스플레이, 및 프로젝터 중 적어도 하나를 사용한다.In addition, the stereoscopic display device according to claim 8 uses at least one of a CRT screen, a liquid crystal panel, a plasma display, an electroluminescence (EL) display, and a projector.

또한, 제9항에 따른 입체 디스플레이 장치는 관람자가 입체 안경을 썼을 때 볼 수 있는 입체 영상들을 디스플레이하거나 관람자가 안경을 쓰지 않았을 때 볼 수 있는 입체 영상들을 디스플레이한다.In addition, the stereoscopic display device according to claim 9 displays stereoscopic images that can be seen when the viewer wears the stereoscopic glasses or displays stereoscopic images that can be viewed when the viewer is not wearing the glasses.

본 발명의 3D 영상 생성 및 디스플레이 시스템은 3D 디스플레이에 디스플레이되는 3D 객체들을 생성하는 컴퓨터 시스템을 구성할 수 있다. 본 3D 영상 생성 및 디스플레이 시스템은 턴테이블(turntable)이 회전하는 동안 단일 카메라로 객체의 전체 외면을 따라 영상들을 수집하여 스캐닝 테이블 위에 놓인 객체를 모델링하는 스캐닝 테이블 시스템(scanning table system)을 사용하는 단순한 구조를 가진다. 또한, 본 3D 영상 생성 및 디스플레이 시스템은 상업적으로 판매되는 일반적인 소프트웨어의 장점을 취하여 고품질 3D 객체들의 생성을 용이하게 한다.The 3D image generation and display system of the present invention may constitute a computer system for generating 3D objects displayed on a 3D display. This 3D image generation and display system employs a scanning table system that collects images along the entire outer surface of an object with a single camera while the turntable rotates and uses a scanning table system to model an object placed on a scanning table. Has In addition, the present 3D image generation and display system takes advantage of commercially available generic software to facilitate the creation of high quality 3D objects.

본 3D 영상 생성 및 디스플레이 시스템은 웹 브라우저에서 3D 장면들을 묘화 및 디스플레이하는 특정 플러그-인을 설치하거나 또는 웹 브라우저에서 3D 영상들을 효과적으로 디스플레이하는 애플릿들을 생성함으로써 웹 브라우저에서 애니메이션을 디스플레이할 수도 있다.The 3D image generation and display system may display animation in a web browser by installing a specific plug-in to draw and display 3D scenes in a web browser or by creating applets that effectively display 3D images in a web browser.

본 3D 영상 생성 및 디스플레이 시스템은 동일한 디스플레이 장치 상에서 LR 시차 영상 데이터에 따른 입체 영상들, 관람자에게 "튀어나오지" 않는 종류의 3D 영상들, 및 일반적인 2D 영상들을 디스플레이할 수 있는 디스플레이 프로그램을 구성할 수도 있다.The 3D image generation and display system may configure a display program capable of displaying stereoscopic images according to LR parallax image data, types of 3D images that do not "protrude" to viewers, and general 2D images on the same display device. have.

도 1은 본 발명의 제1 실시예에 따른 3D 영상 생성 및 디스플레이 시스템에 의해 수행되는 프로세스의 단계들을 도시하는 플로우차트.1 is a flowchart showing steps in a process performed by a 3D image generation and display system according to a first embodiment of the present invention.

도 2는 도 1의 3D 영상 생성 및 디스플레이 시스템의 3D 객체 생성 수단을 도시하는 개략도.FIG. 2 is a schematic diagram showing 3D object generation means of the 3D image generation and display system of FIG. 1; FIG.

도 3은 3D 객체들의 생성에서부터 웹 브라우저에서 3D 장면들을 묘화 및 디스플레이하는 것까지의 프로세스를 도시하는 플로우차트.3 is a flowchart illustrating a process from creation of 3D objects to drawing and displaying 3D scenes in a web browser.

도 4는 3D 객체의 예로서의 프린터의 사시도.4 is a perspective view of a printer as an example of a 3D object.

도 5는 본 발명의 제2 실시예에 따른 3D 영상 생성 및 디스플레이 시스템을 도시하는 개략도.5 is a schematic diagram illustrating a 3D image generation and display system according to a second embodiment of the present invention.

도 6은 2-n 개의 카메라들을 가지는 도 5의 3D 영상 생성기를 도시하는 개략도.6 is a schematic diagram illustrating the 3D image generator of FIG. 5 with 2-n cameras.

도 7은 도 5의 렌더링기의 카메라 위치들을 설정하는 방법을 설명하는 도면.7 illustrates a method of setting camera positions of the renderer of FIG.

도 8은 단순한 입체적 영상들을 생성하는 프로세스를 설명하는 도면.8 illustrates a process for generating simple stereoscopic images.

도 9는 VGA 디스플레이에서의 LR 데이터 처리 회로를 도시하는 블록도.9 is a block diagram showing LR data processing circuit in a VGA display.

도 10은 3D 영상을 확대, 축소, 이동, 회전시키는 조작들을 설명하는 도면.FIG. 10 is a diagram for explaining operations of enlarging, reducing, moving, and rotating a 3D image. FIG.

도 11은 비디오 신호형 디스플레이의 LR 데이터 처리 회로를 도시하는 블록도.Fig. 11 is a block diagram showing LR data processing circuit of a video signal type display.

도 12는 프로젝터들을 사용하는 입체적 디스플레이 시스템을 도시하는 개략도.12 is a schematic diagram illustrating a three-dimensional display system using projectors.

도 13(a)는 종래의 3D 모델링 디스플레이 장치의 개략도.Figure 13 (a) is a schematic diagram of a conventional 3D modeling display device.

도 13(b)는 슬릿 영상들의 생성을 설명하는 도면.Fig. 13B is a diagram explaining the generation of slit images.

도 14는 복수의 카메라들을 사용하는 종래의 3D 모델링 장치를 도시하는 블록도.14 is a block diagram showing a conventional 3D modeling apparatus using a plurality of cameras.

도 15는 종래의 3D 영상 신호 생성기의 개략도.15 is a schematic diagram of a conventional 3D video signal generator.

도 16은 도 15의 신호 생성기의 LR 데이터를 도시하는 도면.16 illustrates LR data of the signal generator of FIG. 15. FIG.

도 17은 도 16의 LR 데이터를 압축하는 프로세스를 설명하는 도면.FIG. 17 illustrates a process of compressing LR data of FIG. 16; FIG.

도 18은 LR 데이터를 도 15의 디스플레이 장치 상에 디스플레이하는 방법을 도시하는 도면.18 illustrates a method of displaying LR data on the display device of FIG.

도 19는 또 다른 종래의 입체적 영상 디스플레이 장치의 개략도.19 is a schematic diagram of another conventional stereoscopic image display apparatus.

도 20은 도 19의 디스플레이 장치 상에 디스플레이되는 LR 데이터를 도시하는 도면.FIG. 20 shows LR data displayed on the display device of FIG. 19; FIG.

이하에서는, 첨부 도면들을 참조하여 본 발명의 바람직한 실시예를 설명한다.Hereinafter, with reference to the accompanying drawings will be described a preferred embodiment of the present invention.

도 1은 본 발명의 제1 실시예에 따른 3D 영상 생성 및 디스플레이 시스템에 의해 수행되는 프로세스의 단계들을 도시하는 플로우차트이다.1 is a flowchart showing the steps of a process performed by the 3D image generation and display system according to the first embodiment of the present invention.

이하에서 설명되는 도 1의 프로세스에서는, 복수의 3D 영상들을 형성하기 위하여 후술되는 3D 스캐너가 사용된다. 3D 객체는 3D 영상들로부터 생성되고 표준 가상 현실 모델링 언어(virtual reality modeling language: VRML)(3D 그래픽스를 묘사하는 언어) 형식으로 변환된다. 출력된 VRML 파일 내의 변환된 3D 객체는 웹 3D 객체와 웹 브라우저에서 실행될 수 있는 프로그램 파일을 만들기 위해 다양한 프로세스들을 거치게 된다.In the process of FIG. 1 described below, a 3D scanner described below is used to form a plurality of 3D images. 3D objects are created from 3D images and converted into a standard virtual reality modeling language (VRML) (language for describing 3D graphics). The converted 3D object in the output VRML file goes through various processes to create a web 3D object and a program file that can be executed in a web browser.

우선, 디지털 카메라를 사용하는 3D 객체 생성 수단의 3D 스캐너는 실제 객체의 영상들을 캡처하여 예컨대 15 도 단위로 변하는 각도들에서 얻어진 24 장의 3D 영상들을 확보한다(S101). 3D 객체 생성 수단은 이러한 영상들로부터 3D 객체를 생성하고 3D 묘사 파일 출력 수단은 3D 객체를 일시적으로 VRML 형식으로 변환한다(S102). 3D 영상들을 생성하고, 3D 객체들을 생성하며, VRML 파일들을 만들기 위해 3D ScanWare(제품명)나 유사한 프로그램이 사용될 수 있다.First, the 3D scanner of the 3D object generating means using the digital camera captures images of the real object and secures 24 3D images obtained at angles varying by 15 degrees, for example (S101). The 3D object generating means generates a 3D object from these images, and the 3D description file output means temporarily converts the 3D object into a VRML format (S102). 3D ScanWare or a similar program can be used to create 3D images, create 3D objects, and create VRML files.

3D 저작(authoring) 소프트웨어(예컨대 하기 소프트웨어)로 생성되는 3D 객체는 VRML 파일로부터 추출되어 3D 객체 처리 수단에 의해 다양한 편집 및 처리를 거치게 된다(S103). 상용 제품 "3ds max"(제품명)나 기타 소프트웨어가 3D 객체의 필수 영역을 분석하여 텍스쳐 영상들을 추출하고, 애니메이션 프로세스들에 필요한 속성(attribute)들을 설정하며 다양한 3D 객체들을 생성하고, 필요에 따라 다양한 애니메이션 특징들을 설정하는 데에 사용된다. 편집 및 처리를 거친 후, 3D 객체는 다시 VRML 형식의 3D 묘사 파일로서 저장되거나 또는 저장 장치나 메모리 영역에 속성들을 설정하는 임시 파일로서 일시적으로 저장된다. 애니메이션 설정들에서, 프레임들의 수나 시간은 특정 수의 프레임 간격마다 3D 장면에 제공되는 객체를 움직이는 키 프레임 애니메이션에 설정될 수 있다. 애니메이션은 객체가 따라 움직이는 Nurbs CV 곡선과 같은 경로를 생성하기 위한 경로(path) 애니메이션 및 캐릭터 스튜디오와 같은 기술들을 이용하여 생성될 수도 있다. 텍스처(texture) 처리 수단 을 이용하여, 사용자는 VRML 파일의 다양한 객체들에 적용되는 텍스처 영상들을 추출하거나, 색이나 텍스처 매핑 등을 위해 텍스처 영상들을 편집하거나, 색들의 수를 감소시키거나, 텍스처가 적용될 위치/상태와 영역을 수정하거나, 또는 기타 프로세스들을 수행하고, 그리고 결과 데이터를 텍스처 파일로 저장한다(S104). 텍스처 편집 및 처리는 Photoshop(제품명)과 같은 상용 영상 편집 소프트웨어를 이용하여 이루어질 수 있다.The 3D object generated by the 3D authoring software (for example, the following software) is extracted from the VRML file and subjected to various editing and processing by the 3D object processing means (S103). A commercial product "3ds max" or other software analyzes the essential areas of 3D objects to extract texture images, set attributes for animation processes, create various 3D objects, and Used to set animation features. After editing and processing, the 3D object is again stored as a 3D description file in VRML format, or temporarily as a temporary file that sets properties in a storage device or memory area. In animation settings, the number or time of frames may be set in a key frame animation that moves an object provided to the 3D scene at a specific number of frame intervals. The animation may be generated using techniques such as path animation and character studio to create a path, such as a Nurbs CV curve along which the object moves. Using texture processing means, a user can extract texture images applied to various objects in a VRML file, edit texture images for color or texture mapping, reduce the number of colors, Modify the location / state and area to be applied, or perform other processes, and store the result data as a texture file (S104). Texture editing and processing can be done using commercial image editing software such as Photoshop.

3D 객체들을 처리하고 조명 및 재료의 성질 같은 다양한 효과들을 적용하기 위해, 3D 효과 적용 수단들을 사용하여 다양한 3D 객체들을 VRML 파일로부터 추출하고 추출된 객체들을 3ds max나 유사 소프트웨어 및 다양한 플러그-인들과 결합하여 사용한다. 결과 데이터는 VRML 형식의 3D 묘사 파일로서 재저장되거나 효과들을 적용하기 위한 임시 파일로서 저장된다(S105). 지금까지, 3D 객체들은 웹 페이지 상에서 애니메이션으로서 디스플레이되기 위한 프로세스들과 텍스처 영상 프로세스 등에서의 예비-프로세스로서 파일 크기를 줄이기 위한 프로세스들을 거쳤다. 하기 단계들은 객체들을 웹 브라우저에 실제로 디스플레이하기 위해 객체 크기와 파일 크기를 줄이고 최적화하기 위한 프로세스들을 다룬다.In order to process 3D objects and apply various effects such as lighting and material properties, the 3D effect application means is used to extract various 3D objects from the VRML file and extract the extracted objects with 3ds max or similar software and various plug-ins. Use in combination. The result data is restored as a 3D description file in VRML format or stored as a temporary file for applying effects (S105). So far, 3D objects have gone through processes for reducing file size as processes for displaying as animations on web pages and as pre-processes such as texture imaging processes. The following steps cover processes for reducing and optimizing object size and file size to actually display objects in a web browser.

웹 3D 객체 생성 수단은 편집 및 처리 중에 생성된 임시 파일들과 VRML로부터 3D 객체들, 텍스처 영상들, 속성들, 애니메이션 데이터, 및 기타 렌더링 요소들을 추출하고 웹 상에 3D 영상들을 디스플레이하기 위한 웹 3D 객체들을 생성한다(S106). 동시에, 거동 데이터 생성 수단은 웹 3D 객체를 애니메이션으로서 디스플레이하기 위한 시나리오로서 거동 데이터를 생성한다(S107). 최종적으로, 실 행 파일 생성 수단은 3D 영상들을 디스플레이하기 위한 상기 데이터에 기초하여 웹 브라우저를 위한 플러그-인 소프트웨어 또는 웹 브라우저에서 영상들을 묘화 및 디스플레이하기 위한 자바 애플릿 및 자바 스크립트 등과 결합된 프로그램의 형식으로 실행 파일을 생성한다(S108).The web 3D object generating means extracts 3D objects, texture images, properties, animation data, and other rendering elements from temporary files and VRML created during editing and processing, and displays web 3D images on the web. Create objects (S106). At the same time, the behavior data generating means generates the behavior data as a scenario for displaying the web 3D object as an animation (S107). Finally, the executable file generating means is in the form of a plug-in software for a web browser or a program combined with a Java applet and JavaScript for drawing and displaying images in a web browser based on the data for displaying 3D images. Create an executable file (S108).

대부분의 3D 소프트웨어 프로그램들에서 지원되는 VRML 형식을 사용함으로써, 다목적 상용 소프트웨어 프로그램을 이용하여 3D 영상들을 편집하고 처리하는 것이 가능하다. 본 시스템은 또한 통신 라인의 전송률(transfer rate)에 기초하여 웹 상에서 사용되도록 영상을 최적화할 수도 있고, 또는 개별 컴퓨터의 웹 브라우저 상에서 영상들을 디스플레이할 때, 디스플레이 환경에 따라 적절하게 영상들을 편집하고 처리하여 당해 디스플레이 환경에서 영상 렌더링이 효과적이고 최적 품질을 달성하도록 조절할 수도 있다.By using the VRML format supported by most 3D software programs, it is possible to edit and process 3D images using a multipurpose commercial software program. The system may also optimize the images for use on the web based on the transfer rate of the communication line, or when displaying the images on a web browser of an individual computer, edit and process the images as appropriate for the display environment. Image rendering can then be adjusted to achieve an effective and optimal quality in the display environment.

도 2는 도 1을 참조하여 상기에서 설명된 3D 영상 생성의 수단과 디스플레이 시스템을 생성하는 3D 객체를 도시하는 개략도이다.FIG. 2 is a schematic diagram illustrating the 3D object generating means and the 3D object generating display system described above with reference to FIG. 1.

도 2의 웹 3D 객체 생성 수단은 객체(33)(청구항의 "객체"에 해당하며, 본 상세한 설명에서는 "객체" 또는 "실제 객체"라고 언급됨)를 지지하며 상기 객체(33)를 스캐닝하기 위해 360 도 회전하는 턴테이블(31); 녹색이나 청색과 같은 단일 원색(primary color)의 백그라운드 패널(32); CCD와 같은 디지털 카메라(34); 조명(35); 서보(servo) 제어를 통해 상기 턴테이블(31)을 회전시키는 테이블 회전 컨트롤러(36); 디지털 카메라(34)와 조명(35)을 조절하고 교정(calibrate)하여 감마 보정(gamma correction) 및 영상 데이터의 기타 영상 처리를 수행하고 상기 객 체(33)의 영상들을 캡처하는 촬영 수단(37); 그리고 샘플링과 테이블 회전의 각도를 제어하고 소정의 각도들에서의 영상들을 수집하는 연속 영상 생성 수단(38)을 포함한다. 이러한 요소들은 복수의 각도들로부터 보여지는 일련의 영상들을 생성하기 위한 스캐닝 테이블 및 단일 카메라를 사용하는 3D 모델링 장치를 구성한다. 여기서, 영상들은 AutoCAD 및 STL(제품명)과 같은 상용 편집 소프트웨어를 사용하여 필요에 따라 수정된다. 3D 객체 결합 수단(39)은 일련의 영상들로부터 실루엣을 추출하고, 3D 형상들을 추정하기 위한 실루엣 방법 등을 사용하여 3D 영상들을 생성하여 3D 객체 데이터를 생성한다.The web 3D object generating means of FIG. 2 supports the object 33 (corresponding to the "object" in the claims, referred to herein as "object" or "real object") and scanning the object 33. A turntable 31 which rotates 360 degrees; Background panel 32 of a single primary color such as green or blue; A digital camera 34 such as a CCD; Lighting 35; A table rotation controller 36 for rotating the turntable 31 through servo control; Photographing means 37 for adjusting and calibrating the digital camera 34 and illumination 35 to perform gamma correction and other image processing of the image data and to capture images of the object 33. ; And continuous image generating means 38 for controlling the angles of sampling and table rotation and collecting images at predetermined angles. These elements constitute a 3D modeling apparatus that uses a single camera and a scanning table to generate a series of images viewed from a plurality of angles. Here, the images are modified as needed using commercial editing software such as AutoCAD and STL. The 3D object combining means 39 extracts a silhouette from a series of images, generates 3D images by using a silhouette method for estimating 3D shapes, etc. and generates 3D object data.

다음으로, 3D 영상 생성 및 디스플레이 시스템의 작동 방법들을 설명한다.Next, methods of operating the 3D image generation and display system will be described.

실루엣 방법에서는, 예컨대, 표준 좌표계(world coordinate system), 카메라 좌표계(camera coordinate system), 및 영상 좌표계(image coordinate system) 사이의 상관 관계들을 계산함으로써 카메라가 교정된다. 영상들을 소프트웨어에서 처리하기 위해 영상 좌표계의 점들은 표준 좌표계의 점들로 변환된다.In the silhouette method, the camera is calibrated by, for example, calculating correlations between the world coordinate system, the camera coordinate system, and the image coordinate system. In order to process the images in software, the points in the image coordinate system are converted into points in the standard coordinate system.

교정이 완료된 후, 연속 영상 생성 수단(38)은 테이블 회전 컨트롤러(36)와 협력하여 소정 횟수의 스캐닝들을 위한 턴테이블의 회전 각도를 조절하고(예컨대, 36 회의 스캐닝을 위해서 매 10 도마다, 또는 72 회의 스캐닝을 위해서 매 5 도마다 영상 스캐닝), 그동안 촬영 수단(37)은 객체(33)의 영상들을 캡처한다. 백그라운드 차이를 확보함으로써 캡처된 영상들로부터 객체(33)의 실루엣 데이터가 얻어지는데, 백그라운드 차이란 이전의 카메라 영상과 현재의 카메라 영상으로부터 얻어지는 백그라운드 패널(32) 영상들 사이의 차이를 말한다. 백그라운드 차이 및 교 정으로부터 얻어진 카메라 파라미터들로부터 객체의 실루엣 영상이 도출된다. 그 후, 예컨대 회귀 8진 트리 구조(recursive octal tree structure)를 가지는 입방체를 3차원 공간에 위치시키고 객체의 실루엣 내 교점들을 결정함으로써 실루엣 영상에 대하여 3D 모델링이 이루어진다.After the calibration is completed, the continuous image generating means 38 cooperates with the table rotation controller 36 to adjust the rotation angle of the turntable for the predetermined number of scannings (e.g., every 10 degrees, or 72 for 36 scans). Image scanning every 5 degrees for conference scanning) during which the imaging means 37 captures images of the object 33. By obtaining the background difference, the silhouette data of the object 33 is obtained from the captured images, and the background difference refers to the difference between the background panel 32 images obtained from the previous camera image and the current camera image. The silhouette image of the object is derived from the camera parameters obtained from the background difference and the calibration. 3D modeling is then performed on the silhouette image, for example, by placing a cube with a recursive octal tree structure in three-dimensional space and determining the intersections in the silhouette of the object.

도 3은 도 1에 도시된 단계들이 더욱 잘/심화되어 설명될 수 있도록 더욱 특정적인/구체적인 예-도 1에 도시된 3D 영상 변환 프로세스의 단계들에 따른-를 제시하는 플로우차트이다. 도 3의 프로세스는 예컨대 Live 3D와 같은 뷰어(viewer)용 플러그-인을 설치하지 않고 웹 브라우저에 3D 영상들을 디스플레이할 수 있는 자바 애플릿(Java Applet)에 의해 구현된다. 본 예에서, 인터랙티브(interactive) 3D 장면들을 디스플레이하는 데 필요한 모든 데이터는 웹 서버 상에서 제공된다. 클라이언트 컴퓨터 상에서 실행되는 웹 브라우저로부터 서버가 액세스되면 3D 장면들이 디스플레이된다. 보통은, 3D 객체들이 생성된 후에는, 3ds max 등이 사용되어 생성된 3D 객체들에서 움직임, 카메라, 조명, 및 재료 성질들 등을 수정한다. 그러나, 당해 바람직한 실시예에서는, 3D 객체들이나 전체 장면이 우선 VRML 형식으로 변환된다(S202).FIG. 3 is a flowchart presenting a more specific / specific example—according to the steps of the 3D image conversion process shown in FIG. 1 so that the steps shown in FIG. 1 may be better / deepened and described. The process of FIG. 3 is implemented by a Java Applet that can display 3D images in a web browser without installing a plug-in for a viewer such as Live 3D, for example. In this example, all the data needed to display interactive 3D scenes is provided on a web server. 3D scenes are displayed when the server is accessed from a web browser running on a client computer. Normally, after 3D objects are created, 3ds max and the like are used to modify the motion, camera, lighting, material properties, etc. in the created 3D objects. However, in this preferred embodiment, the 3D objects or the entire scene are first converted to VRML format (S202).

결과 VRML 파일은 3DA 시스템으로 입력된다(S203)(여기서, 3DA는 자바 애플릿을 사용하여 웹 브라우저 상에서 애니메이션으로서 디스플레이되는 3D 영상들을 말하며, 웹-연계 편집 및 처리를 위한 저작 소프트웨어를 포함하는 전체 시스템은 3DA 시스템이라 불린다). 3D 장면은 사용자의 희망에 따라 맞추어지고(customized), 웹 브라우저 내에서 3D 장면을 묘화 및 디스플레이하기 위해 3DA 애플릿으로 영상을 렌더링하기 위한 데이터가 제공된다(S205). 모든 3D 장면 데이터는 한꺼번에 압축되고 압축 3DA 파일로서 저장된다(S206). 3DA 시스템은 인터랙티브 작업들을 위한 툴 바(tool bar) 파일과 HTML 파일을 생성하는데, HTML 페이지는 툴 바 파일을 웹 브라우저 내로 읽어들여 툴 바 파일이 실행되고 3D 장면들이 웹 브라우저 내에서 디스플레이되도록 한다(S207).The resulting VRML file is input to the 3DA system (S203) (where 3DA refers to 3D images displayed as animations on a web browser using a Java applet, and the entire system including authoring software for web-linked editing and processing) Called a 3DA system). The 3D scene is customized according to the user's wishes, and data for rendering an image with the 3DA applet is provided (S205) to draw and display the 3D scene in the web browser. All 3D scene data are compressed at once and stored as compressed 3DA files (S206). The 3DA system generates a toolbar file and an HTML file for interactive tasks, which read the toolbar file into a web browser so that the toolbar file is executed and the 3D scenes are displayed within the web browser. S207).

새로운 웹 페이지(HTML 문서)는 3DA 애플릿을 호출하기 위한 애플릿 태그를 포함한다. 작업들 및 인터랙티브성(interactivity)을 향상시키기 위해 3DA 애플릿을 액세스하기 위한 자바 스크립트 코드가 HTML 문서에 추가될 수 있다(S209). 상기와 같이 생성된 3D 장면을 디스플레이하기 위해 필요한 모든 파일들은 웹 서버로 전송된다. 이러한 파일들은 3DA 애플릿을 호출하기 위한 애플릿 태그를 처리하는 웹 페이지(HTML 문서), 옵션으로서 인터랙티브 작업들을 위한 툴 바 파일, 텍스처 영상 파일들, 3DA 장면 파일들, 및 3D 장면들을 묘화 및 디스플레이하기 위한 3DA 애플릿을 포함한다(S210).The new web page (HTML document) contains an applet tag for invoking the 3DA applet. JavaScript code for accessing the 3DA applet may be added to the HTML document in order to improve operations and interactivity (S209). All files necessary to display the 3D scene generated as described above are transmitted to the web server. These files are web pages (HTML documents) that process applet tags for invoking 3DA applets, toolbar files for interactive operations, texture image files, 3DA scene files, and optionally for drawing and displaying 3D scenes. 3DA applet is included (S210).

웹 브라우저가 이어서 웹 서버에 접속하고 3DA 애플릿을 요청하면, 웹 브라우저는 웹 서버로부터 3DA 애플릿을 다운로드하고 애플릿을 실행한다(S211). 일단 3DA 애플릿이 실행되었으면, 애플릿은 사용자가 인터랙티브 작업들을 실행할 수 있는 3D 장면을 디스플레이하고, 웹 브라우저는 웹 서버와는 독립적으로 3D 장면을 계속하여 디스플레이할 수 있다(S212).If the web browser subsequently connects to the web server and requests the 3DA applet, the web browser downloads the 3DA applet from the web server and executes the applet (S211). Once the 3DA applet has been executed, the applet displays a 3D scene from which the user can execute interactive tasks, and the web browser can continuously display the 3D scene independently of the web server (S212).

지금까지 설명된 프로세스에서는, 3D 객체들을 웹-기반 VRML로 변환한 후에 3DA 자바 애플릿 파일이 생성되고, 웹 브라우저는 3DA 파일과 3DA 애플릿을 다운로 드한다. 그러나, 3DA 파일을 생성하기보다, Live 3D(제품명)와 같은 뷰어용 플러그-인을 설치하고 VRML 3D 묘사 파일을 직접 처리하는 것도 당연히 가능하다. 본 바람직한 실시예의 3D 영상 생성 및 디스플레이 시스템을 통해, 회사는 전자상거래 등을 위한 제품들의 3차원적이고 움직이는 디스플레이들을 사용하는 웹 사이트를 용이하게 생성할 수 있다.In the process described so far, after converting 3D objects to web-based VRML, a 3DA Java applet file is created, and the web browser downloads the 3DA file and the 3DA applet. However, rather than creating a 3DA file, it is of course possible to install a plug-in for a viewer such as Live 3D (product name) and process the VRML 3D description file directly. With the 3D image generation and display system of the present preferred embodiment, the company can easily create a web site using three-dimensional, moving displays of products for e-commerce and the like.

전자상거래 제품의 예로서, 하기 설명은 도 4에 도시된 것과 같은 프린터들을 위한 상거래 웹 사이트의 개시를 다룬다.As an example of an e-commerce product, the following description deals with the disclosure of a commerce website for printers such as shown in FIG.

우선, 객체(33)로서 회사의 제품, 프린터(60)가 도 2에 도시된 턴테이블 위에 놓이고 돌려지며, 그동안 촬영 수단(37)은 소정의 샘플링 각도들에서 영상들을 캡처한다. 연속 영상 생성 수단(38)은 샘플링할 영상들의 수를 설정하여 샘플링 각도가 10도인 경우를 가정한다면 36 장의 영상들을 캡처하도록 한다(360 도/10 도 = 36). 3D 객체 결합 수단(39)은 이전에 촬영되었던 백그라운드 패널(32)과 카메라 위치 사이의 백그라운드 차이를 계산하고, 연속 영상 생성 수단(38)에 의하여 생성되는 프린터의 36 장의 영상들 각각의 영상 데이터를 표준 좌표(world coordinate)들, 카메라 좌표들, 및 영상 위치들 사이의 좌표 변환에 의해 표준 좌표들로 변환한다. 객체의 윤곽들을 추출하기 위한 실루엣 방법이 사용되어 프린터의 외형을 모델링하고 프린터의 3D 객체를 생성한다. 이 객체는 VRML 파일로 임시 출력된다. 이 때, 배면 작업 스크린, 좌측면도 및 우측면도, 상면도 및 저면도, 정면 작업 스크린 등을 포함하는 웹 상에 디스플레이될 모든 3D 영상들이 생성된다.First, the company's product, printer 60, as an object 33 is placed and turned on the turntable shown in FIG. 2, during which the imaging means 37 captures images at predetermined sampling angles. The continuous image generating means 38 sets the number of images to be sampled to capture 36 images, assuming that the sampling angle is 10 degrees (360 degrees / 10 degrees = 36). The 3D object combining means 39 calculates the background difference between the background panel 32 and the camera position, which has been previously photographed, and extracts the image data of each of the 36 images of the printer generated by the continuous image generating means 38. The coordinates are converted to standard coordinates by coordinate transformation between world coordinates, camera coordinates, and image positions. A silhouette method for extracting the contours of the object is used to model the printer's appearance and to create the printer's 3D object. This object is temporarily output as a VRML file. At this time, all 3D images to be displayed on the web including the back work screen, the left and right views, the top and bottom views, the front work screen, and the like are generated.

이어서, 도 1에 설명된 바와 같이, 3D 객체 처리 수단, 텍스처 처리 수단, 및 3D 효과 적용 수단은 생성된 3D 영상 데이터를 VRML 파일로부터 추출하고, 데이터의 해당 부분들을 분석하고, 3D 객체들을 생성하고, 다양한 속성들을 적용하고, 애니메이션 프로세스들을 수행하고, 그리고, 예컨대 색, 재료, 및 텍스처 매핑 성질들을 통한 표면 형성 및 조명과 같은 다양한 효과들과 기타 프로세스들을 적용한다. 결과 데이터는 텍스처 파일, 속성을 위한 임시 파일, 효과들을 위한 임시 파일 등으로서 저장된다. 그 후, 거동 데이터 생성 수단은 프린터 웹 사이트에서 사용되는 모든 3D 묘사 파일들에서의 움직임에 필요한 데이터를 생성한다. 특히, 상기 거동 데이터 생성 수단은 설정 가이드 등에서의 실제 작동 스크린을 애니메이션화 하기 위한 파일 등을 생성한다.Then, as described in FIG. 1, the 3D object processing means, the texture processing means, and the 3D effect applying means extract the generated 3D image data from the VRML file, analyze corresponding portions of the data, generate 3D objects, and Apply various attributes, perform animation processes, and apply various effects and other processes such as surface shaping and lighting, for example, through color, material, and texture mapping properties. The resulting data is stored as texture files, temporary files for attributes, temporary files for effects, and so on. Then, the behavior data generation means generates data necessary for movement in all 3D description files used at the printer web site. In particular, the behavior data generating means generates a file or the like for animation of the actual operation screen in the setting guide or the like.

Live 3D와 같은 뷰어용 플러그-인을 웹 브라우저 내에 설치함으로써, 상기 생성된 3D 장면 데이터가 웹 브라우저에서 디스플레이될 수 있다. 뷰어를 사용하지 않고, 웹 브라우저 내에서만 3D 장면 데이터를 처리하는 방법을 사용하는 것도 또한 가능하다. 이 경우, 전술한 바와 같이, VRML 파일로부터 추출되는 3D 장면 데이터를 묘화 및 디스플레이하기 위하여 자바 애플릿을 위한 3DA 파일이 웹 브라우저로 다운로드된다.By installing a plug-in for a viewer such as Live 3D in a web browser, the generated 3D scene data can be displayed in a web browser. It is also possible to use a method of processing 3D scene data only within a web browser without using a viewer. In this case, as described above, the 3DA file for the Java applet is downloaded to the web browser in order to draw and display the 3D scene data extracted from the VRML file.

프린터의 3D 영상을 디스플레이하는 상기 생성된 웹 사이트를 볼 때, 사용자는 마우스를 조작하여 브라우저에 디스플레이되는 설정 가이드 메뉴에서 아이템들을 클릭함으로써 애니메이션 연속화면(sequence)들을 3D로 디스플레이할 수 있다. 이 애니메이션은 프린터(60)의 커버(62) 위의 버튼(63)을 돌려 커버(62)를 탈착하고 USB 커넥터(66)를 설치하는 일련의 조작들을 설명할 수 있다.When viewing the generated web site displaying a 3D image of a printer, a user can display animated sequences in 3D by clicking items in a setting guide menu displayed in a browser by manipulating a mouse. This animation can describe a series of operations to remove the cover 62 and install the USB connector 66 by turning the button 63 on the cover 62 of the printer 60.

사용자가 메뉴에서 "카트리지 설치"를 클릭하면, 전체 프린터가 회전하여 그 정면을 보여주는 3D 애니메이션 연속화면(미도시)이 플레이될 것이다. 프린터(60)의 상부 커버(61)가 열리고, 프린터(60) 내의 카트리지 홀더가 중심 위치로 움직인다. 흑백 잉크 카트리지와 컬러 잉크 카트리지가 카트리지 홀더 내로 삽입되고, 상부 커버(61)는 닫힌다.When the user clicks "install cartridge" in the menu, the entire printer will rotate and a 3D animated continuous screen (not shown) showing the front will be played. The top cover 61 of the printer 60 opens, and the cartridge holder in the printer 60 moves to the center position. The black ink cartridge and the color ink cartridge are inserted into the cartridge holder, and the top cover 61 is closed.

나아가, 사용자가 "유지보수 스크린"을 클릭하면, 모든 플라스틱 커버들이 제거되어 프린터의 내부 구조들을 노출하는 3D 영상(미도시)이 디스플레이된다. 이 방식으로, 사용자는 드라이버 모듈, 스캐닝 구조, 및 잉크 카트리지 등 간의 공간적 관계들을 3차원으로 명백하게 볼 수 있어 유지보수 작업들을 용이하게 만든다.Further, when the user clicks on the "maintenance screen", all plastic covers are removed to display a 3D image (not shown) that exposes the internal structures of the printer. In this way, the user can clearly see in three dimensions the spatial relationships between the driver module, the scanning structure, the ink cartridge, etc., to facilitate maintenance operations.

이 방식으로 조작 윈도우(window)들을 3D 애니메이션으로 디스플레이함으로써, 사용자는 소매 상점에서 프린터를 실제로 조작할 때와 똑같이 현실감 있게 제품들을 훑어볼 수 있다.By displaying the operation windows in 3D animation in this manner, the user can browse the products in the same way as when actually operating the printer in a retail store.

상기 상세한 설명은 프린터 조작들을 보는 단순한 예이긴 하지만, 본 3D 영상 생성 및 디스플레이 시스템은 옷을 입어보는 것과 같은 다른 용도들에도 이용될 수 있다. 예를 들어, 본 3D 영상 생성 및 디스플레이 시스템은 사용자가 여성 의류점 등으로부터 옷을 입어보도록 할 수 있다. 사용자는 모델이 입고 있는 옷을 클릭하고; 옷의 크기와 색을 변화시키고; 모델이 된 옷을 정면, 후면, 및 측면들에서 보고; 버튼들의 형태, 크기, 및 색을 수정하고; 그리고 그 옷을 전자메일로 주문할 수도 있다. 예컨대 경매에서의 조각품이나 기타 미술품 및 일상 용품들과 같은 다양한 물품도 2-차원 영상들보다 더욱 사실적인 3-차원 영상들로 디스플레이될 수 있다.Although the above detailed description is a simple example of viewing printer operations, the 3D image generation and display system can be used for other uses, such as wearing clothes. For example, the 3D image generation and display system may allow a user to try on clothes from a female clothing store. The user clicks on the clothes the model is wearing; Change the size and color of clothes; Looking at the modeled clothes from the front, back, and sides; Modify the shape, size, and color of the buttons; You can also order the clothes by e-mail. For example, various items such as sculptures or other art and everyday items at auction may be displayed as more realistic three-dimensional images than two-dimensional images.

다음에는, 본 발명의 제2 실시예가 첨부 도면들을 참조하여 설명될 것이다.Next, a second embodiment of the present invention will be described with reference to the accompanying drawings.

도 5는 본 발명의 제2 실시예에 따른 3D 영상 생성 및 디스플레이 시스템을 도시한 개략도이다. 제2 실시예는 본 3D 영상 생성 및 디스플레이 시스템을 더욱 확장하여 제1 실시예의 웹 페이지 상에서 생성되고 디스플레이되는 3D 영상들을 다른 3D 디스플레이 장치들을 사용하여 입체적 영상들로 디스플레이되도록 한다.5 is a schematic diagram illustrating a 3D image generation and display system according to a second embodiment of the present invention. The second embodiment further extends the 3D image generation and display system to display 3D images generated and displayed on the web page of the first embodiment as stereoscopic images using other 3D display devices.

도 5의 3D 영상 생성 및 디스플레이 시스템은 도 2에 도시된 제1 실시예의 3D 객체 생성 수단과 동일한 턴테이블-형 3D 객체 생성기(71)를 포함한다. 이 3D 객체 생성기(71)는 객체가 턴테이블 상에서 회전되는 동안 단일 카메라로 확보한 객체의 영상들을 결합함으로써 3D 영상을 만든다. 제2 실시예의 3D 영상 생성 및 디스플레이 시스템은 다중 카메라 3D 객체 생성기(72)도 포함한다. 턴테이블-형 3D 객체 생성기(71)와는 달리, 3D 객체 생성기(72)는 좌측 및 우측 눈들의 위치에 해당하는 두 개의 입체 카메라들로부터 정지한 객체 주위의 n 개의 카메라들(특정한 수로 특별히 제한되지는 않으며, 카메라들의 수가 많을수록 더욱 자세한 영상을 얻을 수 있음)까지 복수의 카메라들을 정렬함으로써 3D 객체들을 생성한다. 3D 영상 생성 및 디스플레이 시스템은 3ds max와 같은 프로그램의 그래픽스 인터페이스를 통해 컴퓨터 그래픽스 모델링을 수행하는 동안 3D 객체를 생성하는 컴퓨터 그래픽스 모델링 3D 객체 생성기(73)도 포함한다. 3D 객체 생성기(73)는 장면들을 컴퓨터 그래픽스나 사진들 등과 결합하는 컴퓨터 그래픽스 모델 제작기(modeler)이다.The 3D image generation and display system of FIG. 5 includes the same turntable-type 3D object generator 71 as the 3D object generating means of the first embodiment shown in FIG. This 3D object generator 71 creates a 3D image by combining images of an object obtained with a single camera while the object is rotated on the turntable. The 3D image generation and display system of the second embodiment also includes a multi-camera 3D object generator 72. Unlike the turntable-type 3D object generator 71, the 3D object generator 72 is not limited to a specific number of n cameras around a stationary object from two stereoscopic cameras corresponding to the positions of the left and right eyes. 3D objects are generated by arranging a plurality of cameras up to a larger number of cameras. The 3D image generation and display system also includes a computer graphics modeling 3D object generator 73 for generating 3D objects while performing computer graphics modeling through a graphics interface of a program such as 3ds max. The 3D object generator 73 is a computer graphics modeler that combines scenes with computer graphics, photos, and the like.

3D 객체 생성기들(71-73)에 의하여 만들어진 3D 객체들을 일시적으로 다목적(general-purpose) VRML 파일들로서 저장하기 위해 제1 실시예의 도 1에 설명된 S103-S107의 프로세스들을 수행한 후, YAPPA 3D Studio(제품명)와 같은 웹 저작 도구를 사용하여 VRML 파일들로부터 3D 장면 데이터가 추출된다. 3D 객체들과 텍스처들을 편집 및 처리하고; 애니메이션을 추가하고; 카메라와 조명 효과들과 같은 기타 효과들을 적용, 설정 및 처리하고; 그리고 인터랙티브 3D 영상들을 웹 브라우저 내에서 묘화 및 디스플레이하기 위해 웹 3D 객체들과 그들의 거동 데이터를 생성하는 데에 저작 소프트웨어가 사용된다. 웹 3D 파일들을 생성하는 예가 도 3의 S202-S210에서 설명되었다.YAPPA 3D after performing the processes of S103-S107 described in FIG. 1 of the first embodiment to temporarily store 3D objects created by the 3D object generators 71-73 as general-purpose VRML files. 3D scene data is extracted from VRML files using a web authoring tool such as Studio. Edit and process 3D objects and textures; Add animations; Apply, set and process other effects such as cameras and lighting effects; Authoring software is then used to generate web 3D objects and their behavioral data for drawing and displaying interactive 3D images within a web browser. An example of generating web 3D files has been described in S202-S210 of FIG. 3.

수단들(75-79)은 입체 영상들을 디스플레이하기 위해 좌측 및 우측 시차 데이터를 적용하는 도 1의 S108에서 사용되는 실행 파일 생성 수단의 일부들이다. 렌더링기(renderer)(75)는 렌더링 기능들을 적용하여 입체적 영상들을 디스플레이하는 데 필요한 좌측 및 우측 시차 영상들(LR 데이터)을 생성한다. LR 데이터 압축/결합 수단(76)은 상기 렌더링기(75)에 의하여 생성된 LR 데이터를 압축하고, 상기 데이터를 결합 프로세스에서 재정렬하고 상기 데이터를 디스플레이 프레임 버퍼에 저장한다. LR 데이터 분리/확장 수단(77)은 LR 데이터를 디스플레이할 때 좌측 및 우측 데이터를 분리하고 확장시킨다. 다운 변환기(down converter) 등으로 구성되는 데이터 변환 수단(78)은 LR 데이터가 다양한 3D 디스플레이 장치들과 호환될 수 있도록 입체 영상들을 디스플레이하는 조망 각도(angle of view)(aspect ratio, 화상비 등)를 조정한다. 입체적 디스플레이 수단(79)은 LR 데이터에 기초하고 예컨대 액정 패널, CRT 스크린, 플라즈마 디스플레이, 전계발광(electroluminescence: EL) 디스플레이, 또는 프로젝터 셔터형 디스플레이 안경과 같은 다양한 디스플레이 장치들을 사용하여 입체 영상들을 디스플레이하고 예컨대 개인용 컴퓨터 디스플레이들 등에서 사용되는 통상의 VGA 형식 및 텔레비전들에서 사용되는 비디오 형식들과 같은 다양한 디스플레이 형식들을 포함한다.The means 75-79 are some of the executable file generating means used in S108 of FIG. 1 which applies left and right parallax data to display stereoscopic images. The renderer 75 applies rendering functions to generate left and right parallax images (LR data) necessary to display stereoscopic images. LR data compression / combining means 76 compresses the LR data generated by the renderer 75, reorders the data in the combining process and stores the data in the display frame buffer. The LR data separation / expansion means 77 separates and expands left and right data when displaying LR data. The data converting means 78 constituted by a down converter or the like is an angle of view (aspect ratio, aspect ratio, etc.) for displaying stereoscopic images so that the LR data can be compatible with various 3D display devices. Adjust it. The stereoscopic display means 79 is based on LR data and displays stereoscopic images using various display devices such as, for example, liquid crystal panels, CRT screens, plasma displays, electroluminescence (EL) displays, or projector shutter type display glasses. Various display formats such as, for example, the conventional VGA format used in personal computer displays and the like and the video formats used in televisions.

다음으로는, 제2 실시예에 따른 3D 영상 생성 및 디스플레이 시스템의 작동 방법들이 설명될 것이다.Next, methods of operating the 3D image generation and display system according to the second embodiment will be described.

우선, 3D 객체 생성기들(71-73)에 의하여 수행되는 3D 객체 생성 프로세스가 간략히 설명될 것이다. 3D 객체 생성기(71)는 도 1에서 설명된 3D 객체 생성 수단과 동일하다. 3D 영상을 형성할 객체(33)는 턴테이블(31) 상에 놓여진다. 백그라운드로서, 예컨대 청스크린과 같은 단색 스크린(백그라운드 패널(32))을 배경으로 하여 촬영 수단(37)에 의해 샘플 사진들을 찍기 위해 디지털 카메라(34)와 조명(35)이 조절되는 동안 테이블 회전 컨트롤러(36)는 턴테이블(31)의 회전들을 조절한다. 연속 영상 생성 수단(38)은 그 후 샘플링된 영상들을 결합하는 프로세스를 수행한다. 결과적으로 얻어진 합성 영상(composite image)에 기초하여, 3D 객체 결합 수단(39)은 객체의 3-차원 형상을 추정하기 위해 실루엣 방법 등을 사용하여 객체의 실루엣들(윤곽들)을 추출하고 3D 객체를 생성한다. 이 방법은 예를 들어 하기 식을 이용하여 수행된다.First, the 3D object creation process performed by the 3D object generators 71-73 will be briefly described. The 3D object generator 71 is the same as the 3D object generating means described in FIG. The object 33 to form the 3D image is placed on the turntable 31. Table rotation controller while digital camera 34 and illumination 35 are adjusted to take sample pictures by photographing means 37 as a background, for example against a solid screen (background panel 32) such as a blue screen. 36 adjusts the rotations of the turntable 31. The continuous image generating means 38 then performs a process of combining the sampled images. Based on the resulting composite image, the 3D object combining means 39 extracts the silhouettes (contours) of the object using a silhouette method or the like to estimate the three-dimensional shape of the object and the 3D object. Create This method is performed using the following formula, for example.

Figure 112007084563939-PCT00001
(1)
Figure 112007084563939-PCT00001
(One)

점 P의 표준 좌표들 Sp와 카메라 좌표들 Pfp를 이용하여 좌표계 변환(교정)을 수행하여 3D 영상들의 꼭지점들에서의 3-차원 좌표들을 표준 좌표계 [x, y, z, r, g, b]로 변환한다. 다양한 프로그램들을 사용하여 결과 좌표들을 모델링한다. 이 프로세스로부터 생성되는 3D 데이터는 영상 데이터베이스(미도시)에 저장된다.Coordinate system transformation (calibration) is performed using the standard coordinates Sp of the point P and the camera coordinates Pfp to convert the three-dimensional coordinates at the vertices of the 3D images to the standard coordinate system [x, y, z, r, g, b]. Convert to Model the resulting coordinates using various programs. The 3D data generated from this process is stored in an image database (not shown).

3D 객체 생성기(72)는 복수의 카메라들을 객체 주위에 위치시킴으로써 객체의 영상들을 캡처하는 시스템이다. 예를 들어, 도 6에 도시된 바와 같이, 여섯 개의 카메라들(제1 내지 제6 카메라들)이 객체 주위에 위치된다. 제어 컴퓨터는 USB 허브들을 통해 카메라들로부터 사진 데이터를 확보하고 객체의 3D 영상들을 실시간으로 제1 및 제2 프로젝터들 위에 재생성한다. 본 3D 객체 생성기(72)는 6 개의 카메라들에 제한되지 않으며, 임의의 수의 카메라들을 통해 영상들을 캡처할 수 있다. 본 시스템은 이러한 카메라들로부터 확보된 복수의 중첩 사진들로부터 표준 좌표계 내에 3D 객체들을 생성하며 영상-기반 렌더링(image-based rendering: IBR)의 카테고리 하에 들어간다. 따라서, 본 시스템의 구성과 프로세스는 3D 객체 생성기(71)의 경우에 비해 현저히 더 복잡하다. 3D 객체 생성기(71)의 경우처럼, 생성된 데이터는 데이터베이스에 저장된다.The 3D object generator 72 is a system that captures images of an object by placing a plurality of cameras around the object. For example, as shown in FIG. 6, six cameras (first to sixth cameras) are positioned around the object. The control computer obtains photo data from the cameras via USB hubs and recreates 3D images of the object on the first and second projectors in real time. The present 3D object generator 72 is not limited to six cameras, and may capture images via any number of cameras. The system generates 3D objects in a standard coordinate system from a plurality of superimposed photographs obtained from such cameras and falls under the category of image-based rendering (IBR). Thus, the configuration and process of the present system is significantly more complicated than in the case of the 3D object generator 71. As in the case of the 3D object generator 71, the generated data is stored in a database.

3D 객체 생성기(73)는 무엇보다 먼저, "상", "좌", "우", "전", "투시", 및 "카메라"를 분할된 뷰 포트 윈도우(view port window) 내의 네 개의 뷰들 각각에 배정하고, 디스플레이 스크린 내 그래픽스의 꼭지점들에 대응하는 격자(grid)를 수립하고, 그리고 다양한 객체들, 형태들 및 기타 라이브러리에 저장된 데이터를 이용하여 영상을 모델링하는 3ds max 및 YAPPA 3D Studio와 같은 모델링 소프트웨어를 이용하는 컴퓨터 그래픽스 모델링에 초점을 맞춘다. 이러한 모델링 프로그램들은 컴퓨터 그래픽스 데이터를 3D 객체 생성기들(71 및 72)로 생성된 영상 데이터나 사진들과 결합할 수 있다. 이 결합은 사진 데이터와 컴퓨터 그래픽 데이터의 비트맵 내에 렌더링된 영상들을 위한 카메라의 조망 각도, 화상비(aspect ratio)를 조정함으로써 쉽게 이루어질 수 있다.The 3D object generator 73 first of all disposes the "up", "left", "right", "front", "perspective", and "camera" into four views in a split view port window. 3ds max and YAPPA 3D Studio, which assign to each, establish grids that correspond to the vertices of graphics in the display screen, and model images using data stored in various objects, shapes, and other libraries. Focus on computer graphics modeling using the same modeling software. Such modeling programs may combine computer graphics data with image data or photos generated by 3D object generators 71 and 72. This combination can be easily accomplished by adjusting the camera's viewing angle, aspect ratio, for the images rendered within the bitmap of the photo data and the computer graphics data.

카메라(가상 카메라)는 결합된 장면의 관점을 설정하거나 수정하기 위한 임의의 지점에 생성될 수 있다. 예를 들어, 초기 설정으로서 정면으로 설정되어 있는 카메라 위치(사용자의 관점)를 좌측이나 우측으로 30 도 이동된 위치로 변경하기 위해, [X, Y, Z, w]를 이용하여 카메라 각도와 위치의 좌표들을 설정함으로써 합성 영상 장면은 그 장면이 정면으로부터 30 도 이동된 위치에 디스플레이될 수 있다. 또한, 생성될 수 있는 가상 카메라들은 임의의 지점으로 자유롭게 회전하고 이동할 수 있는 자유 카메라와 객체 주위로 회전할 수 있는 표적 카메라를 포함한다. 사용자가 합성 영상 장면의 관점 등을 변경하고자 할 경우에는, 사용자는 새로운 성질들을 설정함으로써 그렇게 할 수 있다. 렌즈 기능들 등으로, 사용자는 버튼 터치로 WIDE에서 TELE까지 약 열 개의 가상 렌즈들의 그룹들 중에서 선택하거나 전환함으 로써 신속하게 관점을 변경할 수 있다. 조명 설정들은 렌더링된 영상들에 적용될 수 있는 다양한 기능들로 동일한 방식으로 변경될 수 있다. 생성된 모든 데이터는 데이터베이스에 저장된다.The camera (virtual camera) may be created at any point for setting or modifying the perspective of the combined scene. For example, to change the camera position (user's point of view) set to the front as the initial setting to the position moved 30 degrees to the left or the right, the camera angle and position using [X, Y, Z, w] By setting the coordinates of, the composite video scene can be displayed at a position where the scene is moved 30 degrees from the front. In addition, the virtual cameras that can be created include a free camera that can rotate and move freely to any point and a target camera that can rotate around an object. If the user wants to change the perspective of the composite video scene or the like, the user can do so by setting new properties. With lens functions, etc., users can quickly change their perspective by selecting or switching from a group of about ten virtual lenses from WIDE to TELE with the touch of a button. The lighting settings can be changed in the same way with various functions that can be applied to the rendered images. All generated data is stored in the database.

다음으로, 렌더링기 및 LR 데이터(시차 영상들) 생성 수단(75)으로 좌측 및 우측 시차 영상들을 생성하는 프로세스가 설명될 것이다. 좌측 및 우측 눈들에 해당하는 시차 신호들의 LR 데이터는 상기 모델링 소프트웨어 프로그램들의 카메라 위치 설정 기능을 사용하여 손쉽게 확보될 수 있다. 이 경우에 있어서 좌측 및 우측 눈들의 카메라 위치들을 계산하는 특정 예가 도 7을 참조하여 이하에서 설명된다. 도 7(a)에 도시된 것처럼, 각 카메라의 위치의 좌표들은 모델링된 객체(본 예에서는 휴대폰)에 수직인 벡터로 표현된다. 여기서, 카메라의 위치의 좌표는 O로; 카메라의 초점 방향은 벡터 OT로; 그리고 벡터 OU는 카메라의 상향 방향으로서 벡터 OT에 직각인 방향으로 설정된다. 좌측 및 우측 눈들의 위치들로 입체적 디스플레이를 만들기 위해, 좌측 및 우측 눈들(L, R)의 위치들이 하기 식 2에 따라 계산된다. 여기서, θ는 좌측 및 우측 눈들의 경사각이고, d는 좌측 및 우측 눈들 사이의 영 시차를 위한 수렴점 P까지의 거리이다.Next, a process of generating left and right parallax images with the renderer and LR data (parallax images) generating means 75 will be described. LR data of parallax signals corresponding to left and right eyes can be easily obtained using the camera positioning function of the modeling software programs. In this case a specific example of calculating camera positions of the left and right eyes is described below with reference to FIG. 7. As shown in Fig. 7 (a), the coordinates of the position of each camera are represented by a vector perpendicular to the modeled object (mobile phone in this example). Here, the coordinate of the position of the camera is O; The focal direction of the camera is to the vector OT; The vector OU is set in a direction perpendicular to the vector OT as the upward direction of the camera. In order to make a stereoscopic display with the positions of the left and right eyes, the positions of the left and right eyes L, R are calculated according to the following equation (2). Is the angle of inclination of the left and right eyes, and d is the distance to the convergence point P for zero parallax between the left and right eyes.

Figure 112007084563939-PCT00002
(2)
Figure 112007084563939-PCT00002
(2)

여기서, (0<d, 0≤θ<180).Where (0 <d, 0 ≦ θ <180).

상기 설명된 위치들의 계산 방법은 이 방법에 국한되지 않으며, 동일한 효과들을 달성할 수 있는 임의의 계산 방법일 수 있다. 예를 들어, 기본 설정 카메라 위치가 정면으로 되어있기 때문에, 명백히 좌표들 [X, Y, Z, w]는 앞서 설명된 카메라(가상 카메라) 위치를 고찰하는 방법을 사용하여 직접 입력될 수 있다.The method of calculating the positions described above is not limited to this method, and may be any calculation method capable of achieving the same effects. For example, since the preferred camera position is in front, the coordinates [X, Y, Z, w] can be directly input using the method of considering the camera (virtual camera) position described above.

카메라 기능에서 상기에서 설명한 방법들에 의하여 찾아낸 눈들의 위치들(카메라 위치들)을 설정한 후, 입체적 디스플레이를 위한 좌측 및 우측 시차 영상을 확보하기 위해 사용자는 장면을 디스플레이하는 윈도우의 툴 바에서 "렌더링기" 등을 선택하여 2-차원 영상으로서 3D 장면을 변환 및 렌더링한다.After setting the positions of the eyes (camera positions) found by the methods described above in the camera function, in order to obtain a left and right parallax image for stereoscopic display, the user can select " Renderer "to convert and render a 3D scene as a two-dimensional image.

LR 데이터는 합성 영상 장면들과 함께 사용하는 것에 국한하지 않고 3D 객체 생성기들(71 및 72)에 의하여 얻어진 사진 영상들을 위해 생성될 수도 있다. 좌측 및 우측 눈들의 위치들에 해당하는 카메라 위치들(가상 카메라들)을 위한 좌표들 [X, Y, Z, w]를 설정함으로써, 사진 영상들이 렌더링될 수 있어, 좌측 및 우측 시차 영상들을 위한 LR 데이터를 확보하기 위해 전체 외면을 따라 얻어진 객체의 영상 데이터를 저장한다. 3D 객체 생성기(73)로부터 모델링된 컴퓨터 그래픽스 영상들 등으로부터 유도된 3D 객체를 위하여 동일한 방법으로 저장된 객체의 전체 외면의 둘레에서 얻어진 영상 데이터로부터 LR 데이터를 생성하는 것도 가능하다. LR 데이터는 다양한 합성 장면들을 렌더링함으로써 손쉽게 생성될 수 있다.LR data may be generated for photo images obtained by the 3D object generators 71 and 72 without being limited to use with composite image scenes. By setting the coordinates [X, Y, Z, w] for camera positions (virtual cameras) corresponding to the positions of the left and right eyes, photographic images can be rendered, for left and right parallax images Image data of the object obtained along the entire outer surface is stored to secure the LR data. It is also possible to generate LR data from image data obtained around the entire outer surface of the stored object in the same way for 3D objects derived from computer graphics images modeled from the 3D object generator 73 and the like. LR data can be easily generated by rendering various composite scenes.

실제 렌더링 프로세스에서, 표준 좌표계에서의 다각형들의 각 꼭지점의 좌표들은 2-차원 스크린 좌표계로 변환된다. 따라서, 카메라 좌표들을 3-차원 좌표들로 변환하기 위해 사용되는 식 1을 역변환시킴으로써 3D/2D 변환이 수행된다. 카메라 위치들의 계산에 덧붙여, 광원으로부터 비치는 가상 빛으로 인한 그림자들(밝기)의 계산이 필요하다. 예를 들어, 물질의 색들 Mr, Mg, 및 Mb의 원인이 되는 광원 데이터 Cnr, Cng, 및 Cnb는 하기 변환 매트릭스 식 3을 이용하여 계산될 수 있다.In the actual rendering process, the coordinates of each vertex of the polygons in the world coordinate system are converted to a two-dimensional screen coordinate system. Thus, a 3D / 2D transformation is performed by inversely transforming Equation 1 used to transform camera coordinates into three-dimensional coordinates. In addition to the calculation of camera positions, a calculation of the shadows (brightness) due to the virtual light shining from the light source is required. For example, the light source data Cnr, Cng, and Cnb that cause the colors of the material Mr, Mg, and Mb can be calculated using the conversion matrix equation 3 below.

Figure 112007084563939-PCT00003
(3)
Figure 112007084563939-PCT00003
(3)

여기서, Cnr, Cng, Cnb, Pnr, Png, 및 Pnb는 n번째 꼭지점을 나타낸다.Where Cnr, Cng, Cnb, Pnr, Png, and Pnb represent the nth vertex.

이 렌더링 프로세스를 통해 얻어지는 좌측 및 우측 시차 영상들을 위한 LR 데이터는 광원 데이터에 기초한 그림자들과 카메라 위치들의 좌표들을 계산함으로 써 자동으로 생성된다. 다양한 필터링 프로세스들도 동시에 수행될 수 있지만 본 설명에서는 생략하기로 한다. 디스플레이 장치에서, 업/다운 변환기 등은 영상을 디스플레이하기 전에 영상 데이터를 비트 데이터로 변환하고 화상비를 조정한다.LR data for left and right parallax images obtained through this rendering process is automatically generated by calculating coordinates of shadows and camera positions based on the light source data. Various filtering processes may be performed at the same time but will be omitted in this description. In the display device, an up / down converter or the like converts the image data into bit data and adjusts the aspect ratio before displaying the image.

이어서, 본 발명의 또 다른 예로서 단순한 LR 데이터를 자동으로 생성하는 방법이 설명될 것이다. 도 8은 단순한 좌측 및 우측 시차 영상들을 생성하는 방법을 설명하는 도면이다. 도 8의 예에서 도시된 바와 같이, 문자 "A"의 LR 데이터는 좌측 눈을 위해 생성되었다. 객체가 좌우 대칭이라면, 우측 눈의 시차 영상은 단순히 좌측 눈의 LR 데이터를 반전함으로써 좌측 눈의 LR 데이터의 거울상으로서 생성될 수 있다. 이 반전은 하기 식 4를 사용하여 계산될 수 있다.Next, as another example of the present invention, a method of automatically generating simple LR data will be described. 8 is a diagram illustrating a method of generating simple left and right parallax images. As shown in the example of FIG. 8, LR data of the letter “A” was generated for the left eye. If the object is symmetrical, the parallax image of the right eye can be generated as a mirror image of the LR data of the left eye by simply inverting the LR data of the left eye. This inversion can be calculated using Equation 4 below.

Figure 112007084563939-PCT00004
(4)
Figure 112007084563939-PCT00004
(4)

여기서, X는 X 좌표를, Y는 Y 좌표를, 그리고 X'와 Y'는 거울상에서의 새로운 좌표들을 나타낸다. Rx와 Ry는 -1과 같다. 이 단순한 프로세스는 영상 데이터에 변화가 거의 없는 경우에 충분히 실용적이며, 메모리 소비와 처리 시간을 크게 줄일 수 있다.Where X is the X coordinate, Y is the Y coordinate, and X 'and Y' are the new coordinates on the mirror image. Rx and Ry are equal to -1. This simple process is practical enough when there is little change in the image data and can greatly reduce memory consumption and processing time.

다음으로, 상기 프로세스에서 얻어진 LR 데이터를 사용하여 다양한 디스플레이 장치들에서 실제 3D 영상들을 디스플레이하는 예가 설명될 것이다.Next, an example of displaying actual 3D images on various display devices using the LR data obtained in the above process will be described.

간략히 하기 위해, 3D 영상들을 디스플레이하기 위해 도 19에 도시된 종래의 디스플레이 장치에 LR 데이터가 입력되는 경우를 다룰 것이다. 도 19에 도시된 디스플레이 장치는 개인용 컴퓨터 등에서 사용되는 액정 패널(LCD)이며 연속 디스플레이 기술(sequential display technique)을 이용한 VGA 디스플레이 시스템을 사용한다. 도 9는 시차 영상 신호 처리 회로를 도시하는 블록도이다. 본 발명에 따라 자동적으로 생성된 LR 데이터가 이 유형의 디스플레이 장치에 공급되면, 도 20(a) 및 도 20(b)에 도시된 좌측 및 우측 시차 영상들 모두의 LR 데이터가 압축기/결합기(80)로 입력된다. 압축기/결합기(80)는, 도 20(c)에 도시된 바와 같이, 교호하는(alternating) R 및 L 데이터로 영상 데이터를 재정렬하고, 도 20(d)에 도시된 바와 같이, 픽셀을 생략함으로써 영상을 절반으로 압축한다. 결과적으로 얻어진 LR 합성 신호는 분리기(81)로 입력된다. 분리기(81)는, 도 20(c)에 도시된 바와 같이, 동일한 프로세스를 역으로 수행하고, R 및 L 행들을 분리하여 영상 데이터를 재정렬한다. 이 데이터는 확장기(82 및 83)들에 의해 압축해제(uncompress) 및 확장되고 디스플레이 드라이버들로 공급되어 화상비 등을 조정한다. 드라이버들은 좌측 눈으로만 보여질 L 신호와 우측 눈으로만 보여질 R 신호를 디스플레이하여, 입체적 디스플레이를 달성한다. 압축 중에 생략된 픽셀들은 유실되었으며 재생성될 수 없기 때문에, 영상 데이터는 보간법(interpolation) 등을 이용하여 조정된다. 이 데이터는 노트북 개인용 컴퓨터들의 디스플레이들, 액정 패널들, 다이렉트-뷰(direct-view) 게임 콘솔들 등에 사용될 수 있다. 이러한 경우들에서의 LR 데이터의 신호 형식은 특별히 제한되지 않는다.For simplicity, the case where LR data is input to the conventional display device shown in FIG. 19 to display 3D images will be dealt with. The display device shown in Fig. 19 is a liquid crystal panel (LCD) used in a personal computer or the like and uses a VGA display system using a sequential display technique. 9 is a block diagram illustrating a parallax video signal processing circuit. When the automatically generated LR data according to the present invention is supplied to this type of display device, the LR data of both the left and right parallax images shown in FIGS. 20 (a) and 20 (b) is compressed by the compressor / combiner 80. ) Is entered. Compressor / combiner 80 reorders the image data with alternating R and L data, as shown in FIG. 20 (c), and omits pixels, as shown in FIG. 20 (d). Compress the image in half. The resulting LR composite signal is input to the separator 81. The separator 81 performs the same process in reverse, as shown in Fig. 20 (c), and separates the R and L rows to rearrange the image data. This data is decompressed and expanded by expanders 82 and 83 and fed to display drivers to adjust the aspect ratio and the like. The drivers display the L signal to be seen by the left eye only and the R signal to be seen by the right eye only to achieve stereoscopic display. Since pixels omitted during compression are lost and cannot be reproduced, the image data is adjusted using interpolation or the like. This data can be used for displays of notebook personal computers, liquid crystal panels, direct-view game consoles, and the like. The signal format of the LR data in these cases is not particularly limited.

YAPPA 23D Studio와 같은 웹 3D 저작 도구들은 자바 애플릿 프로세스에 따라 영상 데이터를 LR 데이터로 변환하도록 구성된다. 툴 바 파일을 자바 애플릿들 중 하나에 부착하고 네트워크를 통해 웹 서버로부터 웹 브라우저로 데이터(3d 장면 데이터, 자바 애플릿들, 및 HTML 파일들)를 다운로드함으로써 도 10에 도시된 것과 같은 작동 버튼들이 웹 브라우저의 스크린에 디스플레이될 수 있다. 버튼을 선택함으로써, 사용자는 웹 브라우저에 디스플레이되는 입체 영상(이 경우에는 자동차)을 조작하여 확대 또는 축소, 영상 이동 또는 회전 등을 할 수 있다. 확대, 축소, 이동, 회전 등의 조작들의 상세 프로세스는 변환 매트릭스에 표현되어 있다. 예를 들어, 움직임은 하기 식 5에 의해 표현될 수 있다. 다른 조작들도 유사하게 표현될 수 있다.Web 3D authoring tools such as YAPPA 23D Studio are configured to convert image data to LR data according to a Java applet process. By attaching a toolbar file to one of the Java applets and downloading the data (3d scene data, Java applets, and HTML files) from the web server to the web browser via the network, the operation buttons as shown in FIG. It can be displayed on the screen of the browser. By selecting the button, the user can operate a stereoscopic image (in this case, a car) displayed on a web browser to zoom in or out, move or rotate the image. The detailed process of operations such as zoom in, zoom out, move, rotate, etc. is represented in the transformation matrix. For example, the movement can be represented by the following equation (5). Other operations can be similarly represented.

Figure 112007084563939-PCT00005
(5)
Figure 112007084563939-PCT00005
(5)

여기서, X'와 Y'는 새로운 좌표들이며, X와 Y는 원 좌표들이고, Dx와 Dy는 각각 수평 및 수직 방향들로 움직인 거리들이다.Where X 'and Y' are new coordinates, X and Y are circular coordinates, and Dx and Dy are distances moved in the horizontal and vertical directions, respectively.

이어서, 텔레비전 스크린과 같은 비월주사형 디스플레이 상에 영상들을 디스플레이하는 예가 설명될 것이다. 영상 데이터를 통상의 TV 및 비디오 영상들로 변환하기 위해 다양한 컨버터들이 개인용 컴퓨터들 등에서 디스플레이 수단으로서 시판되고 있다. 본 예는 그러한 컨버터를 사용하여 웹 브라우저에서 입체 영상들을 디스플레이한다. 컨버터 자체의 구성과 작동들은 설명하지 않기로 한다.Next, an example of displaying images on an interlaced display such as a television screen will be described. Various converters are commercially available as display means in personal computers and the like for converting image data into conventional TV and video images. This example uses such a converter to display stereoscopic images in a web browser. The construction and operation of the converter itself will not be described.

하기 예는 비디오 신호들을 재생하기 위해 도 19에 도시된 바와 같이 액정 패널(또는 CRT 스크린 등)을 사용한다. 입체 영상들을 디스플레이하기 위한 시차 장벽이나 렌티큘러 시트 등이 디스플레이 장치의 정면에 장착된다. 시차 영상들의 신호 처리 회로를 도시하는 도 11의 블록도를 이용하여 디스플레이 프로세스가 설명될 것이다. 본 발명의 자동 생성 방법에 따라 생성된 도 20(a)와 도 20(b)에 도시된 바와 같은 좌측 및 우측 시차 영상들의 LR 데이터가 압축기들(90 및 91)로 각각 입력된다. 압축기들(90 및 91)은 비디오 신호에서 한 픽셀 건너 한 픽셀씩을 생략함으로써 영상들을 압축한다. 결합기(92)는 도 20(c) 및 도 20(d)에 도시된 바와 같이 좌측 및 우측 LR 데이터를 결합하고 압축한다. 이 결합된 LR 데이터로 구성된 비디오 신호는 수상기(receiver)로 전송되거나 DVD와 같은 저장 매체 상에서 녹화 및 재생된다. 분리기(93)는 도 20(c) 및 도 20(d)에 도시된 바와 같이 동일한 작업을 역으로 수행하여, 결합된 LR 데이터를 좌측 및 우측 신호들로 분리한다. 확장기들(94 및 95)은 도 20(a) 및 도 20(b)에 도시된 바와 같이 좌측 및 우측 영상 데이터를 원본 형식으로 확장한다. 입체 영상들은, 디스플레이 데이터가 수평 스캐닝 라인들에 걸쳐서 R, G 및 B의 순서로 교호하는 좌측 비디오 데이터와 우측 비디오 데이터로 정렬되어 있기 때문에 도 19에 도시된 것과 같은 디스플레이 상에 디스플레이될 수 있다. 예를 들어, R(적색) 신호는 "R0(좌측용) R0(우측용), R2(좌측용) R2(우측용), R4(좌측용) R4(우측용) ..."과 같이 정렬된다. G(녹색) 신호는 "G0(좌) G0(우), G2(좌) G2(우), ..."과 같이 정렬된다. B(청색) 신호는 B0(좌) B0( 우), B2(좌) B2(우) ..."과 같이 정렬된다. 또한, 시차 영상 신호들을 위한 LR 데이터를 짝수 영역과 홀수 영역으로 분류하고 이 둘을 동시에 처리함으로써 액정 셔터들 등을 가지는 셔터 안경을 디스플레이 장치로 이용하여 동일한 방식으로 입체적 디스플레이를 할 수 있다.The following example uses a liquid crystal panel (or CRT screen, etc.) as shown in FIG. 19 to reproduce video signals. A parallax barrier or a lenticular sheet for displaying stereoscopic images is mounted on the front of the display device. The display process will be described using the block diagram of FIG. 11 showing the signal processing circuit of parallax images. The LR data of the left and right disparity images as shown in FIGS. 20A and 20B generated according to the automatic generation method of the present invention are input to the compressors 90 and 91, respectively. Compressors 90 and 91 compress the images by omitting one pixel over one pixel in the video signal. The combiner 92 combines and compresses the left and right LR data as shown in Figs. 20 (c) and 20 (d). The video signal composed of this combined LR data is transmitted to a receiver or recorded and played back on a storage medium such as a DVD. The separator 93 performs the same operation in reverse as shown in Figs. 20 (c) and 20 (d) to separate the combined LR data into left and right signals. The expanders 94 and 95 extend the left and right image data in the original format as shown in Figs. 20A and 20B. Stereoscopic images can be displayed on a display such as that shown in FIG. 19 because the display data is arranged in alternating left video data and right video data in the order of R, G and B over the horizontal scanning lines. For example, the R (red) signal is aligned like "R0 (for left) R0 (for right), R2 (for left) R2 (for right), R4 (for left) R4 (for right) ..." do. The G (green) signal is aligned as "G0 (left) G0 (right), G2 (left) G2 (right), ...". The B (blue) signal is aligned as B0 (left) B0 (right), B2 (left) B2 (right) ... ". Also, the LR data for parallax video signals is classified into even and odd areas. By simultaneously processing the two, three-dimensional display can be performed in the same manner using shutter glasses having liquid crystal shutters or the like as a display device.

이어서, 프리젠테이션들이나 홈 시어터 등에 사용되는 프로젝터 상에 입체 영상들을 디스플레이하기 위한 설명들이 제공될 것이다.Subsequently, explanations will be provided for displaying stereoscopic images on a projector used for presentations, home theater, and the like.

도 12는 그 표면에 광학적 처리(예컨대 은 금속 코팅의 도포)를 한 프로젝터 스크린(101); 상기 프로젝터 스크린(101)의 앞에 위치하는 프로젝터들(106 및 107); 및 상기 프로젝터들(106 및 107) 각각의 앞에 위치하는 편광 필터들(108 및 109)을 각각 포함하는 홈시어터의 개략도이다. 홈 시어터의 각 요소는 컨트롤러(103)에 의해 제어된다. 상기 프로젝터(106)는 우측 눈을 위해, 그리고 상기 프로젝터(107)는 좌측 눈을 위해 제공된 경우, 필터(109)는 빛을 수직으로 편광하는 유형이고, 동시에 필터(108)는 빛을 수평으로 편광하는 유형이다. 프로젝터의 유형은 디지털 미소반사 표시기(digital micromirror device: DMD)를 이용하는 머리디안 무손실 압축(meridian lossless packing: MLP) 액정 프로젝터이다. 홈 시어터는 DVD나 기타 매체를 지원하는 3D 영상 녹화기(104)(물론 본 장치는 모델링을 통해 영상들을 생성할 수도 있음), 및 3D 영상 녹화기(104)로부터 입력되는 3D 영상 데이터에 기초하여 본 발명의 디스플레이 드라이버들로 LR 데이터를 자동적으로 생성하는 좌측 및 우측 시차 영상 생성기(105)도 포함할 수 있다. 좌측 및 우측 시차 영상 생성기(105)에 의해 생성되는 LR 데이터의 화상비는 다운 컨버터 등에 의해 조정되고 좌측 및 우측 프로젝터들(106 및 107)로 공급된다. 프로젝터들(106 및 107)은 영상들을 수평 및 수직으로 각각 편광시키는 편광 필터들(108 및 109)을 통해 영상들을 투사한다. 관람자는 우측 눈에는 수직 편광 필터를, 그리고 좌측 눈에는 수평 편광 필터를 가지는 편광 안경(102)을 착용한다. 따라서, 프로젝터 스크린(101)에 투사된 영상을 볼 때, 프로젝터(106)에 의해 투사되는 영상들은 우측 눈에 의해서만 볼 수 있고 프로젝터(107)에 의해 투사되는 영상들은 좌측 눈에 의해서만 볼 수 있기 때문에, 관람자가 입체 영상들을 볼 수 있다.12 shows a projector screen 101 with optical treatment (such as application of a silver metal coating) to its surface; Projectors 106 and 107 positioned in front of the projector screen 101; And polarizing filters 108 and 109 positioned in front of each of the projectors 106 and 107, respectively. Each element of the home theater is controlled by the controller 103. When the projector 106 is provided for the right eye and the projector 107 for the left eye, the filter 109 is of the type that polarizes light vertically, while the filter 108 polarizes light horizontally. It is the type to do. The type of projector is a Meridian lossless packing (MLP) liquid crystal projector using a digital micromirror device (DMD). The home theater is based on the 3D image recorder 104 (of course, the device may generate images through modeling) supporting DVD or other media, and the present invention based on the 3D image data input from the 3D image recorder 104. It may also include a left and right parallax image generator 105 to automatically generate LR data with the display drivers of. The aspect ratio of the LR data generated by the left and right parallax image generator 105 is adjusted by a down converter or the like and supplied to the left and right projectors 106 and 107. Projectors 106 and 107 project images through polarization filters 108 and 109 that polarize the images horizontally and vertically, respectively. The spectator wears polarized glasses 102 with a vertical polarization filter in the right eye and a horizontal polarization filter in the left eye. Therefore, when viewing the image projected on the projector screen 101, the images projected by the projector 106 can only be seen by the right eye and the images projected by the projector 107 can only be seen by the left eye. The viewer can watch stereoscopic images.

이 방법으로 3D 영상들을 디스플레이하기 위한 웹 브라우저를 이용함에 따라, 브라우저를 구비한 전자 장치만이 필요하고, 특별한 3D 영상 디스플레이 장치가 필요 없으며, 그리고 다양한 전자 장치들에 의해 3D 영상들이 지원될 수 있다. 본 발명은 또한, 개인용 컴퓨터, 텔레비전, 게임 콘솔, 액정 패널 디스플레이, 셔터 안경, 및 프로젝터들과 같은 다양한 하드웨어의 유형마다 각각 서로 다른 입체적 디스플레이 소프트웨어, 예컨대 스테레오 드라이버 등을 사용할 필요가 없다는 점에서 더욱 사용자-친화적이다.By using a web browser for displaying 3D images in this manner, only an electronic device with a browser is required, no special 3D image display device is needed, and 3D images can be supported by various electronic devices. . The invention is also more user in that it does not require the use of different stereoscopic display software, such as a stereo driver, for each type of various hardware such as personal computers, televisions, game consoles, liquid crystal panel displays, shutter glasses, and projectors. -Friendly.

Claims (9)

복수의 서로 다른 영상들 및/또는 컴퓨터 그래픽스 모델링으로부터 3차원(3D) 영상들을 생성하고 텍스처 및 속성 데이터를 가지는 이러한 영상들로부터 3D 객체를 생성하는 3D 객체 생성 수단;3D object generating means for generating three-dimensional (3D) images from a plurality of different images and / or computer graphics modeling and generating a 3D object from such images having texture and attribute data; 상기 3D 객체 생성 수단에 의해 생성된 상기 3D 객체의 형식을 변환하고 상기 데이터를 3D 그래픽스 기술 언어에 따라 3D 영상들을 디스플레이하기 위한 3D 묘사 파일로서 출력하는 3D 묘사 파일 출력 수단;3D description file output means for converting a format of the 3D object generated by the 3D object generating means and outputting the data as a 3D description file for displaying 3D images according to a 3D graphics description language; 상기 3D 묘사 파일에서 3D 객체를 추출하고, 다양한 속성 데이터를 설정하고, 애니메이션 등을 도입(introduce)하기 위해 상기 3D 객체를 편집 및 처리하고, 결과 데이터를 다시 3D 묘사 파일이나 속성 설정용 임시 파일로서 출력하는 3D 객체 처리 수단;Edit and process the 3D object to extract 3D objects from the 3D description file, set various property data, introduce animations, etc., and then convert the resulting data back into a 3D description file or a temporary file for property setting. 3D object processing means for outputting; 상기 3D 묘사 파일로부터 텍스처들을 추출하고, 색의 수 등을 줄이기 위해 상기 텍스처들을 편집 및 처리하고, 그리고 상기 결과 데이터를 다시 3D 묘사 파일이나 텍스처 파일로서 출력하는 텍스처 처리 수단;Texture processing means for extracting textures from the 3D description file, editing and processing the textures to reduce the number of colors, and the like, and outputting the result data again as a 3D description file or texture file; 상기 3D 묘사 파일로부터 3D 객체를 추출하고, 상기 3D 객체를 처리하며 조명 및 재료 성질들과 같은 다양한 효과들을 배정하고, 그리고 상기 결과 데이터를 다시 3D 묘사 파일이나 효과 배정용 임시 파일로서 출력하는 3D 효과 적용 수단;3D effects that extract 3D objects from the 3D description files, process the 3D objects, assign various effects such as lighting and material properties, and output the result data again as 3D description files or temporary files for effect assignment. Application means; 웹 브라우저에서 3D 영상들을 렌더링하기 위해 필요한 다양한 요소들을 상기 3D 묘사 파일, 텍스처 파일, 속성 설정용 임시 파일, 그리고 효과 배정용 임시 파 일로부터 추출하고, 그리고 웹 브라우저에서 디스플레이되기 위해 압축된 텍스처 및 속성 데이터를 가지는 다양한 웹-기반 3D 객체들을 생성하는 웹 3D 객체 생성 수단;Extracts the various elements needed to render 3D images in a web browser from the 3D description file, texture file, temporary file for setting properties, and temporary file for assigning effects, and compresses textures and properties for display in a web browser. Web 3D object generating means for generating various web-based 3D objects having data; 상기 3D 객체들의 속성을 제어하고 효과들을 배정함으로써 애니메이션과 함께 웹 브라우저에서 3D 장면들을 디스플레이하기 위해 거동 데이터를 생성하는 거동 데이터 생성 수단; 및Behavior data generating means for generating behavior data for displaying 3D scenes in a web browser with animation by controlling properties of the 3D objects and assigning effects; And 상기 설명된 수단들에 의해 생성, 편집 및 처리되는 상기 웹 3D 객체들과 상기 거동 데이터에 기초하여, 소정의 시차(parallax)로 배정된 복수의 결합 영상들로부터 생성되는 입체 영상들로 웹 브라우저에서 3D 장면들을 묘화 및 디스플레이하기 위한 스크립트들, 플러그-인들, 및 애플릿들을 포함하는 하나 또는 복수의 프로그램들과 웹 페이지를 포함하는 실행 파일을 생성하는 실행 파일 생성 수단In the web browser with stereoscopic images generated from a plurality of combined images assigned with a predetermined parallax based on the web 3D objects and the behavior data generated, edited and processed by the above described means. Executable file generating means for generating an executable file comprising a web page and one or more programs including scripts, plug-ins, and applets for drawing and displaying 3D scenes 을 포함하는, 웹 브라우저에서 3D 영상들을 디스플레이하기 위해 사용되는 3D 객체들을 생성하는 컴퓨터 시스템으로 구성되는 3D 영상 생성 및 디스플레이 시스템.3D image generation and display system comprising a computer system for generating 3D objects used for displaying 3D images in a web browser. 제1항에 있어서,The method of claim 1, 상기 3D 객체 생성 수단은:The 3D object generating means is: 객체가 그 위에 올려져서 수평 또는 수직으로 회전하는 턴테이블;A turntable on which the object is mounted and rotated horizontally or vertically; 상기 턴테이블 위에 올려진 객체의 영상들을 캡처하여 상기 영상들의 디지털 영상 파일들을 생성하는 디지털 카메라;A digital camera for capturing images of an object mounted on the turntable to generate digital image files of the images; 상기 턴테이블을 소정 위치들로 회전시키는 턴테이블 제어 수단;Turntable control means for rotating the turntable to predetermined positions; 상기 디지털 카메라를 이용하여 상기 턴테이블 제어 수단에 의해 소정의 위치들에 설정된 객체를 촬영하는 촬영 수단;Photographing means for photographing an object set at predetermined positions by the turntable control means using the digital camera; 상기 턴테이블 제어 수단과 상기 촬영 수단을 이용하여 복수의 영상 파일들을 연속적으로 생성하는 연속 영상 제어 수단; 및Continuous image control means for continuously generating a plurality of image files using the turntable control means and the photographing means; And 상기 연속 영상 제어 수단에 의하여 생성되는 상기 복수의 영상 파일들에 기초하여 3D 영상들을 생성하고 상기 영상들을 3D로 디스플레이하기 위해 상기 영상들로부터 텍스처 및 속성 데이터를 가지는 3D 객체를 생성하는 3D 객체 결합 수단3D object combining means for generating 3D images based on the plurality of image files generated by the continuous image control means and generating a 3D object having texture and attribute data from the images for displaying the images in 3D 을 포함하는 것을 특징으로 하는 3D 영상 생성 및 디스플레이 시스템.3D image generation and display system comprising a. 제2항에 있어서,The method of claim 2, 상기 3D 객체 생성 수단은 상기 턴테이블에 의하여 객체가 회전할 때 상기 객체의 전체 외면을 따라 단일 카메라에 의해 얻어지는 복수의 영상들로부터의 실루엣 데이터를 이용하여 상기 객체의 3차원 형상을 추정하는 실루엣 방법(silhouette method)에 따라 3D 영상들을 생성하는 것을 특징으로 하는 3D 영상 생성 및 디스플레이 시스템.The 3D object generating means is a silhouette method for estimating a three-dimensional shape of the object using silhouette data from a plurality of images obtained by a single camera along the entire outer surface of the object when the object is rotated by the turntable ( 3D image generation and display system, characterized in that for generating 3D images according to the silhouette method). 제1항에 있어서,The method of claim 1, 상기 3D 객체 생성 수단은 카메라에 의해 얻어진 영상들, 컴퓨터 그래픽스 모델링에 의해 만들어진 영상들, 스캐너에 의해 스캐닝된 영상들, 손으로 그린 영상들, 및 다른 저장 매체에 저장된 영상 데이터 등을 포함하는 다양한 영상 데이터를 결합함으로써 합성 장면으로서 단일 3D 영상을 생성하는 것을 특징으로 하는 3D 영상 생성 및 디스플레이 시스템.The 3D object generating means includes various images including images obtained by a camera, images made by computer graphics modeling, images scanned by a scanner, hand drawn images, image data stored in another storage medium, and the like. 3D image generation and display system, comprising combining data to produce a single 3D image as a composite scene. 제1항에 있어서,The method of claim 1, 상기 실행 파일 생성 수단은:The executable file generating means is: 소정의 카메라 위치로부터의 시차가 배정되는 우측 눈 영상들과 좌측 눈 영상들에 기초하여 렌더링 기능에 따라 입체 영상들을 묘화 및 디스플레이하기 위해 좌측 및 우측 시차 데이터를 자동적으로 생성하는 자동 좌측 및 우측 시차 데이터 생성 수단;Automatic left and right parallax data that automatically generates left and right parallax data for drawing and displaying stereoscopic images according to a rendering function based on right eye images and left eye images to which parallax from a predetermined camera position is assigned Generating means; 상기 자동 좌측 및 우측 시차 데이터 생성 수단에 의해 생성되는 좌측 및 우측 시차 데이터 각각을 압축하는 시차 데이터 압축 수단;Disparity data compression means for compressing each of left and right disparity data generated by the automatic left and right disparity data generating means; 상기 압축된 좌측 및 우측 시차 데이터를 결합하는 시차 데이터 결합 수단;Disparity data combining means for combining the compressed left and right disparity data; 상기 결합된 좌측 및 우측 시차 데이터를 좌측 및 우측 부분들로 분리하고 상기 데이터를 입체 영상 디스플레이 장치 상에 디스플레이 되도록 확장하는 시차 데이터 확장 수단; 및Disparity data expansion means for dividing the combined left and right disparity data into left and right portions and extending the data to be displayed on a stereoscopic image display device; And 상기 입체 영상 디스플레이 장치의 조망 각도(화상비)에 따라 디스플레이 되도록 상기 데이터를 변환하는 디스플레이 데이터 변환 수단Display data conversion means for converting the data to be displayed according to the viewing angle (image ratio) of the stereoscopic image display apparatus 을 포함하는 것을 특징으로 하는 3D 영상 생성 및 디스플레이 시스템.3D image generation and display system comprising a. 제5항에 있어서,The method of claim 5, 상기 자동 좌측 및 우측 시차 데이터 생성 수단은 렌더링 기능에 의해 설정되는 가상 카메라에 기초하여 상기 3D 객체 생성 수단에 의하여 생성되는 3D 영상에 해당하는 좌측 및 우측 시차 데이터를 자동적으로 생성하는 것을 특징으로 하는 3D 영상 생성 및 디스플레이 시스템.The automatic left and right parallax data generating means automatically generates left and right parallax data corresponding to the 3D image generated by the 3D object generating means based on the virtual camera set by the rendering function. Image generation and display system. 제5항에 있어서,The method of claim 5, 상기 시차 데이터 압축 수단은 픽셀들을 생략함으로써 좌측 및 우측 시차 데이터의 픽셀 데이터를 압축하는 것을 특징으로 하는 3D 영상 생성 및 디스플레이 시스템.And the disparity data compression means compresses the pixel data of the left and right disparity data by omitting the pixels. 제5항에 있어서,The method of claim 5, 상기 입체 디스플레이 장치는 CRT 스크린, 액정 패널, 플라즈마 디스플레이, 전계발광(electroluminescence: EL) 디스플레이, 및 프로젝터 중 적어도 하나를 사용하는 것을 특징으로 하는 3D 영상 생성 및 디스플레이 시스템.The stereoscopic display device uses at least one of a CRT screen, a liquid crystal panel, a plasma display, an electroluminescence (EL) display, and a projector. 제5항에 있어서,The method of claim 5, 상기 입체 디스플레이 장치는 관람자가 입체 안경을 썼을 때 볼 수 있는 입체 영상들을 디스플레이하거나 관람자가 안경을 쓰지 않았을 때 볼 수 있는 입체 영상들을 디스플레이하는 것을 특징으로 하는 3D 영상 생성 및 디스플레이 시스템.The stereoscopic display device is a 3D image generation and display system, characterized in that for displaying the stereoscopic images that can be seen when the viewer wearing the three-dimensional glasses, or the stereoscopic images that can be seen when the viewer wearing glasses.
KR1020077027432A 2007-11-23 2005-04-25 3D image generation and display system Withdrawn KR20080034419A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020077027432A KR20080034419A (en) 2007-11-23 2005-04-25 3D image generation and display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020077027432A KR20080034419A (en) 2007-11-23 2005-04-25 3D image generation and display system

Publications (1)

Publication Number Publication Date
KR20080034419A true KR20080034419A (en) 2008-04-21

Family

ID=39573859

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020077027432A Withdrawn KR20080034419A (en) 2007-11-23 2005-04-25 3D image generation and display system

Country Status (1)

Country Link
KR (1) KR20080034419A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010140866A3 (en) * 2009-06-05 2011-03-31 엘지전자 주식회사 Image display device and an operating method therefor
WO2012170444A3 (en) * 2011-06-06 2013-04-25 Microsoft Corporation Adding attributes to virtual representations of real-world objects
RU2541925C2 (en) * 2009-04-18 2015-02-20 ПрогрессивЗД ГмбХ Animated object presentation method
WO2016018422A1 (en) * 2014-07-31 2016-02-04 Hewlett-Packard Development Company, L.P. Virtual changes to a real object
KR101978062B1 (en) * 2017-11-10 2019-09-03 동서대학교 산학협력단 prop connecting and disconnecting method using the plug-in program
KR20190143202A (en) 2018-06-20 2019-12-30 ㈜시스테크 Photographing apparatus and method for 3d modeling
KR20210063828A (en) * 2019-11-25 2021-06-02 (주) 한국인프라 3d modeling file conversion system
KR102550216B1 (en) 2022-07-20 2023-06-29 남세엔터테인먼트 유한회사 Image processing apparatuuus, server, image processing system, image processing method
CN116880919A (en) * 2023-06-29 2023-10-13 智网安云(武汉)信息技术有限公司 A Web3D model loading method, device and storage device

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2541925C2 (en) * 2009-04-18 2015-02-20 ПрогрессивЗД ГмбХ Animated object presentation method
WO2010140866A3 (en) * 2009-06-05 2011-03-31 엘지전자 주식회사 Image display device and an operating method therefor
US9544568B2 (en) 2009-06-05 2017-01-10 Lg Electronics Inc. Image display apparatus and method for operating the same
WO2012170444A3 (en) * 2011-06-06 2013-04-25 Microsoft Corporation Adding attributes to virtual representations of real-world objects
WO2016018422A1 (en) * 2014-07-31 2016-02-04 Hewlett-Packard Development Company, L.P. Virtual changes to a real object
US10223839B2 (en) 2014-07-31 2019-03-05 Hewlett-Packard Development Company, L.P. Virtual changes to a real object
KR101978062B1 (en) * 2017-11-10 2019-09-03 동서대학교 산학협력단 prop connecting and disconnecting method using the plug-in program
KR20190143202A (en) 2018-06-20 2019-12-30 ㈜시스테크 Photographing apparatus and method for 3d modeling
KR20210063828A (en) * 2019-11-25 2021-06-02 (주) 한국인프라 3d modeling file conversion system
KR102550216B1 (en) 2022-07-20 2023-06-29 남세엔터테인먼트 유한회사 Image processing apparatuuus, server, image processing system, image processing method
KR20240012277A (en) 2022-07-20 2024-01-29 남세엔터테인먼트 유한회사 An image processing method that synthesizes images by distinguishing backgrounds and objects
KR20240012276A (en) 2022-07-20 2024-01-29 남세엔터테인먼트 유한회사 A server and image processing system that synthesizes a plurality of image frames
CN116880919A (en) * 2023-06-29 2023-10-13 智网安云(武汉)信息技术有限公司 A Web3D model loading method, device and storage device

Similar Documents

Publication Publication Date Title
US20080246757A1 (en) 3D Image Generation and Display System
US7643025B2 (en) Method and apparatus for applying stereoscopic imagery to three-dimensionally defined substrates
CN101189643A (en) 3D image generation and display system
Anderson et al. Jump: virtual reality video
US20120182403A1 (en) Stereoscopic imaging
US4925294A (en) Method to convert two dimensional motion pictures for three-dimensional systems
JP4065488B2 (en) 3D image generation apparatus, 3D image generation method, and storage medium
US9031356B2 (en) Applying perceptually correct 3D film noise
EP2603834B1 (en) Method for forming images
US20140181630A1 (en) Method and apparatus for adding annotations to an image
JP3524147B2 (en) 3D image display device
JP2009518877A (en) Method and system for acquiring and displaying a three-dimensional light field
JP2000215311A (en) Method and apparatus for generating virtual viewpoint image
Yang et al. Toward the light field display: Autostereoscopic rendering via a cluster of projectors
EP2936442A1 (en) Method and apparatus for adding annotations to a plenoptic light field
CA2540538C (en) Stereoscopic imaging
WO2019050038A1 (en) Image generation method and image generation device
CN108492381A (en) A kind of method and system that color in kind is converted into 3D model pinup pictures
KR20080034419A (en) 3D image generation and display system
JP4320271B2 (en) 3D image display method
Ainsworth et al. Acquisition of stereo panoramas for display in VR environments
Lee Wand: 360∘ video projection mapping using a 360∘ camera
WO2019026183A1 (en) Image generation device and image generation method
Ichikawa et al. Multimedia ambiance communication
Huang et al. P‐4.15: Multi‐Viewpoint Glasses‐Free 3D Display Technology Based on Representation Fusion NeRF

Legal Events

Date Code Title Description
PA0105 International application

Patent event date: 20071123

Patent event code: PA01051R01D

Comment text: International Patent Application

PG1501 Laying open of application
PC1202 Submission of document of withdrawal before decision of registration

Comment text: [Withdrawal of Procedure relating to Patent, etc.] Withdrawal (Abandonment)

Patent event code: PC12021R01D

Patent event date: 20090709

WITB Written withdrawal of application