KR102838008B1 - Electronic device and the method for controlling the same - Google Patents
Electronic device and the method for controlling the sameInfo
- Publication number
- KR102838008B1 KR102838008B1 KR1020200085406A KR20200085406A KR102838008B1 KR 102838008 B1 KR102838008 B1 KR 102838008B1 KR 1020200085406 A KR1020200085406 A KR 1020200085406A KR 20200085406 A KR20200085406 A KR 20200085406A KR 102838008 B1 KR102838008 B1 KR 102838008B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- video
- signal
- electronic device
- integrated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
- H04N21/4316—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4305—Synchronising client clock from received content stream, e.g. locking decoder clock with encoder clock, extraction of the PCR packets
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/436—Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
- H04N21/4363—Adapting the video stream to a specific local network, e.g. a Bluetooth® network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/436—Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
- H04N21/4363—Adapting the video stream to a specific local network, e.g. a Bluetooth® network
- H04N21/43632—Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wired protocol, e.g. IEEE 1394
- H04N21/43635—HDMI
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/438—Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving encoded video stream packets from an IP network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/438—Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving encoded video stream packets from an IP network
- H04N21/4382—Demodulation or channel decoding, e.g. QPSK demodulation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/4402—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/4402—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
- H04N21/440263—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/4402—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
- H04N21/440281—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the temporal resolution, e.g. by frame skipping
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/01—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/01—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
- H04N7/0117—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
- H04N7/012—Conversion between an interlaced and a progressive signal
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Business, Economics & Management (AREA)
- Marketing (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
다수의 영상을 분할하여 표시하는 전자장치가 개시된다. 전자장치는 복수의 영상신호를 수신하고, 상기 복수의 영상신호의 영상데이터를 각각 추출하고, 상기 추출된 복수의 영상데이터에 기초한 복수의 영상을 화면의 복수의 영역에 각각 할당한 통합영상데이터를 가진 하나의 통합영상신호를 생성하는 입력신호처리부 및 상기 통합영상신호의 통합영상데이터에 기초하여 상기 화면에 표시하기 위한 영상프레임을 생성하는 영상처리부를 포함한다.An electronic device for displaying a plurality of images by dividing them is disclosed. The electronic device includes an input signal processing unit which receives a plurality of image signals, extracts image data of the plurality of image signals respectively, and generates a single integrated image signal having integrated image data in which the plurality of images based on the extracted plurality of image data are respectively assigned to a plurality of areas of a screen, and an image processing unit which generates an image frame to be displayed on the screen based on the integrated image data of the integrated image signal.
Description
본 발명은 멀티뷰(Multi-view) 영상을 처리하여 표시하는 전자장치 및 그의 제어방법에 관한 것이다.The present invention relates to an electronic device for processing and displaying a multi-view image and a control method thereof.
대형 스크린을 가진 디스플레이장치가 보편화되면서 여러 영상을 하나의 스크린에서 나누어 보고 싶어하는 요구가 있다. 종래의 디스플레이장치는 멀티뷰 표시를 위해 다수의 HDMI 수신부를 통해 수신되는 다수의 영상신호 각각을 처리하는 다수의 비디오 프로세서가 필요하다. As display devices with large screens become more common, there is a demand to view multiple images on a single screen. Conventional display devices require multiple video processors to process each of the multiple video signals received through multiple HDMI receivers for multi-view display.
이와 같이, 종래의 디스플레이장치는 멀티뷰용 영상표시를 위해서 다수의 HDMI 수신부를 통해 수신된 다수의 영상신호에 대해 각각의 영상처리를 수행함으로써 처리해야 하는 데이터 양 증대에 따른 전송 선로 상의 데이터 스루풋(data Throughput)이 매우 커지고, 시스템 구성 비용이 증가하는 문제가 있다.In this way, conventional display devices have the problem that the data throughput on the transmission line increases significantly due to the increase in the amount of data that must be processed by performing image processing on each of the multiple image signals received through multiple HDMI receivers for multi-view image display, and that the system configuration cost increases.
따라서, 본 발명의 목적은, 단일 스크린에 다수의 영상을 표시함에 있어 데이터 스루풋을 줄이고 시스템 구성비용을 절감할 수 있는 전자장치 및 그의 제어방법을 제공하는 것이다.Accordingly, an object of the present invention is to provide an electronic device and a control method thereof capable of reducing data throughput and reducing system configuration costs when displaying multiple images on a single screen.
상술한 목적을 달성하기 위한 전자장치가 제공된다. 전자장치는 복수의 영상신호를 수신하고, 상기 복수의 영상신호의 영상데이터를 각각 추출하고, 상기 추출된 복수의 영상데이터에 기초한 복수의 영상을 화면의 복수의 영역에 각각 할당한 통합영상데이터를 가진 하나의 통합영상신호를 생성하는 입력신호처리부 및 상기 통합영상신호의 통합영상데이터에 기초하여 상기 화면에 표시하기 위한 영상프레임을 생성하는 영상처리부를 포함한다.An electronic device is provided to achieve the above-described purpose. The electronic device includes an input signal processing unit which receives a plurality of image signals, extracts image data of the plurality of image signals, and generates one integrated image signal having integrated image data in which a plurality of images based on the extracted plurality of image data are respectively allocated to a plurality of areas of a screen, and an image processing unit which generates an image frame to be displayed on the screen based on the integrated image data of the integrated image signal.
상기 복수의 영상신호는 HDMI(High-Definition Multimedia Interface)를 통해 수신될 수 있다.The above multiple video signals can be received via HDMI (High-Definition Multimedia Interface).
입력신호처리부는 상기 수신된 복수의 영상신호를 디코딩하는 디코더; 및 상기 디코딩 한 복수의 영상신호로부터 각각 복수의 영상데이터를 추출하여 상기 통합영상데이터를 생성하는 영상통합부를 포함할 수 있다.The input signal processing unit may include a decoder that decodes the plurality of received image signals; and an image integration unit that extracts a plurality of image data from each of the plurality of decoded image signals to generate the integrated image data.
상기 영상통합부는 상기 복수 영상신호의 위치 또는 크기 중 적어도 하나에 관한 정보를 기초로 상기 통합영상신호를 생성할 수 있다.The above image integration unit can generate the integrated image signal based on information regarding at least one of the positions or sizes of the multiple image signals.
상기 영상통합부는 상기 복수의 영상신호의 동기신호에 기초하여 상기 통합영상데이터에 대응하는 상기 통합영상신호의 동기신호를 생성할 수 있다.The above image integration unit can generate a synchronization signal of the integrated image signal corresponding to the integrated image data based on the synchronization signals of the plurality of image signals.
상기 통합영상신호는 상기 복수 영상신호의 통합 전과 통합 후의 위치 또는 크기 차이에 관한 정보를 포함할 수 있다.The above integrated video signal may include information regarding the difference in position or size between the plurality of video signals before and after integration.
상기 통합영상신호에 기초하여 상기 영상프레임을 표시하는 디스플레이부를 더 포함할 수 있다.The device may further include a display unit that displays the video frame based on the integrated video signal.
상기 디스플레이부는 상기 영상처리부에서 생성한 영상프레임의 시간을 조절하는 타이밍 컨트롤러를 포함할 수 있다.The above display unit may include a timing controller that adjusts the time of an image frame generated by the image processing unit.
전자장치는 제2영상신호를 수신하는 제2인터페이스부 및 상기 제2영상신호를 기초로 화면에 표시하기 위한 제2영상프레임을 생성하는 제2영상처리부를 더 포함할 수 있다.The electronic device may further include a second interface unit that receives a second image signal and a second image processing unit that generates a second image frame for display on a screen based on the second image signal.
상기 디스플레이부는 상기 통합영상신호와 상기 제2영상신호를 합성하여 표시할 수 있다.The above display unit can display the integrated video signal and the second video signal by synthesizing them.
상기 영상처리부는 영상데이터의 영상 포맷에 대응하는 디코딩(decoding), 인터레이스(interlace) 방식의 영상데이터를 프로그레시브(progressive) 방식으로 변환하는 디인터레이싱(de-interlacing), 영상데이터를 기 설정된 해상도로 조정하는 스케일링(scaling), 영상 화질 개선을 위한 노이즈 감소(noise reduction), 디테일 강화(detail enhancement) 또는 프레임 리프레시 레이트(frame refresh rate) 변환 중 적어도 하나를 수행할 수 있다.The above image processing unit can perform at least one of decoding corresponding to the image format of the image data, de-interlacing for converting the image data in an interlace format into a progressive format, scaling for adjusting the image data to a preset resolution, noise reduction for improving image quality, detail enhancement, or frame refresh rate conversion.
본 발명의 실시예에 따른 전자장치의 제어방법이 제공된다. 전자장치의 제어방법은 복수의 영상신호를 수신하는 단계와, 상기 복수의 영상신호의 영상데이터를 각각 추출하고, 상기 추출된 복수의 영상데이터에 기초한 복수의 영상을 화면의 복수의 영역에 각각 할당한 통합영상데이터를 가진 하나의 통합영상신호를 생성하는 단계 및 상기 통합영상신호의 통합영상데이터에 기초하여 상기 화면에 표시하기 위한 영상프레임을 생성하는 단계를 포함한다.A method for controlling an electronic device according to an embodiment of the present invention is provided. The method for controlling an electronic device includes the steps of receiving a plurality of image signals, extracting image data of each of the plurality of image signals, generating a single integrated image signal having integrated image data that allocates a plurality of images based on the extracted plurality of image data to a plurality of areas of a screen, and generating an image frame to be displayed on the screen based on the integrated image data of the integrated image signal.
상기 통합영상신호의 생성단계는 상기 복수의 영상신호를 디코딩하는 단계를 포함할 수 있다.The step of generating the above integrated video signal may include a step of decoding the plurality of video signals.
상기 복수 영상신호의 위치 또는 크기 중 적어도 하나의 정보에 기초하여 생성될 수 있다.It can be generated based on at least one piece of information on the position or size of the above multiple video signals.
상기 통합영상신호의 생성단계는 상기 복수의 영상신호의 동기신호에 기초하여 통합영상데이터에 대응하는 상기 통합영상신호의 동기신호를 생성하는 단계를 포함할 수 있다.The step of generating the integrated image signal may include a step of generating a synchronization signal of the integrated image signal corresponding to the integrated image data based on the synchronization signals of the plurality of image signals.
상기 전자장치의 제어방법은 제2인터페이스부로부터 제2영상신호를 수신하는 단계를 더 포함할 수 있다.The control method of the above electronic device may further include a step of receiving a second image signal from a second interface unit.
상기 전자장치의 제어방법은 상기 통합영상신호를 상기 제2영상신호와 합성하여 표시하는 단계를 더 포함할 수 있다.The control method of the above electronic device may further include a step of displaying the integrated image signal by synthesizing it with the second image signal.
상기 영상프레임의 생성단계는 영상데이터의 영상 포맷에 대응하는 디코딩(decoding), 인터레이스(interlace) 방식의 영상데이터를 프로그레시브(progressive) 방식으로 변환하는 디인터레이싱(de-interlacing), 영상데이터를 기 설정된 해상도로 조정하는 스케일링(scaling), 영상 화질 개선을 위한 노이즈 감소(noise reduction), 디테일 강화(detail enhancement) 또는 프레임 리프레시 레이트(frame refresh rate) 변환 중 적어도 하나를 수행할 수 있다.The above video frame generation step may perform at least one of decoding corresponding to the video format of the video data, de-interlacing for converting the video data in an interlace format into a progressive format, scaling for adjusting the video data to a preset resolution, noise reduction for improving the video quality, detail enhancement, or frame refresh rate conversion.
본 발명에 의한 전자장치는 화면의 복수 영역에 표시되는 다수 영상을 입력단계에서 하나의 통합영상신호로 통합한 후에, 하나의 영상처리부에서 화면에 표시하기 위한 영상프레임으로 처리함으로써, 영상 처리를 위한 전송 선로 상의 데이터 스루풋을 줄일 수 있고 시스템 구성비용을 절감할 수 있다.The electronic device according to the present invention integrates multiple images displayed on multiple areas of a screen into one integrated image signal at an input stage, and then processes them into an image frame for display on a screen in one image processing unit, thereby reducing data throughput on a transmission line for image processing and saving system configuration costs.
도 1은 본 발명의 제1실시예에 따른 전자장치의 화면을 나타내는 도면이다.
도 2는 본 발명의 제1실시예에 따른 전자장치의 구성을 나타내는 블록도이다.
도 3은 본 발명의 제1실시예에 따라 분할영상 표시를 위한 전자장치의 제어방법을 나타내는 순서도이다.
도 4는 TMDS포맷의 영상신호1~4를 나타내는 도면이다.
도 5는 통합영상신호(MVS)를 나타내는 도면이다.
도 6은 본 발명의 제2실시예에 따른 전자장치의 구성을 나타내는 블록도이다.
도 7은 본 발명의 제3실시예에 따른 전자장치의 구성을 나타내는 블록도이다.
도 8은 본 발명의 제4실시예에 따른 전자장치의 복수의 영상신호를 처리하여 표시하는 시나리오를 나타내는 도면이다.
도 9는 본 발명의 제5실시예에 따른 전자장치의 복수의 영상신호를 처리하여 표시하는 시나리오를 나타내는 도면이다.FIG. 1 is a drawing showing a screen of an electronic device according to a first embodiment of the present invention.
Figure 2 is a block diagram showing the configuration of an electronic device according to the first embodiment of the present invention.
FIG. 3 is a flowchart showing a method for controlling an electronic device for displaying a split image according to a first embodiment of the present invention.
Figure 4 is a diagram showing video signals 1 to 4 in TMDS format.
Figure 5 is a diagram showing an integrated video signal (MVS).
Figure 6 is a block diagram showing the configuration of an electronic device according to a second embodiment of the present invention.
Figure 7 is a block diagram showing the configuration of an electronic device according to a third embodiment of the present invention.
FIG. 8 is a diagram showing a scenario for processing and displaying multiple image signals of an electronic device according to a fourth embodiment of the present invention.
FIG. 9 is a diagram showing a scenario for processing and displaying multiple image signals of an electronic device according to a fifth embodiment of the present invention.
이하에서는 첨부 도면을 참조하여 본 발명의 실시예들을 상세히 설명한다. 도면에서 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 구성요소를 지칭하며, 도면에서 각 구성요소의 크기는 설명의 명료성과 편의를 위해 과장되어 있을 수 있다. 다만, 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 이하의 실시예에 설명된 구성 또는 작용으로만 한정되지는 않는다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numbers or symbols refer to components that perform substantially the same functions, and the size of each component in the drawings may be exaggerated for clarity and convenience of explanation. However, the technical idea of the present invention and its core configuration and operation are not limited to the configuration or operation described in the following embodiments. In describing the present invention, if it is determined that a specific description of a known technology or configuration related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.
본 문서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In this document, the expressions "have," "can have," "include," or "may include" indicate the presence of a given feature (e.g., a numerical value, function, operation, or component such as a part), but do not exclude the presence of additional features.
본 문서에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상"등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In this document, the expressions "A or B," "at least one of A and/or B," or "one or more of A or/and B" can include all possible combinations of the listed items. For example, "A or B," "at least one of A and B," or "at least one of A or B" can all refer to (1) including at least one A, (2) including at least one B, or (3) including both at least one A and at least one B.
본 발명의 실시예에서, 제1, 제2 등과 같이 서수를 포함하는 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. In the embodiments of the present invention, terms including ordinal numbers such as first, second, etc. are used only for the purpose of distinguishing one component from another, and singular expressions include plural expressions unless the context clearly indicates otherwise.
또한, 본 발명의 실시예에서 '상부', '하부', '좌측', '우측', '내측', '외측', '내면', '외면', '전방', '후방' 등의 용어는 도면을 기준으로 정의한 것이며, 이에 의해 각 구성요소의 형상이나 위치가 제한되는 것은 아니다. In addition, in the embodiments of the present invention, terms such as 'upper', 'lower', 'left', 'right', 'inner', 'outer', 'inner surface', 'outer surface', 'front', and 'rear' are defined based on the drawings, and the shape or position of each component is not limited thereby.
본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 서브 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.The expression "configured to", as used herein, can be used interchangeably with, for example, "suitable for," "having the capacity to," "designed to," "adapted to," "made to," or "capable of." The term "configured to" does not necessarily mean something is "specifically designed to" in terms of hardware. Instead, in some contexts, the expression "a device configured to" can mean that the device, in conjunction with other devices or components, is "capable of." For example, the phrase "a subprocessor configured to perform A, B, and C" can mean a dedicated processor (e.g., an embedded processor) for performing the operations, or a generic-purpose processor (e.g., a CPU or application processor) that can perform the operations by executing one or more software programs stored in a memory device.
본 문서의 다양한 실시예들에 따른 전자장치(1)는, 영상을 처리하는 예를 들면, 텔레비전, 스마트폰, 태블릿 PC, 이동 전화기, 영상 전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, 서버, PDA, PMP(portable multimedia player), MP3 플레이어, 의료기기, 카메라, 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다. 어떤 실시예들에서, 전자장치(1)는, 예를 들면, 블루 레이 플레이어, DVD(digital video disk) 플레이어, 셋탑박스, 홈 오토매이션 컨트롤 패널, 보안 컨트롤 패널, 미디어 박스, 게임 콘솔, 전자 사전, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.An electronic device (1) according to various embodiments of the present document may include at least one of, for example, a television, a smart phone, a tablet PC, a mobile phone, a video phone, an e-book reader, a desktop PC, a laptop PC, a netbook computer, a workstation, a server, a PDA, a portable multimedia player (PMP), an MP3 player, a medical device, a camera, or a wearable device that processes images. In some embodiments, the electronic device (1) may include at least one of, for example, a Blu-ray player, a digital video disk (DVD) player, a set-top box, a home automation control panel, a security control panel, a media box, a game console, an electronic dictionary, a camcorder, or an electronic picture frame.
다른 실시예에서, 전자장치(1)는, 네비게이션 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit) 중 적어도 하나를 포함할 수 있다.In another embodiment, the electronic device (1) may include at least one of a navigation device, a global navigation satellite system (GNSS), an event data recorder (EDR), a flight data recorder (FDR), an automobile infotainment device, electronic equipment for ships (e.g., a navigation device for ships, a gyro compass, etc.), avionics, a security device, and a head unit for a vehicle.
본 문서에서, 사용자라는 용어는 전자장치(1)를 사용하는 사람 또는 전자장치(1)를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.In this document, the term user may refer to a person using an electronic device (1) or a device (e.g., an artificial intelligence electronic device) using an electronic device (1).
도 1은 본 발명의 제1실시예에 따른 전자장치(1)의 화면을 나타내는 도면이다.FIG. 1 is a drawing showing a screen of an electronic device (1) according to a first embodiment of the present invention.
도 1에 나타낸 바와 같이, 전자장치(1)는 화면을 4개의 영역으로 분할하여 4개의 영상(Video1~4)을 표시하고 있다. 전자장치(1)는 하나의 화면에 4개의 영상을 분할하여 표시하는 것으로 한정되지 않고, 1~3개의 영상 또는 5개 이상의 영상을 분할하여 표시할 수도 있다.As shown in Fig. 1, the electronic device (1) divides the screen into four areas and displays four images (Video 1 to 4). The electronic device (1) is not limited to dividing and displaying four images on one screen, and may also divide and display 1 to 3 images or 5 or more images.
도 2는 본 발명의 제1실시예에 따른 전자장치(1)의 구성을 나타내는 블록도이다.Figure 2 is a block diagram showing the configuration of an electronic device (1) according to the first embodiment of the present invention.
도 2에 나타낸 바와 같이, 전자장치(1)는 소스장치(2)로부터 예를 들면 4개의 영상신호를 수신할 수 있는 인터페이스부(10), 입력신호 처리부(11), 영상처리부(12), 디스플레이부(13), 오디오처리부(14), 음성출력부(15) 및 프로세서(16)를 포함할 수 있다.As shown in Fig. 2, the electronic device (1) may include an interface unit (10) capable of receiving, for example, four image signals from a source device (2), an input signal processing unit (11), an image processing unit (12), a display unit (13), an audio processing unit (14), a voice output unit (15), and a processor (16).
소스장치(2)는 영상 컨텐츠를 전자장치(1)로 전송할 수 있는 장치, 예를 들면 셋탑박스, 서버, 중계장치, 컴퓨터, 모바일장치 등을 포함할 수 있다.The source device (2) may include a device capable of transmitting video content to an electronic device (1), such as a set-top box, a server, a relay device, a computer, a mobile device, etc.
인터페이스부(10)는 예를 들면 TMDS(Transition Minimized Differential Signal) 포맷의 4개의 영상신호를 수신하는 4개의 HDMI(High-Definition Multimedia Interface)Rx1~Rx4를 포함할 수 있다. 도 2에 나타낸 인터페이스(10)는 설명의 편의상 4개의 HDMI Rx1~Rx4를 예로 들어 나타낸 것으로, 이에 한정되지 않는다.The interface unit (10) may include, for example, four HDMI (High-Definition Multimedia Interface) Rx1 to Rx4 for receiving four video signals in a TMDS (Transition Minimized Differential Signal) format. The interface (10) shown in Fig. 2 is shown as an example of four HDMI Rx1 to Rx4 for convenience of explanation, and is not limited thereto.
인터페이스부(10)는 유선인터페이스부와 무선인터페이스부를 포함할 수 있다. The interface section (10) may include a wired interface section and a wireless interface section.
유선인터페이스부는 방송신호를 수신하기 위한 지상파/위성방송 안테나 연결 튜너, 케이블 방송 케이블 연결 인터페이스 등을 포함할 수 있다.The wired interface section may include a terrestrial/satellite broadcasting antenna connection tuner for receiving broadcast signals, a cable broadcasting cable connection interface, etc.
유선인터페이스부는 영상기기 연결을 위한 HDMI, DP, DVI, Component, S-Video, 컴포지트(RCA 단자) 등을 포함할 수 있다.The wired interface section can include HDMI, DP, DVI, Component, S-Video, composite (RCA terminal) for connecting video devices.
유선인터페이스부는 범용 전자기기 연결을 위한 USB 인터페이스 등을 포함할 수 있다.The wired interface section may include a USB interface for connecting general-purpose electronic devices.
유선인터페이스부는 광케이블 기기의 연결 인터페이스를 포함할 수 있다.The wired interface section may include a connection interface for an optical cable device.
유선인터페이스부는 헤드셋, 이어폰, 외부 스피커 등의 오디오기기 연결 인터페이스를 포함할 수 있다.The wired interface section may include an interface for connecting audio devices such as a headset, earphones, and external speakers.
유선인터페이스부는 이더넷 등 유선 네트워크 기기의 연결 인터페이스를 포함할 수 있다.The wired interface section may include a connection interface for wired network devices such as Ethernet.
무선인터페이스부는 와이파이, 블루투스, ZigBee, Z-wave, RFID, WiGig, WirelessHD, UWB(Ultra-Wide Band), Wireless USB, NFC(Near Field Communication) 등 무선 네트워크 기기의 연결 인터페이스를 포함할 수 있다.The wireless interface section may include connection interfaces for wireless network devices such as Wi-Fi, Bluetooth, ZigBee, Z-wave, RFID, WiGig, WirelessHD, UWB (Ultra-Wide Band), Wireless USB, and NFC (Near Field Communication).
무선인터페이스부는 리모컨신호 송신 및/또는 수신을 위한 IR 송수신 모듈을 포함할 수 있다. The wireless interface unit may include an IR transceiver module for transmitting and/or receiving remote control signals.
무선인터페이스부는 2G ~ 5G 등 이동통신기기 연결 인터페이스를 포함할 수 있다.The wireless interface section may include a mobile communication device connection interface such as 2G to 5G.
인터페이스부(10)는 다양한 소스장치(2) 각각에 대해 전용으로 통신을 수행하는 전용통신모듈을 포함할 수 있다.The interface unit (10) may include a dedicated communication module that performs dedicated communication for each of the various source devices (2).
인터페이스부(10)는 다양한 소스장치(2)들과 공통으로 통신을 수행하는 공용통신모듈, 예를 들면 와이파이모듈 등을 포함할 수 있다.The interface unit (10) may include a common communication module that performs common communication with various source devices (2), for example, a Wi-Fi module.
인터페이스부(10)는 입력인터페이스부와 출력인터페이스부를 포함할 수도 있다. 이때, 입력인터페이스부와 출력인터페이스부는 하나의 모듈로 통합되거나 별도의 모듈로 구현될 수도 있다.The interface unit (10) may include an input interface unit and an output interface unit. In this case, the input interface unit and the output interface unit may be integrated into one module or implemented as separate modules.
입력신호처리부(11)는 HDMI Rx1~Rx4를 통해 수신된 4개의 4k 영상신호1~4를 통합하여 하나의 통합영상신호(MVS)를 생성할 수 있다. The input signal processing unit (11) can generate one integrated video signal (MVS) by integrating four 4K video signals 1 to 4 received through HDMI Rx1 to Rx4.
입력신호처리부(11)는 영상신호를 디코딩하는 디코더(111), 복수의 영상신호를 통합하는 영상통합부(112) 및 오디오 스위칭부(113)를 포함할 수 있다.The input signal processing unit (11) may include a decoder (111) that decodes a video signal, an image integration unit (112) that integrates multiple video signals, and an audio switching unit (113).
디코더(111)는 TMDS 포맷의 영상신호1~4를 각각 디코딩 할 수 있다. 디코더(111)는 예를 들면 FEC(Forward Error Correction) 디코더 또는 DSC(Display Stream Compression) 디코더를 포함할 수 있다.The decoder (111) can decode video signals 1 to 4 in TMDS format, respectively. The decoder (111) may include, for example, an FEC (Forward Error Correction) decoder or a DSC (Display Stream Compression) decoder.
영상통합부(112)는 예를 들면 TMDS 포맷의 영상신호1~4로부터 각각 액티브 영상데이터1~4를 추출할 수 있다. 영상통합부(112)는 추출된 4개의 액티브 영상데이터1~4를 설정된 위치 및 크기로 화면의 4개 영역에 각각 할당한 통합영상데이터(MVD; merged video data)를 생성할 수 있다.The video integration unit (112) can extract active video data 1 to 4 from video signals 1 to 4 in TMDS format, for example. The video integration unit (112) can generate integrated video data (MVD; merged video data) by assigning the four extracted active video data 1 to 4 to four areas of the screen at set positions and sizes.
영상통합부(112)는 인터페이스부(10)로부터 수신된 복수의 영상신호 중 화면에 표시될 영상신호를 선택할 수 있다. 영상통합부(112)는 선택된 영상신호의 위치 및/또는 선택된 영상신의 크기 중 적어도 하나에 관한 정보를 기초로 통합영상데이터(MVD)를 생성할 수 있다.The image integration unit (112) can select an image signal to be displayed on the screen from among multiple image signals received from the interface unit (10). The image integration unit (112) can generate integrated image data (MVD) based on information about at least one of the position of the selected image signal and/or the size of the selected image signal.
영상통합부(112)는 4개의 영상신호1~4의 동기신호에 기초하여 통합영상데이터(MVD)에 대응하는 동기신호를 생성할 수 있다.The video integration unit (112) can generate a synchronization signal corresponding to integrated video data (MVD) based on the synchronization signals of four video signals 1 to 4.
영상통합부(112)는 통합된 4개의 영상신호1~4의 정보, 통합 전과 통합 후의 차이에 관한 정보, 예를 들면 통합 시에 변화된 영상의 크기 차이 정보와 같은 통합정보(MVI; merged video information)를 생성할 수 있다.The video integration unit (112) can generate integrated information (MVI; merged video information), such as information on the four integrated video signals 1 to 4, information on the difference between before and after integration, and information on the difference in the size of the image changed during integration.
영상통합부(112)는 통합 시에 생성된 통합영상데이터(MVD), 동기신호 및 통합정보(MVI)에 기초하여 통합영상신호(MVS; merged video signal)를 생성하여 영상처리부(12)로 전달할 수 있다.The video integration unit (112) can generate a merged video signal (MVS) based on the integrated video data (MVD), synchronization signal, and integrated information (MVI) generated during integration and transmit it to the video processing unit (12).
오디오 스위칭부(113)는 4개의 영상신호1~4 각각에 포함된 4개의 오디오신호(Audio1~4)를 추출하여 오디오처리부1~4(14)로 전달할 수 있다. 오디오 스위칭부(113)는 4개의 영상(Video1~4)에 대응하는 4개의 오디오신호(Audio1~4)를 출력할 출력장치, 예를 들면 스피커1~4에 관한 정보를 기초로 오디오신호(Audio1~4)를 오디오처리부 1~4에 할당되도록 스위칭할 수 있다. 오디오신호(Audio1~4)를 출력할 스피커1~4에 관한 정보는 사용자입력을 통해 프로세서(16)로부터 수신할 수 있다.The audio switching unit (113) can extract four audio signals (Audio1 to 4) included in each of four video signals 1 to 4 and transmit them to the audio processing units 1 to 4 (14). The audio switching unit (113) can switch the audio signals (Audio1 to 4) to be assigned to the audio processing units 1 to 4 based on information about output devices, for example, speakers 1 to 4, that will output the four audio signals (Audio1 to 4) corresponding to the four videos (Video1 to 4). Information about speakers 1 to 4 that will output the audio signals (Audio1 to 4) can be received from the processor (16) through user input.
입력신호처리부(11)는 전자장치(1)에 내장되는 PCB 상에 실장되는 메인 SoC(Main SoC)에 포함되는 형태로서 구현 가능하다.The input signal processing unit (11) can be implemented as a form included in a main SoC (Main SoC) mounted on a PCB embedded in an electronic device (1).
입력신호처리부(11)는 제어프로그램이 설치된 비휘발성의 메모리로부터 명령어들(instructions)을 포함하는 제어프로그램의 적어도 일부를 휘발성의 메모리로 로드하고, 로드된 제어프로그램의 명령어를 실행하는 프로세서(16), 예를 들면 CPU(Central Processing Unit), AP(application processor), 또는 마이크로프로세서(microprocessor)로 구현될 수도 있다.The input signal processing unit (11) may be implemented as a processor (16), for example, a CPU (Central Processing Unit), an AP (Application Processor), or a microprocessor, that loads at least a part of a control program including instructions from a nonvolatile memory in which the control program is installed into a volatile memory and executes the instructions of the loaded control program.
영상처리부(12)는 입력신호처리부(11)에서 수신한 통합영상신호(MVS)에 대해 디스플레이부(13)에 표시하기 위한 영상프레임을 생성하는 다양한 영상처리 프로세스를 수행한다. 영상처리부(12)가 수행하는 영상처리 프로세스의 종류는 다양하다. 영상처리 프로세스는 예를 들면 통합영상데이터(MVS)의 영상 포맷에 대응하는 디코딩(decoding), 인터레이스(interlace) 방식의 통합영상데이터(MVS)를 프로그레시브(progressive) 방식으로 변환하는 디인터레이싱(de-interlacing), 통합영상데이터(MVS)를 기 설정된 해상도로 조정하는 스케일링(scaling), 영상 화질 개선을 위한 노이즈 감소(noise reduction), 디테일 강화(detail enhancement), 프레임 리프레시 레이트(frame refresh rate) 변환 등을 포함할 수 있다.The image processing unit (12) performs various image processing processes for generating image frames to be displayed on the display unit (13) for the integrated image signal (MVS) received from the input signal processing unit (11). The types of image processing processes performed by the image processing unit (12) are diverse. The image processing processes may include, for example, decoding corresponding to the image format of the integrated image data (MVS), de-interlacing for converting the integrated image data (MVS) in an interlace format into a progressive format, scaling for adjusting the integrated image data (MVS) to a preset resolution, noise reduction for improving image quality, detail enhancement, frame refresh rate conversion, etc.
영상처리부(12)는 이러한 프로세스를 수행한 결과의 영상프레임을 전자장치(1)에 내장된 디스플레이부(13)에 전송할 수 있다.The image processing unit (12) can transmit the image frame resulting from performing this process to the display unit (13) built into the electronic device (1).
디스플레이부(13)는 영상처리부(12)에서 처리된 영상프레임을 표시할 수 있다. The display unit (13) can display an image frame processed in the image processing unit (12).
디스플레이부(13)의 구현 방식은 한정되지 않는 바, 액정(liquid crystal), 플라즈마(plasma), 발광 다이오드(light-emitting diode), 유기발광 다이오드(organic light-emitting diode), 면전도 전자총(surface-conduction electron-emitter), 탄소 나노 튜브(carbon nano-tube), 나노 크리스탈(nano-crystal) 등의 다양한 디스플레이 패널로 구현될 수 있다. The method of implementing the display unit (13) is not limited, and can be implemented with various display panels such as liquid crystal, plasma, light-emitting diode, organic light-emitting diode, surface-conduction electron-emitter, carbon nano-tube, nano-crystal, etc.
디스플레이부(13)는 구현 방식에 따라서 부가적인 구성을 추가적으로 포함할 수 있다. 예를 들면, 디스플레이부(13)는 영상처리부(12)에서 생성한 영상프레임의 시간을 조절하는 타이밍 컨트롤러(131)와 영상을 표시하는 화면을 구성하는 패널(132)을 포함할 수 있다. 디스플레이부(13)는 추가적으로 패널(132)을 구동시키는 패널구동부를 더 포함할 수 있다.The display unit (13) may additionally include additional components depending on the implementation method. For example, the display unit (13) may include a timing controller (131) that adjusts the time of an image frame generated by the image processing unit (12) and a panel (132) that constitutes a screen for displaying an image. The display unit (13) may additionally include a panel driving unit that drives the panel (132).
오디오처리부1~4(14)는 수신된 4개의 오디오신호(Audio1~4)를 처리할 수 있다. 오디오처리부1~4(14)는 오디오 스위칭부(113)에서 수신한 디지털 오디오신호(Audio1~4)에서 아날로그 오디오 신호(Audio1~4)로의 변환, 증폭, 믹싱 등을 수행할 수 있다. 오디오처리부1~4(14)는 믹싱 된 아날로그 오디오 신호(Audio1~4)를 음성출력부(15)로 출력할 수 있다.Audio processing units 1 to 4 (14) can process four received audio signals (Audio 1 to 4). Audio processing units 1 to 4 (14) can perform conversion, amplification, mixing, etc. from digital audio signals (Audio 1 to 4) received from audio switching unit (113) to analog audio signals (Audio 1 to 4). Audio processing units 1 to 4 (14) can output the mixed analog audio signals (Audio 1 to 4) to the audio output unit (15).
음성출력부(15)는 4개의 영상신호1~4에 포함된 각각의 오디오신호(Audio1~4)를 재생하는 4개의 스피커 1~4를 포함할 수 있다. 예를 들면, 스피커1~3은 전자장치(1)에 내장되고, 스피커4는 외부에 마련되어 제2인터페이스부, 예를 들면 블루투스 통신모듈(19)을 통해 연결될 수 있다. 물론, 스피커 1~4는 모두 내장될 수도 있고, 모두 외부에 마련될 수도 있다.The audio output unit (15) may include four speakers 1 to 4 that play back each audio signal (Audio1 to 4) included in four video signals 1 to 4. For example, speakers 1 to 3 may be built into the electronic device (1), and speaker 4 may be provided externally and connected through a second interface unit, for example, a Bluetooth communication module (19). Of course, speakers 1 to 4 may all be built in, or may all be provided externally.
프로세서(16)는 전자장치(1)의 각 구성 부품, 예를 들면 인터페이스(10), 입력신호처리부(11), 영상처리부(12), 디스플레이부(13), 오디오처리부(14), 및 음성출력부(15)를 제어할 수 있다.The processor (16) can control each component of the electronic device (1), for example, the interface (10), the input signal processing unit (11), the image processing unit (12), the display unit (13), the audio processing unit (14), and the voice output unit (15).
프로세서(16)는 화면의 복수 영역에 표시할 영상의 선택, 선택된 영상이 표시되는 위치, 표시되는 영상의 크기에 관한 정보를 기초로 입력신호처리부(11)에 전달할 수 있다. 이러한 정보는 예를 들면 OSD를 통해 사용자로부터 입력된 화면설정 정보를 기초로 얻을 수 있다.The processor (16) can transmit information about the selection of images to be displayed in multiple areas of the screen, the location where the selected images are displayed, and the size of the displayed images to the input signal processing unit (11). This information can be obtained, for example, based on screen setting information input by the user through the OSD.
프로세서(16)는 사용자로부터 화면설정 변경입력이 수신되면 이를 입력신호처리부(11)로 전송하여 통합영상신호(MVS) 생성에 반영할 수 있다. 화면설정 변경입력은 특정영역에 표시되던 영상을 새로운 영상으로 변경하거나, 영역과 영역 간의 표시 영상을 교환하거나, 표시되는 영상의 크기를 변경하는 경우 등을 포함할 수 있다. When a screen setting change input is received from a user, the processor (16) can transmit it to the input signal processing unit (11) and reflect it in the generation of an integrated video signal (MVS). The screen setting change input can include cases such as changing an image displayed in a specific area to a new image, exchanging displayed images between areas, or changing the size of a displayed image.
프로세서(16)는 전자장치(1)의 전원이 켜지는 경우 최종적으로 설정된 화면 설정정보를 통항영상신호(MVS) 생성에 반영하도록 입력신호처리부(11)에 전달할 수 있다. 물론, 입력신호처리부(11)는 메모리에 저장된 가장 마지막에 설정된 화면 설정정보를 직접 참조할 수도 있다.The processor (16) can transmit the finally set screen setting information to the input signal processing unit (11) to reflect it in the generation of a navigation video signal (MVS) when the electronic device (1) is powered on. Of course, the input signal processing unit (11) can also directly refer to the most recently set screen setting information stored in the memory.
프로세서(16)는 사용자ID별로 설정된 화면설정 정보를 입력신호처리부(11)에 전달할 수도 있다.The processor (16) can also transmit screen setting information set for each user ID to the input signal processing unit (11).
프로세서(16)는 사용자에 의해 선택 또는 설정된 4개의 영상(Video1~4)에 대응하는 오디오신호(Audio1~4)를 재생할 스피커1~4에 관한 정보를 저장하거나 입력신호처리부(11)에 전달할 수 있다.The processor (16) can store information about speakers 1 to 4 that will play audio signals (Audio 1 to 4) corresponding to four videos (Video 1 to 4) selected or set by the user, or transmit the information to the input signal processing unit (11).
프로세서(16)는 데이터를 수집하고, 수집된 데이터를 분석, 처리, 및 결과 정보 생성 중 적어도 일부를 규칙 기반 또는 인공지능(Artificial Intelligence) 알고리즘으로서 기계학습, 신경망 네트워크(neural network), 또는 딥러닝 알고리즘 중 적어도 하나를 이용하여 수행할 수 있다.The processor (16) can collect data, analyze, process, and generate result information using at least one of a machine learning, neural network, or deep learning algorithm as a rule-based or artificial intelligence algorithm.
일 예로, 프로세서(16)는 학습부 및 인식부의 기능을 수행할 수 있다. 학습부는, 예를 들면, 학습된 신경망 네트워크를 생성하는 기능을 수행하고, 인식부는 학습된 신경망 네트워크를 이용하여 데이터를 인식(또는, 추론, 예측, 추정, 판단)하는 기능을 수행할 수 있다. 학습부는 신경망 네트워크를 생성하거나 갱신할 수 있다. 학습부는 신경망 네트워크를 생성하기 위해서 학습 데이터를 획득할 수 있다. 예를 들면, 학습부는 학습 데이터를 메모리 또는 외부로부터 획득할 수 있다. 학습 데이터는, 신경망 네트워크의 학습을 위해 이용되는 데이터일 수 있다.For example, the processor (16) can perform the functions of a learning unit and a recognition unit. The learning unit can perform a function of generating a learned neural network, for example, and the recognition unit can perform a function of recognizing (or inferring, predicting, estimating, or judging) data using the learned neural network. The learning unit can generate or update a neural network. The learning unit can obtain learning data to generate the neural network. For example, the learning unit can obtain learning data from a memory or from the outside. The learning data can be data used for learning the neural network.
학습부는 학습 데이터를 이용하여 신경망 네트워크를 학습시키기 전에, 획득된 학습 데이터에 대하여 전처리 작업을 수행하거나, 또는 복수 개의 학습 데이터들 중에서 학습에 이용될 데이터를 선별할 수 있다. 예를 들면, 학습부는 학습 데이터를 기 설정된 포맷으로 가공하거나, 필터링하거나, 또는 노이즈를 추가/제거하여 학습에 적절한 데이터의 형태로 가공할 수 있다. 학습된 신경망 네트워크는, 복수의 신경망 네트워크(또는, 레이어)들로 구성될 수 있다. 복수의 신경망 네트워크의 노드들은 가중치를 가지며, 복수의 신경망 네트워크들은 일 신경망 네트워크의 출력 값이 다른 신경망 네트워크의 입력 값으로 이용되도록 서로 연결될 수 있다. 신경망 네트워크의 예로는, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network) 및 심층 Q-네트워크 (Deep Q-Networks)과 같은 모델을 포함할 수 있다.Before training a neural network using training data, the learning unit may perform a preprocessing operation on the acquired training data, or select data to be used for training from among a plurality of training data. For example, the learning unit may process the training data into a preset format, filter it, or add/remove noise to process it into a form of data suitable for training. The trained neural network may be composed of a plurality of neural network networks (or layers). Nodes of the plurality of neural network networks have weights, and the plurality of neural network networks may be connected to each other so that the output value of one neural network is used as the input value of another neural network. Examples of the neural network may include models such as a CNN (Convolutional Neural Network), a DNN (Deep Neural Network), an RNN (Recurrent Neural Network), an RBM (Restricted Boltzmann Machine), a DBN (Deep Belief Network), a BRDNN (Bidirectional Recurrent Deep Neural Network), and Deep Q-Networks.
한편 인식부는 타겟 데이터를 획득할 수 있다. 타겟 데이터는 메모리 또는 외부로부터 획득된 것일 수 있다. 타겟 데이터는, 신경망 네트워크의 인식 대상이 되는 데이터일 수 있다. 인식부는 타겟 데이터를 학습된 신경망 네트워크에 적용하기 전에, 획득된 타겟 데이터에 대하여 전처리 작업을 수행하거나, 또는 복수 개의 타겟 데이터들 중에서 인식에 이용될 데이터를 선별할 수 있다. 예를 들면, 인식부는 타겟 데이터를 기 설정된 포맷으로 가공하거나, 필터링 하거나, 또는 노이즈를 추가/제거하여 인식에 적절한 데이터의 형태로 가공할 수 있다. 인식부는 전처리된 타겟 데이터를 신경망 네트워크에 적용함으로써, 신경망 네트워크로부터 출력되는 출력값을 획득할 수 있다. 다양한 실시예에 따르면, 인식부는 출력값과 함께 학률값(또는, 신뢰도값)을 함께 획득할 수 있다.Meanwhile, the recognition unit can obtain target data. The target data may be obtained from memory or from the outside. The target data may be data that is to be recognized by the neural network. The recognition unit may perform a preprocessing operation on the obtained target data before applying the target data to the trained neural network, or select data to be used for recognition from among a plurality of target data. For example, the recognition unit may process the target data into a preset format, filter it, or add/remove noise to process it into a form of data suitable for recognition. The recognition unit may obtain an output value output from the neural network by applying the preprocessed target data to the neural network. According to various embodiments, the recognition unit may obtain a learning rate value (or a reliability value) together with the output value.
프로세서(16)는 제어프로그램이 설치된 비휘발성의 메모리로부터 명령어들(instructions)을 포함하는 제어프로그램의 적어도 일부를 휘발성의 메모리로 로드하고, 로드된 제어프로그램의 명령어를 실행하는 적어도 하나의 범용 프로세서를 포함하며, 예를 들면 CPU(Central Processing Unit), AP(application processor), 또는 마이크로프로세서(microprocessor)로 구현될 수 있다. The processor (16) includes at least one general-purpose processor that loads at least a part of a control program including instructions from a non-volatile memory in which the control program is installed into a volatile memory and executes the instructions of the loaded control program, and may be implemented as, for example, a CPU (Central Processing Unit), an AP (application processor), or a microprocessor.
프로세서(16)는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 및 그 배수의 코어를 포함할 수 있다. 프로세서(16)는 복수 개 마련될 수 있다. 프로세서(16)는 예를 들어, 메인 프로세서(main processor) 및 슬립 모드(sleep mode, 예를 들어, 대기 전원만 공급되는 모드)에서 동작하는 서브 프로세서(sub processor)를 포함할 수 있다. 또한, 프로세서, 롬 및 램은 내부 버스(bus)를 통해 상호 연결된다.The processor (16) may include a single core, a dual core, a triple core, a quad core, and a multiple thereof. A plurality of processors (16) may be provided. The processor (16) may include, for example, a main processor and a sub processor that operates in a sleep mode (e.g., a mode in which only standby power is supplied). In addition, the processor, ROM, and RAM are interconnected through an internal bus.
프로세서(16)는 전자장치(1)에 내장되는 PCB 상에 실장되는 메인 SoC(Main SoC)에 포함되는 형태로서 구현 가능하다. 다른 실시예에서 메인 SoC는 영상처리부를 더 포함할 수 있다.The processor (16) can be implemented as a form included in a main SoC (Main SoC) mounted on a PCB embedded in the electronic device (1). In another embodiment, the main SoC may further include an image processing unit.
제어프로그램은, BIOS, 디바이스드라이버, 운영체계, 펌웨어, 플랫폼 및 응용프로그램(어플리케이션) 중 적어도 하나의 형태로 구현되는 프로그램(들)을 포함할 수 있다. 응용프로그램은, 전자장치(1)의 제조 시에 미리 설치 또는 저장되거나, 혹은 추후 사용 시에 외부로부터 응용프로그램의 데이터를 수신하여 수신된 데이터에 기초하여 설치될 수 있다. 응용 프로그램의 데이터는, 예컨대, 어플리케이션 마켓과 같은 외부 서버로부터 전자장치(1)로 다운로드될 수도 있다. 이와 같은 제어프로그램, 외부 서버 등은, 컴퓨터프로그램제품의 일례이나, 이에 한정되는 것은 아니다.The control program may include program(s) implemented in the form of at least one of BIOS, device driver, operating system, firmware, platform, and application program (application). The application program may be installed or stored in advance when the electronic device (1) is manufactured, or may be installed based on the received data by receiving application program data from the outside when used later. The application program data may also be downloaded to the electronic device (1) from an external server, such as an application market, for example. Such control programs, external servers, etc. are examples of computer program products, but are not limited thereto.
전자장치(1)는 메모리(17)를 더 포함할 수 있다. 메모리(17)는 컴퓨터에 의해 판독 가능한 기록매체로서, 한정되지 않은 데이터가 저장된다. 메모리(17)는 프로세서(16)에 의해 액세스 되며, 이들에 의한 데이터의 독취, 기록, 수정, 삭제, 갱신 등이 수행된다. The electronic device (1) may further include a memory (17). The memory (17) is a computer-readable recording medium in which unlimited data is stored. The memory (17) is accessed by the processor (16), and data is read, recorded, modified, deleted, updated, etc. by these.
메모리(17)는 화면 설정 정보, 예를 들면 화면의 복수의 영역에 표시하기 위해 할당된 영상 정보, 영상의 위치 정보, 영상의 크기 정보 등을 저장할 수 있다.Memory (17) can store screen setting information, for example, image information allocated to display in multiple areas of the screen, image position information, image size information, etc.
메모리(17)에 저장되는 데이터는, 인터페이스부(10)를 통해 수신된 각종 영상/음성 컨텐츠 및 수신된 영상을 처리하여 순차적으로 표시한 복수 프레임 데이터를 포함할 수 있다. 메모리(17)는 음성인식을 위한 음성인식모듈(음성인식엔진)을 포함할 수 있다.Data stored in the memory (17) may include various image/audio contents received through the interface unit (10) and multiple frame data sequentially displayed by processing the received images. The memory (17) may include a voice recognition module (voice recognition engine) for voice recognition.
메모리(17)는 운영체제, 운영체제 상에서 실행 가능한 다양한 애플리케이션, 영상데이터, 부가데이터 등을 포함할 수 있다.Memory (17) may include an operating system, various applications executable on the operating system, image data, additional data, etc.
메모리(17)는 제어프로그램이 설치되는 비휘발성의 메모리, 설치된 제어프로그램의 적어도 일부가 로드되는 휘발성의 메모리를 포함한다.Memory (17) includes non-volatile memory in which a control program is installed and volatile memory in which at least a portion of the installed control program is loaded.
메모리(17)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The memory (17) may include at least one type of storage medium among a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (e.g., SD or XD memory, etc.), a RAM (Random Access Memory), a SRAM (Static Random Access Memory), a ROM (Read-Only Memory), an EEPROM (Electrically Erasable Programmable Read-Only Memory), a PROM (Programmable Read-Only Memory), a magnetic memory, a magnetic disk, and an optical disk.
전자장치(1)는 음성인식부(18)를 포함할 수 있다.The electronic device (1) may include a voice recognition unit (18).
음성인식부(18)는 메모리(17)에 저장된 음성인식모듈을 실행하여 전자장치(1)에 내장된 마이크, 또는 외부장치, 예를 들면 모바일장치나 리모컨에 내장된 마이크 등으로부터 입력 또는 전달된 음성을 인식할 수 있다.The voice recognition unit (18) can recognize voice input or transmitted from a microphone built into the electronic device (1) or an external device, such as a microphone built into a mobile device or remote control, by executing a voice recognition module stored in the memory (17).
모바일장치나 리모컨의 마이크로 음성을 수신하는 경우, 모바일장치 또는 리모컨은 아날로그 음성 신호를 디지털화 하여 예를 들면 블루투스 등으로 전자장치(1) 측으로 전송할 수 있다.When receiving voice through the microphone of a mobile device or remote control, the mobile device or remote control can digitize the analog voice signal and transmit it to the electronic device (1) side, for example, via Bluetooth.
전자장치(1) 자체의 마이크로 음성 신호를 수신하는 경우, 수신된 아날로그 음성 신호는 디지털화 하여 전자장치(1)의 프로세서(16)로 전송될 수 있다.When the electronic device (1) itself receives a microphone voice signal, the received analog voice signal can be digitized and transmitted to the processor (16) of the electronic device (1).
전자장치(1)는 수신한 음성 신호를 서버로 전송할 수 있다. 이때, 서버는 음성신호 관련 데이터를 적절한 텍스트로 변환하는 STT서버 또는 STT서버 기능도 함께 수행하는 메인 서버일 수도 있다.The electronic device (1) can transmit the received voice signal to the server. At this time, the server may be an STT server that converts voice signal-related data into appropriate text or a main server that also performs STT server functions.
STT서버에서 처리된 데이터는 전자장치(1)가 다시 수신하거나 다른 서버로 바로 전송할 수도 있다.Data processed by the STT server can be received again by the electronic device (1) or transmitted directly to another server.
물론, 전자장치(1)는 수신한 음성신호를 STT서버로 전송하지 않고, 전자장치(1) 내에서 자체적으로 처리할 수도 있다. 즉, 전자장치(1)는 자체적으로 STT서버 역할을 수행할 수도 있다.Of course, the electronic device (1) may process the received voice signal within the electronic device (1) without transmitting it to the STT server. In other words, the electronic device (1) may perform the role of an STT server on its own.
전자장치(1)는 서버에서 전송한 텍스트나 자체적으로 변환한 텍스트를 이용하여 특정 기능 수행할 수 있다. 이때, 기능을 수행하는 것은 전자장치(1) 내 프로세서(16)일 수도 있고, 변환된 텍스트가 전송된 별도 서버(STT서버와 다른 서버 또는 STT서버 역할도 하는 서버)일 수 있다.The electronic device (1) can perform a specific function using text transmitted from a server or text converted by itself. At this time, the function may be performed by a processor (16) within the electronic device (1) or a separate server (a server other than the STT server or a server that also functions as an STT server) to which the converted text is transmitted.
도 3은 본 발명의 실시예에 따라 분할영상 표시를 위한 전자장치(1)의 제어방법을 나타내는 순서도이다.FIG. 3 is a flowchart showing a control method of an electronic device (1) for displaying a split image according to an embodiment of the present invention.
사용자는 화면의 1/4분면, 2/4분면, 3/4분면, 4/4분면에 각각 Video1, Video2, Video3, Video4를 표시하도록 설정할 수 있다. 이때, 사용자는 각 영역에 표시되는 Video1, Video2, Video3, Video4의 크기도 조절할 수 있다. 프로세서(16)는 이러한 화면 설정입력 정보, 즉 영상의 위치 및/또는 크기를 입력신호처리부(11)로 전송할 수 있다.The user can set Video1, Video2, Video3, and Video4 to be displayed in the 1/4 quadrant, 2/4 quadrant, 3/4 quadrant, and 4/4 quadrant of the screen, respectively. At this time, the user can also adjust the size of Video1, Video2, Video3, and Video4 displayed in each area. The processor (16) can transmit such screen setting input information, i.e., the position and/or size of the image, to the input signal processing unit (11).
단계 S11에서, 인터페이스부(10)는 4개의 영상신호1~4를 수신할 수 있다. 이때, 인터페이스부(10)는 도 2에 나타낸 바와 같이 HDMI일 수 있다.In step S11, the interface unit (10) can receive four video signals 1 to 4. At this time, the interface unit (10) can be HDMI as shown in Fig. 2.
단계 S12에서, 입력신호처리부(11)는 다수의 영상신호 중 화면에 표시할 4개의 4k 영상신호1~4를 선택하고, 디코딩을 수행할 수 있다.In step S12, the input signal processing unit (11) can select four 4K video signals 1 to 4 to be displayed on the screen among a plurality of video signals and perform decoding.
영상신호1~4는 도 4에 나타낸 바와 같은 4개 TMDS포맷으로 이루어질 수 있다.Video signals 1 to 4 can be composed of four TMDS formats as shown in Fig. 4.
TMDS(Transition Minimized Differential Signal)는 '영상데이터 기간', '데이터 아일랜드 기간', '제어 기간' 세가지 모드 중 하나를 사용하여 영상, 음성, 그리고 기타 데이터들을 전송한다. '영상데이터 기간'에서는 영상데이터가 전송될 수 있다. '데이터 아일랜드 기간'은 '수평/수직 귀선기간'에 발생하여 음성과 기타 데이터들이 여러 개의 패킷으로 나누어져 보내질 수 있다. '제어 기간'은 '영상데이터 기간'과 '데이터 아일랜드 기간' 사이에 발생될 수 있다.TMDS (Transition Minimized Differential Signal) transmits video, audio, and other data using one of three modes: 'video data period', 'data island period', and 'control period'. Video data can be transmitted during the 'video data period'. The 'data island period' occurs during the 'horizontal/vertical retracement period', so that audio and other data can be sent divided into multiple packets. The 'control period' can occur between the 'video data period' and the 'data island period'.
HDMI는 TMDS를 사용하여 '영상데이터 기간'에 8b/10b 인코딩 방식으로,'제어 기간'에 2b/10b인코딩 방식으로 10비트의 영상데이터를 전송할 수 있다. 또한, HDMI는 '데이터 아일랜드 기간'에 4b/10b 인코딩 방식으로 음성과 기타자료를 전송할 수 있다. 이때, 한번의 '데이터 아일랜드 기간'에 32픽셀 만큼의 데이터를 전송할 수 있고, 패킷의 내용을 설명하는 32비트 패킷 헤더가 포함될 수 있다. 패킷 헤더에는 오류 수정 기능을 위한 8비트의 BCH ECC(Error Correction Code) 패리티 데이터가 포함될 수 있다.HDMI can transmit 10-bit video data using 8b/10b encoding in the 'video data period' and 2b/10b encoding in the 'control period' using TMDS. In addition, HDMI can transmit voice and other data using 4b/10b encoding in the 'data island period'. At this time, data equivalent to 32 pixels can be transmitted in one 'data island period', and a 32-bit packet header describing the contents of the packet can be included. The packet header can include 8-bit BCH ECC (Error Correction Code) parity data for error correction function.
각각의 패킷은 4개의 하부패킷을 가질 수 있다. 각각의 하부패킷은 64비트로 이루어질 수 있다. 이 패킷에도 8비트의 BCH ECC 패리티 데이터가 포함될 수 있다. 또한 각각의 '데이터 아일랜드 기간'에서는 최대 18개의 패킷을 전송할 수 있다. HDMI 1.3a 사양에 있는 15개의 패킷 종류 중 7개는 음성에 관하여, 나머지 8개는 기타 데이터를 위해 할당될 수 있다. 이들 중에는 표준 제어 패킷과 Gamut 메타데이터 패킷이 있다. 표준 제어 패킷은 음향에 노이즈가 발생할 때 음 소거를 해주는 기능(AVMUTE)과 색심도에 대한 정보를 가질 수 있다. Gamut 메타데이터 패킷은 xvYCC 사용을 위해 필요한, 재생중인 비디오 스트림을 위한 색 공간에 대한 정보를 담을 수 있다.Each packet can have four subpackets. Each subpacket can be 64 bits. This packet can also contain 8 bits of BCH ECC parity data. Also, each 'data island period' can transmit up to 18 packets. Of the 15 packet types in the HDMI 1.3a specification, 7 can be allocated for audio, and the remaining 8 can be allocated for other data. Among these, there are standard control packets and Gamut metadata packets. The standard control packet can have a function to mute when noise occurs in the audio (AVMUTE) and information about color depth. The Gamut metadata packet can contain information about the color space for the video stream being played, which is necessary for using xvYCC.
도 4는 TMDS포맷의 영상신호1~4(Video1~4)를 나타내는 도면이다.Figure 4 is a diagram showing video signals 1 to 4 (Video1 to 4) in TMDS format.
영상신호 1은 화면 전체에 표시되는 액티브 영상데이터1(Active Video1), 오디오데이터1(Audio1), 및 기타 데이터1을 포함할 수 있다. 영상신호 1은 액티브 영상데이터1을 화면 전체에 표시하기 위한 수직 및 수평 동기신호1(VSync1, HSync1)을 포함할 수 있다.Video signal 1 may include active video data 1 (Active Video 1), audio data 1 (Audio 1), and other data 1 displayed on the entire screen. Video signal 1 may include vertical and horizontal synchronization signals 1 (VSync 1, HSync 1) for displaying active video data 1 on the entire screen.
영상신호 2는 화면 전체에 표시되는 액티브 영상데이터2(Active Video2), 오디오데이터2(Audio2), 및 기타 데이터 2를 포함할 수 있다. 영상신호 2는 액티브 영상데이터2를 화면 전체에 표시하기 위한 수직 및 수평 동기신호2(VSync2, HSync2)를 포함할 수 있다.Video signal 2 may include active video data 2 (Active Video2), audio data 2 (Audio2), and other data 2 displayed on the entire screen. Video signal 2 may include vertical and horizontal synchronization signals 2 (VSync2, HSync2) for displaying active video data 2 on the entire screen.
영상신호 3은 화면 전체에 표시되는 액티브 영상데이터3(Active Video3), 오디오데이터3(Audio3), 및 기타 데이터 3을 포함할 수 있다. 영상신호 3은 액티브 영상데이터3을 화면 전체에 표시하기 위한 수직 및 수평 동기신호3(VSync3, HSync3)을 포함할 수 있다.Video signal 3 may include active video data 3 (Active Video3), audio data 3 (Audio3), and other data 3 displayed on the entire screen. Video signal 3 may include vertical and horizontal synchronization signals 3 (VSync3, HSync3) for displaying active video data 3 on the entire screen.
영상신호 4는 화면 전체에 표시되는 액티브 영상데이터4(Active Video4), 오디오데이터4(Audio4), 및 기타 데이터 4를 포함할 수 있다. 영상신호 4는 액티브 영상데이터4를 화면 전체에 표시하기 위한 수직 및 수평 동기신호4(VSync4, HSync4)를 포함할 수 있다.Video signal 4 may include active video data 4 (Active Video 4), audio data 4 (Audio 4), and other data 4 displayed on the entire screen. Video signal 4 may include vertical and horizontal synchronization signals 4 (VSync 4, HSync 4) for displaying active video data 4 on the entire screen.
단계 S13에서, 입력신호처리부(11)는 영상신호1~4로부터 액티브 영상데이터1~4(Active Video1~4)를 추출할 수 있다. In step S13, the input signal processing unit (11) can extract active video data 1 to 4 (Active Video 1 to 4) from video signals 1 to 4.
단계 S14에서, 입력신호처리부(11)는 도 5에 나타낸 바와 같이, 화면의 복수 영역 중에 표시될 위치 및 크기 정보를 기초로 액티브 영상데이터1~4(Active Video1~4)를 화면의 복수 영역에 할당한 통합영상데이터(MVD)를 생성할 수 있다.In step S14, the input signal processing unit (11) can generate integrated video data (MVD) that assigns active video data 1 to 4 (Active Video 1 to 4) to multiple areas of the screen based on position and size information to be displayed among multiple areas of the screen, as shown in FIG. 5.
예를 들면, 통합영상데이터(MVD)는 화면의 1/4분면에 소정 크기의 액티브 영상데이터1(Active Video1)가 배치되고, 화면의 2/4분면에 소정 크기의 액티브 영상데이터2(Active Video2)가 배치되고, 화면의 3/4분면에 소정 크기의 액티브 영상데이터3(Active Video3)이 배치되고, 화면의 4/4분면에 소정 크기의 액티브 영상데이터4(Active Video4)가 배치될 수 있다.For example, integrated video data (MVD) may have Active Video data 1 (Active Video1) of a predetermined size placed in the 1/4 quadrant of the screen, Active Video data 2 (Active Video2) of a predetermined size placed in the 2/4 quadrant of the screen, Active Video data 3 (Active Video3) of a predetermined size placed in the 3/4 quadrant of the screen, and Active Video data 4 (Active Video4) of a predetermined size placed in the 4/4 quadrant of the screen.
도 5는 통합영상신호(MVS)를 나타내는 도면이다.Figure 5 is a diagram showing an integrated video signal (MVS).
입력신호처리부(11)는 액티브 영상데이터1~4(Active Video1~4)의 위치 및/또는 크기 및 액티브 영상데이터1~4(Active Video1~4)의 수직 및 수평 동기신호1~4(VSync1~4, HSync1~4)를 참조하여 통합영상데이터(MVD)의 수직 및 수평 동기신호M(MVSync, MHSync)를 생성할 수 있다.The input signal processing unit (11) can generate vertical and horizontal synchronization signals M (MVSync, MHSync) of integrated video data (MVD) by referring to the position and/or size of active video data 1 to 4 (Active Video1 to 4) and vertical and horizontal synchronization signals 1 to 4 (VSync1 to 4, HSync1 to 4) of active video data 1 to 4 (Active Video1 to 4).
입력신호처리부(11)는 통합영상데이터(MVD)에 관한 정보 및 액티브 영상데이터1~4(Active Video1~4)의 변화된 위치 및/또는 크기 차이에 관한 정보와 같은 통합정보(MVI)를 생성할 수 있다.The input signal processing unit (11) can generate integrated information (MVI), such as information on integrated video data (MVD) and information on the changed position and/or size difference of active video data 1 to 4 (Active Video 1 to 4).
입력신호처리부(11)는 생성된 통합영상데이터(MVD), 수직 및 수평 동기신호M(MVSync, MHSync), 통합정보(MVI)를 포함하는 통합영상신호(MVS)를 생성할 수 있다. The input signal processing unit (11) can generate an integrated video signal (MVS) including generated integrated video data (MVD), vertical and horizontal synchronization signals M (MVSync, MHSync), and integrated information (MVI).
단계 S15에서, 영상처리부(12)는 통합영상신호(MVS)를 기초로 액티브 통합영상데이터를 추출하고, 추출된 통합영상데이터에 대해 화면에 표시하기 위한 다양한 처리를 통해 수행하여 영상프레임을 생성할 수 있다. 영상프레임의 생성을 위한 처리는 예를 들면 통합영상데이터(MVS)의 영상 포맷에 대응하는 디코딩(decoding), 인터레이스(interlace) 방식의 통합영상데이터(MVS)를 프로그레시브(progressive) 방식으로 변환하는 디인터레이싱(de-interlacing), 통합영상데이터(MVS)를 기 설정된 해상도로 조정하는 스케일링(scaling), 영상 화질 개선을 위한 노이즈 감소(noise reduction), 디테일 강화(detail enhancement), 프레임 리프레시 레이트(frame refresh rate) 변환 등을 포함할 수 있다.In step S15, the image processing unit (12) extracts active integrated image data based on the integrated image signal (MVS), and performs various processing for displaying the extracted integrated image data on the screen to generate an image frame. The processing for generating the image frame may include, for example, decoding corresponding to the image format of the integrated image data (MVS), de-interlacing for converting the integrated image data (MVS) in an interlace format into a progressive format, scaling for adjusting the integrated image data (MVS) to a preset resolution, noise reduction for improving image quality, detail enhancement, frame refresh rate conversion, etc.
단계 S16에서, 디스플레이부(14)는 생성된 영상프레임을 기초로 화면 전체에 통합영상데이터(MVD)에 대응하는 통합영상을 표시할 수 있다.In step S16, the display unit (14) can display an integrated image corresponding to the integrated image data (MVD) on the entire screen based on the generated image frame.
상술한 바와 같이, 본 발명의 전자장치(1)는 영상처리부(12)가 수신된 복수의 영상신호를 처리하기 전에, 복수의 영상신호 각각의 액티브 영상데이터를 화면의 복수 영역 중에 표시될 위치 및/또는 크기에 맞게 조정하여 통합함으로써 하나의 영상처리부(12)만으로 화면의 복수 영역에 표시할 복수의 영상신호를 처리할 수 있다.As described above, the electronic device (1) of the present invention can process multiple image signals to be displayed in multiple areas of the screen with only one image processing unit (12) by adjusting and integrating the active image data of each of the multiple image signals to fit the position and/or size to be displayed among multiple areas of the screen before the image processing unit (12) processes the received multiple image signals.
또한, 본 발명의 전자장치(1)는 화면을 4개로 분할한 후 4개의 4k 영상신호1~4를 각 분할 영역에 할당하여 표시함으로써, 전체적으로 8k 영상을 표시하는 것이 가능하다. In addition, the electronic device (1) of the present invention can display an 8k image as a whole by dividing the screen into four and then allocating four 4k image signals 1 to 4 to each divided area and displaying them.
도 6은 본 발명의 제2실시예에 따른 전자장치(1)의 구성을 나타내는 블록도이다. Figure 6 is a block diagram showing the configuration of an electronic device (1) according to a second embodiment of the present invention.
제2실시예에 따른 전자장치(1)는 자체적으로 영상을 표시하는 디스플레이부가 배제되고, 인터페이스부(10), 예를 들면 HDMI를 통해 수신된 4개의 영상신호1~4를 통합하여 통합영상신호(MVS)를 생성하고, 통합영상신호(MVS)를 기초로 영상프레임을 생성하여 외부에 마련된 디스플레이장치(3), 예를 들면 텔레비전이나 모니터로 출력할 수 있다. 또한, 4개의 영상신호1~4에 포함된 오디오신호1~4를 처리하여 케이블(C) 또는 블루투수 통신모듈(19)를 통해 외부에 마련된 음성출력장치(4)로 출력할 수 있다. 물론, 제2실시예에 따른 전자장치(1)는 간단한 알림, 제어 메뉴 등을 표시하기 위한 디스플레이부를 포함할 수도 있다.An electronic device (1) according to a second embodiment excludes a display unit that displays an image on its own, and integrates four image signals 1 to 4 received via an interface unit (10), for example, HDMI, to generate an integrated image signal (MVS), and generates an image frame based on the integrated image signal (MVS) to output it to an externally provided display device (3), for example, a television or monitor. In addition, audio signals 1 to 4 included in the four image signals 1 to 4 can be processed and output to an externally provided audio output device (4) via a cable (C) or a Bluetooth communication module (19). Of course, the electronic device (1) according to the second embodiment may also include a display unit for displaying simple notifications, control menus, etc.
도 7은 본 발명의 제3실시예에 따른 전자장치(1)의 구성을 나타내는 블록도이다. Figure 7 is a block diagram showing the configuration of an electronic device (1) according to a third embodiment of the present invention.
제3실시예에 따른 전자장치(1)는 통합해야 할 영상, 통합 시에 영상의 화면 내 배치, 표시하는 영상의 크기, 표시하는 영상의 오디오신호를 재생하는 스피커 정보 등을 디스플레이장치(3)로부터 수신하여 복수의 영상신호1~4를 통합하여 하나의 통합영상신호(MVS)를 생성할 수 있다. 통합영상신호(MVS)를 생성에 대한 설명은 도 2에 나타낸 제1실시예에 따른 입력신호처리부(11)와 유사하므로 생략한다.An electronic device (1) according to a third embodiment receives information about an image to be integrated, the image's layout on the screen when integrated, the size of the image to be displayed, and information about a speaker that reproduces an audio signal of the image to be displayed, from a display device (3), and integrates multiple image signals 1 to 4 to generate a single integrated image signal (MVS). An explanation of the generation of the integrated image signal (MVS) is omitted because it is similar to the input signal processing unit (11) according to the first embodiment shown in Fig. 2.
제3실시예에 따른 전자장치(1)는 화면의 복수 영역에 할당하여 표시할 예를 들면 4개의 영상신호1~4를 통합하여 통합영상신호(MVS)를 생성한 후, 디스플레이장치(3)로 전달할 수 있다. 이때, 영상신호1~4는 인터페이스부를 통해 외부의 소스장치(2)로부터 수신될 수 있다.An electronic device (1) according to the third embodiment can generate an integrated video signal (MVS) by integrating, for example, four video signals 1 to 4 to be displayed by assigning them to multiple areas of a screen, and then transmit the integrated video signal to a display device (3). At this time, the video signals 1 to 4 can be received from an external source device (2) through an interface unit.
디스플레이장치(3)는 전자장치(1)로부터 화면의 복수 영역에 표시할 영상신호1~4가 합쳐진 통합영상신호(MVS)를 수신하고, 화면표시를 위한 영상프레임을 생성하고, 영상프레임을 디스플레이부(33)의 화면에 표시할 수 있다.The display device (3) receives an integrated video signal (MVS) in which video signals 1 to 4 to be displayed in multiple areas of the screen are combined from the electronic device (1), generates a video frame for screen display, and can display the video frame on the screen of the display unit (33).
도 8은 본 발명의 제4실시예에 따른 전자장치(1)의 복수의 영상신호를 처리하여 표시하는 시나리오를 나타내는 도면이다.FIG. 8 is a diagram showing a scenario for processing and displaying multiple image signals of an electronic device (1) according to a fourth embodiment of the present invention.
사용자는 기존 화면의 1/4분면, 2/4분면, 3/4분면, 4/4분면에 각각 표시되던 Video1, Video2, Video3, Video4에서 4/4분면의 Video4를 USB에 있는 USB Movie로 변경할 수 있다. 이때, 프로세서(16)는 이러한 화면 설정입력 정보를 입력신호처리부(11)로 전송할 수 있다.The user can change Video1, Video2, Video3, and Video4, which were displayed in the 1/4, 2/4, 3/4, and 4/4 quadrants of the existing screen, respectively, to a USB Movie in the 4/4 quadrant. At this time, the processor (16) can transmit this screen setting input information to the input signal processing unit (11).
인터페이스부(10)는 4개의 제1영상신호1~4를 각각 수신하는 HDMI1~4 및 제2영상신호(USB Movie)가 저장된 USB에 연결된 USB인터페이스를 포함할 수 있다.The interface unit (10) may include HDMI1 to 4, which receive four first video signals 1 to 4 respectively, and a USB interface connected to a USB in which a second video signal (USB Movie) is stored.
입력신호처리부(11)는 4개의 제1영상신호1~4 중 제1영상신호1~3을 선택하여 액티브 영상데이터1~3(Active Video1~3)을 추출하고, 이 액티브 영상데이터1~3(Active Video1~3)를 각각 화면의 1/4분면, 2/4분면, 3/4분면의 영역에 할당하여 통합한 통합영상데이터(MVD)를 생성한 후에, 이를 기초로 통합영상신호(MVS)를 생성할 수 있다. 이와 같이, 통합영상데이터(MVD)는 화면의 4/4분면의 영역을 비워진 상태로 생성될 수 있다. 통합영상신호(MVS)는 영상처리부1(121)로 전달될 수 있다.The input signal processing unit (11) selects the first video signals 1 to 3 among the four first video signals 1 to 4, extracts active video data 1 to 3 (Active Video 1 to 3), and allocates the active video data 1 to 3 (Active Video 1 to 3) to the 1/4 quadrant, 2/4 quadrant, and 3/4 quadrant areas of the screen, respectively, to generate integrated video data (MVD), and then generates an integrated video signal (MVS) based on this. In this way, the integrated video data (MVD) can be generated with the 4/4 quadrant area of the screen empty. The integrated video signal (MVS) can be transmitted to the video processing unit 1 (121).
USB인터페이스를 통해 수신된 제2영상신호(USB Movie)는 영상처리부2(122)로 전달될 수 있다.The second video signal (USB Movie) received via the USB interface can be transmitted to the video processing unit 2 (122).
입력신호처리부(11)는 영상신호1~2에 대응하는 오디오신호1~2를 추출한 후에 이를 오디오처리부1~2(141,142)로 전달할 수 있다.The input signal processing unit (11) can extract audio signals 1 to 2 corresponding to video signals 1 to 2 and then transmit them to audio processing units 1 to 2 (141, 142).
영상처리부1(121)은 통합영상신호(MVS)를 화면의 1/4분면, 2/4분면, 3/4분면에 표시하기 위한 제1영상프레임을 생성할 수 있다.The video processing unit 1 (121) can generate a first video frame for displaying the integrated video signal (MVS) in the 1/4 quadrant, 2/4 quadrant, and 3/4 quadrant of the screen.
영상처리부2(122)는 제2영상신호(USB Movie)를 화면의 4/4분면에 표시하기 위한 제2영상프레임을 생성할 수 있다.The video processing unit 2 (122) can generate a second video frame for displaying the second video signal (USB Movie) on the 4/4 quadrant of the screen.
디스플레이부(13)는 제1영상프레임과 제2영상프레임을 합성하여 제1영상1~3(Video1~3) 및 제2영상(USB Movie)을 화면에 표시할 수 있다.The display unit (13) can display the first video 1 to 3 (Video 1 to 3) and the second video (USB Movie) on the screen by synthesizing the first video frame and the second video frame.
사용자는 HDMI1의 영상1(Video1)의 오디오신호1은 TV스피커(151)로 재생하고, HDMI2의 영상2(Video2)의 오디오신호2는 블루투스 스피커(152)로 재생하도록 지정할 수 있다.The user can specify that audio signal 1 of Video 1 of HDMI1 be played through TV speakers (151) and audio signal 2 of Video 2 of HDMI2 be played through Bluetooth speakers (152).
오디오처리부1~2(141,142)는 오디오신호1~2를 각각 처리하여 음성출력부(15)의 TV스피커(151)와 블루투스 스피커(152)로 전송하여 재생할 수 있다.Audio processing units 1 to 2 (141, 142) can process audio signals 1 to 2 respectively and transmit them to the TV speaker (151) and Bluetooth speaker (152) of the audio output unit (15) for playback.
도 9는 본 발명의 제5실시예에 따른 전자장치(1)의 복수의 영상신호를 처리하여 표시하는 시나리오를 나타내는 도면이다.FIG. 9 is a diagram showing a scenario for processing and displaying multiple image signals of an electronic device (1) according to a fifth embodiment of the present invention.
사용자는 기존 화면의 1/4분면, 2/4분면, 3/4분면, 4/4분면에 각각 표시되던 Video1, Video2, Video3, Video4를 Video3, Video2, Video1, Video4로 변경할 수 있다. 이때, 프로세서(16)는 이러한 화면 설정입력 정보를 입력신호처리부(11)로 전송할 수 있다.The user can change Video1, Video2, Video3, and Video4, which were displayed in the 1/4, 2/4, 3/4, and 4/4 quadrants of the existing screen, to Video3, Video2, Video1, and Video4. At this time, the processor (16) can transmit this screen setting input information to the input signal processing unit (11).
입력신호처리부(11)는 4개의 제1영상신호1~4 중 제1영상신호1~4를 모두 선택하여 액티브 영상데이터1~4(Active Video1~4)를 추출하고, 이 액티브 영상데이터1~4(Active Video1~4)를 각각 화면의 3/4분면, 2/4분면, 1/4분면, 4/4분면의 영역에 할당하여 통합한 통합영상데이터(MVD)를 생성한 후에, 이를 기초로 통합영상신호(MVS)를 생성할 수 있다. 이와 같이, 통합영상데이터(MVD)는 화면설정에 따라 표시된 영상의 순서를 변경되면 입력신호처리부(11)가 이를 반영하여 영상의 표시 순서가 바뀌도록 생성되어 영상처리부(12)로 전달될 수 있다.The input signal processing unit (11) selects all of the first video signals 1 to 4 among the four first video signals 1 to 4, extracts active video data 1 to 4 (Active Video 1 to 4), and allocates the active video data 1 to 4 (Active Video 1 to 4) to the areas of the 3/4 quadrant, 2/4 quadrant, 1/4 quadrant, and 4/4 quadrant of the screen, respectively, to generate integrated video data (MVD), and then generates an integrated video signal (MVS) based on this. In this way, when the order of the displayed images is changed according to the screen settings, the input signal processing unit (11) can reflect this and generate the integrated video data (MVD) so that the display order of the images is changed, and then the integrated video data can be transmitted to the video processing unit (12).
입력신호처리부(11)는 영상신호1~2에 대응하는 오디오신호1~2를 추출한 후에 이를 오디오처리부1~2(141,142)로 전달할 수 있다.The input signal processing unit (11) can extract audio signals 1 to 2 corresponding to video signals 1 to 2 and then transmit them to audio processing units 1 to 2 (141, 142).
영상처리부(12)는 통합영상신호(MVS)를 기초로 화면의 1/4분면, 2/4분면, 3/4분면, 4/4분면에 각각 영상3(Video3), 영상2(Video2), 영상1(Video1) 및 영상4(Video4)를 표시하기 위한 영상프레임을 생성할 수 있다.The video processing unit (12) can generate video frames for displaying Video 3, Video 2, Video 1, and Video 4 on the 1/4, 2/4, 3/4, and 4/4 quadrants of the screen, respectively, based on the integrated video signal (MVS).
디스플레이부(13)는 영상처리부(12)에서 전달한 영상프레임을 화면에 표시할 수 있다.The display unit (13) can display the image frame transmitted from the image processing unit (12) on the screen.
사용자는 HDMI1의 영상1(Video1)의 오디오신호1은 TV스피커(151)로 재생하고, HDMI2의 영상2(Video2)의 오디오신호2는 블루투스 스피커(152)로 재생하도록 지정할 수 있다.The user can specify that audio signal 1 of Video 1 of HDMI1 be played through TV speakers (151) and audio signal 2 of Video 2 of HDMI2 be played through Bluetooth speakers (152).
오디오처리부1~2(141,142)는 오디오신호1~2를 각각 처리하여 음성출력부(15)의 TV스피커(151)와 블루투스 스피커(152)로 전송하여 재생할 수 있다.Audio processing units 1 to 2 (141, 142) can process audio signals 1 to 2 respectively and transmit them to the TV speaker (151) and Bluetooth speaker (152) of the audio output unit (15) for playback.
변형실시예로서, 전자장치(1)는 화면에서 메인 영상 내에 별도로 작은 부가영상을 동시에 표시할 수 있는 PIP(Picture in Picture)에 적용할 수 있다. 이때, 영상통합부(112)는 PIP 설정정보를 받고, 화면전체의 메인 영상에 부가영상이 위치와 크기를 반영하여 통합영상신호(MVS)를 생성할 수 있다. 결과적으로, 전자장치(1)는 메인 영상과 부가영상을 하나의 영상처리부로 처리하여 PIP 영상을 표시할 수 있다.As a modified embodiment, the electronic device (1) can be applied to PIP (Picture in Picture) that can simultaneously display a small additional image separately within the main image on the screen. At this time, the image integration unit (112) can receive PIP setting information and generate an integrated image signal (MVS) by reflecting the position and size of the additional image on the main image of the entire screen. As a result, the electronic device (1) can process the main image and the additional image with one image processing unit and display the PIP image.
본 발명의 실시예에 따른, 복수의 영상을 화면의 복수 영역에 할당하여 표시하는 입력신호처리모듈은 컴퓨터 판독 가능 기록매체로서 메모리(17)에 저장된 컴퓨터프로그램제품 또는 네트워크통신으로 송수신되는 컴퓨터프로그램 제품으로 구현될 수 있다. 또한, 상술한 입력신호처리모듈은 단독 또는 통합되어 컴퓨터프로그램으로 구현될 수 있다.According to an embodiment of the present invention, an input signal processing module that displays multiple images by allocating them to multiple areas of a screen may be implemented as a computer program product stored in a memory (17) as a computer-readable recording medium or as a computer program product transmitted and received via network communication. In addition, the above-described input signal processing module may be implemented as a computer program alone or in combination.
이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형 실시 예들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.Although the preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and various modifications may be made by those skilled in the art without departing from the gist of the present invention as claimed in the claims. In addition, such modified embodiments should not be understood individually from the technical idea or prospect of the present invention.
1: 전자장치
10: 인터페이스부
11: 입력신호처리부
111: 디코더
112: 영상통합부
113: 오디오 스위칭부
12, 121,122: 영상처리부
13: 디스플레이부
14,141,142: 오디오처리부
15: 음성출력부
151: TV스피커
152: 블루투스 스피커
16: 프로세서
17: 메모리
18: 음성인식부
19: 블루투스 모듈
2: 소스장치
3: 디스플레이장치
4: 음성출력장치1: Electronic devices
10: Interface section
11: Input signal processing unit
111: Decoder
112: Video Integration Department
113: Audio switching section
12, 121,122: Image processing unit
13: Display section
14,141,142: Audio Processing Unit
15: Voice output section
151: TV Speaker
152: Bluetooth Speaker
16: Processor
17: Memory
18: Voice recognition unit
19: Bluetooth module
2: Source device
3: Display device
4: Voice output device
Claims (20)
상기 n개의 제1영상신호 중 n-1개의 영상데이터를 각각 추출하고, 상기 추출된 n-1개의 영상데이터에 기초한 n-1개의 영상을 화면의 n개 영역 중 n-1개의 영역에 각각 할당한 통합영상데이터를 가진 하나의 통합영상신호를 생성하는 입력신호처리부;
상기 통합영상신호의 통합영상데이터에 기초하여 상기 화면에 표시하기 위한 제1영상프레임을 생성하는 제1영상처리부;
상기 제2영상신호를 기초로 상기 화면의 n개 영역 중 상기 n-1개의 영역을 제외한 나머지 영역에 표시하기 위한 제2영상프레임을 생성하는 제2영상처리부; 및
상기 제1영상처리부 및 상기 제2영상처리부에서 생성한 상기 제1영상프레임 및 상기 제2영상프레임의 시간을 조절하는 타이밍 컨트롤러와, 영상을 표시하는 상기 화면을 구성하는 패널을 포함하고, 상기 제1영상프레임과 상기 제2영상프레임을 합성하여 상기 제1영상신호의 제1영상 및 상기 제2영상신호의 제2영상을 상기 화면의 n개 영역에 표시하는 디스플레이부를 포함하는 전자장치.A first interface unit for receiving n first video signals and a second interface unit for receiving a second video signal of a different type from the first video signals;
An input signal processing unit which extracts n-1 image data from among the n first image signals and generates one integrated image signal having integrated image data in which n-1 images based on the extracted n-1 image data are each assigned to n-1 areas among n areas of the screen;
A first image processing unit that generates a first image frame for display on the screen based on the integrated image data of the integrated image signal;
A second image processing unit that generates a second image frame for display in an area remaining from among n areas of the screen, excluding n-1 areas, based on the second image signal; and
An electronic device comprising a timing controller that controls the timing of the first image frame and the second image frame generated by the first image processing unit and the second image processing unit, and a panel that constitutes the screen for displaying images, and a display unit that synthesizes the first image frame and the second image frame to display the first image of the first image signal and the second image of the second image signal in n areas of the screen.
상기 n개의 제1영상신호는 HDMI(High-Definition Multimedia Interface)를 통해 수신되고, 상기 제2영상신호는 USB인터페이스를 통해 수신되는 전자장치.In the first paragraph,
An electronic device in which the n first video signals are received via an HDMI (High-Definition Multimedia Interface) and the second video signals are received via a USB interface.
입력신호처리부는 상기 수신된 제1영상신호를 디코딩하는 디코더; 및 상기 디코딩 한 제1영상신호로부터 영상데이터를 추출하여 상기 통합영상데이터를 생성하는 영상통합부를 포함하는 전자장치.In the first paragraph,
An electronic device comprising an input signal processing unit, a decoder for decoding the received first image signal; and an image integration unit for extracting image data from the decoded first image signal and generating the integrated image data.
상기 영상통합부는 상기 제1영상신호의 위치 또는 크기 중 적어도 하나에 관한 정보를 기초로 상기 통합영상신호를 생성하는 전자장치.In the third paragraph,
The above image integration unit is an electronic device that generates the integrated image signal based on information regarding at least one of the position and size of the first image signal.
상기 영상통합부는 상기 제1영상신호의 동기신호에 기초하여 상기 통합영상데이터에 대응하는 상기 통합영상신호의 동기신호를 생성하는 전자장치.In the third paragraph,
The above image integration unit is an electronic device that generates a synchronization signal of the integrated image signal corresponding to the integrated image data based on the synchronization signal of the first image signal.
상기 통합영상신호는 상기 제1영상신호의 통합 전과 통합 후의 위치 또는 크기 차이에 관한 정보를 포함하는 전자장치.In the third paragraph,
An electronic device in which the integrated video signal includes information about the difference in position or size between before and after integration of the first video signal.
상기 제1영상처리부는,
상기 영상데이터의 영상 포맷에 대응하는 디코딩(decoding);
인터레이스(interlace) 방식의 상기 영상데이터를 프로그레시브(progressive) 방식으로 변환하는 디인터레이싱(de-interlacing);
상기 영상데이터를 기 설정된 해상도로 조정하는 스케일링(scaling);
영상 화질 개선을 위한 노이즈 감소(noise reduction);
디테일 강화(detail enhancement); 또는
프레임 리프레시 레이트(frame refresh rate) 변환 중 적어도 하나를 수행하는 전자장치.In the first paragraph,
The above first image processing unit,
Decoding corresponding to the video format of the above video data;
De-interlacing, which converts the above image data in interlace mode into progressive mode;
Scaling, which adjusts the above image data to a preset resolution;
Noise reduction to improve image quality;
Detail enhancement; or
An electronic device performing at least one of frame refresh rate conversions.
n개의 제1영상신호 및 상기 제1영상신호와 종류가 다른 제2영상신호를 수신하는 단계와;
상기 n개의 제1영상신호 중 n-1개의 영상데이터를 각각 추출하고, 상기 추출된 n-1개의 영상데이터에 기초한 n-1개의 영상을 화면의 n개 영역 중 n-1개의 영역에 각각 할당한 통합영상데이터를 가진 하나의 통합영상신호를 생성하는 단계;
상기 통합영상신호의 통합영상데이터에 기초하여 상기 화면에 표시하기 위한 제1영상프레임을 생성하는 단계;
상기 제2영상신호를 기초로 상기 화면의 n개 영역 중 상기 n-1개의 영역을 제외한 나머지 영역에 표시하기 위한 제2영상프레임을 생성하는 단계; 및
생성된 상기 제1영상프레임 및 상기 제2영상프레임의 시간을 조절함으로써, 상기 제1영상프레임과 상기 제2영상프레임을 합성하여 상기 제1영상신호의 제1영상 및 상기 제2영상신호의 제2영상을 상기 화면의 n개 영역에 표시하는 단계를 포함하는 전자장치의 제어방법.In a method for controlling an electronic device,
A step of receiving n first image signals and a second image signal of a different type from the first image signals;
A step of extracting n-1 image data from among the n first image signals, and generating one integrated image signal having integrated image data in which n-1 images based on the extracted n-1 image data are each assigned to n-1 areas among n areas of the screen;
A step of generating a first image frame for display on the screen based on the integrated image data of the integrated image signal;
A step of generating a second image frame for display in an area remaining from among n areas of the screen, excluding n-1 areas, based on the second image signal; and
A control method for an electronic device, comprising the step of synthesizing the first image frame and the second image frame by controlling the time of the generated first image frame and the second image frame, thereby displaying the first image of the first image signal and the second image of the second image signal in n areas of the screen.
상기 n개의 제1영상신호는 HDMI를 통해 수신되고, 상기 제2영상신호는 USB인터페이스를 통해 수신되는 전자장치의 제어방법.In Article 12,
A method for controlling an electronic device, wherein the n first video signals are received via HDMI and the n second video signals are received via a USB interface.
상기 통합영상신호의 생성단계는 상기 제1영상신호를 디코딩하는 단계를 포함하는 전자장치의 제어방법.In Article 12,
A method for controlling an electronic device, wherein the step of generating the above integrated video signal includes a step of decoding the first video signal.
상기 통합영상신호는 상기 제1영상신호의 위치 또는 크기 중 적어도 하나의 정보에 기초하여 생성되는 전자장치의 제어방법.In Article 14,
A control method for an electronic device in which the integrated video signal is generated based on at least one of the position and size information of the first video signal.
상기 통합영상신호의 생성단계는 상기 제1영상신호의 동기신호에 기초하여 통합영상데이터에 대응하는 상기 통합영상신호의 동기신호를 생성하는 단계를 포함하는 전자장치의 제어방법.In Article 14,
A method for controlling an electronic device, wherein the step of generating the integrated image signal includes a step of generating a synchronization signal of the integrated image signal corresponding to the integrated image data based on the synchronization signal of the first image signal.
상기 통합영상신호는 상기 제1영상신호의 통합 전과 통합 후의 위치 또는 크기 차이에 관한 정보를 포함하는 전자장치의 제어방법.In Article 14,
A control method for an electronic device, wherein the integrated video signal includes information about the difference in position or size before and after integration of the first video signal.
상기 제1영상프레임의 생성단계는,
상기 영상데이터의 영상 포맷에 대응하는 디코딩(decoding);
인터레이스(interlace) 방식의 상기 영상데이터를 프로그레시브(progressive) 방식으로 변환하는 디인터레이싱(de-interlacing);
상기 영상데이터를 기 설정된 해상도로 조정하는 스케일링(scaling);
영상 화질 개선을 위한 노이즈 감소(noise reduction);
디테일 강화(detail enhancement); 또는
프레임 리프레시 레이트(frame refresh rate) 변환 중 적어도 하나를 수행하는 전자장치의 제어방법.
In Article 12,
The above first video frame generation step is:
Decoding corresponding to the video format of the above video data;
De-interlacing, which converts the above image data in interlace mode into progressive mode;
Scaling, which adjusts the above image data to a preset resolution;
Noise reduction to improve image quality;
Detail enhancement; or
A method of controlling an electronic device that performs at least one of frame refresh rate conversions.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020200085406A KR102838008B1 (en) | 2020-07-10 | 2020-07-10 | Electronic device and the method for controlling the same |
| PCT/KR2021/007715 WO2022010130A1 (en) | 2020-07-10 | 2021-06-21 | Electronic device and method for controlling same |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020200085406A KR102838008B1 (en) | 2020-07-10 | 2020-07-10 | Electronic device and the method for controlling the same |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20220007319A KR20220007319A (en) | 2022-01-18 |
| KR102838008B1 true KR102838008B1 (en) | 2025-07-24 |
Family
ID=79553481
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020200085406A Active KR102838008B1 (en) | 2020-07-10 | 2020-07-10 | Electronic device and the method for controlling the same |
Country Status (2)
| Country | Link |
|---|---|
| KR (1) | KR102838008B1 (en) |
| WO (1) | WO2022010130A1 (en) |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR100998547B1 (en) | 2008-12-09 | 2010-12-07 | 주식회사 어니언텍 | Broadcasting system and method for multi-screen display |
| KR101553846B1 (en) * | 2014-12-16 | 2015-09-17 | 연세대학교 산학협력단 | Apparatus and Method of frame synchronization for video stitching |
| KR101885215B1 (en) * | 2011-12-30 | 2018-08-06 | 삼성전자주식회사 | Display apparatus and display method using the same |
| JP6449318B2 (en) | 2014-03-26 | 2019-01-09 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Transmitter, receiver and system for synchronous transmission of auxiliary data frames via HDMI interface |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20140111736A (en) * | 2013-03-12 | 2014-09-22 | 삼성전자주식회사 | Display apparatus and control method thereof |
-
2020
- 2020-07-10 KR KR1020200085406A patent/KR102838008B1/en active Active
-
2021
- 2021-06-21 WO PCT/KR2021/007715 patent/WO2022010130A1/en not_active Ceased
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR100998547B1 (en) | 2008-12-09 | 2010-12-07 | 주식회사 어니언텍 | Broadcasting system and method for multi-screen display |
| KR101885215B1 (en) * | 2011-12-30 | 2018-08-06 | 삼성전자주식회사 | Display apparatus and display method using the same |
| JP6449318B2 (en) | 2014-03-26 | 2019-01-09 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Transmitter, receiver and system for synchronous transmission of auxiliary data frames via HDMI interface |
| KR101553846B1 (en) * | 2014-12-16 | 2015-09-17 | 연세대학교 산학협력단 | Apparatus and Method of frame synchronization for video stitching |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20220007319A (en) | 2022-01-18 |
| WO2022010130A1 (en) | 2022-01-13 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11350069B2 (en) | Source device and control method thereof, and sink device and image quality improvement processing method thereof | |
| CN102948160B (en) | The mechanism of memory reduction in being generated for PIP video | |
| EP3685575B1 (en) | Display apparatus, method for controlling the same and image providing apparatus | |
| US20160066055A1 (en) | Method and system for automatically adding subtitles to streaming media content | |
| US20170053622A1 (en) | Method and apparatus for setting transparency of screen menu, and audio and video playing device | |
| US9516291B2 (en) | Television systems incorporating separate A/V processing systems and television displays | |
| EP3699902B1 (en) | Display device and image display method of the same | |
| US12309446B2 (en) | Display apparatus and method of controlling the same | |
| US20120105448A1 (en) | Display apparatus and method for providing graphic image | |
| US20140267285A1 (en) | Display apparatus and control method thereof for applying motion compensation to remove artifacts from images | |
| US20170094342A1 (en) | Minimizing input lag in a remote gui tv application | |
| CN116095261B (en) | Display method and display device | |
| US20260006151A1 (en) | Display apparatus and control method therefor | |
| KR102838008B1 (en) | Electronic device and the method for controlling the same | |
| KR102657462B1 (en) | Display apparatus and the control method thereof | |
| US11699374B2 (en) | Display device and operating method of the same | |
| US20140181657A1 (en) | Portable device and audio controlling method for portable device | |
| EP4694108A1 (en) | Projection device and operation method thereof | |
| US20260032316A1 (en) | Display device and operating method thereof | |
| US20240414410A1 (en) | Image display apparatus and operating method thereof | |
| US12219199B2 (en) | Image display device and operation method thereof | |
| KR102118523B1 (en) | Electronic apparatus and controlling method thereof | |
| CN115623276A (en) | Display device and advertisement insertion method | |
| JP2017079371A (en) | Transmitting apparatus and receiving apparatus | |
| KR20250084614A (en) | Electronic device and operating method for the same |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| R17-X000 | Change to representative recorded |
St.27 status event code: A-3-3-R10-R17-oth-X000 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| A201 | Request for examination | ||
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| F11 | Ip right granted following substantive examination |
Free format text: ST27 STATUS EVENT CODE: A-2-4-F10-F11-EXM-PR0701 (AS PROVIDED BY THE NATIONAL OFFICE) |
|
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| U11 | Full renewal or maintenance fee paid |
Free format text: ST27 STATUS EVENT CODE: A-2-2-U10-U11-OTH-PR1002 (AS PROVIDED BY THE NATIONAL OFFICE) Year of fee payment: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| Q13 | Ip right document published |
Free format text: ST27 STATUS EVENT CODE: A-4-4-Q10-Q13-NAP-PG1601 (AS PROVIDED BY THE NATIONAL OFFICE) |