[go: up one dir, main page]

KR102822783B1 - Composing system based on body movement - Google Patents

Composing system based on body movement Download PDF

Info

Publication number
KR102822783B1
KR102822783B1 KR1020220157615A KR20220157615A KR102822783B1 KR 102822783 B1 KR102822783 B1 KR 102822783B1 KR 1020220157615 A KR1020220157615 A KR 1020220157615A KR 20220157615 A KR20220157615 A KR 20220157615A KR 102822783 B1 KR102822783 B1 KR 102822783B1
Authority
KR
South Korea
Prior art keywords
user
control unit
present
acoustic signal
sensing data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020220157615A
Other languages
Korean (ko)
Other versions
KR20240075538A (en
Inventor
김경신
Original Assignee
국립공주대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국립공주대학교 산학협력단 filed Critical 국립공주대학교 산학협력단
Priority to KR1020220157615A priority Critical patent/KR102822783B1/en
Publication of KR20240075538A publication Critical patent/KR20240075538A/en
Application granted granted Critical
Publication of KR102822783B1 publication Critical patent/KR102822783B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/111Automatic composing, i.e. using predefined musical rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/145Composing rules, e.g. harmonic or musical rules, for use in automatic composition; Rule generation algorithms therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/321Garment sensors, i.e. musical control means with trigger surfaces or joint angle sensors, worn as a garment by the player, e.g. bracelet, intelligent clothing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/4013D sensing, i.e. three-dimensional (x, y, z) position or movement sensing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

일 실시예에 따르면 본 발명인 신체 움직임에 기반한 작곡 시스템은 사용자의 신체에 기반하여 미리 정해진 위치에 배치된 복수의 센서를 포함하고, 사용자의 신체에 착용되는 웨어러블 슈트부, 상기 복수의 센서로부터 상기 사용자 신체 부위의 힘, 상기 사용자 신체 부위의 가속도 및 상기 사용자 신체 부위의 xyz축 위치를 포함하는 센싱 데이터를 획득하고, 상기 센싱 데이터를 수치화하여 음향 신호를 생성하는 제어부 및 상기 제어부로부터 음향 신호를 획득하여 음향을 출력하는 음향부를 포함할 수 있다.According to one embodiment, the body movement-based music composition system of the present invention may include a wearable suit part worn on the user's body, which includes a plurality of sensors arranged at predetermined positions based on the user's body, a control part which obtains sensing data including force of the user's body part, acceleration of the user's body part, and xyz-axis positions of the user's body part from the plurality of sensors, and generates an acoustic signal by digitizing the sensing data, and an acoustic part which obtains the acoustic signal from the control part and outputs sound.

Description

신체 움직임에 기반한 작곡 시스템{COMPOSING SYSTEM BASED ON BODY MOVEMENT}COMPOSING SYSTEM BASED ON BODY MOVEMENT

본 발명은 신체 움직임에 기반한 작곡 시스템에 관한 것이다.The present invention relates to a composition system based on body movements.

기존에 작곡은 주로 악보를 만드는 행위를 의미하였다. 하지만 최근에는 작곡의 의미가 넓어져 하나의 곡 또는 노래를 구성하는 반주 또는 사운드 이펙트까지 모두 포괄하는 개념으로 일정 수준 반복하여 같은 음을 낼 수만 있다면 대중들은 그러한 곡 또는 노래를 기억하고 따라 부르기도 한다. 따라서 최근의 작곡은 누구나 할 수 있는 것으로 받아들여지고 있으며 다수의 대중들에게 인기를 끌 수 있는 곡 또는 노래를 작곡한다면 높은 수익도 기대할 수 있다.In the past, composing mainly meant the act of creating musical scores. However, recently, the meaning of composition has expanded to include all the accompaniments or sound effects that make up a song or a piece of music. If you can repeat the same notes to a certain degree, the public will remember that song or piece and sing along. Therefore, composing music is now considered something that anyone can do, and if you compose a song or piece that is popular with the general public, you can expect high profits.

일반적으로 작곡은 악기나 피아노를 이용하여 할 수 있지만 최근 디지털 데이터의 보편화로 악기나 피아노가 없어도 프로그램 또는 애플리케이션을 이용해서도 작곡을 할 수 있다.Normally, music composition can be done using an instrument or piano, but recently, with the popularization of digital data, music composition can be done using programs or applications even without an instrument or piano.

현재 작곡은 악보를 직접 작성하기보다는 디지털 기기를 이용한 디지털 데이터로 작곡을 하는 경우가 대부분이다. Nowadays, most compositions are done using digital data using digital devices rather than directly writing sheet music.

최근에는 기계학습(machine learning)을 이용하여 음원을 생성하고 기록하는 장치도 등장하고 있다.Recently, devices that generate and record sound sources using machine learning have also appeared.

사람이 머리속에 떠오르는 음악을 기억하여 다양한 방법으로 기록할 수 있다면 작곡이 시작될 수 있다. 그러한 음악을 악기 또는 디지털 기기를 이용하여 연주해보고 화음, 멜로디를 추가한다면 하나의 곡 또는 노래가 완성될 수 있다.If a person can remember the music that comes to mind and record it in various ways, then composing can begin. If such music is played using an instrument or digital device and harmony and melody are added, a song or a piece can be completed.

이처럼 작곡은 누구나 할 수 있는 것으로 작곡에 대한 배경지식이 없는 사람도 쉽게 작곡에 접근할 수 있도록 도울 수 있는 시스템 또는 장치가 요구된다.In this way, since anyone can compose music, a system or device that can help even those without background knowledge in composition to easily approach composition is required.

대한민국공개특허공보 제10-2007-0110054호(2007.11.15)Republic of Korea Patent Publication No. 10-2007-0110054 (November 15, 2007)

작곡에 대한 배경지식이 없는 일반인도 쉬운 동작 또는 몸짓을 통하여 변화되는 음의 형태를 파악하고 곡 또는 노래를 반복재현하게 할 수 있는 시스템 또는 장치를 제공하는 데 본 발명의 목적이 있다. 또한 사용자의 동작 또는 몸짓에 대한 영상 데이터를 작곡에 이용하여 일반인도 쉽게 작곡을 할 수 있고 작곡을 대중화할 수 있는 시스템 또는 장치를 제공하는데 본 발명의 목적이 있다.The purpose of the present invention is to provide a system or device that allows even ordinary people without background knowledge of composition to understand the changing sound forms through simple movements or gestures and to repeatedly reproduce a song or a piece of music. In addition, the purpose of the present invention is to provide a system or device that allows ordinary people to easily compose music and popularize composition by utilizing video data of the user's movements or gestures for composition.

본 발명이 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 과제들은 발명의 설명의 기재로부터 해당 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to those mentioned above, and other problems not mentioned can be clearly understood by a person having ordinary skill in the relevant technical field from the description of the invention.

일 실시예에 따르는 신체 움직임에 기반한 작곡 시스템은 사용자의 신체에 기반하여 미리 정해진 위치에 배치된 복수의 센서를 포함하고, 사용자의 신체에 착용되는 웨어러블 슈트부,A body movement-based composition system according to one embodiment comprises a plurality of sensors positioned at predetermined locations based on a user's body, and a wearable suit part worn on the user's body;

상기 복수의 센서로부터 상기 사용자 신체 부위의 힘, 상기 사용자 신체 부위의 가속도 및 상기 사용자 신체 부위의 xyz축 위치를 포함하는 센싱 데이터를 획득하고, 상기 센싱 데이터를 수치화하여 음향 신호를 생성하는 제어부 및 상기 제어부로부터 음향 신호를 획득하여 음향을 출력하는 음향부를 포함할 수 있다.The apparatus may include a control unit that obtains sensing data including force of the user's body part, acceleration of the user's body part, and xyz-axis positions of the user's body part from the plurality of sensors, digitizes the sensing data to generate an acoustic signal, and an acoustic unit that obtains the acoustic signal from the control unit and outputs sound.

또한, 상기 음향부는 사용자의 귀에 배치되는 것을 특징으로 할 수 있다.Additionally, the acoustic unit may be characterized by being placed at the user's ear.

삭제delete

삭제delete

본 발명인 신체 움직임에 기반한 작곡 시스템에 의하면 사용자는 자신의 움직임, 동작 또는 몸짓으로 인하여 변화되는 음원을 인식할 수 있고, 제어부는 생성된 음원을 저장할 수 있다. 사용자는 인식한 음원 또는 저장된 음원을 참고하고 다른 움직임, 몸짓 또는 동작을 수행할 수 있으므로 자신의 신체 움직임에 따른 작곡을 수행할 수 있고, 따라서 작곡에 대한 배경지식이 없는 사람도 작곡을 수행할 수 있다. According to the composition system based on body movement of the present invention, a user can recognize a sound source that changes due to his/her own movement, action or gesture, and the control unit can store the generated sound source. The user can perform another movement, gesture or action by referring to the recognized sound source or the stored sound source, so that he/she can perform composition based on his/her own body movement, and therefore even a person without background knowledge of composition can perform composition.

도 1은 본 발명인 신체 움직임에 기반한 작곡 시스템에 대한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 작곡 시스템 장착을 설명하는 개념도이다.
도 3은 본 발명의 다른 실시예에 따른 작곡 시스템 장착을 설명하는 개념도이다.
도 4는 본 발명의 일 실시예에 따른 제어부의 블록도이다.
FIG. 1 is a block diagram of a body movement-based composition system according to the present invention.
FIG. 2 is a conceptual diagram illustrating mounting of a composition system according to one embodiment of the present invention.
FIG. 3 is a conceptual diagram illustrating mounting of a composition system according to another embodiment of the present invention.
Figure 4 is a block diagram of a control unit according to one embodiment of the present invention.

본 발명의 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시예들을 기술하기 위한 것이며, 결코 제한적으로 해석되어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하는 것으로 해석되어서는 안 된다.In describing embodiments of the present invention, if it is judged that a detailed description of a known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. In addition, the terms described below are terms defined in consideration of their functions in the present invention, and may vary depending on the intention or custom of the user or operator. Therefore, the definitions should be made based on the contents throughout this specification. The terms used in the detailed description are only for describing embodiments of the present invention, and should never be construed as limiting. Unless clearly used otherwise, the singular form includes the plural form. In this description, expressions such as "comprises" or "comprising" are intended to indicate certain features, numbers, steps, operations, elements, parts or combinations thereof, and should not be construed as excluding the presence or possibility of one or more other features, numbers, steps, operations, elements, parts or combinations thereof other than those described.

도면에서 도시된 각 시스템에서, 몇몇 경우에서의 요소는 각각 동일한 참조 번호 또는 상이한 참조 번호를 가져서 표현된 요소가 상이하거나 유사할 수 있음을 시사할 수 있다. 그러나, 요소는 상이한 구현을 가지고 본 명세서에서 보여지거나 기술된 시스템 중 몇몇 또는 전부와 작동할 수 있다. 도면에서 도시된 다양한 요소는 동일하거나 상이할 수 있다. 어느 것이 제1 요소로 지칭되는지 및 어느 것이 제2 요소로 불리는지는 임의적이다.In each system depicted in the drawings, elements in some cases may have the same reference number or different reference numbers to indicate that the represented elements may be different or similar. However, the elements may have different implementations and may operate with any or all of the systems shown or described herein. Various elements depicted in the drawings may be the same or different. It is arbitrary which one is referred to as a first element and which one is referred to as a second element.

본 명세서에서 어느 하나의 구성요소가 다른 구성요소로 데이터 또는 신호를 '전송' 또는 '제공'한다 함은 어느 한 구성요소가 다른 구성요소로 직접 데이터 또는 신호를 전송하는 것은 물론, 적어도 하나의 또 다른 구성요소를 통하여 데이터 또는 신호를 다른 구성요소로 전송하는 것을 포함한다.In this specification, the phrase “transmitting” or “providing” data or a signal from one component to another component includes not only the component directly transmitting data or a signal to another component, but also the component transmitting data or a signal to another component via at least one other component.

본 발명의 실시예에 따른 신체 움직임에 기반한 작곡 방법의 전 단계 또는 어느 일부 단계는 하나의 물리적 또는 논리적 컴퓨팅 디바이스에 의해 구현되거나 둘 이상의 물리적 또는 논리적 컴퓨팅 디바이스에 의해 분산되어 구현될 수 있다.All or part of the steps of the body movement-based composition method according to an embodiment of the present invention may be implemented by one physical or logical computing device or may be implemented in a distributed manner by two or more physical or logical computing devices.

일 실시예에 따르면 본 발명인 신체 움직임에 기반한 작곡 방법을 실행할 수 있는 컴퓨팅 디바이스인 제어부는 프로세서, 메모리 및 통신 모듈로 구현될 수 있다. 하지만 이에 제한되는 것은 아니며 구현 장치의 일례는 서버가 될 수 있다.According to one embodiment, a control unit, which is a computing device capable of executing a composition method based on body movement of the present invention, may be implemented with a processor, a memory, and a communication module. However, it is not limited thereto, and an example of an implementation device may be a server.

'서버'에는 각각의 데이터 베이스에 대응되는 정보를 저장하는 소프트웨어 및 하드웨어의 기능적 구조적 결합을 의미하는 DB가 포함될 수 있으며, DB는 적어도 하나의 테이블로 구현될 수도 있으며, 데이터 베이스에 저장된 정보를 검색, 저장 및 관리하기 위한 별도의 DBMS(Database Management System)을 더 포함할 수도 있다. 또한, 링크드 리스트(linked-list), 트리(Tree), 관계형 데이터 베이스의 형태 등 다양한 방식으로 구현될 수 있으며, 데이터 베이스에 대응되는 정보를 저장할 수 있는 모든 데이터 저장매체 및 데이터 구조를 포함한다. 이하에서 별도로 주체를 명시하지 않은 경우에는 프로세서 또는 서버를 주체로 예시하여 설명한다.The 'server' may include a DB, which means a functional and structural combination of software and hardware that stores information corresponding to each database, and the DB may be implemented with at least one table, and may further include a separate DBMS (Database Management System) for searching, storing, and managing information stored in the database. In addition, it may be implemented in various ways, such as in the form of a linked list, a tree, and a relational database, and includes all data storage media and data structures that can store information corresponding to the database. In the following description, if the subject is not specified separately, the processor or server is exemplified as the subject.

이하, 도면을 참조하여 본 발명의 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다.Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. The following detailed description is provided to help a comprehensive understanding of the methods, devices, and/or systems described herein. However, this is only an example and the present invention is not limited thereto.

도 1은 본 발명인 신체 움직임에 기반한 작곡 시스템에 대한 블록도이다. 도 2는 본 발명의 일 실시예에 따른 작곡 시스템 장착을 설명하는 개념도이다.Fig. 1 is a block diagram of a composition system based on body movement according to the present invention. Fig. 2 is a conceptual diagram illustrating installation of a composition system according to one embodiment of the present invention.

도 1을 참조하면 본 발명인 신체 움직임에 기반한 작곡 시스템은 웨어러블 슈트부(100), 제어부(200) 및 음향부(300)를 포함할 수 있다. 본 발명의 일 실시예에 따르면 웨어러블 슈트부(100)는 헤드 슈트(110)를 더 포함할 수 있다.Referring to FIG. 1, the body movement-based composition system of the present invention may include a wearable suit part (100), a control part (200), and an audio part (300). According to one embodiment of the present invention, the wearable suit part (100) may further include a head suit (110).

웨어러블 슈트부(100)는 사용자의 움직임, 몸짓 또는 동작으로 생성되는 다양한 물리적 변화량을 센싱할 수 있는 복수의 센서를 포함할 수 있다.The wearable suit (100) may include a plurality of sensors capable of sensing various physical changes generated by the user's movements, gestures, or actions.

일 실시예에 따르면 복수의 센서는 웨어러블 슈트부(100) 또는 유닛을 착용한 사용자의 움직임에 대한 센싱 데이터를 획득할 수 있도록 엔코더 센서, 모션센서 및 imu(inertial measurement unit) 센서를 포함할 수 있다. According to one embodiment, the plurality of sensors may include an encoder sensor, a motion sensor, and an inertial measurement unit (IMU) sensor to obtain sensing data on movements of a user wearing the wearable suit (100) or unit.

상술한 엔코더 센서, 모션센서 및 imu 센서는 예시적인 것으로 본 발명의 복수의 센서는 센서에서 획득되는 정보를 전기적 신호로 변환하여 프로세서 또는 제어부(200)로 전송할 수 있는 다양한 센서를 포함할 수 있다.The above-described encoder sensor, motion sensor, and imu sensor are exemplary, and the plurality of sensors of the present invention may include various sensors that can convert information acquired from the sensor into an electrical signal and transmit it to a processor or control unit (200).

엔코더 센서는 웨어러블 슈트부(100) 또는 유닛을 착용한 사용자의 팔 각도 또는 다리 각도를 측정할 수 있는 센서이고, 모션센서 및 imu 센서는 가속도 센서, 각속도 센서 등을 포함한 일체로 구성되어 웨어러블 슈트부(100) 또는 유닛을 착용한 사용자의 xyz 축 움직임, 힘, 가속도 등을 측정할 수 있다.The encoder sensor is a sensor that can measure the arm angle or leg angle of a user wearing the wearable suit part (100) or the unit, and the motion sensor and IMU sensor are configured as an integrated unit including an acceleration sensor, an angular velocity sensor, etc., and can measure the xyz axis movement, force, acceleration, etc. of a user wearing the wearable suit part (100) or the unit.

일 실시예에 따르면 적어도 복수의 센서는 웨어러블 슈트부(100) 또는 유닛을 착용한 사용자의 손가락 구부림에 대한 센싱 데이터를 획득하기 위해 flex 센서를 포함할 수 있다.According to one embodiment, at least a plurality of sensors may include flex sensors to obtain sensing data regarding the bending of fingers of a user wearing the wearable suit portion (100) or unit.

제어부(200)는 상술한 복수의 센서로부터 획득한 센싱 데이터 신호에 대한 주파수, 힘, 또는 가속도 등을 분석할 수 있는 프로세서를 포함할 수 있다.The control unit (200) may include a processor capable of analyzing frequency, force, acceleration, etc. of sensing data signals acquired from the plurality of sensors described above.

일 실시예에 따르면 제어부(200)는 주파수, 힘 또는 가속도에 대응하는 음계에 대한 데이터를 저장한 메모리를 포함할 수 있다.According to one embodiment, the control unit (200) may include a memory storing data on a scale corresponding to frequency, force or acceleration.

일 실시예에 따르면 제어부(200)는 복수의 센서로부터 획득한 주파수, 힘, 또는 가속도 가속도를 분석하고, 미리 저장된 음계에 대한 데이터를 이용하여 음향 신호를 생성할 수 있다.According to one embodiment, the control unit (200) can analyze frequency, force, or acceleration acquired from multiple sensors and generate an acoustic signal using data on a pre-stored musical scale.

일 실시예에 따르면 제어부(200)는 미리 설정된 기준 또는 수학식에 따라 획득한 주파수, 힘, 또는 가속도를 미리 저장된 음계로 변환하고, 변환된 신호에 기반한 음향 신호를 생성할 수 있다.According to one embodiment, the control unit (200) can convert a frequency, force, or acceleration obtained according to a preset standard or mathematical formula into a pre-stored sound scale, and generate an acoustic signal based on the converted signal.

일 실시예에 따르면 제어부(200)는 획득한 주파수, 힘 또는 가속도에 대한 센싱 데이터를 일정한 범위를 갖는 수치로 변환하거나 수치를 산출하고, 변환한 수치 또는 산출된 수치를 미리 지정된 음계에 대응시켜 음향 신호를 생성할 수 있다.According to one embodiment, the control unit (200) can convert acquired sensing data on frequency, force or acceleration into a numerical value having a certain range or calculate a numerical value, and generate an acoustic signal by corresponding the converted or calculated numerical value to a pre-designated musical scale.

삭제delete

일 실시예에 따르면 제어부(200)는 생성한 음향 신호를 음향부(300)로 전달할 수 있다.According to one embodiment, the control unit (200) can transmit the generated acoustic signal to the acoustic unit (300).

음향부(300)는 제어부(200)로부터 음향 신호를 전달받아 음성 또는 음향을 출력할 수 있다.The sound unit (300) can receive an audio signal from the control unit (200) and output voice or sound.

도 2를 참조하면 음향부(300)는 블루투스 이어폰일 수 있다. 하지만 음향부(300)가 이에 제한되는 것은 아니며 제어부(200)로부터 음향 신호를 전달받아 음성 또는 음향을 출력할 수 있는 다양한 장치는 본 발명의 음향부(300)가 될 수 있다.Referring to FIG. 2, the sound unit (300) may be a Bluetooth earphone. However, the sound unit (300) is not limited thereto, and various devices capable of receiving an audio signal from the control unit (200) and outputting voice or sound may be the sound unit (300) of the present invention.

도 2에 나타난 실시예에 따르면 사용자는 자신의 움직임, 몸짓 또는 동작에 따라 변화되는 음향을 블루투스 이어폰을 통하여 들을 수 있다. 따라서 사용자는 자신 이외에 다른 사람이 있는 공간에서도 본 발명인 신체 움직임에 기반한 작곡 시스템을 이용하여 움직임에 따라 변화되는 음향을 들을 수 있고 시간, 공간에 제약받지 않고 작곡을 할 수 있는 효과가 있다.According to the embodiment shown in Fig. 2, a user can hear sounds that change according to his/her movements, gestures or actions through Bluetooth earphones. Accordingly, the user can hear sounds that change according to his/her movements by using the composition system based on body movements of the present invention even in a space where there are other people besides himself/herself, and there is an effect of being able to compose music without being restricted by time or space.

도 3은 본 발명의 다른 실시예에 따른 작곡 시스템 장착을 설명하는 개념도이다.FIG. 3 is a conceptual diagram illustrating mounting of a composition system according to another embodiment of the present invention.

도 3을 참조하면 웨어러블 슈트부(100)는 헤드 슈트(110)를 더 포함할 수 있다.Referring to FIG. 3, the wearable suit part (100) may further include a head suit (110).

헤드 슈트(110)는 디스플레이 장치(모듈) 및 통신 모듈을 포함할 수 있고, 외부 서버 또는 제어부(200)로부터 사용자의 동작 영상을 획득하여 디스플레이 장치를 통해 사용자의 동작 영상을 디스플레이(display)할 수 있다.The head suit (110) may include a display device (module) and a communication module, and may obtain a user's motion image from an external server or control unit (200) and display the user's motion image through the display device.

사용자는 헤드 슈트(110)에 포함된 디스플레이 장치를 통하여 자신의 움직임, 몸짓 또는 동작을 눈으로 확인하고, 자신의 움직임, 몸짓 또는 동작에 따라 변화되는 음향을 들을 수 있으므로 더 효과적인 작곡을 수행할 수 있다.Users can visually confirm their own movements, gestures or actions through the display device included in the head suit (110) and hear sounds that change according to their movements, gestures or actions, thereby enabling more effective composition.

도 3에 나타난 실시예에 의하면 사용자는 자신의 움직임 영상을 확인할 수 있는 스튜디오, 작업실 등의 장소에서 작곡을 수행할 수 있으므로 자신의 움직임에 따라 변화되는 음향을 더 효과적으로 파악할 수 있어 더 효과적인 작곡을 수행할 수 있다.According to the embodiment shown in Fig. 3, a user can compose music in a place such as a studio or workroom where he or she can check his or her own movement video, and thus can more effectively understand the sound that changes according to his or her movement, thereby performing more effective music composition.

도 4는 본 발명의 일 실시예에 따른 제어부의 블록도이다.Figure 4 is a block diagram of a control unit according to one embodiment of the present invention.

본 발명의 일 실시예에 따른 제어부(200)는 프로세서(220), 메모리(230) 및/또는 통신 모듈(240)을 포함할 수 있다. A control unit (200) according to one embodiment of the present invention may include a processor (220), a memory (230), and/or a communication module (240).

일 실시예에 따른 프로세서(220)는 하나의 프로세서 코어(single core)를 포함하거나, 복수의 프로세서 코어들을 포함할 수 있다. 예를 들면 프로세서(220)는 듀얼 코어(dual-core), 쿼드 코어(quad-core), 헥사 코어(hexa-core) 등의 멀티 코어(multi-core)를 포함할 수 있다. 실시예들에 따라 프로세서(220)는 메모리 내부 또는 외부에 위치된 캐시 메모리(cache memory)를 더 포함할 수 있다.The processor (220) according to one embodiment may include a single processor core or may include a plurality of processor cores. For example, the processor (220) may include a multi-core such as a dual-core, a quad-core, a hexa-core, etc. According to embodiments, the processor (220) may further include a cache memory located inside or outside the memory.

일 실시예에 따르면 프로세서(220)는 복수의 센서로부터 획득한 주파수, 힘, 또는 가속도 가속도를 분석하고, 미리 저장된 음계에 대한 데이터를 이용하여 음향 신호를 생성할 수 있다.According to one embodiment, the processor (220) may analyze frequency, force, or acceleration acquired from multiple sensors and generate an acoustic signal using data on a pre-stored musical scale.

일 실시예에 따르면 프로세서(220)는 미리 설정된 기준 또는 수학식에 따라 획득한 주파수, 힘, 또는 가속도를 미리 저장된 음계로 변환하고, 변환된 신호에 기반한 음향 신호를 생성할 수 있다.According to one embodiment, the processor (220) may convert a frequency, force, or acceleration obtained according to a preset criterion or mathematical formula into a pre-stored sound scale, and generate an acoustic signal based on the converted signal.

일 실시예에 따르면 프로세서(220)는 복수의 센서로부터 상기 사용자 신체 부위의 힘, 상기 사용자 신체 부위의 가속도 및 상기 사용자 신체 부위의 xyz축 위치를 포함하는 센싱 데이터를 획득하고, 상기 센싱 데이터를 수치화하여 음향 신호를 생성할 수 있다.According to one embodiment, the processor (220) may obtain sensing data including force of the user's body part, acceleration of the user's body part, and xyz-axis position of the user's body part from a plurality of sensors, and may digitize the sensing data to generate an acoustic signal.

삭제delete

일 실시예에 따른 메모리(230)는, 프로세서(220)에 입력 및/또는 출력되는 데이터 및/또는 인스트럭션을 저장하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 메모리(430)는 예를 들어 RAM(Random-Access Memory)와 같은 휘발성 메모리(Volatile Memory) 및/또는 ROM(Read-Only Memory)와 같은 비휘발성 메모리(Non-Volatile Memory)를 포함할 수 있다. 휘발성 메모리는 예를 들어 DRAM(Dynamic RAM), SRAM(Static RAM), Cache RAM, PSRAM (Pseudo SRAM) 중 적어도 하나를 포함할 수 있다. The memory (230) according to one embodiment may include a hardware component for storing data and/or instructions input and/or output to the processor (220). The memory (430) may include, for example, a volatile memory such as a random-access memory (RAM) and/or a non-volatile memory such as a read-only memory (ROM). The volatile memory may include, for example, at least one of a dynamic RAM (DRAM), a static RAM (SRAM), a cache RAM, and a pseudo SRAM (PSRAM).

일 실시예에 따르면 메모리(230)는 프로세서(220)가 생성한 음향 신호 또는 음향부(300)에서 출력한 음성 또는 음향을 저장할 수 있다.According to one embodiment, the memory (230) can store an acoustic signal generated by the processor (220) or a voice or sound output from the acoustic unit (300).

일 실시예에 따르면 메모리(230)는 제어부(200)가 획득한 사용자의 동작 영상을 저장할 수 있다.According to one embodiment, the memory (230) can store the user's motion images acquired by the control unit (200).

일 실시예에 따르면 통신 모듈(240)은 본 발명의 프로세서(220) 및 외부 서버와의 통신 채널을 수립할 수 있다. 통신 모듈(240)은 프로세서(220) 및 메모리(230)와 기능적으로 결합될 수 있다.According to one embodiment, the communication module (240) can establish a communication channel with the processor (220) of the present invention and an external server. The communication module (240) can be functionally coupled with the processor (220) and the memory (230).

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.The above description of the present invention is for illustrative purposes only, and those skilled in the art will understand that the present invention can be easily modified into other specific forms without changing the technical idea or essential characteristics of the present invention. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the claims described below rather than the detailed description above, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention.

Claims (4)

사용자의 신체에 기반하여 미리 정해진 위치에 배치된 복수의 센서를 포함하고, 사용자의 신체에 착용되는 웨어러블 슈트부;
상기 복수의 센서로부터 상기 사용자 신체 부위의 힘, 상기 사용자 신체 부위의 가속도 및 상기 사용자 신체 부위의 xyz축 위치를 포함하는 센싱 데이터를 획득하고, 상기 센싱 데이터를 수치화하여 음향 신호를 생성하는 제어부;
상기 제어부로부터 상기 센싱 데이터를 수치화하여 상기 제어부에 의해 생성된 상기 음향 신호를 저장하는 메모리; 및
상기 제어부로부터 음향 신호를 획득하여 음향을 출력하는 음향부;
를 포함하되,
상기 웨어러블 슈트부는 사용자의 동작 영상을 디스플레이하는 디스플레이 장치가 설치된 헤드 슈트;를 포함하는 것을 특징으로 하는신체 움직임에 기반한 작곡 시스템.
A wearable suit part worn on a user's body, comprising a plurality of sensors arranged at predetermined locations based on the user's body;
A control unit that obtains sensing data including force of the user's body part, acceleration of the user's body part, and xyz-axis position of the user's body part from the plurality of sensors, and digitizes the sensing data to generate an acoustic signal;
A memory that digitizes the sensing data from the control unit and stores the acoustic signal generated by the control unit; and
An acoustic section that obtains an acoustic signal from the above control section and outputs sound;
Including, but not limited to,
A body movement-based composition system, characterized in that the wearable suit part includes a head suit having a display device installed therein for displaying an image of the user's movements.
제1항에 있어서,
상기 음향부는 사용자의 귀에 배치되는 것을 특징으로 하는,
신체 움직임에 기반한 작곡 시스템.
In the first paragraph,
The above sound unit is characterized in that it is placed at the user's ear.
A composition system based on body movements.
삭제delete 삭제delete
KR1020220157615A 2022-11-22 2022-11-22 Composing system based on body movement Active KR102822783B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220157615A KR102822783B1 (en) 2022-11-22 2022-11-22 Composing system based on body movement

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220157615A KR102822783B1 (en) 2022-11-22 2022-11-22 Composing system based on body movement

Publications (2)

Publication Number Publication Date
KR20240075538A KR20240075538A (en) 2024-05-29
KR102822783B1 true KR102822783B1 (en) 2025-06-19

Family

ID=91277802

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220157615A Active KR102822783B1 (en) 2022-11-22 2022-11-22 Composing system based on body movement

Country Status (1)

Country Link
KR (1) KR102822783B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101650142B1 (en) * 2015-02-25 2016-08-23 주식회사 엔터랙티브 Music play method and system in connection with wearble device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070110054A (en) 2005-02-02 2007-11-15 오디오브락스 인더스트리아 에 코메르씨오 데 프로두토스 엘레트로니코스 에스.에이. Mobile communication device with instrument function
KR20160141064A (en) * 2015-05-27 2016-12-08 (주)제이유엑스 apparatus for music playing by using body motion, method for music playing by using body motion and storage medium for music playing by using body motion

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101650142B1 (en) * 2015-02-25 2016-08-23 주식회사 엔터랙티브 Music play method and system in connection with wearble device

Also Published As

Publication number Publication date
KR20240075538A (en) 2024-05-29

Similar Documents

Publication Publication Date Title
US12088985B2 (en) Microphone natural speech capture voice dictation system and method
US20240054911A2 (en) Crowd-based device configuration selection of a music teaching system
CN109791740B (en) Intelligent detection and feedback system for intelligent piano
Dowling et al. Music cognition
CN111052223B (en) Playback control method, playback control device, and recording medium
US10991349B2 (en) Method and system for musical synthesis using hand-drawn patterns/text on digital and non-digital surfaces
US11749246B2 (en) Systems and methods for music simulation via motion sensing
KR101942814B1 (en) Method for providing accompaniment based on user humming melody and apparatus for the same
US11798523B2 (en) Systems and methods for generating audio content in a digital audio workstation
KR102822783B1 (en) Composing system based on body movement
JP2023154236A (en) Information processing system, information processing method, and program
Jensen et al. Media and modalities: Music
Torre The design of a new musical glove: a live performance approach
US9293124B2 (en) Tempo-adaptive pattern velocity synthesis
KR102830393B1 (en) Method and electronic apparatus for providing music information
US20080000345A1 (en) Apparatus and method for interactive
Hamilton Noise as a constructive element in music: theoretical and music-analytical perspectives. mark delaere
Collins Introduction: Improvisation
Frisson et al. Multimodal guitar: Performance toolbox and study workbench
Papetti et al. BIVIB: A Multimodal Piano Sample Library of Binaural Sounds and Keyboard Vibrations
JPWO2019044534A1 (en) Information processing device and information processing method
JP7585761B2 (en) Program, performance evaluation device, and performance evaluation method
Ayyaz Experiences in the Vicinity of Christina Kubisch’s Auditory Art Objects
Einbond Disembodiment: Reproduction, Transcription, And Trace
Lovett Measuring is making: the radical indeterminacy of music

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20221122

PA0201 Request for examination
PG1501 Laying open of application
E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20250526

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20250616

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20250617

End annual number: 3

Start annual number: 1

PG1601 Publication of registration