KR102871167B1 - 딥페이크 음악 판별 장치 및 방법 - Google Patents
딥페이크 음악 판별 장치 및 방법Info
- Publication number
- KR102871167B1 KR102871167B1 KR1020240129928A KR20240129928A KR102871167B1 KR 102871167 B1 KR102871167 B1 KR 102871167B1 KR 1020240129928 A KR1020240129928 A KR 1020240129928A KR 20240129928 A KR20240129928 A KR 20240129928A KR 102871167 B1 KR102871167 B1 KR 102871167B1
- Authority
- KR
- South Korea
- Prior art keywords
- deepfake
- probability
- features
- audio data
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
- G10L21/10—Transforming into visible information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/81—Detection of presence or absence of voice signals for discriminating voice from music
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/90—Pitch determination of speech signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Description
도 2는 본 발명의 일 실시예에 따른 딥페이크 음악 판별 장치의 구성을 나타낸다.
도 3은 음성 분리 탐지부(130)의 구체적인 구성을 나타낸다.
도 4는 신경 보코더 탐지부(140)의 구체적인 구성을 나타낸다.
도 5는 딥페이크 판별 모델의 일 예를 나타낸다.
도 6은 본 발명의 일 실시예에 따른 딥페이크 음악 판별 방법의 흐름도를 나타낸다.
Claims (16)
- 오디오 데이터를 입력받는 입력부;
상기 오디오 데이터로부터 음향 특징을 추출하는 특징 추출부;
변분오토인코더-적대적 생성 신경망 모델로서, 인코더, 디코더 및 판별자(discriminator)로 구성되고, 상기 인코더에 상기 음향 특징이 입력되어 상기 디코더로부터 복원된 음향 특징이 출력되며, 상기 인코더에 입력되는 음향 특징 또는 상기 디코더로부터 복원된 음향 특징은 상기 판별자에 입력되고, 상기 판별자는 상기 판별자에 입력되는 음향 특징이 상기 인코더에 입력되는 음향 특징인지 상기 디코더로부터 복원된 음향 특징인지 판별하고, 상기 변분오토인코더-적대적 생성 신경망 모델은 음성 분리 처리되지 않은 오디오 데이터로부터 추출된 음향 특징을 이용하여 학습된 것인, 변분오토인코더-적대적 생성 신경망 모델;
상기 인코더에 입력되는 음향 특징과 상기 복원된 음향 특징 간의 코사인 유사도를 산출하는 코사인 유사도 산출부;
상기 오디오 데이터에 포함된 음성이 신경 보코더를 통해 생성된 것인 확률인 신경 보코더 확률을 획득하는 신경 보코더 탐지부로서,
상기 오디오 데이터로부터 음성을 분리하는 음성 분리부;
상기 음성으로부터 음향 특징을 추출하는 특징 추출부; 및
상기 음향 특징으로부터 상기 신경 보코더 확률을 출력하는 신경 보코더 탐지 모델을 포함하고,
상기 신경 보코더 탐지 모델은, CNN 모델로서, 오리지널 음성의 음향 특징과 신경 보코더를 통해 생성된 음성의 음향 특징을 포함하는 레이블된 학습 데이터를 이용하여 학습된 것인,
신경 보코더 탐지부; 및
상기 코사인 유사도 및 상기 신경 보코더 확률을 이용하여 상기 오디오 데이터의 딥페이크 여부를 판별하는 딥페이크 판별부로서, 다층 퍼셉트론으로 구성되며 상기 코사인 유사도 및 상기 신경 보코더 확률로부터 상기 오디오 데이터가 딥페이크된 것인 확률인 딥페이크 확률을 출력하는 딥페이크 판별 모델을 이용하여, 상기 딥페이크 확률이 소정 임계값 이상이면 상기 오디오 데이터를 딥페이크로 판별하는 딥페이크 판별부를 포함하고,
상기 딥페이크 판별 모델은 오리지널 오디오 데이터의 상기 코사인 유사도 및 상기 신경 보코더 확률, 및 딥페이크된 오디오 데이터의 상기 코사인 유사도 및 상기 신경 보코더 확률을 포함하는 레이블된 학습 데이터를 이용하여 학습된 것을 특징으로 하는 딥페이크 음악 판별 장치. - 제1항에 있어서,
상기 음향 특징은, 스펙트럼 포락선 특징, 시간적 역학 특징, 피치 및 고조파 특징, 및 성도 특징을 포함하는 것을 특징으로 하는 딥페이크 음악 판별 장치. - 제2항에 있어서,
상기 스펙트럼 포락선 특징은 MFCC(Mel-Frequency Cepstral Coefficients), 스펙트럼 중심, 스펙트럼 평탄도, 및 스펙트럼 롤오프를 포함하고,
상기 시간적 역학 특징은 MFCC의 델타 및 델타-델타, 스펙트럼 플럭스, 및 제로 크로싱 비율을 포함하고,
상기 피치 및 고조파 특징은 기본 주파수, 고조파 대 잡음비, 및 크로마 특징을 포함하고,
상기 성도 특징은 포먼트 주파수, 포먼트 대역폭, 지터, 및 쉬머(shimmer)를 포함하는 것을 특징으로 하는 딥페이크 음악 판별 장치. - 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 컴퓨터에 의해 수행되는 딥페이크 음악 판별 방법으로서,
오디오 데이터를 입력받는 단계;
상기 오디오 데이터로부터 음향 특징을 추출하는 단계;
변분오토인코더-적대적 생성 신경망 모델로서, 인코더, 디코더 및 판별자(discriminator)로 구성되고, 상기 인코더에 상기 음향 특징이 입력되어 상기 디코더로부터 복원된 음향 특징이 출력되며, 상기 인코더에 입력되는 음향 특징 또는 상기 디코더로부터 복원된 음향 특징은 상기 판별자에 입력되고, 상기 판별자는 상기 판별자에 입력되는 음향 특징이 상기 인코더에 입력되는 음향 특징인지 상기 디코더로부터 복원된 음향 특징인지 판별하고, 상기 변분오토인코더-적대적 생성 신경망 모델은 음성 분리 처리되지 않은 오디오 데이터로부터 추출된 음향 특징을 이용하여 학습된 것인, 변분오토인코더-적대적 생성 신경망 모델을 이용하여, 상기 인코더에 상기 음향 특징을 입력하여 상기 디코더로부터 복원된 음향 특징을 획득하고, 상기 인코더에 입력되는 음향 특징과 상기 복원된 음향 특징 간의 코사인 유사도를 산출하는 단계;
상기 오디오 데이터에 포함된 음성이 신경 보코더를 통해 생성된 것인 확률인 신경 보코더 확률을 획득하는 단계로서,
상기 오디오 데이터로부터 음성을 분리하는 단계;
상기 음성으로부터 음향 특징을 추출하는 단계; 및
상기 음향 특징으로부터 신경 보코더 탐지 모델을 통해 상기 신경 보코더 확률을 획득하는 단계를 포함하고,
상기 신경 보코더 탐지 모델은, CNN 모델로서, 오리지널 음성의 음향 특징과 신경 보코더를 통해 생성된 음성의 음향 특징을 포함하는 레이블된 학습 데이터를 이용하여 학습된 것인,
신경 보코더 확률 획득 단계; 및
상기 코사인 유사도 및 상기 신경 보코더 확률을 이용하여 상기 오디오 데이터의 딥페이크 여부를 판별하는 단계로서, 다층 퍼셉트론으로 구성되며 상기 코사인 유사도 및 상기 신경 보코더 확률로부터 상기 오디오 데이터가 딥페이크된 것인 확률인 딥페이크 확률을 출력하는 딥페이크 판별 모델을 이용하여, 상기 딥페이크 확률이 소정 임계값 이상이면 상기 오디오 데이터를 딥페이크로 판별하는 딥페이크 여부 판별 단계를 포함하고,
상기 딥페이크 판별 모델은 오리지널 오디오 데이터의 상기 코사인 유사도 및 상기 신경 보코더 확률, 및 딥페이크된 오디오 데이터의 상기 코사인 유사도 및 상기 신경 보코더 확률을 포함하는 레이블된 학습 데이터를 이용하여 학습된 것을 특징으로 하는 딥페이크 음악 판별 방법. - 제9항에 있어서,
상기 음향 특징은, 스펙트럼 포락선 특징, 시간적 역학 특징, 피치 및 고조파 특징, 및 성도 특징을 포함하는 것을 특징으로 하는 딥페이크 음악 판별 방법. - 제10항에 있어서,
상기 스펙트럼 포락선 특징은 MFCC(Mel-Frequency Cepstral Coefficients), 스펙트럼 중심, 스펙트럼 평탄도, 및 스펙트럼 롤오프를 포함하고,
상기 시간적 역학 특징은 MFCC의 델타 및 델타-델타, 스펙트럼 플럭스, 및 제로 크로싱 비율을 포함하고,
상기 피치 및 고조파 특징은 기본 주파수, 고조파 대 잡음비, 및 크로마 특징을 포함하고,
상기 성도 특징은 포먼트 주파수, 포먼트 대역폭, 지터, 및 쉬머(shimmer)를 포함하는 것을 특징으로 하는 딥페이크 음악 판별 방법. - 삭제
- 삭제
- 삭제
- 삭제
- 삭제
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020240129928A KR102871167B1 (ko) | 2024-09-25 | 2024-09-25 | 딥페이크 음악 판별 장치 및 방법 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020240129928A KR102871167B1 (ko) | 2024-09-25 | 2024-09-25 | 딥페이크 음악 판별 장치 및 방법 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR102871167B1 true KR102871167B1 (ko) | 2025-10-16 |
Family
ID=97558020
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020240129928A Active KR102871167B1 (ko) | 2024-09-25 | 2024-09-25 | 딥페이크 음악 판별 장치 및 방법 |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR102871167B1 (ko) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20220065343A (ko) * | 2020-11-13 | 2022-05-20 | 서울시립대학교 산학협력단 | 심층 신경망을 기초로 동시에 스푸핑 공격 검출과 화자 인식을 수행하기 위한 장치 및 이를 위한 방법 |
| US11694694B2 (en) * | 2020-07-30 | 2023-07-04 | University Of Florida Research Foundation, Incorporated | Detecting deep-fake audio through vocal tract reconstruction |
| US20230343342A1 (en) * | 2022-04-26 | 2023-10-26 | University Of Florida Research Foundation, Incorporated | Detecting audio deepfakes through acoustic prosodic modeling |
| US20240005947A1 (en) * | 2021-04-21 | 2024-01-04 | Microsoft Technology Licensing, Llc | Synthetic speech detection |
| KR20240088457A (ko) * | 2022-12-13 | 2024-06-20 | 삼성전자주식회사 | 합성 음성을 식별하는 전자 장치 및 그 제어 방법 |
-
2024
- 2024-09-25 KR KR1020240129928A patent/KR102871167B1/ko active Active
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11694694B2 (en) * | 2020-07-30 | 2023-07-04 | University Of Florida Research Foundation, Incorporated | Detecting deep-fake audio through vocal tract reconstruction |
| KR20220065343A (ko) * | 2020-11-13 | 2022-05-20 | 서울시립대학교 산학협력단 | 심층 신경망을 기초로 동시에 스푸핑 공격 검출과 화자 인식을 수행하기 위한 장치 및 이를 위한 방법 |
| US20240005947A1 (en) * | 2021-04-21 | 2024-01-04 | Microsoft Technology Licensing, Llc | Synthetic speech detection |
| US20230343342A1 (en) * | 2022-04-26 | 2023-10-26 | University Of Florida Research Foundation, Incorporated | Detecting audio deepfakes through acoustic prosodic modeling |
| KR20240088457A (ko) * | 2022-12-13 | 2024-06-20 | 삼성전자주식회사 | 합성 음성을 식별하는 전자 장치 및 그 제어 방법 |
Non-Patent Citations (5)
| Title |
|---|
| Dorombozi, Andras., Audio tampering detection: Deep learning methodologies for multi-layered threat detection., Diss. Technische Universitat Wien, 2023* * |
| He,Boxin et.al, Data Augmentation for Monaural Singing Voice Separation Based on Variational Autoencoder-Generative Adversarial Network, Multimedia and Expo (ICME), 2019 IEEE International Conference on, IEEE, Jul. 2019, Vol.2019, no.7, pp.1354-1359 |
| He,Boxin et.al, Data Augmentation for Monaural Singing Voice Separation Based on Variational Autoencoder-Generative Adversarial Network, Multimedia and Expo (ICME), 2019 IEEE International Conference* * |
| Sharma,Garima et.al, Trends in audio signal feature extraction methods, Applied acoustics, Elsevier, Jan. 2020, Vol.158, pp.107020* * |
| You, Jaeseong, et al., Gan vocoder: Multi-resolution discriminator is all you need., arXiv preprint arXiv:2103.05236, 2021* * |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Zhou et al. | Vision-infused deep audio inpainting | |
| JP6521913B2 (ja) | ボリューム平準化器コントローラおよび制御方法 | |
| EP3723088B1 (en) | Audio contribution identification system and method | |
| CN111465982B (zh) | 信号处理设备和方法、训练设备和方法以及程序 | |
| JP2009511954A (ja) | モノラルオーディオ信号からオーディオソースを分離するためのニューラル・ネットワーク識別器 | |
| Gurbuz et al. | Application of affine-invariant Fourier descriptors to lipreading for audio-visual speech recognition | |
| CN111667805B (zh) | 一种伴奏音乐的提取方法、装置、设备和介质 | |
| Obin et al. | On the generalization of Shannon entropy for speech recognition | |
| CN118942468A (zh) | 音频修复方法、装置、介质和计算设备 | |
| CN116438599A (zh) | 通过标准arm嵌入式平台上的卷积神经网络嵌入式语音指纹进行人声轨道去除 | |
| Haseeb et al. | Gpt-4 driven cinematic music generation through text processing | |
| Zhang et al. | Prosody-enhanced acoustic pre-training and acoustic-disentangled prosody adapting for movie dubbing | |
| Amado et al. | Pitch detection algorithms based on zero-cross rate and autocorrelation function for musical notes | |
| KR102871167B1 (ko) | 딥페이크 음악 판별 장치 및 방법 | |
| CN113241054B (zh) | 语音平滑处理模型生成方法、语音平滑处理方法及装置 | |
| Doets et al. | Distortion estimation in compressed music using only audio fingerprints | |
| Li et al. | YOLOPitch: A Time-Frequency Dual-Branch YOLO Model for Pitch Estimation. | |
| Hua et al. | Improving spoofing capability for end-to-end any-to-many voice conversion | |
| Xue et al. | Audio-flan: A preliminary release | |
| CN118942469A (zh) | 音频分轨提取方法、装置、介质和计算设备 | |
| Goyani et al. | Performance analysis of lip synchronization using LPC, MFCC and PLP speech parameters | |
| Joshi et al. | Identification of Indian musical instruments by feature analysis with different classifiers | |
| CN117116275A (zh) | 多模态融合的音频水印添加方法、设备及存储介质 | |
| CN119993117B (zh) | 歌声转换系统的训练方法、生成音频的方法及相关装置 | |
| Seth et al. | Pat: Parameter-free audio-text aligner to boost zero-shot audio classification |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| PA0302 | Request for accelerated examination |
St.27 status event code: A-1-2-D10-D17-exm-PA0302 St.27 status event code: A-1-2-D10-D16-exm-PA0302 |
|
| D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
| D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| U11 | Full renewal or maintenance fee paid |
Free format text: ST27 STATUS EVENT CODE: A-2-2-U10-U11-OTH-PR1002 (AS PROVIDED BY THE NATIONAL OFFICE) Year of fee payment: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| Q13 | Ip right document published |
Free format text: ST27 STATUS EVENT CODE: A-4-4-Q10-Q13-NAP-PG1601 (AS PROVIDED BY THE NATIONAL OFFICE) |
|
| P14 | Amendment of ip right document requested |
Free format text: ST27 STATUS EVENT CODE: A-5-5-P10-P14-NAP-X000 (AS PROVIDED BY THE NATIONAL OFFICE) |
|
| P14-X000 | Amendment of ip right document requested |
St.27 status event code: A-5-5-P10-P14-nap-X000 |
|
| P16 | Ip right document amended |
Free format text: ST27 STATUS EVENT CODE: A-5-5-P10-P16-NAP-X000 (AS PROVIDED BY THE NATIONAL OFFICE) |
|
| P16-X000 | Ip right document amended |
St.27 status event code: A-5-5-P10-P16-nap-X000 |
|
| Q16 | A copy of ip right certificate issued |
Free format text: ST27 STATUS EVENT CODE: A-4-4-Q10-Q16-NAP-X000 (AS PROVIDED BY THE NATIONAL OFFICE) |
|
| Q16-X000 | A copy of ip right certificate issued |
St.27 status event code: A-4-4-Q10-Q16-nap-X000 |
|
| P14 | Amendment of ip right document requested |
Free format text: ST27 STATUS EVENT CODE: A-5-5-P10-P14-NAP-X000 (AS PROVIDED BY THE NATIONAL OFFICE) |
|
| P14-X000 | Amendment of ip right document requested |
St.27 status event code: A-5-5-P10-P14-nap-X000 |