STFT와 RNN을 활용한 화자 인증 모델
DC Field | Value | Language |
---|---|---|
dc.contributor.author | 김민서 | - |
dc.contributor.author | 문종섭 | - |
dc.date.accessioned | 2021-09-02T00:20:14Z | - |
dc.date.available | 2021-09-02T00:20:14Z | - |
dc.date.created | 2021-06-17 | - |
dc.date.issued | 2019 | - |
dc.identifier.issn | 1598-3986 | - |
dc.identifier.uri | https://scholar.korea.ac.kr/handle/2021.sw.korea/70056 | - |
dc.description.abstract | 최근 시스템에 음성 인증 기능이 탑재됨에 따라 화자(Speaker)를 정확하게 인증하는 중요성이 높아지고 있다. 이에 따라 다양한 방법으로 화자를 인증하는 모델이 제시되어 왔다. 본 논문에서는 Short-time Fouriertransform(STFT)를 적용한 새로운 화자 인증 모델을 제안한다. 이 모델은 기존의 Mel-Frequency CepstrumCoefficients(MFCC) 추출 방법과 달리 윈도우 함수를 약 66.1% 오버랩하여 화자 인증 시 정확도를 높일 수 있다. 새로운 화자 인증 모델을 제안한다. 이 때, LSTM 셀을 적용한 Recurrent Neural Network(RNN)라는 딥러닝 모델을 사용하여 시변적 특징을 가지는 화자의 음성 특징을 학습하고, 정확도가 92.8%로 기존의 화자 인증 모델보다 5.5% 정확도가 높게 측정되었다. | - |
dc.language | Korean | - |
dc.language.iso | ko | - |
dc.publisher | 한국정보보호학회 | - |
dc.title | STFT와 RNN을 활용한 화자 인증 모델 | - |
dc.title.alternative | Speaker Verification Model Using Short-Time Fourier Transform and Recurrent Neural Network | - |
dc.type | Article | - |
dc.contributor.affiliatedAuthor | 문종섭 | - |
dc.identifier.doi | 10.13089/JKIISC.2019.29.6.1393 | - |
dc.identifier.bibliographicCitation | 정보보호학회논문지, v.29, no.6, pp.1393 - 1401 | - |
dc.relation.isPartOf | 정보보호학회논문지 | - |
dc.citation.title | 정보보호학회논문지 | - |
dc.citation.volume | 29 | - |
dc.citation.number | 6 | - |
dc.citation.startPage | 1393 | - |
dc.citation.endPage | 1401 | - |
dc.type.rims | ART | - |
dc.identifier.kciid | ART002542647 | - |
dc.description.journalClass | 2 | - |
dc.description.journalRegisteredClass | kci | - |
dc.subject.keywordAuthor | Speaker verification | - |
dc.subject.keywordAuthor | STFT | - |
dc.subject.keywordAuthor | Deep Learning | - |
dc.subject.keywordAuthor | Recurrent Neural Network(RNN) | - |
Items in ScholarWorks are protected by copyright, with all rights reserved, unless otherwise indicated.
(02841) 서울특별시 성북구 안암로 14502-3290-1114
COPYRIGHT © 2021 Korea University. All Rights Reserved.
Certain data included herein are derived from the © Web of Science of Clarivate Analytics. All rights reserved.
You may not copy or re-distribute this material in whole or in part without the prior written consent of Clarivate Analytics.