스피커 인식을 위해 유클리드 거리를 사용하고 있습니다. MATLAB에서 perfcurve을 사용하여 ROC 커브를 플롯하려고합니다. 점수가 결과적으로 유클리드 거리이므로, 나는 올바르게하고 있습니까? 감사합니다 Labels=[1 1 1 1 1 1 1 0 0 1]; scores=[18.5573 15.3364 16.8427 19.6381 16.4195 17.3
파이썬을 사용하는 스피커 인식을 기반으로하는 프로젝트에서 작업하면서 MFCC을 찾는 동안 다음 오류가 발생합니다. import numpy
from scipy.fftpack import dct
from scipy.io import wavfile
sampleRate, signal = wavfile.read("/home/neha/Audio/b6.wav")
나는 HTML 5 오디오 컨텍스트를 사용하여 오디오를 기록하는 javascript로 응용 프로그램을 개발 중입니다. 현재 활성 사운드 장치가 마이크 또는 기본 랩톱/컴퓨터 마이크에 연결되어 있는지 여부와 볼륨을 줄이는 것과 같은 설정을 조정해야하는지 여부를 요구하는 기능을 개발하고 싶습니다. 이것을 달성 할 수있는 방법이 있습니까?
입니다. Android API 설명서를 확인하고 AudioManager 페이지에서 다음 속성을 발견했습니다. PROPERTY_SUPPORT_MIC_NEAR_ULTRASOUND (Added in API level 23)
String PROPERTY_SUPPORT_MIC_NEAR_ULTRASOUND
Used as a key for getProperty(
Stanford CoreNLP를 사용할 때 xml 출력 파일에 결과가 표시됩니다. 그 안에 스피커의 이름을 가진 열이 있습니다. 예를 들어 <word>Mike</word>
<lemma>Mike</lemma>
<CharacterOffsetBegin>0</CharacterOffsetBegin>
<CharacterOffsetEn
나는 6 명의 스피커가 연결된 Arduino로 연주 한 작은 노래를 프로그램하려고합니다. 이 과정은 주파수에서 다른 스피커를 켜고 음표의 지속 시간을 카운트 다운해야합니다. 지속 시간이 끝나면 나는 다음 소리를 듣거나 스피커를 켜십시오. 나는 6 명의 연설자를 위해 다른 배열을 정의했다. 또한 노트 주파수와 지속 시간에 대한 정의가 많습니다. 문제는, 나는
전적으로 Microsoft인지 서비스를 처음 사용합니다. 나는 완전히 음성 통제 된 webproject를 만들고 싶다. 말하기 제어를 위해 저는 arytom.js를 사용하고 있습니다.이 사용법은 매우 간단하고 훌륭한 API입니다. 그것은 나를 위해, TTS와 STT를 위해 잘 작동합니다. 지금하고 싶은 일은 말하고있는 사람을 알아보고 데이터베이스와 비교하는
저는 연사 표창이 미리보기로되어 있고 유일한 사용 가능한 위치는 서해안이라고 알고 있습니다. 그래서 나는 이것이 왜 '지연'이라고 생각 하는지를 기대합니다. Im는 이스트 코스트 (NY)에 있으며 내 검색에서 스피커가 3 명이면 확인을 위해 6 초가 걸립니다. 나에게 잘못을 말하지 마라. 6 초는 그것이하는 것에 인상적이다. 그러나 그 긴 지연 때문에 유스
마이크를 사용하여 버퍼링하지 않고 많은 입력 데이터를 재생하려고합니다. 노력했지만 버퍼링이 있습니다. 여기 내 코드가있다.가 import pyaudio
import wave
import urllib.request
import struct
import numpy as np
import sounddevice as sd
import matplotlib