저는 C#에서 개발 된 프로 애플리케이션에서 텍스트를 음성으로 변환하는 기능이 더 많은 두 API 중 어느 것을 결정하려고합니다."Windows.Media.SpeechSynthesis"와 "System.Speech.Synthesis"의 차이점은 무엇입니까?
OS는 여기에 문제가되지 않습니다. 두 개의 네임 스페이스가 더 많은 기능, 품질 음성 및 안정성을 제공하는 방법은 무엇입니까?
본문 주인 모두 기술자가되어 두 가지 네임 스페이스의 차이점을 알려주시겠습니까? 그 중 하나는 기능 측면에서 다른 것의 수퍼 세트입니까?
EDIT : 두 네임 뒤에서
가 동일한 합성 음성 엔진 있습니까?
내 웹 응용 프로그램은 서버 쪽에서 모든 텍스트 음성 변환 작업을 수행합니다.
그들은 공통점이 없으며 스토어 또는 전화 앱에서 사용하고 다른 하나는 데스크톱 앱에서 사용합니다. 유사한 것처럼 들리지만 페라리와 자전거가 비슷한 방식 일뿐입니다. 그들은 둘 다 당신을 움직이게하지만 매우 다른 방식으로 그렇게합니다. –
내 앱이 2012 R2에서 실행되는 웹 앱인 경우 어떻게해야합니까? [Here] (http://msdn.microsoft.com/en-us/library/windows.media.speechsynthesis.aspx) 필자는 Windows.Media.SpeechSynthesis *가 2012 R2와 호환됨을 읽었습니다. 여전히 귀하의 의견을 읽고 난 * Windows.Media.SpeechSynthesis *가 서버 서비스에 의존하는 클라이언트 라이브러리 일 뿐인 지 의심스러워합니다. 그 맞습니까? –
그러면 자바 스크립트를 작성해야합니다. 물론 .NET과 관련이 없으며 사용자가 2012R2에서 브라우저를 실행할 확률도 낮습니다. 중요한 것은 코드가 실행되는 위치를 계속 주시해야합니다. 물론 큰 문제입니다. 어느 누구도 잠긴 서버 실에서 아무에게도 말하지 않는 웹 서버에 관심이 없습니다. 하지만 2012R2에서는 Store 앱을 실행할 수 있습니다. –