저는 Markov Chain Generators에 대해 더 많이 읽었으며, 실제로 Markov Chain Generator의 전체 프로세스에 흥미를 느끼고 있습니다. 나의 이해에서 미래 상태는 통계적 과거 국가들에 의존한다.Markovian Logic을 통한 결정론 회피
예 :
안녕하세요. 안녕, 돌리. 안녕하세요.
"World"는 "Hello"다음에 66 %의 시간이옵니다.
항상 그렇다면 그때마다 같은 결과를내는 것을 어떻게 피합니까? 통계적 발생은 정적 문자열로 변경되지 않으므로 소스 데이터가 어떤 방식 으로든 수정되지 않는 한 모든 변형이 생성되지 않는다고 가정 할 수 있습니까?
통계적 값을 고려하면서 정적 소스에서 유사 콘텐츠를 얻을 수 있지만 유연성을 허용하려면 어떻게해야합니까? 위의 예제를 사용하여 "Dolly"가 "Hello"를 33 % 만 따르는 경우 제네레이터가 "Hello"를 따라 "Dolly"를 따르도록하려면 어떻게해야합니까?
나는 내가 선택한 것은 다음 선택의 확률을 현재 선택에 따르는 단어의 통계적 유무에 어떻게 근거 할 수 있을까요? 그렇게하면 "돌리"가 시간의 33 %를 차지하고 "월드"가 시간의 66 %를 차지합니다 - 아니면 완전히 잃어버린 것입니까?