저는 현재 Google에서 나머지 웹 서비스를 사용하여 작업에 대한 데모를 작성하려고합니다.ExpectedInputs/possible_intents는 "assistant.intent.action.TEXT"에서만 작동합니까?
사용자가 작업 ("testaction과의 대화")을 열고 환영 메시지를 표시합니다 (Main intent를 통해). 이 초기 인 텐트는 사용자 응답을 기대하며 JSON 응답의 possible_intents 필드를 통해 다음 예정된 인 텐트를 설정합니다.
the documentation에 따르면 내 HTTP JSON 응답의 possible_intents에 사용자 지정 인 텐트를 지정할 수 있어야합니다.
Sorry, I did not understand.
그리고 응답 : 나는 "assistant.intent.action.TEXT"보다 어떤 의도를 사용할 경우는 내가 처음 의도에/프롬프트에 응답하면
그러나, 나는 다음과 같은 오류가 발생합니다 초기 환영 인사가 내 서비스로 제대로 라우팅되지 않았습니다.
이 작동하지 않습니다 :이 작동
{
"response": "...",
"expectUserResponse": true,
"conversationToken": "...",
"audioResponse": "...",
"debugInfo": {
"agentToAssistantDebug": {
"agentToAssistantJson": {
"conversation_token": "...",
"expect_user_response": true,
"expected_inputs": [
{
"input_prompt": {
[...]
},
"possible_intents": [
{
"intent": "testintent"
}
]
}
]
}
}
}
}
:
{
"response": "...",
"expectUserResponse": true,
"conversationToken": "...",
"audioResponse": "...",
"debugInfo": {
"agentToAssistantDebug": {
"agentToAssistantJson": {
"conversation_token": "...",
"expect_user_response": true,
"expected_inputs": [
{
"input_prompt": {
[...]
},
"possible_intents": [
{
"intent": "assistant.intent.action.TEXT"
}
]
}
]
}
}
}
}
내 testintent 제대로 행동 패키지에 정의 내가 직접 호출하는 경우 잘 작동합니다.
일반적인 TEXT 인 텐트를 사용할 수 있습니까? 그렇다면 코드에서 텍스트 일치 및 의도 인식을 모두 수행해야합니까?
친절하게 답변 해 주셔서 감사합니다. 액션 SDK를 통해 의도 기반 대화를 허용하기 위해 TEXT 이외의 인 텐트와 일치하는 초기 트리거 된 인 텐트가 발생한 후 NLU 서비스를 제공 할 계획이 있습니까? – Wasda
NLU에 Actions SDK를 제공 할 계획이 없습니다. –
알겠습니다. 빠른 답장을 보내 주셔서 다시 한 번 감사드립니다. – Wasda