2
>>> t = Tokenizer(num_words=3)
>>> l = ["Hello, World! This is so&#$ fantastic!", "There is no other world like this one"]
>>> t.fit_on_texts(l)
>>> t.word_index
{'fantastic': 6, 'like': 10, 'no': 8, 'this': 2, 'is': 3, 'there': 7, 'one': 11, 'other': 9, 'so': 5, 'world': 1, 'hello': 4}
나는 상위 단어 3 개만을 갖기를 기대했다. 내가 도대체 뭘 잘못하고있는 겁니까?Keras Tokenizer num_words가 작동하지 않는 것 같음
이 문제도 참조하십시오. https://github.com/fchollet/keras/issues/7836 – petezurich
감사합니다. 다음은 https://github.com/fchollet/keras/issues/7551에도 도움이되었습니다. –