tidytext

    2

    2답변

    우수한 tidytext 패키지를 사용하여 몇 가지 단락으로 문장을 토큰 화합니다. 예를 들어, 다음 단락을 갖고 싶습니다. "나는 다르 씨가 결함이 없다는 것을 완벽하게 확신합니다. 그는 자기 자신을 변장없이 소유하고 있습니다." 두 문장 로를 토큰 화는 "나는 미스터 다아시가 결함이 없다고 그것으로 완벽하게 확신합니다." "그는 변장없이 직접 소유하고 있

    0

    2답변

    나는 pdf 파일에서 읽을 텍스트를 변형 중입니다. 특히, 나는 음절을 완성하는 하이픈 ("-")이나 단어를 새 줄로 분리하는 문자 벡터를 사용하지만 숫자가 인 경우에만 이 발생합니다. 예를 들어 : text text text 123- 456 text text.. 은 내가을하고 싶은 것은 모든 hypens를 제거하고 toghether 그 단어를 붙여이

    4

    1답변

    R Studio를 사용하여 일부 의견을 분석하는 중입니다. 지금 tidytext 패키지의 Bing Sentiment 어휘를 사용하고 있습니다. Bing (런타임 또는 오프라인)에 추가하려는 몇 가지 추가 단어가 있습니다. 예를 들어 나는 양성 또는 부정적 또는 다른 정서의 수준으로 그들을 추가 할 수 있습니다. 어떻게해야합니까?

    0

    1답변

    이것은 어리석은 질문 일 가능성이 높습니다.하지만 저는 인터넷 검색을 시도하고 해결책을 찾지 못했습니다. 내 질문에 대해 검색 할 수있는 올바른 방법을 모르기 때문입니다. 나는 정지 문자를 없애기 위해 R으로 깔끔한 텍스트 형식으로 변환 한 데이터 프레임을 가지고 있습니다. 이제 데이터 프레임을 원래 형식으로 되돌릴 수 있습니다. unnest_tokens의

    1

    1답변

    http://tidytextmining.com/sentiment.html#the-sentiments-dataset을 기반으로 정서 분석을 시도하고 있습니다. 정서 분석을 수행하기 전에 데이터 세트를 깔끔한 형식으로 변환해야합니다. 내 데이터 집합 형식이다 : 행 당 하나 명의 관찰로 변환하기 위해 x <- c("test1" , "test2") y <- c

    0

    1답변

    감정적 인 분석을 R에서 수행하려고합니다. afinn이나 bing 어휘집을 사용하고 싶지만, 문제는 내가 토큰을 토큰화할 수 없다는 것입니다. 비즈니스 패스 중 패스 실패 준비 안 : 그래서 난에 대한 감정을 원하는 누구를 위해 6 개 단어가 있습니다 : 여기 내가의 감정을 필요로하는 단어입니다 조건이있는 경우 항목이 없습니다. 어휘를 사용하여이 단어에 정

    1

    4답변

    스페인어 텍스트와 함께 unnest_tokens를 사용하려고합니다. Unigrams에서는 잘 작동하지만 bigrams로는 특수 문자를 구분합니다. 코드는 Linux에서 잘 작동합니다. 로케일에 대한 정보를 추가했습니다. library(tidytext) library(dplyr) df <- data_frame( text = "César Morei

    0

    1답변

    나는 most_used_words 데이터 프레임에있는 단어가있는 열을 분석하고 있습니다. 단어로. 2180 개 단어의 i를 AFINN의 어휘와 inner_join 만 (364)가 채점 most_used_words word times_used <chr> <int> 1 people 70 2 news 69 3 fake

    1

    2답변

    트위터에서 센티멘트 분석을하고있는 중이지만 내 트윗은 스페인어로되어 있으므로 단어를 분류하기 위해 tidytext를 사용할 수 없습니다. 스페인어에 비슷한 패키지가 있는지 아는 사람 있습니까? 감사합니다.

    0

    2답변

    저는 R이 처음이에요. 그리고 나는 widyr을 사용하여 텍스트 마이닝을하고 있습니다. 나는 here이라는 메서드를 사용하여 텍스트의 각 섹션 내에서 함께 발생하는 단어 목록과 그 phi 계수를 얻었습니다. 코드는 다음과 같이 word_cors <- review_words %>% group_by(word) %>% pairwise_cor(w