stanford-nlp

    1

    1답변

    그래서 내 요구 사항은 구두로 간단합니다. StanfordCoreNLP 기본 모델과 커스텀 엔티티 기반 맞춤 교육 모델이 필요합니다. 된 노력 내가 : - -이 : 그래서 내가 사용하고 싶었 최종 실행, 나는 내 노력이 은 다음 (RegexNER가 사용됩니다) 주어진 문장에서 특정 문구를 분리 할 수 ​​있어야합니다 StanfordCoreNLP CRF 파일

    0

    1답변

    우리는 우리 도메인에서 엔티티 추출을 위해 Stanford NER를 사용하려고합니다. 그래서 우리는 분류자를 재교육해야합니다. 그러나 Apache Spark 환경이 있습니다. 아무도 스탠포드 NER를 스파크에서 사용하는 방법을 제안 할 수 있는지 궁금합니다. 저는 파이썬 2.7 + NLTK를 사용하고 있습니다. 모든 응답은 크게 감사하겠습니다.

    1

    1답변

    는 나는 그런 같은 문장 유아 교육에 대학교, 심리학 내가 스탠포드 파서를 사용하여 텍스트에 주석을 찾고 있어요. 그런 다음 각 문장을 반복하고 NER (명명 된 엔티티 인식)를 사용하여 "학사 학위"를 식별합니다. 트리플을 처리함으로써 개체가 "BE IN"을 따르고 대학 전공이 될 가능성이 있음을 알 수 있습니다. 그래서 추가 분석을 위해 객체 문구를 보

    1

    1답변

    Stannford OpenIE 트리플렛을 기반으로 한 파일에서 문장을 추출하려고합니다. 나는 json 파일의 형태로 그것을 가지고있다. "openie": [ { "subject": "We", "subjectSpan": [0, 1], "relation": "drive back to", "relationSpa

    0

    1답변

    이 코드는 예상대로 작동합니다. "안녕하세요 처리 세계" library(dplyr) data <- list(t1 = "hello world.", t2 = "bye world") library(doMC) registerDoMC(3) res <- foreach(t = data) %dopar% { print(sprintf("processin

    1

    1답변

    나는 많은 이름이 manish 대신 man1sh, vikas가 v1kas와 같이 쓰여지는 데이터 세트를 가지고 있습니다. 어떻게이 이름을 nlp에서 수정할 수 있습니까? 도움을 주시면 감사하겠습니다.

    0

    1답변

    C#의 Stanford Core NLP를 사용하여 일부 텍스트 파일을 구문 분석하기 위해 프런트 엔드를 작성합니다. 파일 선택 대화 상자를 열고 일부 텍스트 파일을 선택합니다. 다음 방법은 거기에서 작동합니다. using System; using System.Collections.Generic; using System.ComponentModel; us

    0

    1답변

    알고리즘을 실행하기 전에 스파크의 데이터를 사전 처리해야합니다. 사전 처리 논리 중 하나는 텍스트에서 중지 단어를 제거하는 것이 었습니다. StopWordsRemover를 실행 해 보았습니다. StopWordsRemover는 입출력이 필요하고 Array [String]이어야합니다. 프로그램을 실행 한 후 최종 열 출력은 문자열 모음으로 표시되며 일반 문자열

    -1

    1답변

    나는 스탠포드 NLP를 통해 중국 관계를 추출하고 싶습니다. 훈련 예도 없으며 중국 관계형 모델에서 교육을 받았습니까? 매우 감사드립니다! java -Xmx8g edu.stanford.nlp.pipeline.StanfordCoreNLP -props StanfordCoreNLP-chinese.properties -annotators tokenize,sspli

    0

    1답변

    StanfordNLP에 대한 고유 한 직렬화 된 교육 모델을 만들려고하고 있지만 교육 코드가 많은 시간이 걸립니다. # location of the training file trainFile=dictionary.tsv # location where you would like to save (serialize) your # classifier; add