scala

    0

    1답변

    스칼라 2.11.8을 사용하고 있습니다. 내 속성 파일에서 쿼리를 읽으려고합니다. 각 쿼리 세트에는 여러 부분이 있습니다 (아래 설명 참조) 그리고 이러한 쿼리를 실행해야하는 특정 순서가 있습니다. 코드 : import com.typesafe.config.ConfigFactory object ReadProperty { def main(a

    1

    0답변

    스칼라 사용 ... 바운드와 공분산을 혼합하는 방식으로 다형성을 사용하는 방법을 알아낼 수 없습니다. 는 간단히 말해서, 나는 내가 이런 종류의 서명 뭔가를해야한다고 생각 ...하지만 당신이 내 더미 예와 함께 따르는 경우에 내가 여기까지 왜, 당신은 볼 ... 그리고 어쩌면 내가 틀렸다. def func[+T <: U](func: Seq[T] => T)(

    1

    1답변

    내 사용 예제는 매우 간단합니다. 내가 스칼라에서 문자열 주위에 래퍼 클래스를 가지고 내 사용자 정의 스칼라 매퍼 코드를 사용하여 데이터베이스에 String 유형으로 매핑 할 (클래스는 제 3 자이고 나는 그것을 수정할 수 없습니다. 내가 찾은 모든 예제 지금까지 슬릭 3. 에 어떤 도움을 존재하는 것 같습니다하지 않는 이상적으로 작동 예 감사하는 Mapp

    0

    1답변

    flink API에서 자원 관리 (init, close 등)를 수행하는 메소드를 얻고 싶습니다. 예 : 플 링크 (flink) 할 작업을 제출하면 일부 JDBC 연결이 설정됩니다. 작업을 취소하면 이러한 연결이 작업 취소 전에 닫힙니다.

    2

    1답변

    나는 스파크에서 룩업 테이블로 사용하고자하는 명확하게 정의 된 스키마가없는 데이터 프레임을 가지고 있습니다. 예를 들어, 아래 dataframe는 : +------------------------------------------------------------------------+ |lookupcolumn | +--------

    1

    3답변

    최근에 나는 수업에서 배우를 래핑하여 자신이 ActorRef을 처리 할 때 잃어버린 typesafety 중 일부를 되 찾을 수 있다고 생각했습니다. 결국 문제는 특정 메시지를 보낼 필요가있을뿐 아니라 예상 결과에 응답해야한다는 것입니다. 그래서 나는 결국 결과를보고 할 수 있도록 Promise을 포함하는 액터에게 메시지를 보낼 수 있다고 생각했습니다. 그게

    0

    1답변

    API Rest (Swagger)에서 얻은 json 콘텐츠에서 중첩 값을 얻으려고합니다. play.api.libs.json.JsResultException: JsResultException(errors:List((,List(ValidationError(error.expected.jsstring,WrappedArray()))))) 모든 아이디어 :이 {

    1

    1답변

    나는 가독성을 높이기 위해 변수를 많이 사용하는 경향이 있지만 모나드 올 때, 나는 내 변수가 모나드 (들) def getUser(id: Int): Future[User] = ??? val _user1 = getUser(1) val _user2 = getUser(2) for { user1 <- _user1 user2 <- _use

    0

    2답변

    명령 java -Djava.security.krb5.conf=/krb5.conf -jar my.jar으로 내 뚱뚱한 병을 돌리고 있습니다. sbt를 통해이 옵션으로 앱을 실행하는 방법은 무엇입니까? $ sbt -Djava.security.krb5.conf="module\\src\\main\\resources\\krb5.conf" run이 작동하지 않습니다.

    3

    1답변

    현재 Java와 Scala (Spark)를 혼합 한 프로젝트를 다루고 있습니다. myProjectA \_ myLibB | \_ spark 1.5.2 (excluded in my pom.xml) | \_ scala 2.10.4 (excluded in my pom.xml) \_ spark 2.2.0 (with Scala 2.11) | \_ scala