scala

    0

    1답변

    몇 가지 맞춤 최적화 된 논리적 계획을 SparkOptimizer에 연결하고 실행 계획을 확인하고 있습니다. 아래와 같이 xyz.Scala IN/스파크/SQL/촉매/맞춤 배치로 '브로 배치를'갖는 ABC : Object xyz extends RuleExecutor{ val batches = Batch (custom rule1):: Batch(custom

    0

    1답변

    나는이 질문을 this에두고있다. OP는 '이 문제는 DataFrame을 사용하기 때문에 ML에는 존재하지 않으며 원래의 데이터 프레임에 점수가있는 다른 열을 추가 할 수 있습니다.'라고 말합니다. 아무도 이걸하는 방법을 말해 줄 수 있습니까? 나는 시도했다 : 데이터 1은 열이 많은 내 원래 dataframe입니다 val labeledData = data

    -1

    2답변

    저는 스칼라가 처음이기 때문에 어려움을 찾고 있습니다. 어떤 사람은 for 루프를 사용하여 목록의리스트를 초기화하는 방법을 안내해 줄 수 있습니까 ?? 나는이 시도 : for(i <- 1 to N) { for(D <- 1 to Dimensions) { Population=List(List(D,i))

    1

    1답변

    이 프로그램의 아이디어는 줄을 읽고 모든 모음을 꺼내 "@"문자로 바꾸는 것입니다. 사용자가 "--quit--"을 입력하면 입력이 중지되고 기능이 적용된 줄이 반환됩니다. 필자는 "lst.map ("aeiouAEIOU "=> '@')"함수의 일부분에 대해 구문이 무엇인지 알아낼 수 없습니다. 나는 뭔가를 놓친 것 같아. import scala.io.StdI

    1

    2답변

    저는 Akka 라이브러리를 사용하고 있습니다. 여러 액터가 객체에서 함수를 호출하면 어떻게됩니까? 다른 액터가 객체에 액세스하는 것을 차단합니까? 내가 이것을 묻는 이유는 akka 배우와 함께 JBCrypt를 사용하기 때문입니다. 그리고 우리는 여러 문자열을 동시에 암호화 할 수 있기 때문에 JBcrypt.hash (...)를 호출하는 각 액터가 있습니다.

    0

    1답변

    형식 매개 변수를 사용하는 특성을 갖고 있으며 해당 메서드 중 하나에서 빈 형식화 된 데이터 집합을 만들 수 있어야합니다. trait MyTrait[T] { val sparkSession: SparkSession val spark = sparkSession.session val sparkContext = spark.sparkCon

    0

    1답변

    Scala를 처음 사용했습니다. & IntelliJ입니다. JSON 프로그램을 작성하려고하지만 아래에 컴파일 오류가 있습니다. json4s-core_2.9.1-3.0.0을 사용하고 있습니다. 내 설정 파일에서 Error:(37, 14) Class com.fasterxml.jackson.core.JsonParseException not found - cont

    0

    1답변

    를 사용하는 경우, 두 번째 의존 Future 다시 호출 Future(<not completed>)Future.onComplete되면 항상. 2 개의 Future을 사용하는 다른 구성에서는이 동작이 발생하지 않습니다. 미래가 분명히 완료되지 않은 이유는 누구나 Future.onComplete이 호출되는 이유를 설명 할 수 있습니까? 스칼라 2.12.3이 사

    0

    1답변

    다음 예제에서는 REPL에서 에 대해 < 메서드가 작동하지만 을 사용하지 않고 String을 두 개 비교할 수 있지만 upper bound이 아닌 것은 비교할 수 있습니다. 그것은 String이 Ordered [T]의 서브 클래스가 아니기 때문에 String에서 Ordered [String]로 암시 적 변환이 되었기 때문입니까? //view bound ex

    0

    1답변

    임시 테이블에 데이터 프레임을 추가 한 후 sql 쿼리를 실행하려고하지만 테이블을 찾을 수 없을 때마다 SQL 쿼리를 실행하려고합니다. emp은 데이터 프레임의 이름입니다. 는 명령 : scala> val sqlContext = new org.apache.spark.sql.SQLContext(sc) sqlContext: org.apache.spark.sq