Associate-Developer-Apache-Spark 문제 36
다음 코드 블록 중 작은 DataFrame transactionDf가 각각 storeId 및 itemId 열에서 DataFrame itemsDf와 조인되는 모든 실행기로 전송되는 조인을 수행하는 것은 무엇입니까?
Associate-Developer-Apache-Spark 문제 37
다음 코드 블록 중 filePath 위치에 있는 쪽모이 세공 파일을 DataFrame으로 읽는 데 스키마 fileSchema를 사용하는 것은 무엇입니까?
Associate-Developer-Apache-Spark 문제 38
아래에 표시된 코드 블록에 오류가 있습니다. 코드 블록은 DataFrame itemsDf를 itemId 열의 더 큰 DataFrame transactionDf와 결합하기 위한 것입니다. 오류를 찾으십시오.
코드 블록:
transactionDf.join(itemsDf, "itemId", how="broadcast")
코드 블록:
transactionDf.join(itemsDf, "itemId", how="broadcast")
Associate-Developer-Apache-Spark 문제 39
다음 코드 블록 중 productId 열의 값이 고유한 DataFrame transactionDf의 행만 반환하는 것은 무엇입니까?
Associate-Developer-Apache-Spark 문제 40
JSON 파일을 jsonPath 위치에서 DataFrame으로 읽고 productId 열에 값 3이 없는 행만 반환하려면 아래에 표시된 코드 블록을 어떤 순서로 실행해야 합니까?
1. importDf.createOrReplaceTempView("importedDf")
2. spark.sql("SELECT * FROM importDf WHERE productId != 3")
3. spark.sql("FILTER * FROM importDf WHERE productId != 3")
4. importDf = spark.read.option("형식", "json").path(jsonPath)
5. importDf = spark.read.json(jsonPath)
1. importDf.createOrReplaceTempView("importedDf")
2. spark.sql("SELECT * FROM importDf WHERE productId != 3")
3. spark.sql("FILTER * FROM importDf WHERE productId != 3")
4. importDf = spark.read.option("형식", "json").path(jsonPath)
5. importDf = spark.read.json(jsonPath)
프리미엄 번들
DumpTop 에서 공유하는 최신 Associate-Developer-Apache-Spark 시험 덤프는 Associate-Developer-Apache-Spark 시험패스를 도와드릴수 있습니다! DumpTop 은 최근 업데이트된 Associate-Developer-Apache-Spark 시험자료를 제공해드립니다. DumpTop Associate-Developer-Apache-Spark 덤프도 시험문제 변경에 따라 업데이트되었으며 오답도 수정되었습니다. DumpTop Associate-Developer-Apache-Spark 덤프 최신버전을 공유받아보세요.
(179 Q&As 덤프, 30%OFF할인코드: KrDump)
