Associate-Developer-Apache-Spark 문제 51

아래 표시된 코드 블록은 실행기의 메모리를 최대한 활용하되 디스크에 아무 것도 쓰지 않고 두 개의 다른 실행기에 DataFrame transactionDf를 저장해야 합니다. 이를 수행하려면 코드 블록의 공백을 올바르게 채우는 답을 선택하십시오.
1. pyspark 가져오기 StorageLevel에서
2.transactionsDf.__1__(StorageLevel.__2__).__3__

Associate-Developer-Apache-Spark 문제 52

아래에 표시된 코드 블록에 오류가 있습니다. 코드 블록은 기존 마루 파일에 추가하여 경로 경로에 있는 DataFrame transactionDf를 마루 파일로 저장해야 합니다. 오류를 찾으십시오.
코드 블록:

Associate-Developer-Apache-Spark 문제 53

아래에 표시된 코드 블록에 오류가 있습니다. 코드 블록은 DataFrame transactionDf의 모든 행을 반환해야 하지만 storeId 및 predError 열만 포함합니다. 오류를 찾으십시오.
코드 블록:
spark.collect(transactionsDf.select("storeId", "predError"))

Associate-Developer-Apache-Spark 문제 54

다음 중 Spark에서 동적 파티션 정리의 이면에 있는 아이디어는 무엇입니까?

Associate-Developer-Apache-Spark 문제 55

아래에 표시된 코드 블록에는 하나 이상의 오류가 있습니다. 코드 블록은 filePath 위치에 있는 쪽모이 세공 파일을 DataFrame으로 로드해야 하며 이전에 수정된 파일만 로드해야 합니다.
2029-03-20 05:44:46. Spark는 아래 표시된 스키마에 따라 스키마를 적용해야 합니다. 오류를 찾으십시오.
개요:
1.루트
2. |-- itemId: 정수(nullable = true)
3. |-- 속성: 배열(nullable = true)
4. | |-- 요소: 문자열(containsNull = true)
5. |-- 공급자: 문자열(nullable = true)
코드 블록:
1.스키마 = StructType([
2. StructType("itemId", IntegerType(), True),
3. StructType("속성", ArrayType(StringType(), True), True),
4. StructType("공급자", StringType(), True)
5.])
6.
7.spark.read.options("modifiedBefore", "2029-03-20T05:44:46").schema(스키마).load(filePath)