Associate-Developer-Apache-Spark 문제 36
아래 표시된 코드 블록에 오류가 있습니다. 코드 블록은 DataFrame transactionDf를 storeId 열에서 분할한 후 파일 경로 위치에 쪽모이 세공 파일로 작성해야 합니다. 오류를 찾으십시오.
코드 블록:
transactionDf.write.partitionOn("storeId").parquet(filePath)
코드 블록:
transactionDf.write.partitionOn("storeId").parquet(filePath)
Associate-Developer-Apache-Spark 문제 37
저장소 수준에 대한 다음 설명 중 잘못된 것은 무엇입니까?
Associate-Developer-Apache-Spark 문제 38
The code block shown below should return a single-column DataFrame with a column named consonant_ct that, for each row, shows the number of consonants in column itemName of DataFrame itemsDf. Choose the answer that correctly fills the blanks in the code block to accomplish this.
DataFrame itemsDf:
1.+------+----------------------------------+-----------------------------+-------------------+
2.|itemId|itemName |attributes |supplier |
3.+------+----------------------------------+-----------------------------+-------------------+
4.|1 |Thick Coat for Walking in the Snow|[blue, winter, cozy] |Sports Company Inc.|
5.|2 |Elegant Outdoors Summer Dress |[red, summer, fresh, cooling]|YetiX |
6.|3 |Outdoors Backpack |[green, summer, travel] |Sports Company Inc.|
7.+------+-----------------------------------+----- ---------+----------------------------------+ 코드 블록:
itemsDf.select(__1__(__2__(__3__(__4__), "a|e|i|o|u|\s", "")).__5__("consonant_ct"))
DataFrame itemsDf:
1.+------+----------------------------------+-----------------------------+-------------------+
2.|itemId|itemName |attributes |supplier |
3.+------+----------------------------------+-----------------------------+-------------------+
4.|1 |Thick Coat for Walking in the Snow|[blue, winter, cozy] |Sports Company Inc.|
5.|2 |Elegant Outdoors Summer Dress |[red, summer, fresh, cooling]|YetiX |
6.|3 |Outdoors Backpack |[green, summer, travel] |Sports Company Inc.|
7.+------+-----------------------------------+----- ---------+----------------------------------+ 코드 블록:
itemsDf.select(__1__(__2__(__3__(__4__), "a|e|i|o|u|\s", "")).__5__("consonant_ct"))
Associate-Developer-Apache-Spark 문제 39
아래 표시된 코드 블록은 filePath 위치에 저장된 CSV 파일의 열 수를 반환해야 합니다.
CSV 파일에서 # 문자로 시작하지 않는 줄만 읽어야 합니다. 이 작업을 수행하려면 코드 블록의 빈칸을 올바르게 채우는 답을 선택하십시오.
코드 블록:
__1__(__2__.__3__.csv(파일 경로, __4__).__5__)
CSV 파일에서 # 문자로 시작하지 않는 줄만 읽어야 합니다. 이 작업을 수행하려면 코드 블록의 빈칸을 올바르게 채우는 답을 선택하십시오.
코드 블록:
__1__(__2__.__3__.csv(파일 경로, __4__).__5__)
Associate-Developer-Apache-Spark 문제 40
아래 표시된 코드 블록에 오류가 있습니다. 코드 블록은 분할을 위한 키로 storeId 열을 사용하여 DataFrame transactionDf를 /FileStore/transactions_split 위치에 쪽모이 세공 파일로 디스크에 쓰기 위한 것입니다. 오류를 찾으십시오.
코드 블록:
transactionDf.write.format("parquet").partitionOn("storeId").save("/FileStore/transactions_split")A.
코드 블록:
transactionDf.write.format("parquet").partitionOn("storeId").save("/FileStore/transactions_split")A.
프리미엄 번들
DumpTop 에서 공유하는 최신 Associate-Developer-Apache-Spark 시험 덤프는 Associate-Developer-Apache-Spark 시험패스를 도와드릴수 있습니다! DumpTop 은 최근 업데이트된 Associate-Developer-Apache-Spark 시험자료를 제공해드립니다. DumpTop Associate-Developer-Apache-Spark 덤프도 시험문제 변경에 따라 업데이트되었으며 오답도 수정되었습니다. DumpTop Associate-Developer-Apache-Spark 덤프 최신버전을 공유받아보세요.
(179 Q&As 덤프, 30%OFF할인코드: KrDump)
