A.<"hello",<1,1>>、<"hadoop",1>和<"world",1>
B.<"hello",1>、<"hello",1>、<"hadoop",1>和<"world",1>
C.<"hello",1,1>、<"hadoop",1>和<"world",1>
D.<"hello",2>、<"hadoop",1>和<"world",1>
您可能感興趣的試卷
你可能感興趣的試題
A.如果一個(gè)機(jī)架出問(wèn)題,不會(huì)影響數(shù)據(jù)讀寫
B.寫入數(shù)據(jù)的時(shí)候會(huì)寫到不同機(jī)架的DataNode中
C.MapReduce會(huì)根據(jù)機(jī)架獲取離自己比較近的網(wǎng)絡(luò)數(shù)據(jù)
D.以上說(shuō)法都正確
A.實(shí)時(shí)性
B.可靠性
C.順序性
D.原子性
A.Kafka
B.Hadoop的HA
C.Sqoop
D.Hive
A.Memory Channel
B.File Channel
C.JDBC Channel
D.HDFS Channel
A.fsimage
B.edits
C.edits_inprogress
D.blk_000003425
A.Mapper
B.Partitioner
C.Reducer
D.RecordReader
A.DataNode之間都是獨(dú)立的,相互之間會(huì)有通信
B.存儲(chǔ)客戶端上傳的數(shù)據(jù)的數(shù)據(jù)塊
C.每一個(gè)DataNode上存儲(chǔ)的所有數(shù)據(jù)塊是相同的
D.響應(yīng)客戶端的所有讀寫數(shù)據(jù)請(qǐng)求,為客戶端的存儲(chǔ)和讀取數(shù)據(jù)提供支撐
A.200
B.40000
C.400
D.1200
A.hadoop-default.xml
B.hadoop-env.sh
C.core-site.xml
D.configuration.xsl
A.NameNode
B.DataNode
C.ResourceManager
D.NodeManager
最新試題
scala的函數(shù)參數(shù)的求值策略有哪些。()
在linux文件系統(tǒng)權(quán)限中(rwx),只讀權(quán)限對(duì)應(yīng)的數(shù)值為()。
以下可能需要用到zookeeper的有()。
下列哪些是HDFS中的進(jìn)程的名字?()
關(guān)于Java中傳遞參數(shù)的說(shuō)法,哪個(gè)是錯(cuò)誤的?()
spark中的寬窄依賴描述正確的()。
如果我們現(xiàn)有一個(gè)安裝2.6.5版本的hadoop集群,在不修改默認(rèn)配置的情況下存儲(chǔ)200個(gè)每個(gè)200M的文本文件,請(qǐng)問(wèn)最終會(huì)在集群中產(chǎn)生多少個(gè)數(shù)據(jù)塊(包括副本)?()
關(guān)于HDFS集群中的DataNode的描述不正確的是()。
執(zhí)行Spark任務(wù):兩個(gè)工具()。
關(guān)于Java的抽象類、接口,以下描述錯(cuò)誤的是()。