1. 程式人生 > >大資料叢集遇到的問題(Hadoop、Spark、Hive、kafka、Hbase、Phoenix)

大資料叢集遇到的問題(Hadoop、Spark、Hive、kafka、Hbase、Phoenix)

大資料平臺中遇到的實際問題,整理了一下,使用CDH5.8版本,包括Hadoop、Spark、Hive、kafka、Hbase、Phoenix、Impala、Sqoop、CDH等問題,初步整理下最近遇到的問題,不定期更新。

啟動nodemanager失敗

2016-09-07 14:28:46,434 FATAL org.apache.hadoop.yarn.server.nodemanager.NodeManager: Error starting NodeManager
org.apache.hadoop.yarn.exceptions.YarnRuntimeException: java.net.BindException: Problem binding to [0.0.0.0:8040] 
java.net.BindException: Address already in use; For more details see:  http://wiki.apache.org/hadoop/BindException
        at org.apache.hadoop.yarn.factories.impl.pb.RpcServerFactoryPBImpl.getServer(RpcServerFactoryPBImpl.java:139)
        at org.apache.hadoop.yarn.ipc.HadoopYarnProtoRPC.getServer(HadoopYarnProtoRPC.java:65)
        at org.apache.hadoop.yarn.ipc.YarnRPC.getServer(YarnRPC.java:54)
        at org.apache.hadoop.yarn.server.nodemanager.containermanager.localizer.ResourceLocalizationService.createServer(ResourceLocalizationService.java:278)
        at org.apache.hadoop.yarn.server.nodemanager.containermanager.localizer.ResourceLocalizationService.serviceStart(ResourceLocalizationService.java:258)
        at org.apache.hadoop.service.AbstractService.start(AbstractService.java:193)
        at org.apache.hadoop.service.CompositeService.serviceStart(CompositeService.java:121)
        at org.apache.hadoop.yarn.server.nodemanager.containermanager.ContainerManagerImpl.serviceStart
(ContainerManagerImpl.java:293)
        at org.apache.hadoop.service.AbstractService.start(AbstractService.java:193)
        at org.apache.hadoop.service.CompositeService.serviceStart(CompositeService.java:121)
        at org.apache.hadoop.yarn.server.nodemanager.NodeManager.serviceStart(NodeManager.java:199)
        at org.apache.hadoop.service.AbstractService.start(AbstractService.java:193)
        at org.apache.hadoop.yarn.server.nodemanager.NodeManager.initAndStartNodeManager(NodeManager.java:339)
問題原因:8040埠被佔用,netstat -apn | grep 8040後發現有nodemanager程序再執行。
解決辦法:kill正在執行的nodemanager程序,重新啟動nodemanager。成功。

Spark on yarn部署遇到的問題
命令列啟動spark-shell --master yarn

org.apache.spark.SparkException: Yarn application has already ended! It might have been killed or unable to launch application master.
	at org.apache.spark.scheduler.cluster.YarnClientSchedulerBackend.waitForApplication(YarnClientSchedulerBackend.scala:124)
	at org.apache.spark.scheduler.cluster.YarnClientSchedulerBackend.start(YarnClientSchedulerBackend.scala:64)
	at org.apache.spark.scheduler.TaskSchedulerImpl.start(TaskSchedulerImpl.scala:144)
	at org.apache.spark.SparkContext.<init>(SparkContext.scala:530)
	at org.apache.spark.repl.SparkILoop.createSparkContext(SparkILoop.scala:1017)
	at $iwC$$iwC.<init>(<console>:15)
	at $iwC.<init>(<console>:24)
	at <init>(<console>:26)
	at .<init>(<console>:30)
	at .<clinit>(<console>)
	at .<init>(<console>:7)
	at .<clinit>(<console>)
	at $print(<console>)
	at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
	at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
applicationMaster日誌只有:
/bin/bash: {{JAVA_HOME}}/bin/java: No such file or directory
問題原因:Spark使用的Hadoop版本與與線上Hadoop版本不一致
解決辦法:使用線上Hadoop版本對應的Spark,解決問題

啟動spark sql server

16/09/08 18:45:26 INFO service.AbstractService: Service:HiveServer2 is started.
16/09/08 18:45:26 INFO thriftserver.HiveThriftServer2: HiveThriftServer2 started
16/09/08 18:45:26 ERROR thrift.ThriftCLIService: Error starting HiveServer2: could not start ThriftBinaryCLIService
org.apache.thrift.transport.TTransportException: Could not create ServerSocket on address /172.16.0.43:10002.
        at org.apache.thrift.transport.TServerSocket.<init>(TServerSocket.java:109)
        at org.apache.thrift.transport.TServerSocket.<init>(TServerSocket.java:91)
        at org.apache.thrift.transport.TServerSocket.<init>(TServerSocket.java:87)
        at org.apache.hive.service.auth.HiveAuthFactory.getServerSocket(HiveAuthFactory.java:241)
        at org.apache.hive.service.cli.thrift.ThriftBinaryCLIService.run(ThriftBinaryCLIService.java:66)
        at java.lang.Thread.run(Thread.java:722)
16/09/08 18:45:26 INFO server.HiveServer2: Shutting down HiveServer2
16/09/08 18:45:26 INFO service.AbstractService: Service:ThriftBinaryCLIService is stopped.
16/09/08 18:45:26 INFO service.AbstractService: Service:OperationManager is stopped.
16/09/08 18:45:26 INFO service.AbstractService: Service:SessionManager is stopped.
16/09/08 18:45:26 INFO service.AbstractService: Service:CLIService is stopped.
問題原因:與Hive中的HiveServer2 程序埠衝突。
解決辦法:修改spark配置中的hive-site.xml中的<property>
  <name>hive.server2.thrift.bind.host</name>
  <value>172.16.0.46</value>
</property> 將地址改到沒有hiveserver服務的節點。

安裝impala
啟動impala-server服務:[[email protected] impala]$ sudo service impala-server status

Log line format: [IWEF]mmdd hh:mm:ss.uuuuuu threadid file:line] msg
E0913 15:12:06.521616  5070 logging.cc:103] stderr will be logged to this file.
log4j:WARN No appenders could be found for logger (org.apache.hadoop.metrics2.lib.MutableMetricsFactory).
log4j:WARN Please initialize the log4j system properly.
log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info.
E0913 15:12:10.286190  5070 impala-server.cc:210] Could not read the HDFS root directory at hdfs://master:50070. Error was:
Failed on local exception: com.google.protobuf.InvalidProtocolBufferException: Protocol message end-group tag did not match expected tag.; Host Details : local host is: "master/172.16.0.39"; destination host is: "master":50070;
E0913 15:12:10.286229  5070 impala-server.cc:212] Aborting Impala Server startup due to improper configuration
問題原因:是版本問題
解決辦法:安裝Hadoop2.2.0對應版本CDH版本
使用yum install安裝軟體時,總會找原來的jar包
問題原因:是yum快取的原因
解決辦法:使用yum clean all清除快取即可。

部署線上CDH5.8叢集,Cdh安裝中遇到“正在獲取安裝鎖”,安裝時出錯了,後來重新裝,就遇到了這個問題
問題原因:上次安裝時有scm的一些檔案遺留。
解決辦法:進入/tmp 目錄,ls -a檢視,刪除scm_prepare_node.*的檔案,以及.scm_prepare_node.lock檔案。

DNS反向解析錯誤,不能正確解析Cloudera Manager Server主機名

正在檢測 Cloudera Manager Server...
 BEGIN host -t PTR 172.16.0.240 
 240.0.16.172.in-addr.arpa domain name pointer localhost. 
END (0) 
 using localhost as scm server hostname 
BEGIN which python 
 /usr/bin/python 
END (0) 
BEGIN python -c 'import socket; import sys; s = socket.socket(socket.AF_INET); s.settimeout(5.0); s.connect((sys.argv[1], int(sys.argv[2]))); s.close();' localhost 7182 
 Traceback (most recent call last): 
 File "<string>", line 1, in <module> 
 File "<string>", line 1, in connect 
socket.error: [Errno 111] Connection refused 
END (1) 
 could not contact scm server at localhost:7182, giving up 
 waiting for rollback request
解決辦法:將連不上的機器 /usr/bin/host 檔案刪掉。mv /usr/bin/host /usr/bin/host.bak

安裝Hadoop時,啟動失敗

java.io.IOException: the pathcomponent: '/data' is world-writable. Its permissions are 0777. Pleasefix this or select a different socket path
問題原因:DataNode的root根目錄許可權設定為0777太高導致不安全

解決辦法:修改為755或者預設許可權

使用sqoop導msyql資料到hbase中,mysql資料庫欄位 tinyint 型別匯入到hbase中成了true/false
原因:這屬於sqoop的一種錯誤轉換
解決辦法:url後面拼上tinyInt1isBit=false

hive執行join操作,會失敗
語句:use hivedb;insert into table report.sitef2_tmp_payment_hbase select concat_ws('_', member0.site_id,substr(trade0.pay_time, 0, 10),substr(trade0.pay_time, 0, 10)), member0.site_id,substr(trade0.pay_time, 0, 10) pay_time,count(*) trade_num, sum(trade0.curry_amount) trade_volume from trade_trade_payments trade0 left join member_member member0 on (trade0.pay_status = '20' and trade0.sup_id = member0.member_id) group by substr(trade0.pay_time, 0, 10),member0.site_id

return code 3 from MapredLocalTask
Execution failed with exit status: 3
Obtaining error information
Task failed!
Task ID:
  Stage-4
Logs:
/tmp/root/hive.log
FAILED: Execution Error, return code 3 from org.apache.hadoop.hive.ql.exec.mr.MapredLocalTask

問題原因:join基於hbase的對映表時,join進行了轉換
解決辦法:set hive.auto.convert.join = false;

hive建表時插入註釋時,中文亂碼。

解決辦法:修改hive元資料表的編碼設定
//修改欄位註釋字符集
alter table COLUMNS_V2 modify column COMMENT varchar(256) character set utf8;
alter table TABLE_PARAMS modify column PARAM_VALUE varchar(4000) character set utf8;
//修改分割槽註釋字符集
alter table PARTITION_KEYS modify column PKEY_COMMENT varchar(4000) character set utf8;
//修改表註釋字符集

CDH叢集總是使用交換區記憶體,有時候impala會使用交換區記憶體比較慢:
解決辦法:設定交換區使用
http://blog.csdn.net/huaishu/article/details/8762957
[[email protected] ~]# sysctl vm.swappiness=10
vm.swappiness = 10
[[email protected] ~]# cat /proc/sys/vm/swappiness
10
這裡我們的修改已經生效,但是如果我們重啟了系統,又會變成60.
--永久修改:
在/etc/sysctl.conf 檔案裡新增如下引數:
vm.swappiness=10
或者:
[[email protected] ~]# echo 'vm.swappiness=10' >>/etc/sysctl.conf

安裝kafka,直接安裝官方地址的kafka(https://archive.cloudera.com/kafka/parcels/latest/),下載,啟用。
安裝好之後啟動失敗。
問題原因:broker_max_heap_size配置太小。這個安裝好之後,cdh配置的大小為256MB,其實預設是1G的。
解決辦法:將broker_max_heap_size調大,我改為了512MB,啟動的成功。根據具體情況可繼續調大該引數。

CDH安裝Phoenix,啟動Phoenix失敗
Apache Phoenix unable to connect to HBase
 ./sqlline.py master1:2181/kafka啟動報錯

6/10/24 18:42:47 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Error: org.apache.hadoop.hbase.DoNotRetryIOException: Class org.apache.phoenix.coprocessor.MetaDataRegionObserver cannot be loaded Set hbase.table.sanity.checks to false at conf or table descriptor if you want to bypass sanity checks
	at org.apache.hadoop.hbase.master.HMaster.warnOrThrowExceptionForFailure(HMaster.java:1707)
	at org.apache.hadoop.hbase.master.HMaster.sanityCheckTableDescriptor(HMaster.java:1568)
	at org.apache.hadoop.hbase.master.HMaster.createTable(HMaster.java:1497)
	at org.apache.hadoop.hbase.master.MasterRpcServices.createTable(MasterRpcServices.java:468)
	at org.apache.hadoop.hbase.protobuf.generated.MasterProtos$MasterService$2.callBlockingMethod(MasterProtos.java:55682)
	at org.apache.hadoop.hbase.ipc.RpcServer.call(RpcServer.java:2170)
	at org.apache.hadoop.hbase.ipc.CallRunner.run(CallRunner.java:109)
	at org.apache.hadoop.hbase.ipc.RpcExecutor.consumerLoop(RpcExecutor.java:133)
	at org.apache.hadoop.hbase.ipc.RpcExecutor$1.run(RpcExecutor.java:108)
	at java.lang.Thread.run(Thread.java:745) (state=08000,code=101)
org.apache.phoenix.exception.PhoenixIOException: org.apache.hadoop.hbase.DoNotRetryIOException: Class org.apache.phoenix.coprocessor.MetaDataRegionObserver cannot be loaded Set hbase.table.sanity.checks to false at conf or table descriptor if you want to bypass sanity checks
原因:安裝Phoenix時,只把Phoenix的包放到hbase的lib中了,但是沒有重啟hbase,hbase沒有載入Phoenix的相關class
解決辦法:重啟hbase叢集

連線遠端kafka時,使用ip地址連線報錯:
命令:kafka-console-consumer --zookeeper 172.16.0.242:2181/kafka --topic wk_wordlibrary_title --from-beginning

2016-10-26 14:39:57,949] WARN Fetching topic metadata with correlation id 12 for topics [Set(wk_wordlibrary_title)] from broker [BrokerEndPoint(92,node1,9092)] failed (kafka.client.ClientUtils$)
java.nio.channels.ClosedChannelException
	at kafka.network.BlockingChannel.send(BlockingChannel.scala:110)
	at kafka.producer.SyncProducer.liftedTree1$1(SyncProducer.scala:76)
	at kafka.producer.SyncProducer.kafka$producer$SyncProducer$$doSend(SyncProducer.scala:75)
	at kafka.producer.SyncProducer.send(SyncProducer.scala:120)
	at kafka.client.ClientUtils$.fetchTopicMetadata(ClientUtils.scala:58)
	at kafka.client.ClientUtils$.fetchTopicMetadata(ClientUtils.scala:93)
	at kafka.consumer.ConsumerFetcherManager$LeaderFinderThread.doWork(ConsumerFetcherManager.scala:66)
	at kafka.utils.ShutdownableThread.run(ShutdownableThread.scala:63)
[2016-10-26 14:39:57,949] WARN [console-consumer-89764_t2-1477463994654-bcfb2442-leader-finder-thread], Failed to find leader for Set([wk_wordlibrary_title,0]) (kafka.consumer.ConsumerFetcherManager$LeaderFinderThread)
原因:在client使用的元資訊是機器名而不是IP。客戶端無法解析這個機器名所以出現了前面的異常。 
解決辦法:1.在客戶端主機配置遠端kafka主機-ip對映
2.也可以在server.properties中配置advertised.host.name(broker ip值)

其他部門使用hdfs儲存,佔用儲存空間較大,將磁碟沾滿。(副本數為3

解決辦法:先將hdfs副本數配置設為1,然後使用hdfs dfs -setrep -R 1  /tmp1/logs命令將對應目錄的檔案副本數更新為1,騰出空間,然後當再寫hdfs檔案時,設定dfs.replication=1(Hadoop dfs -D dfs.replication=1 -put 70M logs/2)---參考連結:http://blog.csdn.net/lskyne/article/details/8898666
hbase regionserver(master1)啟動失敗,報錯日誌

 ABORTING region server master1,60020,1478833728358: Unhandled: org.apache.hadoop.hbase.ClockOutOfSyncException: Server master1,60020,1478833728358 has been rejected; Reported time is too far out of sync with master.  Time difference of 36240ms > max allowed of 30000ms
	at org.apache.hadoop.hbase.master.ServerManager.checkClockSkew(ServerManager.java:401)
	at org.apache.hadoop.hbase.master.ServerManager.regionServerStartup(ServerManager.java:267)
	at org.apache.hadoop.hbase.master.MasterRpcServices.regionServerStartup(MasterRpcServices.java:366)
	at org.apache.hadoop.hbase.protobuf.generated.RegionServerStatusProtos$RegionServerStatusService$2.callBlockingMethod(RegionServerStatusProtos.java:8615)
	at org.apache.hadoop.hbase.ipc.RpcServer.call(RpcServer.java:2170)
	at org.apache.hadoop.hbase.ipc.CallRunner.run(CallRunner.java:109)
	at org.apache.hadoop.hbase.ipc.RpcExecutor.consumerLoop(RpcExecutor.java:133)
	at org.apache.hadoop.hbase.ipc.RpcExecutor$1.run(RpcExecutor.java:108)
	at java.lang.Thread.run(Thread.java:745) 
原因:master1時鐘不同步
解決辦法:同步master1時鐘(ntpdate master1),啟動成功

spark sql server(thriftserver.HiveThriftServer2)執行任務時會停掉

報錯:ERROR executor.CoarseGrainedExecutorBackend: Driver 172.16.0.241:43286 disassociated! Shutting down.
	INFO util.ShutdownHookManager: Shutdown hook called
	INFO util.ShutdownHookManager: Deleting directory /data/cdh/yarn/nm/usercache/root/appcache/application_1478760707461_0459/spark-ab6b5ac2-0d5c-4e10-90a1-75b948596b7c
	INFO remote.RemoteActorRefProvider$RemotingTerminator: Remoting shut down.
	ERROR executor.CoarseGrainedExecutorBackend: RECEIVED SIGNAL 15: SIGTERM
原因:從資訊上看來不知道是什麼問題,但是歸根結底還是記憶體的問題。
解決辦法:一是,如上面所說,加大excutor-memory的值,減少executor-cores的數量,問題可以解決。二是,加大executor.overhead的值,但是這樣其實並沒有解決掉根本的問題。所以如果叢集的資源是支援的話,就用1的辦法吧。
  另外,這個錯誤也出現在partitionBy(new HashPartition(partiton-num))時,如果partiton-num太大或者太小的時候會報這種錯誤,說白了也是記憶體的原因,不過這個時候增加記憶體和overhead沒有什麼用,得去調整這個partiton-num的值。

相關推薦

資料平臺搭建hadoop+spark

一.基本資訊 1. 伺服器基本資訊 主機名 ip地址 安裝服務 spark-master 172.16.200.81 jdk、hadoop、spark、scala spark-slave01 172.16.200.82 jd

資料學習記錄hadoop hive flume azkaban sqoop

大資料學習記錄(hadoop hive flume azkaban sqoop) 1. hadoop對海量資料進行分散式處理 2. 核心元件:HDFS(分散式檔案系統)、YARN(運算資源排程系統)、MAPREDUCE(分散式運算程式設計框架) 3. HIVE:基於大資料技術(檔案系統+運算框架

D001.5 Docker搭建資料叢集環境基礎篇

0x00 教程內容 0x01 Docker的安裝 1. 2. 3. 0x02 Docker的簡單操作 1. 2. 3. 0x03 Docker資料卷 Docker的資料卷與Centos的

我的Hadoop資料叢集搭建經歷 (Hadoop 2.6.0 & VMWare WorkStation 11)

centos 6.6 i386 dvd ; basic server installation ; not enable static ip ; not disable ipv6 vmware net model is NAT , subNet Ip : 192.168.5

資料叢集遇到的問題HadoopSparkHivekafkaHbasePhoenix

大資料平臺中遇到的實際問題,整理了一下,使用CDH5.8版本,包括Hadoop、Spark、Hive、kafka、Hbase、Phoenix、Impala、Sqoop、CDH等問題,初步整理下最近遇到的問題,不定期更新。 啟動nodemanager失敗 2016-09-07

docker部署分散式資料叢集hadoopsparkhivejdkscala

(一)1 用docker建立映象並搭建三個節點容器的hadoop及spark服務 包括:mysql,hadoop,jdk,spark,hive,scala,sqoop docker已經安裝並且啟動 #搜尋centos映象: docker search centos #拉取

搭建資料處理叢集HadoopSparkHbase

搭建Hadoop叢集 配置每臺機器的 /etc/hosts保證每臺機器之間可以互訪。 120.94.158.190 master 120.94.158.191 secondMaster 1、建立hadoop使用者 先建立had

hadoop spark 資料叢集環境搭建

大資料雲端計算現在比較熱門,未來的一個發展方向,在此分享下技術,有不對的地方歡迎指出 1、軟體環境(會分享到網盤) centos6.5 jdk1.7 hadoop2.4.1(這裡只用到hdfs,namenode不走ha) zookeeper3.4.5 spark1.3.0

資料導論5——資料的儲存分散式NoSQL叢集CAPACIDBASE

  大資料從獲取到分析的各個階段都可能會涉及到資料集的儲存,考慮到大資料有別於傳統資料集,因此大資料儲存技術有別於傳統儲存技術。大資料一般通過分散式系統、NoSQL資料庫等方式(還有云資料庫)進行儲存。同時涉及到以下幾個新理念。 本篇summary主要圍繞以下三方面內容: 大資料儲存方案

網路配置防火牆 資料叢集環境Linux防火牆

網路配置、防火牆 1.大資料叢集環境,形成叢集區域網,使用機器名替代真實IP,如何完成IP地址與機器名的對映? 1)修改機器名 在CenterOS7,使用hostname命令,修改當前機器名,如果重啟節點機器名失效;修改/etc/hostname配置檔案(內容:自定義機器名 例:p

流式資料計算實踐2----Hadoop叢集和Zookeeper

一、前言 1、上一文搭建好了Hadoop單機模式,這一文繼續搭建Hadoop叢集 二、搭建Hadoop叢集 1、根據上文的流程得到兩臺單機模式的機器,並保證兩臺單機模式正常啟動,記得第二臺機器core-site.xml內的fs.defaultFS引數值要改成本機的來啟動,啟動完畢後再改回來 2、清空資

流式資料計算實踐3----高可用的Hadoop叢集

流式大資料計算實踐(3)----高可用的Hadoop叢集 一、前言 1、上文中我們已經搭建好了Hadoop和Zookeeper的叢集,這一文來將Hadoop叢集變得高可用 2、由於Hadoop叢集是主從節點的模式,如果叢集中的namenode主節點掛掉,那麼叢集就會癱瘓,所以我們要改造成

Spark 2.x企業級資料專案實戰實時統計離線分析和實時ETL

Spark 2.x企業級大資料專案實戰(實時統計、離線分析和實時ETL)全套課程下載:https://pan.baidu.com/s/1mje6bAoLLPrxUIrM-C2VMg 提取碼: 9n1x 本門課程來源於一線生產專案, 所有程式碼都是在現網大資料叢集上穩定執行, 拒絕Demo。課程涵蓋了離線分析

從零開始的Hadoop資料叢集搭建,全免費VirtualBox虛擬機器Ubuntu版,學習向,超詳細---

     在公司工作了一段時間了,大資料平臺都是公司的運維人員搭建維護的,自己也想親自搭建一套,純粹為了學習和提高自己,也為了以後自己研究用。公司的環境不太適合亂來,自己的就可以隨意玩了。     寫這個也是為了記錄自己學習的過程,同時給大家提供一個參考,想要學習大資料的也

超越Spark資料叢集計算的生產實踐內含福利

Spark擁有一個龐大的、不斷增長的社群,還有在企業環境中不可或缺的生態系統。這些生態系統提供了不同生產環境案例所需的許多功能。一般來說,Spark應用做的是機器學習演算法、日誌聚合分析或者商務智慧相關的運算,因為它在許多領域都有廣泛的應用,包括商務智慧、資料倉庫、推薦系

spark叢集搭建HadoopScala

1.從官網下載hadoop、spark、scala 我的版本: hadoop-2.7.3.tar.gz scala-2.11.8.tgz spark-2.1.0-bin-hadoop2.7.tgz (注意:spark版本要與scala 版本相互對應) 2.配置host檔案

關於在真實物理機器上用cloudermanger或ambari搭建資料叢集注意事項總結經驗和感悟心得圖文詳解

寫在前面的話   (1) 最近一段時間,因擔任我團隊實驗室的大資料環境叢集真實物理機器工作,至此,本人秉持負責、認真和細心的態度,先分別在虛擬機器上模擬搭建ambari(基於CentOS6.5版本)和cloudermanager(基於CentOS6.5或Ubuntu14.04版本)。   (2)  大

資料框架對比:HadoopStormSamzaSpark和Flink

今天看到一篇講得比較清晰的框架對比,這幾個框架的選擇對於初學分散式運算的人來說確實有點迷茫,相信看完這篇文章之後應該能有所收穫。簡介大資料是收集、整理、處理大容量資料集,並從中獲得見解所需的非傳統戰略和技術的總稱。雖然處理資料所需的計算能力或儲存容量早已超過一臺計算機的上限,

hadoop資料面試題11 比較好

1、hdfs原理,以及各個模組的職責2、mr的工作原理3、map方法是如何呼叫reduce方法的4、shell如何判斷檔案是否存在,如果不存在該如何處理?5、fsimage和edit的區別?6、hadoop1和hadoop2的區別?筆試:1、hdfs中的block預設儲存幾

記一次hadoop資料叢集生產事故

陸續對原有的hadoop、hbase叢集做了擴容,增加了幾個節點,中間沒有重啟過,今天早上發現一個hregionserver服務停止了,就先啟動服務,沒想到啟動之後一直有訪問資料的出錯,嘗試對整個hbase叢集進行重啟出現了下面的錯誤: $ start-hbase.sh master running