在用Hadoop的时候,启动失败,再次启动时出现there are stopped jobs ,解决如下:
1、查询当前的jobs:
[html] - $ jobs
2、结束jobs:
[html] - $ kill %id
id是1中列出的作业的编号
3、激活jobs:
[html] - $ fg %id
id是1中列出的作业的编号
Linux 共享库知识整理Nginx 访问目录身份验证相关资讯 Hadoop
- 云中巨象——作为一种服务的Hadoop (05月16日)
- Hadoop/Spark生态圈里的新气象 (02月17日)
- 2分钟读懂大数据框架Hadoop和Spark (12/16/2015 13:38:47)
| - 一篇文看懂Hadoop:风雨十年,未来 (03月11日)
- Hadoop之父祝贺黄色小象的十岁生日 (01月30日)
- Spark和Hadoop,孰优孰劣? (12/01/2015 12:40:40)
|
本文评论 查看全部评论 (0)