分享好友 系统运维首页 频道列表

week4

Linux系统  2016-11-22 18:070

一,复制/etc/skel目录为/home/tuser1,要求/home/tuser1及其内部文件的属组和其他用户均没 有任何访问权限;

cp -r /etc/skel/ /home/tuser1
chmod -R go= /home/tuser1/

二,编辑/etc/group文件,添加组hadoop;

vim /etc/group
hadoop:x:1001:hadoop

三,手动编辑/etc/passwd文件新增一行,添加用户hadoop,其基本组ID为hadoop组的id号;其家目录为/home/hadoop;

echo "hadoop:x:1001:1001:hadoop:/home/hadoop:/bin.bash" >>/etc/passwd

四,复制/etc/skel目录为/home/hadoop,要求修改hadoop目录的属组合其他用户没有任何访问权限;

cp -r /etc/skel/ /home/hadoop 
chmod go= /home/hadoop/

五,修改/home/hadoop目录及其内部所有文件的属主为hadoop;

chown -R hadoop:hadoop /home/hadoop/

六,显示/proc/meminfo文件中以大写或小写S开头的行;用两种方式;

grep "^[Ss]" /proc/meminfo 
grep -i "^s" /proc/meminfo

七,显示/etc/passwd文件中默认shell为非/sbin/nologin的用户;

 grep -v "/sbin/nologin$" /etc/passwd | cut -d: -f1

八,显示/etc/passwd文件中其默认shell为/bin/bash的用户;

grep "/bin/bash$" /etc/passwd | cut -d: -f1

九,找出/etc/passwd文件中的一位数或两位数;

grep  "\<[0-9]\{1,2\}\>"  /etc/passwd

十,显示/boot/grub/grub.conf中已至少一个空白字符开头的行;

grep "^[[:space:]]\+" /boot/grub2/grub.cfg

十一,显示/etc/rc.d/rc.sysinit文件中以#开头,后面跟至少一个空白字符, 而后又只少一个非空白字符的行;

grep "^#[[:space:]]\+[^[:space:]]\+" /etc/rc.d/rc.sysinit

十二,打出netstat -tan命令执行结果中以'LISTEN',后或跟空白字符结尾的行;

netstat -tan | grep "LISTEN[[:space:]]\+$"

十三,添加用户bash,testbash,basher,nologin(此一个用户的shell为/bin/nologin), 而后找出当前系统其用户名和默认shell相同的用户的信息;

[root@mylinux ~]# useradd bash
[root@mylinux ~]# useradd testbash
[root@mylinux ~]# useradd basher
[root@mylinux ~]# useradd -s /bin/nologin nologin
[root@mylinux ~]# grep "^\([a-z]*\>\).*\1$" /etc/passwd

十四,显示/proc/meminfo文件中以大写或小写S开头的行;用三种方式;

grep "^[sS]" /proc/meminfo 
grep -i "^S" /proc/meminfo
grep -E "^(S|s)" /proc/meminfo

查看更多关于【Linux系统】的文章

展开全文
相关推荐
反对 0
举报 0
评论 0
图文资讯
热门推荐
优选好物
更多热点专题
更多推荐文章
Hadoop中mapreduce运行WordCount程序报错Error: java.io.IOException: Type mismatch in key from map: expected o
这个问题是因为map的方法参数与继承mapper定义的参数类型不一致导致的,应该将Mapper的key参数类型设置成Object,就可以解决这个问题 

0评论2023-03-08965

Exceptionin thread "main" java.lang.UnsatisfiedLinkError:org.apache.hadoop.util.NativeCrc3
在eclipse上运行hadoop报错:Exceptionin thread "main" java.lang.UnsatisfiedLinkError:org.apache.hadoop.util.NativeCrc32.nativeComputeChunkedSumsByteArray(II[BI[BIILjav,这个问题折腾了我很久,后来找到方法解决。描述一下:电脑是win8.1的64位操作系

0评论2023-02-10797

排查Hive报错:org.apache.hadoop.hive.serde2.SerDeException: java.io.IOException: Start of Array expected
CREATE TABLE json_nested_test (count string,usage string,pkg mapstring,string,languages arraystring,store mapstring,arraymapstring,string)ROW FORMAT SERDE 'org.apache.hive.hcatalog.data.JsonSerDe'STORED AS TEXTFILE;以上述sql创建表json_neste

0评论2023-02-10794

简单描述如何安装配置一个apache开源版hadoop,只描述即可,无需列出完整步骤,能列出步骤更好
1 ) 安装JDK并配置环境变量(/etc/profile)2) 关闭防火墙3) 配置hosts文件,方便hadoop通过主机名访问(/etc/hosts)4) 设置ssh免密码登录5) 解压缩hadoop安装包,并配置环境变量6) 修改配置文件( $HADOOP_HOME/conf )hadoop-env.sh core-site.xml hdfs-si

0评论2023-02-10813

hbase 启动 Error: Could not find or load main class org.apache.hadoop.hbase.util.HBaseConfTool
 安装好hadoop,然后安装hbase启动时出现问题,下面是报错信息:./hbase/bin/start-hbase.shError: Could not find or load main class org.apache.hadoop.hbase.util.HBaseConfToolError: Could not find or load main class org.apache.hadoop.hbase.zooke

0评论2023-02-10405

spark-shell报错:Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop
环境:openSUSE42.2hadoop2.6.0-cdh5.10.0spark1.6.0-cdh5.10.0 按照网上的spark安装教程安装完之后,启动spark-shell,出现如下报错:报错信息:Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop/fs/FSDataInputStreamat org

0评论2023-02-10362

Apache Hadoop 和Hadoop生态圈
Apache Hadoop 和Hadoop生态圈Hadoop是一个由Apache基金会所开发的分布式系统基础架构。用户能够在不了解分布式底层细节的情况下。开发分布式程序。充分利用集群的威力进行快速运算和存储。Hadoop实现了一个分布式文件系统(Hadoop Distributed File Sys

0评论2023-02-10478

ubuntu安装配置Samba ubuntu安装配置hadoop
一、安装Samba  apt-get install samba二、配置  方案一、最大权限配置  任何用户可对共享文件夹读写  1、建立共享文件夹      mkdir /home/wangyx/share    chmod 777 /home/wangyx/share   2、修改Samba配置    cp /etc/samba/smb.

0评论2023-02-10935

org.apache.hadoop.hive.ql.metadata.HiveException: Unable to move source错误解决办法
解决办法参考:问题描述:ambari部署的spark和hive,在sparksql中执行insert into table xxx partition(dt='xxx') select xxx from xxx where dt='xxx',报错如下错误org.apache.spark.sql.AnalysisException: org.apache.hadoop.hive.ql.metadata.HiveExcept

0评论2023-02-09745

Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.N
在网上看了很多该故障的解决方法,接下来介绍两种1.解决方法是下载https://github.com/srccodes/hadoop-common-2.2.0-bin文件然后将其中的hadoop.dll文件放到hadoop安装路径的bin文件夹下(配置好HADOOP_HOME的环境变量),然后重启电脑。2.在项目中添加src中

0评论2023-02-09629

解决:Permission denied at org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:522)
Logging initialized using configuration in jar:file:/opt/hive/1.2.1/lib/hive-common-1.2.1.jar!/hive-log4j.propertiesException in thread "main" java.lang.RuntimeException: java.lang.RuntimeException: java.io.IOException: Permission deniedat

0评论2023-02-09408

eclipse连接HBase时报错:org.apache.hadoop.hbase.client.RetriesExhaustedException: Can't get the locat
org.apache.hadoop.hbase.client.RetriesExhaustedException: Can't get the locationsat org.apache.hadoop.hbase.client.RpcRetryingCallerWithReadReplicas.getRegionLocations(RpcRetryingCallerWithReadReplicas.java:319)at org.apache.hadoop.hbase.cl

0评论2023-02-09931

【异常】org.apache.hadoop.hdfs.server.common.InconsistentFSStateException
1 异常信息05-30 07:53:45,204 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem: Maximum size of an xattr: 163842019-05-30 07:53:45,204 WARN org.apache.hadoop.hdfs.server.common.Storage: Storage directory /mnt/software/hadoop-2.6.0-cd

0评论2023-02-09830

更多推荐