每隔几秒执行一次#!/bin/bashwhile : #冒号表述死循环 同while (true)do 你的命令 sleep 时间间隔done例如:#!/bin/bashwhile :do ls /etc sleep 5done每隔几秒执行一次,执行n次后结束 #!/bin/bash n=0...
#!/bin/bash
ping -c 1 192.168.1.1
echo "-----------------------------------------------------------"
cat second_test.sh``
#!/bin/bash...
echo "NO PARAM! ERR!!!"
ID=`ps -ef | grep "./$NAME" | grep -v "$0" | grep -v "grep" | awk '{print $1}'` #获取ID
echo $NAME "ID: " $ID
if [ "" = "$ID" ]
本人在
shell
脚本
一直的弱项,面试的时候经常要求
shell
脚本
的面试题目,每次都在这个上面吃了很多亏,回来之后自己找了一些资料或者给朋友请教,我将我经历过的
脚本
题目贴出来,给自己以后学习参考,也希望能给同病相连者学习。
这是我昨天面试的一题,但是我当时都没有写出来。后来回来之后自己慢慢就写出来了。
题目:每10秒打印
一次
系统时间,连续打印10次
#/bin/bash
...
shell
/bash将time命令的结果输出到文件中1. 目标解决方案
1. 目标
在Linux中,使用time命令可以统计一个
脚本
的
执行
时间,比如time pwd就会打印出
执行
pwd
脚本
花费的时间(见下图)。但是,当我们想将time + 目标
脚本
的具体
执行
结果输出到文件中时,使用[
shell
] > output.file确无法达成目标(如下图,可以看到out1.txt和out2.txt中并没有real/user/sys的值,但是显示在屏幕上了)。
具体方案如下:
# 1. 使用()将sh
# 定义变量
ip=$(ip addr | grep 'state UP' -A2 | tail -n1 | awk '{print $2}' | cut -f1 -d'/')
cpu=$(top -bn1 | grep "Cpu(s)" | awk '{print $2}' | cut -f1 -d"%")
mem_total=$(free -g | grep Mem | awk '{print $2}')
mem_used=$(free -g | grep Mem | awk '{print $3}')
disk_total=$(df -h | grep /dev/sda1 | awk '{print $2}')
disk_used=$(df -h | grep /dev/sda1 | awk '{print $3}')
url="http://192.168.220.1:18181/jeecg-boot/luodiye/sendMsg"
interval=60 #
执行
间隔时间
timeout=5 # curl超时时间
while
true
# 构造json数据
json_data="{\"ip\":\"$ip\",\"cpu\":\"$cpu\",\"mem_total\":\"$mem_total\",\"mem_used\":\"$mem_used\",\"disk_total\":\"$disk_total\",\"disk_used\":\"$disk_used\"}"
# 发送请求
result=$(curl -s -m $timeout -H "Content-Type:application/json" -d "$json_data" $url)
# 判断结果
if [ $? -ne 0 ]; then
# 记录错误日志
echo "[$(date)] curl error: $result" >> monitor_error.log
sleep $interval
这是一个示例
脚本
, 用于收集当前主机的IP、CPU使用率、内存总量和使用量、硬盘总量和使用量, 然后使用curl请求发送到指定的URL中, 并且
每隔
N秒钟(60s)
执行
一次
,如果curl失败则记录到当前目录的monitor_error.log文件中.
-
脚本
中的IP地址、URL、间隔时间、超时时间等参数需要根据实际情况进行修改.
-
脚本
中的硬盘检测是基于/dev/s
spark搭建 java.lang.NoClassDefFoundError: org/apache/hadoop/conf/Configuration
arbalest1080:
Spark安装初次启动时:failed to launch: nice -n 0 /soft/spark/bin/spark-class org.apache.spark.deploy...
只想闲的咸鱼:
MySQL5.7 设置密码策略(等保三级密码改造)
weixin_45626865: