系统空间异常占满100%,占空间的日志均删除却还是100%
[ 2013-08-26 22:15:55 | 作者: admin ]
咱用空间的基本都是日志文件
nginx 和 mysql是基本跑不掉的
删除了这2个空间大户之后,发现磁盘空间还是100%,没有减少
重启nginx和mysql服务之后,磁盘空间恢复正常
nginx 和 mysql是基本跑不掉的
删除了这2个空间大户之后,发现磁盘空间还是100%,没有减少
重启nginx和mysql服务之后,磁盘空间恢复正常
MYSQl left join 联合查询效率分析
[ 2013-08-26 16:20:23 | 作者: admin ]
user表:
id | name
---------
1 | libk
2 | zyfon
3 | daodao
user_action表:
user_id | action
---------------
1 | jump
1 | kick
1 | jump
2 | run
4 | swim
sql:
select id, name, action from user as u
left join user_action a on u.id = a.user_id
result:
id | name | action
--------------------------------
1 | libk | jump ①
1 | libk | kick ②
1 | libk | jump ③
2 | zyfon | run ④
3 | daodao | null ⑤
...
阅读全文…
id | name
---------
1 | libk
2 | zyfon
3 | daodao
user_action表:
user_id | action
---------------
1 | jump
1 | kick
1 | jump
2 | run
4 | swim
sql:
select id, name, action from user as u
left join user_action a on u.id = a.user_id
result:
id | name | action
--------------------------------
1 | libk | jump ①
1 | libk | kick ②
1 | libk | jump ③
2 | zyfon | run ④
3 | daodao | null ⑤
...
阅读全文…
《其实你不懂wget的心-01》
[ 2013-08-26 09:41:42 | 作者: admin ]
[正文开始]
wget用英语定义就是the non-interactive network downloader,翻译过来就是非交互的网络下载器。
1 wget都支持什么协议的下载?
wget支持HTTP、HTTPS和FTP协议的下载,其中也包括通过HTTP代理的下载。看起来支持的协议没有你想想的多,但其实这已足够,我相信你很少使用除这些协议之外的协议来进行下载吧。
2 wget有哪些特色之处?简单介绍一下。
wget能够跟踪HTML文件和XHTML文件,从而使得你可以下载整个站点的文件,然后离线阅读。当然这个功能并不是特别常用,因为几乎所有站点都会包含外链,一旦你用wget进行整站的下载,它也会傻傻的去下载外链站点的内容,这样一来,子子孙孙无穷尽也。
wget是个非常遵守Robot Exclusion Standard(robots.txt)标准的工具。
...
阅读全文…
wget用英语定义就是the non-interactive network downloader,翻译过来就是非交互的网络下载器。
1 wget都支持什么协议的下载?
wget支持HTTP、HTTPS和FTP协议的下载,其中也包括通过HTTP代理的下载。看起来支持的协议没有你想想的多,但其实这已足够,我相信你很少使用除这些协议之外的协议来进行下载吧。
2 wget有哪些特色之处?简单介绍一下。
wget能够跟踪HTML文件和XHTML文件,从而使得你可以下载整个站点的文件,然后离线阅读。当然这个功能并不是特别常用,因为几乎所有站点都会包含外链,一旦你用wget进行整站的下载,它也会傻傻的去下载外链站点的内容,这样一来,子子孙孙无穷尽也。
wget是个非常遵守Robot Exclusion Standard(robots.txt)标准的工具。
...
阅读全文…
《其实你不懂wget的心-03》
[ 2013-08-26 09:40:00 | 作者: admin ]
当你深入学习wget时,你会发现它的选项实在是太多了,错综复杂乱如麻。今天,我们就针对常用的目录选项展开讨论。
1 -r选项
这个选项用于下载远程的文件夹,但是情况没有那么简单,对于ftp协议下载来讲,你如果使用如下命令下载
wget -r ftp://my.test.server:/home/wupengchong/img
那么,实际在当前目录下会生成my.test.server/home/wupengchong/img目录结构,可见直接使用-r选项,默认会创建一域名和绝对路径组成的目录结构的。这或许不是我们的初衷,继续向下看。
2 -nd选项
即–no-directories。当我们下载远程的数据时,可以要求wget只下载文件,不下载文件夹,所有下载的文件都平铺在当前目录下。
这时,敏锐的读者会问:“如果下载到不同路径的同名文件的话,那用-nd岂不是会造成同名文件覆盖的问...
阅读全文…
1 -r选项
这个选项用于下载远程的文件夹,但是情况没有那么简单,对于ftp协议下载来讲,你如果使用如下命令下载
wget -r ftp://my.test.server:/home/wupengchong/img
那么,实际在当前目录下会生成my.test.server/home/wupengchong/img目录结构,可见直接使用-r选项,默认会创建一域名和绝对路径组成的目录结构的。这或许不是我们的初衷,继续向下看。
2 -nd选项
即–no-directories。当我们下载远程的数据时,可以要求wget只下载文件,不下载文件夹,所有下载的文件都平铺在当前目录下。
这时,敏锐的读者会问:“如果下载到不同路径的同名文件的话,那用-nd岂不是会造成同名文件覆盖的问...
阅读全文…
《其实你不懂wget的心-04》
[ 2013-08-26 09:39:29 | 作者: admin ]
使用wget时,会遇到各种突发事件。今天来讲一个。
一个800MB的大文件,在远程用wget下载,到一半时,文件被更名、被删除、被移动了,wget会发现么? 它会如何抱怨?还是傻傻地顺序读下去,直到读完800MB为止?(你可以随便猜,但真相只有一个…呵呵)
第一步:创建大文件
$ dd if=/dev/zero of=roc-big-file bs=8192 count=100000
其中if是数据输入源,of是数据输出目标,bs表示每次读写的缓冲区字节数,count是要读取多少次bs。
这条命令就是用来生成一个大小接近800MB的文件,命名为roc-big-file。
第二步:从另一台机器使用wget进行下载,限速在20k吧,要是不限速,刷刷几下就下完了,都来不及测试了该。呵呵
$ wget –limit-rate=20k ftp://yourdomain:/home/w...
阅读全文…
一个800MB的大文件,在远程用wget下载,到一半时,文件被更名、被删除、被移动了,wget会发现么? 它会如何抱怨?还是傻傻地顺序读下去,直到读完800MB为止?(你可以随便猜,但真相只有一个…呵呵)
第一步:创建大文件
$ dd if=/dev/zero of=roc-big-file bs=8192 count=100000
其中if是数据输入源,of是数据输出目标,bs表示每次读写的缓冲区字节数,count是要读取多少次bs。
这条命令就是用来生成一个大小接近800MB的文件,命名为roc-big-file。
第二步:从另一台机器使用wget进行下载,限速在20k吧,要是不限速,刷刷几下就下完了,都来不及测试了该。呵呵
$ wget –limit-rate=20k ftp://yourdomain:/home/w...
阅读全文…
其实你不懂wget的心-05(wget教程)
[ 2013-08-26 09:37:14 | 作者: admin ]
上篇文章,给了大家不少误会,对于明白原理的朋友,不说自明;但对于不太精通Linux系统原理的朋友,上一篇的表述方法刚刚好。
今天我们继续了解wget的心,看看还有哪些体贴的功能,我们平时没有接触到的。
1 -t选项
即–tries=number,用于设置wget下载时重试的次数,当设置为0(数字零)或inf时表示无限次重试。默认的重试次数是20次。
不过wget也不是在什么情况下都会傻傻的重试的,例如在发生“connection refused”或“not found”时,wget会立即退出,不会进行重试。
2 -o选项
即–output-file=logfile,wget运行过程中输出到标准输出的内容都会被写到所设置的logfile文件中。
3 -O选项
即–output-document-file,表示wget下载的所有文件的内容会被依次追加写到所设置的file文件中,...
阅读全文…
今天我们继续了解wget的心,看看还有哪些体贴的功能,我们平时没有接触到的。
1 -t选项
即–tries=number,用于设置wget下载时重试的次数,当设置为0(数字零)或inf时表示无限次重试。默认的重试次数是20次。
不过wget也不是在什么情况下都会傻傻的重试的,例如在发生“connection refused”或“not found”时,wget会立即退出,不会进行重试。
2 -o选项
即–output-file=logfile,wget运行过程中输出到标准输出的内容都会被写到所设置的logfile文件中。
3 -O选项
即–output-document-file,表示wget下载的所有文件的内容会被依次追加写到所设置的file文件中,...
阅读全文…
crontab如何自动访问某一个网页
[ 2013-08-26 08:57:44 | 作者: admin ]
crontab如何自动访问某一个网页?
lynx -source http://192.168.1.5/index.php >; /dev/null 2>;&1
或者
wget -q --spider http://192.168.1.5/index.php
因为wget支持循环下载,所以遇到下一页也可以处理
经常用,但是经常忘记,基本的格式能记得,但是详细的或者复杂点的格式总会忘记或者拿不准,不知道是不是年纪大了记忆力下降,干脆整理出来今后方便查看。
基本格式 :
* * * * * command
分 时 日 月 周 命令
第1列表示分钟1~59 每分钟用*或者 */1表示
第2列表示小时1~23(0表示0点)
第3列表示日期1~31
第4列表示月份1~12
第5列标识号星期0~6(0表示星期天)
第6列要运行的命令
crontab文件的一些例子:
...
阅读全文…
lynx -source http://192.168.1.5/index.php >; /dev/null 2>;&1
或者
wget -q --spider http://192.168.1.5/index.php
因为wget支持循环下载,所以遇到下一页也可以处理
经常用,但是经常忘记,基本的格式能记得,但是详细的或者复杂点的格式总会忘记或者拿不准,不知道是不是年纪大了记忆力下降,干脆整理出来今后方便查看。
基本格式 :
* * * * * command
分 时 日 月 周 命令
第1列表示分钟1~59 每分钟用*或者 */1表示
第2列表示小时1~23(0表示0点)
第3列表示日期1~31
第4列表示月份1~12
第5列标识号星期0~6(0表示星期天)
第6列要运行的命令
crontab文件的一些例子:
...
阅读全文…
1