本月博客排行
-
第1名
龙儿筝 -
第2名
lerf -
第3名
fantaxy025025 - johnsmith9th
- zysnba
- xiangjie88
年度博客排行
-
第1名
青否云后端云 -
第2名
宏天软件 -
第3名
gashero - wy_19921005
- vipbooks
- benladeng5225
- e_e
- wallimn
- javashop
- ranbuijj
- fantaxy025025
- jickcai
- gengyun12
- zw7534313
- qepwqnp
- 解宜然
- ssydxa219
- zysnba
- sichunli_030
- sam123456gz
- arpenker
- tanling8334
- gaojingsong
- kaizi1992
- xpenxpen
- 龙儿筝
- jh108020
- wiseboyloves
- ganxueyun
- xyuma
- xiangjie88
- wangchen.ily
- Jameslyy
- luxurioust
- lemonhandsome
- mengjichen
- jbosscn
- zxq_2017
- lzyfn123
- nychen2000
- forestqqqq
- wjianwei666
- ajinn
- zhanjia
- Xeden
- hanbaohong
- java-007
- 喧嚣求静
- mwhgJava
- kingwell.leng
最新文章列表
linux 数据备份与恢复
数据备份
原则:备份是异地备份而不是本机备份,不要把鸡蛋放在同一个篮子里,篮子掉了,鸡蛋全碎了
一,需要备份的目录:
/root/目录
/home/目录
/var/spool/mail/目录
/etc/目录
其他目录:apache mysql
二,备份策略
1,完全备份: 完整的拷贝数据
2,增量备份: 跟上次备份相比,今天的新增的数据备份下来
3,差异备份:每次备份都是第一次完全备份相比 ...
Mysql Dump命令
MySQLdump是MySQL自带的导出数据工具,通常我们用它来导出MySQL中。
1、如果需要导出数据库diandi2中的所有数据及其建表结构,存储过程,可以使用类似如下的命令:其中192.168.1.155是数据库所在的host。
mysqldump -h 192.168.1.155 -udiandi -pdiandi diandi2 > dump.sql
其中dia ...
mysql ibdata1文件的缩小-释放磁盘空间
mysql ibdata1文件存放数据,索引等。
如果不把数据库中数据分开存放的话,这个文件的大小很容易就上了G,甚至几十G。对于某些应用、磁盘较小的server来说,并不是太合适。因此要把此文件缩小。
方法:数据文件单独存放。
详见:http://dev.mysql.com/doc/refman/5.1/zh/database-administration.html#back ...
用MySQL Dump 命令备份数据库
用MySQL Dump 命令备份数据库 开发者都知道数据库备份的重要性,当系统出现重大故障时能够起到救命的作用。
最简单的备份数据库的方法
1 $mysqldump –user [user name] –password=[password] [database name] > [dump file] //你也可以用简写"-u","-p"来 ...
Android中Handler和Looper的dump方法以及Printer接口的使用
看到Handler中的dump方法:
public final void dump(Printer pw, String prefix) {
pw.println(prefix + this + " @ " + SystemClock.uptimeMillis());
if (mLooper == null) {
...
qwrap-object的dump
本文载入qwrap一个dump的函数设计:
/**
*@param {Object} obj
*@param {Array} props
*@example ObjectH.dump({"name":"zhang","id":1,"age":20},[" ...
获得javacore和dump文件
linux环境下,尝试了如下方法获得javacore文件,便于分析线程的状态:
#./jstack <pid> >>javacore.001
然后通过jca软件进行分析。
通过如下命令获得dump文件,便于分析内存分配情况:
#./jmap -dump:format=b,file=dump.001 <pid>
然后通过jca、MemoryAna ...
Hadoop小试牛刀之dump数据
各位好,最近小弟接到一个需求,需要dump数据从云梯(淘宝的hadoop环境)到TAIR(淘宝的缓存系统)。
原先的大概设计:
先从云梯原始表分析出部分数据,再用Datax(数据同步工具)将这些数据导入mysql单表,再起一个单机多线程任务跑(这里需要8个多小时)。
我的一个简单想法,既然数据在云梯上,为什么不直接在云梯上直接跑MapReduce任务呢?然后我就开始这么干了。。。
...