语法:dd [选项]
if =输入文件(或设备名称)。
of =输出文件(或设备名称)。
ibs = bytes 一次读取bytes字节,即读入缓冲区的字节数。
skip = blocks 跳过读入缓冲区开头的ibs*blocks块。
obs = bytes 一次写入bytes字节,即写入缓冲区的字节数。
bs = bytes 同时设置读/写缓冲区的字节数(等于设置ibs和obs)。
cbs = byte 一次转换bytes字节。
count=blocks 只拷贝输入的blocks块。
conv = ASCII 把EBCDIC码转换为ASCIl码。
conv = ebcdic 把ASCIl码转换为EBCDIC码。
conv = ibm 把ASCIl码转换为alternate EBCDIC码。
conv = block 把变动位转换成固定字符。
conv = ublock 把固定位转换成变动位。
conv = ucase 把字母由小写转换为大写。
conv = lcase 把字母由大写转换为小写。
conv = notrunc 不截短输出文件。
conv = swab 交换每一对输入字节。
conv = noerror 出错时不停止处理。
conv = sync 把每个输入记录的大小都调到ibs的大小(用NUL填充)。
创建一个100M的空文件
dd if=/dev/zero of=hello.txt bs=100M count=1
=============================================
/dev/null,外号叫无底洞,你可以向它输出任何数据,它通吃,并且不会撑着!
/dev/zero,是一个输入设备,你可你用它来初始化文件。
/dev/null------它是空设备,也称为位桶(bit bucket)。任何写入它的输出都会被抛弃。如果不想让消息以标准输出显示或写入文件,那么可以将消息重定向到位桶。
/dev/zero------该设备无穷尽地提供0,可以使用任何你需要的数目――设备提供的要多的多。他可以用于向设备或文件写入字符串0。
$ dd if=/dev/zero of=./test.txt bs=1k count=1
$ ls -l
total 4
-rw-r--r-- 1 oracle dba 1024 Jul 15 16:56 test.txt
eg:
$ find / -name access_log 2>/dev/null
例2:把net.i这个文件写入软盘中,并设定读/写缓冲区的数目。(注意:软盘中的内容会被完全覆盖掉)
$ddif=net.iof=/dev/fd0bs=16384
例3:将文件sfile拷贝到文件dfile中。
$ddif=sfileof=dfile
第三步:启用这个swap交换分区文件:
swapon /swapfile
第四步:编辑/etc/fstab文件,使在每次开机时自动加载swap交换分区文件:
/swapfile swap swap default 0 0
3.销毁磁盘数据
dd if=/dev/urandom f=/dev/hda1
注意:利用随机的数据填充硬盘,在某些必要的场合可以用来销毁数据。
4.测试硬盘的读写速度
dd if=/dev/zero bs=1024 count=1000000 f=/root/1Gb.file 写速度
dd if=/root/1Gb.file bs=64k | dd f=/dev/null 读速度
通过以上两个命令输出的命令执行时间,可以计算出硬盘的读、写速度。
5.确定硬盘的最佳块blocks大小:初始化硬盘
dd if=/dev/zero bs=1024 count=1000000 f=/root/1Gb.file 初始化硬盘
dd if=/dev/zero bs=2048 count=500000 f=/root/1Gb.file 初始化硬盘
dd if=/dev/zero bs=4096 count=250000 f=/root/1Gb.file 初始化硬盘
dd if=/dev/zero bs=8192 count=125000 f=/root/1Gb.file 初始化硬盘
通过比较以上命令输出中所显示的命令执行时间,即可确定系统最佳的块大小。
6.修复硬盘: 自初始化硬盘
dd if=/dev/sda f=/dev/sda SCSI硬盘 或dd if=/dev/hda f=/dev/hda IDE
当硬盘较长时间(一年以上)放置不使用后,磁盘上会产生magnetic flux point 电磁点现象,当磁头读到这些区域时会遇到困难,并可能导致I/O错误。当这种情况影响到硬盘的第一个扇区即MBR(主引导程序446、硬盘分区表64、硬盘有效标识2字节)时,可能导致硬盘报废。上边的命令有可能使这些数据起死回生。并且这个过程是安全、高效的。