iSCSI配置过程
l 1、iSCSI架构部署
l 2、安装要求
l 3、安装步骤
l 4、配置规划
l 5、配置步骤
l 6、测试要求
l 7、测试步骤
一、创建iSCSI的Target端――即服务端
1.安装相关的软件,需要安装Target软件
# yum -y install scsi-target-utils
2.生成用来存储的镜像文件,之后将其共享出去。
[root@StudyServer ~]# mkdir /tgtd
[root@StudyServer ~]# dd if=/dev/zero of=/tgtd/virtimage.img bs=1M count=50
3.编辑配置文件/etc/tgt/targets.conf
<target iqn.2013-12.com.oracle:img>
backing-store /tgtd/virtimage.img
write-cache off
</target>
<target iqn.2013-12.com.oracle:md5>
backing-store /dev/md5
write-cache off
</target>
4.启动服务
# service tgtd start
5.查看iSCSI列表
# tgt-admin --show
二、配置客户端
1.安装相关软件
# yum -y install iscsi-initiator-utils
2.配置客户端:
# vi /etc/iscsi/iscsid.conf
53 node.session.auth.authmethod = CHAP #让其打开身份验证功能
57 node.session.auth.username = testuser
58 node.session.auth.password = test1234
71 discovery.sendtargets.auth.username = testuser
72 discovery.sendtargets.auth.password = test1234
3.设置iscsid和iscsi服务为开启项
[root@HostA yum.repos.d]# chkconfig iscsid on
[root@HostA yum.repos.d]# chkconfig iscsi on
不需要手工启动
4.侦测target
[root@HostA yum.repos.d]# iscsiadm -m discovery -t sendtargets -p 192.168.32.128
正在启动 iscsid: [确定]
192.168.32.128:3260,1 iqn.2013-12.com.oracle:img
192.168.32.128:3260,1 iqn.2013-12.com.oracle:md5
5.输出存储设备节点名称
[root@HostA yum.repos.d]# iscsiadm -m node
192.168.32.128:3260,1 iqn.2013-12.com.oracle:img
192.168.32.128:3260,1 iqn.2013-12.com.oracle:md5
6.登入使用
# iscsiadm -m node -T iqn.2013-12.com.oracle:img --login
Logging in to [iface: default, target: iqn.2013-12.com.oracle:img, portal: 192.168.32.128,3260] (multiple)
Login to [iface: default, target: iqn.2013-12.com.oracle:img, portal: 192.168.32.128,3260] successful.
# iscsiadm -m node -T iqn.2013-12.com.oracle:md5 --login
Logging in to [iface: default, target: iqn.2013-12.com.oracle:md5, portal: 192.168.32.128,3260] (multiple)
Login to [iface: default, target: iqn.2013-12.com.oracle:md5, portal: 192.168.32.128,3260] successful.
此时,使用# fdisk �Cl 可以查看系统多出两个磁盘驱动器
Disk /dev/sdb: 52 MB, 52428800 bytes
2 heads, 50 sectors/track, 1024 cylinders
Units = cylinders of 100 * 512 = 51200 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
Disk /dev/sdc: 4291 MB, 4291821568 bytes
133 heads, 62 sectors/track, 1016 cylinders
Units = cylinders of 8246 * 512 = 4221952 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000
7.分区和格式化
使用两个iSCSI target如同使用本地磁盘一样
# fdisk /dev/sdb
# fdisk /dev/sdc
# mkfs.ext4 /dev/sdb1
# mkfs.ext4 /dev/sdc1
8.挂载使用
# mount /dev/sdb1 /root/imgdir
永久挂载:
# vi /etc/fstab
/dev/sdc1 /root/md5dir ext4 defaults,_netdev 0 0
# mount -a
NFS
l NFS是Net File System的简写,即网络文件系统
l NFS是由SUN公司开发,并于1984年推出的一个RPC(远程过程调用)服务系统。
l 它使我们能够达到文件的共享,在不同主机和系统间传输文件。
l 是一种基于TCP/IP的文件系统。
一、 服务器端
1. 安装相关软件
# yum -y install nfs-utils rpcbind
设置相关服务系统自启动
[root@StudyServer ~]# chkconfig nfs on
[root@StudyServer ~]# chkconfig rpcbind on
2. 配置服务器端,即输出共享目录
编辑配置文件
# vi /etc/exports
/app 192.168.32.0/24(sync,rw)
如果想了解更多的配置项,请查阅# man exports
3. 启动服务
# service nfs start
4. 显示本机共享目录列表以确认配置
# showmount -e 192.168.32.128
Export list for 192.168.32.128:
/app 192.168.32.0/24
二、 客户机端
1. 安装相关的软件
# yum -y install nfs-utils rpcbind
2.停止防火墙和SELinux
# service iptables stop
# service ip6tables stop
# setenforce 0
3.显示NFS服务器的共享信息
# showmount -e 192.168.32.128
Export list for 192.168.32.128:
/app 192.168.32.0/24
4.挂载共享目录进行使用
# mount -t nfs 192.168.32.128:/app /mnt
[root@HostA mnt]# touch file1
# ll
总用量 1176
-rw-r--r--. 1 nfsnobody nfsnobody 0 11月 17 2013 file1
本来是root用户新建的文件,属主变成了nfsnobody,何故?
# vi /etc/exports
/app 192.168.32.0/24(sync,rw,no_root_squash)
# exportfs �Crv #重新加载配置
exporting 192.168.32.0/24:/app
5.NFS和Samba的区别
NFS是在Linux系统之间共享目录,一般应用于哑终端上使用NFS将各用户的home目录全部保存在服务器端,用户无论在哪个终端上登录系统,所使用的环境、数据都是统一的、完整的。
Samba是Linux与Windows之间进行共享目录,一般应用于Linux作为文件共享服务器,Windows作为客户端进行访问,Samba服务器一般用于公司内部网络共享公共应用服务服务、数据文件的共享。