全球主机交流论坛

标题: HostHatch 伦敦套装 NFS 测试 [打印本页]

作者: zxxx    时间: 2019-12-16 08:33
标题: HostHatch 伦敦套装 NFS 测试
本帖最后由 zxxx 于 2019-12-16 08:33 编辑

NVMe 机器信息

单核 E5-2690 v2 @ 3.00 GHz
RAM 996 MB
SWAP 127 MB
硬盘 16 GB
流量 5T
续费 15刀

  1. root@server:~# df -h
  2. Filesystem      Size  Used Avail Use% Mounted on
  3. udev            488M     0  488M   0% /dev
  4. tmpfs           100M   12M   88M  12% /run
  5. /dev/vda1        16G  948M   15G   6% /
  6. tmpfs           499M     0  499M   0% /dev/shm
  7. tmpfs           5.0M     0  5.0M   0% /run/lock
  8. tmpfs           499M     0  499M   0% /sys/fs/cgroup
  9. tmpfs           100M     0  100M   0% /run/user/0

  10. root@server:~# free -h
  11.               total        used        free      shared  buff/cache   available
  12. Mem:           996M         33M        744M         11M        218M        818M
  13. Swap:          127M          0B        127M

  14. root@server:~# cat /proc/cpuinfo
  15. processor       : 0
  16. vendor_id       : GenuineIntel
  17. cpu family      : 6
  18. model           : 62
  19. model name      : Intel(R) Xeon(R) CPU E5-2690 v2 @ 3.00GHz
  20. stepping        : 4
  21. microcode       : 0x1
  22. cpu MHz         : 2999.998
  23. cache size      : 16384 KB
  24. physical id     : 0
  25. siblings        : 1
  26. core id         : 0
  27. cpu cores       : 1
  28. apicid          : 0
  29. initial apicid  : 0
  30. fpu             : yes
  31. fpu_exception   : yes
  32. cpuid level     : 13
  33. wp              : yes
  34. flags           : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush mmx fxsr sse sse2 ss syscall nx pdpe1gb rdtscp lm constant_tsc arch_perfmon rep_good nopl xtopology pni pclmulqdq ssse3 cx16 pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx f16c rdrand hypervisor lahf_lm ssbd ibrs ibpb stibp kaiser fsgsbase tsc_adjust smep erms xsaveopt arat
  35. bugs            : cpu_meltdown spectre_v1 spectre_v2 spec_store_bypass l1tf
  36. bogomips        : 5999.99
  37. clflush size    : 64
  38. cache_alignment : 64
  39. address sizes   : 46 bits physical, 48 bits virtual
  40. power management:
复制代码


存储机器信息

单核 E5-2690 v2 @ 3.00 GHz
RAM 492 MB
SWAP 511 MB
硬盘 246 GB
流量 1T
续费 15刀


  1. root@server:~# df -h
  2. Filesystem      Size  Used Avail Use% Mounted on
  3. udev            236M     0  236M   0% /dev
  4. tmpfs            50M  6.9M   43M  14% /run
  5. /dev/vda1       246G  953M  245G   1% /
  6. tmpfs           247M     0  247M   0% /dev/shm
  7. tmpfs           5.0M     0  5.0M   0% /run/lock
  8. tmpfs           247M     0  247M   0% /sys/fs/cgroup
  9. tmpfs            50M     0   50M   0% /run/user/0

  10. root@server:~# free -h
  11.               total        used        free      shared  buff/cache   available
  12. Mem:           492M         34M        243M        6.8M        214M        438M
  13. Swap:          511M          0B        511M

  14. root@server:~# cat /proc/cpuinfo
  15. processor       : 0
  16. vendor_id       : GenuineIntel
  17. cpu family      : 6
  18. model           : 62
  19. model name      : Intel(R) Xeon(R) CPU E5-2690 v2 @ 3.00GHz
  20. stepping        : 4
  21. microcode       : 0x1
  22. cpu MHz         : 2999.998
  23. cache size      : 16384 KB
  24. physical id     : 0
  25. siblings        : 1
  26. core id         : 0
  27. cpu cores       : 1
  28. apicid          : 0
  29. initial apicid  : 0
  30. fpu             : yes
  31. fpu_exception   : yes
  32. cpuid level     : 13
  33. wp              : yes
  34. flags           : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush mmx fxsr sse sse2 ss syscall nx pdpe1gb rdtscp lm constant_tsc arch_perfmon rep_good nopl xtopology pni pclmulqdq ssse3 cx16 pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx f16c rdrand hypervisor lahf_lm ssbd ibrs ibpb stibp kaiser fsgsbase tsc_adjust smep erms xsaveopt arat
  35. bugs            : cpu_meltdown spectre_v1 spectre_v2 spec_store_bypass l1tf
  36. bogomips        : 5999.99
  37. clflush size    : 64
  38. cache_alignment : 64
  39. address sizes   : 46 bits physical, 48 bits virtual
  40. power management:
复制代码


配置存储机器作为 NFS 服务器

内网IP 10.10.1.2

  1. apt install nfs-kernel-server && \
  2. mkdir /nfs && \
  3. cat << EOF >> /etc/exports
  4. /nfs 10.10.1.1(rw,no_root_squash,no_subtree_check,sync,fsid=1)
  5. EOF

  6. exportfs -ra && \
  7. systemctl restart nfs-server.service
复制代码


配置 NVMe 机器作为 NFS 客户机

内网IP 10.10.1.1

  1. apt install nfs-common && \
  2. mkdir /nfs
  3. mount -t nfs 10.10.1.2:/nfs /nfs
复制代码


测试读写速度

  1. root@server:~# time dd if=/dev/zero of=/nfs/128MB.bin bs=128k count=1024
  2. 134217728 bytes (134 MB, 128 MiB) copied, 0.505629 s, 265 MB/s

  3. root@server:~# time dd if=/nfs/128MB.bin of=/dev/null bs=128k count=1024
  4. 134217728 bytes (134 MB, 128 MiB) copied, 0.157881 s, 850 MB/s
复制代码


写入速度 265 MB/s
读取速度 850 MB/s


开机自动挂载

  1. cat << "EOF" >> /etc/fstab
  2. 10.10.1.2:/nfs /nfs nfs defaults 0 0
  3. EOF
复制代码


作者: 秋风下的落叶    时间: 2019-12-16 08:46
nfs是什么意思?
作者: hihelllo    时间: 2019-12-16 08:53
感谢教程
作者: 秘密    时间: 2019-12-16 08:54
提示: 作者被禁止或删除 内容自动屏蔽
作者: zxxx    时间: 2019-12-16 08:56
秋风下的落叶 发表于 2019-12-16 08:46
nfs是什么意思?


NFS 网络文件系统是一种分布式文件系统协议,力求客户端主机可以访问服务器端文件,并且其过程与访问本地存储时一样,它由太阳微系统开发,于1984年发布。 它基于开放网络运算远程过程调用协议:一个开放、标准的RFC协议,任何人或组织都可以依据标准实现它。

假设一个Unix风格的场景,其中一台计算机(客户端)需要访问存储在其他机器上的数据(NFS 服务器):

服务端实现 NFS 守护进程,默认运行 nfsd,用来使得数据可以被客户端访问。
服务端系统管理员可以决定哪些资源可以被访问,导出目录的名字和参数,通常使用 /etc/exports 配置文件 和 exportfs 命令。
服务端安全-管理员保证它可以组织和认证合法的客户端。
服务端网络配置保证可以跟客户端透过防火墙进行协商。

客户端请求导出的数据,通常调用一个 mount 命令。

如果一切顺利,客户端的用户就可以通过已经挂载的文件系统查看和访问服务端的文件了。

提醒:NFS自动挂载可以通过—可能是 /etc/fstab 或者自动安装管理进程。
作者: 秋风下的落叶    时间: 2019-12-16 09:03
zxxx 发表于 2019-12-16 08:56
NFS 网络文件系统是一种分布式文件系统协议,力求客户端主机可以访问服务器端文件,并且其过程与访问本地 ...

大复杂,没看懂啥意思
作者: zxxx    时间: 2019-12-16 09:11
秋风下的落叶 发表于 2019-12-16 09:03
大复杂,没看懂啥意思






作者: 凤梨    时间: 2019-12-16 09:15
相当于30刀买了个5T流量的大盘鸡
作者: zxxx    时间: 2019-12-16 09:34
凤梨 发表于 2019-12-16 09:15
相当于30刀买了个5T流量的大盘鸡

云筏科技有个30刀的机器,1T硬盘,5T流量更香。
作者: smalleye    时间: 2019-12-16 11:15
大佬,伦敦250G单出吗
作者: zxxx    时间: 2019-12-16 11:17
smalleye 发表于 2019-12-16 11:15
大佬,伦敦250G单出吗

单出就没法玩了呀
作者: ccf    时间: 2019-12-16 11:18
zxxx 发表于 2019-12-16 09:34
云筏科技有个30刀的机器,1T硬盘,5T流量更香。

那个IO和网络肯定不如这个香
作者: zxxx    时间: 2019-12-16 11:19
smalleye 发表于 2019-12-16 11:15
大佬,伦敦250G单出吗

你可以把你的5T出掉,然后要这个套装,还不用Push省事儿。
作者: zxxx    时间: 2019-12-16 11:20
可能吧,T楼的机器同机房,网络可能有限制吧,速度不高。
作者: exexue    时间: 2020-1-5 16:51
本帖最后由 exexue 于 2020-1-5 16:53 编辑

root@ultravps-de:/data# time dd if=/dev/zero of=/data/128MB.bin bs=128k count=1024
1024+0 records in
1024+0 records out
134217728 bytes (134 MB) copied, 0.166967 s, 804 MB/s

real    0m0.169s
user    0m0.000s
sys     0m0.116s
root@ultravps-de:/data# time dd if=/nfs/128MB.bin of=/dev/null bs=128k count=1024
dd: failed to open ‘/nfs/128MB.bin’: No such file or directory

real    0m0.002s
user    0m0.000s
sys     0m0.000s
root@ultravps-de:/data# time dd if=/data/128MB.bin of=/dev/null bs=128k count=1024
1024+0 records in
1024+0 records out
134217728 bytes (134 MB) copied, 0.0286292 s, 4.7 GB/s

real    0m0.030s
user    0m0.000s
sys     0m0.028s
root@ultravps-de:/data#

ultravps自带的挂载硬盘测试,不知道对不对。听说它是基于ZFS存储。
作者: MsNeo    时间: 2020-1-5 17:10
要是前端机子配置高就香喷喷了。
作者: k2775739    时间: 2020-1-5 17:19
exexue 发表于 2020-1-5 16:51
root@ultravps-de:/data# time dd if=/dev/zero of=/data/128MB.bin bs=128k count=1024
1024+0 records in ...

128m太小了吧,怎么也得搞一个g啊,随便拿了台小鸡测试了一下3g+/s 的读取
作者: zxxx    时间: 2020-1-7 09:13

作者: kxzd    时间: 2020-1-7 09:39
30刀1t流量你逗我呢,还不如搞个大盘鸡
作者: zxxx    时间: 2020-1-10 20:08
kxzd 发表于 2020-1-7 09:39
30刀1t流量你逗我呢,还不如搞个大盘鸡

30 刀是 1T + 5T, 合计 6T 的
作者: kxzd    时间: 2020-1-10 23:38
zxxx 发表于 2020-1-10 20:08
30 刀是 1T + 5T, 合计 6T 的

我这拉斯维加斯貌似无限流量的
作者: zxxx    时间: 2020-1-10 23:47
kxzd 发表于 2020-1-10 23:38
我这拉斯维加斯貌似无限流量的

无限流量的好呀!
作者: kxzd    时间: 2020-1-10 23:49
zxxx 发表于 2020-1-10 23:47
无限流量的好呀!

frantech  




欢迎光临 全球主机交流论坛 (https://hostloc-workers.ikyomon.com/) Powered by Discuz! X3.4