ipTIME A2004ns plus ipDISK 사용



아이피타임 공유기 제품중에 모델명에 NS 가 붙은 제품이 있습니다.


N704NS-BCM 같은 모델은 USB Port 가 있어서 외장 하드나 USB메모리를 연결해서 원격 저장장치로 사용이 가능합니다.


전에는 NAS 제품에 있었지만 요즘은 유무선공유기에도 이 기능이 탑제되어 FTP 서버 구축을 따로 하지 않고도 파일공유를 할 수가 있어서 정말로 편해졌습니다.



ipTIME A2004ns plus ipDISK 사용


고급설정에 USB/서비스 관리로 가면 서비스 설정이 있습니다.


USB메모리를 꽂은 후에 사용하면 됩니다.


먼저 IPDISK 주소 관리를 합니다.


DDNS 와 같은 기능입니다.



ipTIME A2004ns plus ipDISK 사용


이번에는 ipDISK/FTP 서비스로 가서 설정을 합니다.


관리자는 읽기/쓰기로 하고 게스트는 읽기로 하면 됩니다.


알려진 포트 노출을 꺼리신다면 다른 포트를 사용하여도 됩니다.


설정 후 적용 버튼을 누릅니다.



ipTIME A2004ns plus ipDISK 사용


이제 윈도우에서 내 PC 에서 마우스 우측 버튼을 누르고 네트워크 위치 추가를 합니다.




ipTIME A2004ns plus ipDISK 사용


위에서 설정한 주소로 입력합니다.


포트가 21번이 아니라면 주소 뒤에 콜론을 붙여서 포트번호를 입력하면 됩니다.


(예, ftp://my-ftp.ipdisk.co.kr:8821)



ipTIME A2004ns plus ipDISK 사용


익명이 아니면 사용자 이름을 적고 다음으로 넘어갑니다.



ipTIME A2004ns plus ipDISK 사용


이제 아이디와 비밀번호를 적고 로그온을 합니다.



ipTIME A2004ns plus ipDISK 사용


이제 네트워크 드라이브가 잡혔습니다.


재부팅 하더라도 자동으로 인식이 됩니다.



반응형

'IT제품' 카테고리의 다른 글

AMD EPYC 사양 및 CPU Mark  (0) 2017.12.14
IBM x3550 M2 IMM Virtual Media Key  (0) 2017.09.24
LSI LOGIC SAS3041E-HP RAID 0 성능  (2) 2017.09.11
IBM x3550 M2 하드웨어 간략정보  (0) 2017.08.27
Intel SSD 600P M.2 128GB CrystalDiskMark  (0) 2017.05.17
블로그 이미지

영은파더♥

가상서버호스팅 VPS 리눅스 서버관리 윈도우 IT

,

LETSENCRYPT 인증서 만료날짜 알아내는 방법



lentsencrypt 로 발급 받은 인증서는 유효기간이 90일입니다.


그래서 90일 마다 갱신을 해주어야 하는데 만료날짜를 알아내는 방법입니다.


정확하게 알아내는 방법은 아래와 같습니다.


# openssl x509 -in /etc/letsencrypt/live/www.example.com/cert.pem -text -noout | grep After
            Not After : Dec 21 04:33:00 2017 GMT


좀 더 디테일하게 파싱까지 하면


# openssl x509 -in /etc/letsencrypt/live/www.example.com/cert.pem -text -noout | grep After | awk -F ' : ' '{print $2}'

Dec 21 04:33:00 2017 GMT


# AFTERDAY=`openssl x509 -in /etc/letsencrypt/live/www.example.com/cert.pem -text -noout | grep After | awk -F ' : ' '{print $2}'`

# date +%Y%m%d --date="$AFTERDAY"

20171221

쉘스크립트로 만들어서 활용하면 됩니다.


간단하게는


stat /etc/letsencrypt/live/www.example.com/cert.pem | grep Modify


위 명령어로 생성일자 +90 만료일자를 계산하는 방법도 있습니다.



반응형
블로그 이미지

영은파더♥

가상서버호스팅 VPS 리눅스 서버관리 윈도우 IT

,

CentOS 7.x 노하드 시스템 iSCSI & PXE 환경구축


하드디스크 없이 네트워크로 윈도우를 부팅하려면 먼저 iSCSI 스토리지 서버와 PXE 서버 구축이 되어 있어야 합니다.

그리고 미리 윈도우 이미지를 만들어 두어야 합니다.


1. 패키지 설치

yum install epel-release wget scsi-target-utils iscsi-initiator-utils dnsmasq


2. 방화벽 설정

firewall-cmd --permanent --zone=public --add-service=ftp
firewall-cmd --permanent --zone=public --add-service=dns
firewall-cmd --permanent --zone=public --add-service=dhcp
firewall-cmd --permanent --zone=public --add-service=iscsi-target
firewall-cmd --permanent --zone=public --add-port=69/udp
firewall-cmd --permanent --zone=public --add-port=4011/udp
firewall-cmd --reload


3. iSCSI 스토리지 설정

vi /etc/tgt/targets.conf

<target disk01>
    backing-store /iscsi/disk01.img
    initiator-address ALL
    #incominguser iscsi pass1234
</target>

systemctl enable tgtd
systemctl start tgtd

OS 이미지인 disk01.img 는 미리 작업해서 올려두어야 합니다.

tgt-admin -s 명령어로 정상적으로 설정되었는지 확인합니다.

iscsi 초기자로 테스트하는 방법

# iSCSI 설정

iscsiadm -m discovery -t st -p 192.168.1.3
iscsiadm -m node --targetname disk01 --portal 192.168.1.3:3260 --login

( 안되면 tgtadm --lld iscsi --op bind --mode target --tid 1 -I ALL 명령어 실행 후 다시 재시도)


# iSCSI 해제

iscsiadm -m node --targetname disk01 --portal 192.168.1.3:3260 --logout
iscsiadm -m discovery --portal 192.168.1.3:3260 --op=delete


4. PXE 부팅 환경 작업

mkdir /var/lib/tftpboot

wget -O /var/lib/tftpboot/undionly.kpxe http://boot.ipxe.org/undionly.kpxe


5. dnsmasq 환경 설정

vi /etc/dnsmasq.d/dhcp.conf

domain=localhost.localdomain
dhcp-range=192.168.1.100,192.168.1.200,255.255.255.0,1h
dhcp-option=option:router,192.168.1.1
enable-tftp
tftp-root=/var/lib/tftpboot
dhcp-match=iPXE,175
dhcp-option=net:iPXE,17,"iscsi:192.168.1.3:::1:disk01"
pxe-service=net:#iPXE,x86PC,"PXE Network booting",undionly.kpxe

systemctl enable dnsmasq
systemctl start dnsmasq

아이피 환경은 맞게 수정하셔야 합니다.

그리고 iPXE 는 다른 이름으로 해도 상관없습니다.

접속주소는 iscsi:아이피주소:프로토콜:포트번호:룬번호:타겟명 이런 형태입니다.

예) iscsi:192.168.1.3:tcp:3260:1:disk01

MAC Address 별로 iscsi 타겟을 따로 지정하려면 https://ivps.tistory.com/371 여기를 참고하세요.


이제 설정이 완료되었습니다.

다른 클라이언트에서 테스트 해보고 안되면 서버를 재부팅 한 다음에 다시 시도해보세요~


PXE 네트워크 부팅 동영상 보기

https://youtu.be/jZdWfViNcIU ( Win10 )

https://youtu.be/tCZcA25oKqg ( Win7 )



윈도우7 은 iSCSI 관련 핫픽스 패치를 한 이후에 이미지를 만들면 부팅이 되던데,

윈도우10 은 블루스크린이 뜨면서 부팅실패를 하는군요~


윈도우7용은 패치 파일 첨부합니다.

Windows6.1-KB2550978-x64[1].msu

Windows6.1-KB976042-v2-x64[1].msu


윈도우10은 성공했다는 글은 봤는데 좀 복잡해서 나중에 패치가 나오길 기다려봅니다~ ㅎ


반응형
블로그 이미지

영은파더♥

가상서버호스팅 VPS 리눅스 서버관리 윈도우 IT

,

CentOS 7.x 500 OOPS vsftpd anonymous refusing


CentOS 7 minimal 에 vsftpd 를 설치하고 anonymous 접속 설정을 하고 테스트를 해보니 아래 처럼 에러 메시지가 나면서 접속이 안되는군요~

C:\>ftp 192.168.1.26
192.168.1.26에 연결되었습니다.
220 (vsFTPd 3.0.2)
200 Always in UTF8 mode.
사용자(192.168.1.26:(none)): anonymous
331 Please specify the password.
암호:
500 OOPS: vsftpd: refusing to run with writable root inside chroot()
500 OOPS: 원격 호스트에 의해 연결이 닫혔습니다.

분명히 사용하는 서버에서 vsftpd.conf 파일의 환경설정 값을 제대로 넣었는데도 그러네요~

anon_upload_enable=YES
anon_mkdir_write_enable=YES
anon_other_write_enable=YES
anon_umask=0022

차이점은 root 이외 유저가 있느냐 없느냐의 차이였습니다.

useradd 명령어로 유저 하나 생성하고 접속하니 잘 됩니다.



반응형
블로그 이미지

영은파더♥

가상서버호스팅 VPS 리눅스 서버관리 윈도우 IT

,

VMware ESXi CentOS 7.x LVM 루트폴더 확장


디스크 용량을 기존 16G 로는 부족하여 용량을 확장하는 방법입니다.

다행히 요즘은 LVM 볼륨으로 되어 있어서 확장이 가능합니다.

먼저 VMware ESXi 호스트에서 디스크 용량을 늘려서 VM 시스템을 시작합니다.


fdisk /dev/sda 명령어로 늘어난 만큼 남아있는 파티션을 Linux LVM 파티션 형태로 추가합니다.

pvcreate /dev/sda3 로 Physical volume 을 생성하여야 합니다.

[root@localhost ~]# pvcreate /dev/sda3
  Device /dev/sda3 not found (or ignored by filtering).
[root@localhost ~]# reboot
login as: root
root@192.168.1.26's password:
Last login: Tue Sep 19 12:32:31 2017 from 192.168.1.2
[root@localhost ~]# pvcreate /dev/sda3
  Physical volume "/dev/sda3" successfully created.
[root@localhost ~]# pvscan
  PV /dev/sda2   VG cl              lvm2 [15.00 GiB / 0    free]
  PV /dev/sda3                      lvm2 [44.00 GiB]
  Total: 2 [59.00 GiB] / in use: 1 [15.00 GiB] / in no VG: 1 [44.00 GiB]

파티션 잡을때 Warning 메시지가 있었듯이 재부팅을 한번 해주어야 합니다.

pvdisplay 명령어로 볼륨명 VG Name 을 확인합니다.

[root@localhost ~]# pvdisplay
  --- Physical volume ---
  PV Name               /dev/sda2
  VG Name               cl
  PV Size               15.00 GiB / not usable 3.00 MiB
  Allocatable           yes (but full)
  PE Size               4.00 MiB
  Total PE              3839
  Free PE               0
  Allocated PE          3839
  PV UUID               hq499Q-zVoS-mZKD-zCWX-D4xf-ns5x-2L3Pui

  "/dev/sda3" is a new physical volume of "44.00 GiB"
  --- NEW Physical volume ---
  PV Name               /dev/sda3
  VG Name
  PV Size               44.00 GiB
  Allocatable           NO
  PE Size               0
  Total PE              0
  Free PE               0
  Allocated PE          0
  PV UUID               KJ8ada-YjiU-gx9e-oSpd-K4AV-9KWK-F9tnGn

위에서 확인한 VG Name 을 vgextend 명령어로 확장합니다.

[root@localhost ~]# vgextend cl /dev/sda3
  Volume group "cl" successfully extended
[root@localhost ~]# vgdisplay
  --- Volume group ---
  VG Name               cl
  System ID
  Format                lvm2
  Metadata Areas        2
  Metadata Sequence No  4
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                2
  Open LV               2
  Max PV                0
  Cur PV                2
  Act PV                2
  VG Size               58.99 GiB
  PE Size               4.00 MiB
  Total PE              15102
  Alloc PE / Size       3839 / 15.00 GiB
  Free  PE / Size       11263 / 44.00 GiB
  VG UUID               ny3hEe-LQMt-0UYe-nVMT-hHlG-kRhN-y3LqmT

그리고 vgdisplay 명령어로 확장 가능한 Free PE / Size 값을 확인합니다.

[root@localhost ~]# lvextend /dev/cl/root -l +11263
  Size of logical volume cl/root changed from 13.39 GiB (3429 extents) to 57.39 GiB (14692 extents).
  Logical volume cl/root successfully resized.

lvextend 명령어로 볼륨 사이즈를 확장합니다.

그리고 이제 resize 를 합니다.

[root@localhost ~]# resize2fs /dev/cl/root
resize2fs 1.42.9 (28-Dec-2013)
resize2fs: Bad magic number in super-block while trying to open /dev/cl/root
Couldn't find valid filesystem superblock.
[root@localhost ~]# xfs_growfs /dev/cl/root
meta-data=/dev/mapper/cl-root    isize=512    agcount=4, agsize=877824 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=0 spinodes=0
data     =                       bsize=4096   blocks=3511296, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal               bsize=4096   blocks=2560, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
data blocks changed from 3511296 to 15044608
[root@localhost ~]# df -h
Filesystem           Size  Used Avail Use% Mounted on
/dev/mapper/cl-root   58G 1003M   57G   2% /
devtmpfs             910M     0  910M   0% /dev
tmpfs                920M     0  920M   0% /dev/shm
tmpfs                920M  8.5M  912M   1% /run
tmpfs                920M     0  920M   0% /sys/fs/cgroup
/dev/sda1           1014M  139M  876M  14% /boot
tmpfs                184M     0  184M   0% /run/user/0

루트폴더가 아니라면 resize2fs 명령어가 가능하겠지만 운영중인 파티션이라서 xfs_growfs 명령어를 실행합니다.

그리고 df 명령어로 늘어난 사이즈를 확인하면 됩니다.


동영상으로 보기 https://youtu.be/YBMMssFK5q0


반응형
블로그 이미지

영은파더♥

가상서버호스팅 VPS 리눅스 서버관리 윈도우 IT

,

CentOS 7.x iscsi 스토리지 생성 및 연결


iscsiadm: No portals fount 이 후로 더 이상 진행이 안되어서 targetcli 로도 해보고 몇 번을 재시도 했는지 모르겠네요~ ㅎ

iSCSI 스토리지 서버를 만들고 iscsi 초기자로 원격 디스크를 마운트하는 방법입니다.


iSCSI 스토리지 서버 설정

scsi-target-utils 를 설치합니다.

yum install epel-release

yum install scsi-target-utils

mkdir /iscsi
dd if=/dev/zero of=/iscsi/disk01.img bs=1M count=10000

10G 이미지 파일을 생성합니다.

vi /etc/tgt/targets.conf

<target iqn.2017-09.com.example:target1>
    backing-store /iscsi/disk01.img
    initiator-address ALL
    #incominguser iscsi pass1234
</target>

또는 간단하게 ( 의미없는 iqn.2017-09.com.example 생략가능 )

<target target1>
    backing-store /iscsi/disk01.img
    initiator-address ALL
    #incominguser iscsi pass1234
</target>

disk01.img 를 iqn.2017-09.com.example:target1 에 할당합니다.

systemctl enable tgtd
systemctl start tgtd

tgtadm --lld iscsi --op bind --mode target --tid 1 -I ALL

tgtadm --mode target --op show 명령어로 잘 되었는지 확인합니다.

아래 클라이언트에서 iscsiadm: No portals found 메시지가 나오면

tgtadm --lld iscsi --op bind --mode target --tid 1 -I ALL 명령어를 실행하면 됩니다.


방화벽에서 3260 포트를 열어줍니다.

firewall-cmd --permanent --zone=public --add-service=iscsi-target

firewall-cmd --reload

아래 작업에서 문구가 나오면

iscsiadm: cannot make connection to 192.168.1.26: Connection refused

selinux 설정을 변경해 주어야 합니다.

vi /etc/selinux/config

#SELINUX=enforcing
SELINUX=disabled

저장 후 reboot 합니다.


여기까지가 iSCSI 스토리지 서버 생성입니다.



iSCSI 스토리지 연결

지금부터는 위에서 생성한 iscsi 를 연결해서 마운트 하는 작업입니다.

yum install iscsi-initiator-utils

그리고 위에서 incominguser 를 설정했다면 아래 처럼 유저 환경설정을 해줍니다.

vi /etc/iscsi/iscsid.conf

node.session.auth.authmethod = CHAP
node.session.auth.username = iscsi
node.session.auth.password = pass1234

이제 연결 작업입니다.

iscsiadm -m discovery -t st -p 192.168.1.26
iscsiadm -m node --targetname iqn.2017-09.com.example:target1 --portal 192.168.1.26:3260 --login

연결 해제는 아래처럼 하면 됩니다.

iscsiadm -m node --targetname iqn.2017-09.com.example:target1 --portal 192.168.1.26:3260 --logout
iscsiadm -m discovery --portal 192.168.1.26:3260 --op=delete

아직 연결 해제는 하지 마세요~

연결이 잘 되었는지는 fdisk -l 로 확인하면 됩니다.

원래 없던 /dev/sdb 가 보인다면 제대로 연결이 된 것입니다.


fdisk /dev/sdb

mkfs.ext4 /dev/sdb1

mkdir /mnt/sdb1

mount /dev/sdb1 /mnt/sdb1

이제 fdisk 로 파티션을 잡은 뒤에 포맷 후 마운트를 하면 됩니다.


반응형
블로그 이미지

영은파더♥

가상서버호스팅 VPS 리눅스 서버관리 윈도우 IT

,

VMDK to ESXi StarWind V2V Image Converter


VMware vCenter Converter Standalone 으로 ESXi 호스트 서버에 vmdk 를 변환하여 올릴 수도 있지만

이번에는 좀 더 간단한 StarWind V2V 로 VHD, VMDK 가상디스크를 ESXi 용 이미지로 변환시켜주는 유틸리티입니다.

다운로드는 인터넷에 검색하면 나옵니다.

VMDK to ESXi StarWind V2V Image Converter

프로그램을 실행하고 변환시킬 vhd 또는 vmdk 파일을 선택합니다.


VMDK to ESXi StarWind V2V Image Converter

VMWare ESX server image 를 선택하고 Next 를 누릅니다.


VMDK to ESXi StarWind V2V Image Converter

output 파일의 위치를 확인하고 Next 를 누릅니다.


VMDK to ESXi StarWind V2V Image Converter

변환되는데 걸리는 시간은 디스크 용량에 따라 다릅니다.


위에서 변환된 .vmdk 파일 두개를 ESXi 호스트 데이터스토어에 폴더를 만들어서 업로드를 합니다.


여기서 VM 등록 방법은 두가지가 있습니다.


하나는 VM 생성시 기존 하드디스크 사용을 하는 방법이 있습니다.

나머지는 다른곳에 사용된 .vmx 파일을 이용하는 방법입니다.

vmx 파일을 복사해서 편집기로 위의 .vmdk 파일로 수정해서 업로드 하고 이 파일을 이용해서 VM 등록을 해주면 됩니다.


반응형

'SW이야기' 카테고리의 다른 글

USB메모리에 리눅스 설치하기  (0) 2017.11.11
Beyond Compare 폰트변경  (0) 2017.10.20
VMware ESXi 용 vmdk 변환 방법  (0) 2017.09.06
VMware vSphere ESXi Mobile Watchlist  (0) 2017.09.06
디스크 to VMDK 변환 EaseUS Todo Backup  (0) 2017.09.03
블로그 이미지

영은파더♥

가상서버호스팅 VPS 리눅스 서버관리 윈도우 IT

,

CentOS 7.x PXE 서버 설정

LINUX 2017. 9. 13. 16:20

CentOS 7.x PXE 서버 설정


리눅스 PXE Boot 서버 설정입니다.

설치 CD없이 PXE 로 설치하는 방법입니다. DNSMASQ 대신에 DHCP + TFTP-SERVER 로 대체하여도 됩니다.


1. 패키지 설치

yum install dnsmasq vsftpd syslinux

tftp-server 는 dnsmasq 로 할 때는 설치하지 않아도 됩니다.

대신에 /var/lib/tftpboot 폴더는 만들어 주거나 다른 폴더로 대체하여야 합니다.


2. dnsmasq 설정

vi /etc/dnsmasq.d/dhcp.conf

dhcp-range=192.168.1.3,proxy
enable-tftp
tftp-root=/var/lib/tftpboot
pxe-service=x86PC, "PXE-Linux on 192.168.1.3", "pxelinux.0", 192.168.1.3

굵은 글씨 부분을 자신의 환경에 맞게 수정하면 됩니다.

좀 더 복잡한 설정 :


3. CentOS 7.x ISO 다운로드 및 복사

wget http://ftp.daumkakao.com/centos/7.3.1611/isos/x86_64/CentOS-7-x86_64-Minimal-1611.iso
mkdir /mnt/centos7
mount -o loop CentOS-7-x86_64-Minimal-1611.iso /mnt/centos7
cp -av /mnt/centos7/* /var/ftp/pub/


4. PXE Boot 디렉토리 작업

mkdir /var/lib/tftpboot/pxelinux.cfg
mkdir /var/lib/tftpboot/centos7
cp -rv /usr/share/syslinux/* /var/lib/tftpboot/
cp -v /mnt/centos7/images/pxeboot/vmlinuz /var/lib/tftpboot/centos7/
cp -v /mnt/centos7/images/pxeboot/initrd.img /var/lib/tftpboot/centos7/


5. PXE Boot 메뉴 작업

vi /var/lib/tftpboot/pxelinux.cfg/default

default menu.c32
prompt 0
timeout 100
ontimeout 1
menu title ### PXE Boot Menu ###
label 1
menu label ^1) Install CentOS 7 x64 (ftp://192.168.1.26/pub)
kernel centos7/vmlinuz
append initrd=centos7/initrd.img method=ftp://192.168.1.3/pub devfs=nomount
label 2
menu label ^2) Install CentOS 7 x64 (http://mirror.centos.org)
kernel centos7/vmlinuz
append initrd=centos7/initrd.img method=http://mirror.centos.org/centos/7/os/x86_64/ devfs=nomount


6. 데몬 시작

systemctl enable dnsmasq
systemctl enable vsftpd
systemctl start dnsmasq
systemctl start vsftpd


7. 방화벽 설정

firewall-cmd --permanent --zone=public --add-service=ftp
firewall-cmd --permanent --zone=public --add-service=dns
firewall-cmd --permanent --zone=public --add-service=dhcp
firewall-cmd --permanent --zone=public --add-port=69/udp
firewall-cmd --permanent --zone=public --add-port=4011/udp
firewall-cmd --reload


이제 설정이 모두 완료되었습니다.

reboot 으로 재부팅 한번 하고 난뒤에 테스트 하면 됩니다.


PXE 설치 동영상 보기 https://youtu.be/QkMbobbBrEU



dnsmasq 대신에 dhcp + tftp-server 로 하는 방법입니다.

위의 1번 과정에서 yum install tftp-server dhcp vsftpd syslinux


2번 과정을 아래로 대체합니다.

vi /etc/xinet.d/tftp

service tftp
{
        socket_type             = dgram
        protocol                = udp
        wait                    = yes
        user                    = root
        server                  = /usr/sbin/in.tftpd
        server_args             = -s /var/lib/tftpboot
        disable                 = no
        per_source              = 11
        cps                     = 100 2
        flags                   = IPv4
}

disable = yes 를 disable = no 로 변경 후 저장

systemctl enable tftp

systemctl start tftp


dhcp 설정

vi /etc/dhcp/dhcpd.conf

subnet 192.168.1.0 netmask 255.255.255.0 {
    range dynamic-bootp 192.168.1.100 192.168.1.200;
    option domain-name-servers 8.8.8.8, 8.8.4.4;
    option broadcast-address 192.168.1.255;
    option routers 192.168.1.1;
}
filename "pxelinux.0";


systemctl enable dhcpd

systemctl start dhcpd

그리고 방화벽 설정에서

--add-service=dns 와 --add-port=4011/udp 는 필요가 없습니다.


반응형
블로그 이미지

영은파더♥

가상서버호스팅 VPS 리눅스 서버관리 윈도우 IT

,

윈도우10 ReadyBoost 및 Superfetch 실행 안됨


윈도우10 버전 업데이트 이후 10.0.15063 빌드에서 Superfetch 서비스가 실행이 안되네요~

ReadyBoost를 담당하는 서비스(Sysmain)가 이 컴퓨터에서 꺼져 있으므로 ReadyBoost를 사용하도록 설정할 수 없습니다.

이런 메시지가 나오면서 설정이 안되는군요~

윈도우10 ReadyBoost 및 superfetch sysmain


Superfetch 도 시작이 안되고요~

윈도우10 ReadyBoost 및 superfetch 실행 안됨


오류 50: 지원되지 않는 요청입니다.

윈도우10 Superfetch 오류 50 지원되지 않는 요청입니다

에러가 뜨면서 더이상 방법이 없는 듯 합니다.


혹시 해결하신분 계실까요??



2017.10.11

어느 순간 지금은 Superfetch 서비스가 또 되네요~


반응형
블로그 이미지

영은파더♥

가상서버호스팅 VPS 리눅스 서버관리 윈도우 IT

,
LSI LOGIC SAS3041E-HP RAID 0 성능


중고로 SATA 레이드 카드 하나 장만했습니다.

먼저 PCI-E Gen1 x4 슬롯에 꽂아서 테스트 하였으며, 다음에 Gen1 x8 slot 에서 테스트 하였습니다.

Gen1 x4 최대속도가 250MB/s 입니다.

Gen1 x8 은 2GB/s 입니다.

SAS 하드를 레이드하려는 목적이 아니고 예전 구형 하드를 좀 빠르게 사용해 보려고 구매했습니다.

CrystalDiskMark 로 속도를 한번 측정해 볼 예정입니다.


히트싱크가 없는 제품이기에 그냥 써도 무방하겠지만 손가락으로 온도를 측정해보니 좀 많이 뜨겁더군요~


그래서 굴러다니는 알루미늄 히트싱크를 서멀그리스를 바르고 고무줄로 고정시켜 주었습니다~ ㅎ


사진이 흔들렸네요~ 처음에 부팅시 Ctrl + C 키를 눌러서 레이드 설정 메뉴로 진입이 가능합니다.


콘트롤러 칩셋은 SAS1064E 입니다.

엔터를 눌러서 진입합니다.


RAID Properties 메뉴로 들어갑니다.


첫번째 IM 이 Raid 1, 두번째 IME 가 Raid 1E, Create IS Volume 이 Raid 0 인 것 같네요~

레이드0를 구성하기 위해 세번째 메뉴로 진입합니다.


슬롯 리스트에 예전 구형하드가 보이네요~

ST500DM002 500GB, ST3160812AS 160GB 둘 다 시케이트 하드디스크입니다.

구성을 하긴 했는데 남는 짜투리 공간을 사용할 수 있는 방법이 안보이네요~ ㅋ

제일 작은 용량의 하드디스크의 두배 공간인 300기가 정도까지만 사용이 가능하고 나머지 350기가 가량은 사용을 하지 못하는군요~


저장을 하고 Exit th Configuration Utility and Reboot 을 눌러서 빠져나옵니다.



이번에는 크리스탈 디스크 마크로 속도 측정을 해보았습니다.

테스트에 사용된 하드디스크를 레이드 구성 전에 측정한 속도입니다.

CrystalDiskMark ST3160812AS

ST3160812AS


CrystalDiskMark ST500DM002

ST500DM002


CrystalDiskMark ST2000VX003

ST2000VX003


레이드 0 구성

ST3160812AS + ST500DM002 레이드 0 속도입니다.

너무 낮게 나오는군요~ ㅎ


ST3160812AS + ST500DM002 + ST2000VX003 레이드 0 속도입니다.


ST500DM002 + ST2000VX003 레이드 0 속도입니다.

ST2000VX003 2테라 하드 원래 속도 보다 조금 더 빠른 정도로 나오네요~


같은 모델 같은 사이즈의 디스크가 아니긴 하지만 PCI-E x4 한계속도인 250MB/s 근처까지 기대했는데 예상을 벗어난 속도가 나와서 좀 아쉽습니다.


이번엔 Gen1 x8 슬롯에 꽂아서 테스트 하였습니다.

LSI LOGIC SAS3041E-HP RAID 0 성능

ST500DM002 + ST2000VX003 레이드 0 속도입니다.

이번에는 제대로 된 속도 같습니다.


LSI LOGIC SAS3041E-HP RAID 0 성능

ST3160812AS + ST500DM002 + ST2000VX003 레이드 0 속도입니다.

3개의 서로 다른 하드를 묶었더니 속도가 더 떨어지는군요~

대신에 4K 속도는 더 올라가네요~


Gen2 x16 에서는 테스트 하지 않았습니다.

속도 측정에 사용된 PC는 HP ProLiant ML110 G6 입니다.



반응형
블로그 이미지

영은파더♥

가상서버호스팅 VPS 리눅스 서버관리 윈도우 IT

,