Vultr VPS 가상서버 개통 후기



VULTR 에 어제 가입하고 오늘 VPS 제일 저렴한 SSD 상품을 개통하였습니다.


1CPU / 15GB SSD / 768MB RAM / 1000GB Bandwidth 월 $5


vultr.com Billingvultr.com Billing


가입 후 메일 인증을 하고 Billing 정보를 기입


카드정보 입력하고 Link Only $0 deposit 으로 선택하고 Link Credit Card 하니 넘어가더군요.


예치금 0원으로 하고 나중에 결제를 하여도 되는 모양입니다.


Vultr.com VPS $5 뉴욕 도쿄Vultr.com VPS $5 뉴욕 도쿄



제일 저렴한 5달러 짜리로 구성해 보았습니다.


그리고 블록 스토리지를 한번 사용해볼려고 뉴욕/뉴저지만 된다고 해서 뉴욕을 선택하였으며


뉴욕을 선택했더니 자동으로 뉴저지로 나오더군요.


도쿄도 테스트 해보려고 하나 더 만들었습니다.


vultr.com VPS Control Managevultr.com VPS Control Manage


위의 두번째 이미지의 리스트에서 서버를 클릭하면 나타는 매니지 화면입니다.


Password 에 눈모양 아이콘을 클릭하면 비밀번호가 보입니다.


이제 콘솔을 눌러서 한번 둘러봅니다.


편의를 위해 Putty 로 ssh 접속을 해서 간단한 테스트를 해보았습니다.


[root@vultr ~]# df -h

Filesystem      Size  Used Avail Use% Mounted on

/dev/vda1        15G  1.1G   13G   8% /

devtmpfs        362M     0  362M   0% /dev

tmpfs           371M     0  371M   0% /dev/shm

tmpfs           371M  9.6M  361M   3% /run

tmpfs           371M     0  371M   0% /sys/fs/cgroup

tmpfs            75M     0   75M   0% /run/user/0


[root@vultr ~]# cat /etc/centos-release

CentOS Linux release 7.2.1511 (Core)


[root@vultr ~]# cat /proc/cpuinfo | grep "model name"

model name      : Virtual CPU 714389bda930


[root@vultr ~]# free -m

              total        used        free      shared  buff/cache   available

Mem:            740          77         556           9         107         555

Swap:             0           0           0


[root@vultr ~]# dd if=/dev/zero of=/1GB.tmp bs=100M count=10

10+0 records in

10+0 records out

1048576000 bytes (1.0 GB) copied, 3.13567 s, 334 MB/s


[root@vultr ~]# hdparm -Tt /dev/vda


/dev/vda:

 Timing cached reads:   17580 MB in  2.00 seconds = 8799.70 MB/sec

 Timing buffered disk reads: 1314 MB in  3.00 seconds = 437.30 MB/sec


SSD 15G 로 체크되며,


CPU 는 Virtual CPU 로 표기가 되네요.


파일 1GB Write 속도는 334 MB/s 로 나옵니다.


hdparm 유틸로 측정한 buffered disk read 속도는 437.30 MB/s 입니다.


그리고 ping 속도가 Average 315ms 가 나오는데 뉴저지라서 느린 것 같습니다.


(프랑크푸르트 PING Average 337ms)

(로스앤젤레스 PING Average 186ms)

(시드니 PING Average 152ms)

(뉴저지2 PING Average 236ms) 새로 개설해서 테스트한 속도

(암스테르담 PING Average 378ms)

(파리 PING Average 333ms)

(시카고 PING Average 244ms)

(마이애미 PING Average 229ms)

(시애틀 PING Average 144ms)

(실리콘밸리 PING Average 183ms)



도쿄에도 VPS 서버를 개설해서 테스트 한 결과입니다.


[root@vultr ~]# df -h

Filesystem      Size  Used Avail Use% Mounted on

/dev/vda1        15G  1.1G   13G   8% /

devtmpfs        362M     0  362M   0% /dev

tmpfs           371M     0  371M   0% /dev/shm

tmpfs           371M  9.6M  361M   3% /run

tmpfs           371M     0  371M   0% /sys/fs/cgroup

tmpfs            75M     0   75M   0% /run/user/0


[root@vultr ~]# cat /etc/centos-release

CentOS Linux release 7.2.1511 (Core)


[root@vultr ~]# cat /proc/cpuinfo | grep "model name"

model name      : Virtual CPU 714389bda930


[root@vultr ~]# free -m

              total        used        free      shared  buff/cache   available

Mem:            740          78         435           9         226         542

Swap:             0           0           0


[root@vultr ~]# dd if=/dev/zero of=/1GB.tmp bs=100M count=10

10+0 records in

10+0 records out

1048576000 bytes (1.0 GB) copied, 2.2145 s, 474 MB/s


[root@vultr ~]# hdparm -Tt /dev/vda


/dev/vda:

 Timing cached reads:   20572 MB in  2.00 seconds = 10296.73 MB/sec

 Timing buffered disk reads: 1358 MB in  3.00 seconds = 452.45 MB/sec


도쿄는 뉴저지에 비해 조금 더 빠른 것 같습니다.


ping 속도는 Average 40ms 가 나오네요~ (2코어 상품 하나 더 개설해서 테스트 하니까 65ms 가 나오네요~ 복불복인가봅니다.)


코노하 vps 도쿄 보다 더 빠른 것으로 측정되었습니다.


Vultr Storage Instance VPS 개통 후기 보러가기 https://ivps.tistory.com/58


Vultr Block Storage 마운트 보러가기 https://ivps.tistory.com/57


블로그 이미지

영은파더♥

가상서버호스팅 VPS 리눅스 서버관리 윈도우 IT

,

우비에서 코노하로 네임서버 변경



우비(woobi.co.kr) 에서도 도메인 레코드 관리가 다 된다.


ConoHa 에서 도메인 관리 기능이 있길래 잘 되는지 확인을 해보려고 네임서버를 변경해 보았다.


우선 코노하 쪽에서 먼저 도메인 레코드를 미리 작업을 해놓고 진행하여야 한다.


그래야 네임서버 주소를 변경시 바로 적용이 가능하기 때문이다.


ConoHa 도메인 관리ConoHa 도메인 관리


좌측의 DNS 아이콘을 누르면 도메인를 추가 후 관리가 가능하다.


맨 하단의 세줄은 도메인 추가시 자동으로 등록된 레코드이고 나머지는 직접 추가한 레코드이다.


코노하 쪽에 도메인 레코드를 추가한 후에 우비쪽에서 네임서버를 코노하로 변경하면 된다.


우비(woobi.co.kr) 네임서버 조회 및 변경우비(woobi.co.kr) 네임서버 조회 및 변경

변경 버튼을 눌러서 진행하면 된다.



우비(woobi.co.kr) 네임서버 조회 및 변경우비(woobi.co.kr) 네임서버 조회 및 변경

위의 1,2,3차 네임서버 주소를 코노하 네임서버 주소로 변경해보자.



우비(woobi.co.kr) 네임서버 조회 및 변경우비(woobi.co.kr) 네임서버 조회 및 변경

코노하 ns-a1.conoha.io 네임서버 주소를 입력하고 변경 버튼을 누르면 된다.


ns-a1.conoha.io 157.7.225.68

ns-a2.conoha.io 163.44.97.4

ns-a3.conoha.io 103.234.169.68


1차만 적어도 된다. 그리고 IP 주소는 반드시 입력을 하여야 변경이 된다.


변경을 하고 확인을 해보니 1분도 안되서 바로 네임서버 변경이 적용되었다.


TTL 이 짧아서 그런지 정말 빠르게 적용이 되었다.



다시 원위치 하려면


ns1.woobi.co.kr 182.162.94.5

ns2.woobi.co.kr 182.162.95.5

ns3.woobi.co.kr 14.63.162.246


블로그 이미지

영은파더♥

가상서버호스팅 VPS 리눅스 서버관리 윈도우 IT

,

CentOS 7.x VSFTPD 설치 및 설정방법



# yum -y install vsftpd


/etc/vsftpd/vsftpd.conf 파일 수정


anonymous_enable=NO

idle_session_timeout=3600

chroot_local_user=NO

chroot_list_enable=YES

chroot_list_file=/etc/vsftpd/chroot_list

listen=YES

listen_ipv6=NO

allow_writeable_chroot=YES

use_localtime=YES

anon_max_rate=100000

local_max_rate=500000

trans_chunk_size=0

force_dot_files=YES

max_clients=10

max_per_ip=2


anonymous_enable=NO    ( anonymous 접속 막기 )

idle_session_timeout=3600    ( 접속 후 동작이 없을 때 자동으로 접속을 끊어준다. 디폴트값인 600은 10분인데 너무 짧다. )

chroot_local_user=NO    ( 상위폴더 접근막기 )

chroot_list_enable=YES    ( 상위폴더 접근막기 )

chroot_list_file=/etc/vsftpd/chroot_list    ( 위 옵션의 유저 리스트 파일 )

유저 추가를 안해주면 500 OOPS: could not read chroot() list file:/etc/vsftpd/chroot_list 에러가 발생한다.

listen=YES    ( ip v4 )

listen_ipv6=NO

allow_writeable_chroot=YES    ( chroot_local_user 옵션 사용시 이 부분을 추가해주어야 한다. )

추가를 안해주면 500 OOPS: chroot 에러가 발생한다.

use_localtime=YES    ( 파일 시간을 서버 시간으로 표시해준다. )

anon_max_rate=100000    ( anonymous 전송속도 제어 100000 = 100KB/s )

local_max_rate=500000    ( local 유저 전송속도 제어 500000 = 500KB/s )

trans_chunk_size=0    ( chuck 사이즈 판단을 vsftp 가 하게 하려면 0 )

force_dot_files=YES    ( . 으로 시작하는 파일을 보여준다. )

max_clients=10    ( 최대 접속수 )

max_per_ip=2    ( 같은 IP 최대 접속수 )


[root@virtualbox ~]# getsebool -a | grep ^ftp_home_dir

ftp_home_dir --> off

[root@virtualbox ~]# setsebool -P ftp_home_dir on


상위폴더 접근막기를 하면 유저의 홈디렉토리가 안보이는데 ftp_home_dir 을 on 해주면 보인다.


테스트 유저를 생성해서 chroot_list 파일에 추가해보자.


[root@virtualbox ~]# useradd ftptester

[root@virtualbox ~]# passwd ftptester

ftptester 사용자의 비밀 번호 변경 중

새  암호:

새  암호 재입력:

passwd: 모든 인증 토큰이 성공적으로 업데이트 되었습니다.

[root@virtualbox ~]# echo "ftptester" >> /etc/vsftpd/chroot_list

[root@virtualbox ~]# chmod 600 /etc/vsftpd/chroot_list


ftp service 를 방화벽에 추가해주자.


[root@virtualbox ~]# firewall-cmd --permanent --add-service=ftp

success

[root@virtualbox ~]# firewall-cmd --reload

success


vsftpd 데몬 시작 및 재부팅시에도 자동으로 시작되도록 하자.


[root@virtualbox ~]# systemctl start vsftpd

[root@virtualbox ~]# systemctl enable vsftpd

Created symlink from /etc/systemd/system/multi-user.target.wants/vsftpd.service to /usr/lib/systemd/system/vsftpd.service.


이제 ftp로 접속 테스트를 해보면 된다.


블로그 이미지

영은파더♥

가상서버호스팅 VPS 리눅스 서버관리 윈도우 IT

,

ConoHa VPS Object Storage 사용방법 2/2



▶ Openstack Swift 설치


yum -y install gcc python-devel python-setuptools python-pip

pip install --upgrade setuptools pip

pip install python-swiftclient python-keystoneclient



▶ 코노하 오브젝트 스토리지 정보 입력


[root@conoha ~]# swift stat

Auth version 1.0 requires ST_AUTH, ST_USER, and ST_KEY environment variables

to be set or overridden with -A, -U, or -K.


Auth version 2.0 requires OS_AUTH_URL, OS_USERNAME, OS_PASSWORD, and

OS_TENANT_NAME OS_TENANT_ID to be set or overridden with --os-auth-url,

--os-username, --os-password, --os-tenant-name or os-tenant-id. Note:

adding "-V 2" is necessary for this.


Auth 1.0 버전에서는 필요로 하는 정보가 ST_AUTH, ST_USER, ST_KEY 이며,

Auth 2.0 버전에서는 OS_AUTH_URL, OS_TENANT_NAME or OS_TENANT_ID, OS_USERNAME, OS_PASSWORD 이다.

코노하는 인증이 2.0 버전이므로 아래 처럼 정의하면 된다.


export OS_AUTH_URL=https://identity.tyo1.conoha.io/v2.0

export OS_TENANT_NAME=테넌트명

export OS_USERNAME=API유저아이디

export OS_PASSWORD=비밀번호


명령어를 실행해도 되고


# vi ~/.bash_profile 파일에 위의 내용을 추가 하여 저장한 뒤에 재로그인 하여도 된다.


모든게 완료되었다면 확인을 해보자.


[root@conoha ~]# swift stat

         Account: nc_3c74294caf774974abf9a089b517d100

      Containers: 0

         Objects: 0

           Bytes: 0

Meta Quota-Bytes: 107374182400

     X-Timestamp: 1459475021.06595

      X-Trans-Id: tx39d51395db12471489ea2-0518341fbd

    Content-Type: text/plain; charset=utf-8

   Accept-Ranges: bytes



코노하 오브젝트 스토리지 용량 추가 방법은 여기를 https://ivps.tistory.com/46 참고하자.


그리고 swift 사용 방법은 여기를 https://ivps.tistory.com/48 참고하자.


위의 설치는 CentOS 7.x 환경에서 테스트 되었다.


6.x 버전에서는 아마 에러가 날 것이다. 해결 방법은 여기를 https://itrooms.blogspot.com/2016/05/centos-6x-openstack-swift-install.html 참고하자.


블로그 이미지

영은파더♥

가상서버호스팅 VPS 리눅스 서버관리 윈도우 IT

,

ConoHa VPS Object Storage 사용방법 1/2



오브젝트 스토리지는 블록 스토리지에 비교해 사용방법은 조금 번거로우나 가격이 일단 저렴하므로 데이터 백업용으로 사용하기에 안성맞춤인 듯 하다.


코노하에서 오브젝트 스토리지를 사용하기 위해서는 먼저 용량을 추가 해야한다.


ConoHa 오브젝트 스토리지 설정ConoHa 오브젝트 스토리지 설정

위 화면에서 우측 도구 모양을 눌러서 용량을 추가하면 된다.


ConoHa 오브젝트 스토리지 용량 변경ConoHa 오브젝트 스토리지 용량 변경


일단 100GB로 선택하고 예를 클릭


나중에 해지하고 싶으면 0GB 를 선택하면 된다.


단, 저장된 데이터는 미리 지워야 한다.


ConoHa 오브젝트 스토리지 용량 변경ConoHa 오브젝트 스토리지 용량 변경


100GB 로 변경되었다.


용량 추가를 했다면 이번에는 사용 방법을 알아보자.


코노하 API 정보코노하 API 정보


위 화면에서 Openstack Swift 에서 필요한 정보는


테넌트명, Identity Service, 유저명, 비밀번호 이렇게 4가지가 필요하다.


API 유저가 없다면 생성하면 된다.



Openstack Swift 설치 및 사용 방법은 다음 글에서 계속 된다.


https://ivps.tistory.com/47



블로그 이미지

영은파더♥

가상서버호스팅 VPS 리눅스 서버관리 윈도우 IT

,

해외 Alvotech VPS 소개

VPS 2016. 5. 10. 18:07

해외 Alvotech VPS 소개



Alvotech 호스팅은 Data Center 가 덴마크, 프랑크푸르트, 암스테르담, 로스앤젤러스에 위치하고 있다.


특징은 트래픽 무제한이라는 점.


해외 Alvotech VPS Datacenter해외 Alvotech VPS Datacenter


KPN은 통신사업자인건 알겠는데 듀셀도르프는 좀 생소하다.



해외 Alvotech VPS Overview해외 Alvotech VPS Overview

가상화 기술에 대한 비교표를 보는 듯 하다.


KVM 과 OpenVZ 차이점이 잘 비교되어 있다.



해외 Alvotech VPS OpenVZ Price해외 Alvotech VPS OpenVZ Price



OpenVZ 상품인데 6개월 단위로 판매가 된다. 1개월 요금이 3.9유로이다.



해외 Alvotech VPS KVM Price해외 Alvotech VPS KVM Price



KVM 상품은 3개월 단위로 판매가 된다. OpenVZ 상품 보다 좀 많이 비싸다.


그리고 위 상품들은 트래픽이 무제한이긴 하나, 10TB 까진 100Mbps 대역폭에서 무제한이고 10TB를 넘어가면 10Mbps 로 QoS가 걸린다고 한다.


블로그 이미지

영은파더♥

가상서버호스팅 VPS 리눅스 서버관리 윈도우 IT

,

CentOS 7.x BIND 네임서버(DNS) 설치 및 설정하기



네임서버 설치 및 설정 그리고 named-checkconf 와 named-checkzone 으로 제대로 설정이 되었는지 검증에 대해서 알아보자.


# yum -y install bind bind-libs bind-utils bind-chroot


/etc/named.conf (options 부분 수정)

options {

        version "Unknown";

        allow-transfer { none; };

        allow-recursion { localhost; };

        allow-query-cache { localhost; };

        //listen-on port 53 { 127.0.0.1; };

        listen-on port 53 { any; };

        //listen-on-v6 port 53 { ::1; };

        directory       "/var/named";

        dump-file       "/var/named/data/cache_dump.db";

        statistics-file "/var/named/data/named_stats.txt";

        memstatistics-file "/var/named/data/named_mem_stats.txt";

        //allow-query     { localhost; };

        allow-query     { any; };


        /*

         - If you are building an AUTHORITATIVE DNS server, do NOT enable recursion.

         - If you are building a RECURSIVE (caching) DNS server, you need to enable

           recursion.

         - If your recursive DNS server has a public IP address, you MUST enable access

           control to limit queries to your legitimate users. Failing to do so will

           cause your server to become part of large scale DNS amplification

           attacks. Implementing BCP38 within your network would greatly

           reduce such attack surface

        */

        recursion yes;


        dnssec-enable yes;

        dnssec-validation yes;


        /* Path to ISC DLV key */

        bindkeys-file "/etc/named.iscdlv.key";


        managed-keys-directory "/var/named/dynamic";


        pid-file "/run/named/named.pid";

        session-keyfile "/run/named/session.key";

};


옵션 설정은 여기까지 완료되었다. ( allow-recursion, allow-query-cache 에 any 를 설정하면 타 dns까지 쿼리가 가능해진다. )


named 서비스를 동작시켜보자.


[root@conoha ~]# systemctl start named

[root@conoha ~]# systemctl enable named

Created symlink from /etc/systemd/system/multi-user.target.wants/named.service to /usr/lib/systemd/system/named.service.


에러가 없다면 다음으로 넘어가자.


zone 파일을 연결시켜주자.


아래와 같이 실행하여 /etc/named.rfc1912.zones 에 추가할 수도 있고 직접 추가해주어도 된다.


cat >>/etc/named.rfc1912.zones<<EOF

zone "example.com" IN {

        type master;

        file "example.com.zone";

        allow-update { none; };

};


EOF


example.com 대신에 자신의 도메인 주소에 맞게 설정하여야 한다.


zone 파일을 생성해주자.


# vi /var/named/example.com.zone


$TTL 3H

@       IN      SOA     ns.example.com. root (

                                        160509  ; serial

                                        1D      ; refresh

                                        1H      ; retry

                                        1W      ; expire

                                        3H )    ; minimum

        IN      NS      ns.example.com.

        IN      A       123.123.123.123

ns      IN      A       123.123.123.123

www     IN      A       123.123.123.123


소유권을 변경해주자.


# chown root.named /var/named/example.com.zone


이번엔 제대로 되었는지 검증을 해볼 차례다.


named-checkconf 확인


[root@conoha ~]# named-checkconf -z /etc/named.conf

zone localhost.localdomain/IN: loaded serial 0

zone localhost/IN: loaded serial 0

zone 1.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.ip6.arpa/IN: loaded serial 0

zone 1.0.0.127.in-addr.arpa/IN: loaded serial 0

zone 0.in-addr.arpa/IN: loaded serial 0

zone example.com/IN: loaded serial 160509


named-checkzone 확인



[root@conoha named]# named-checkzone ns.example.com /var/named/example.com.zone   zone ns.example.com/IN: loaded serial 160509

OK

[root@conoha named]# named-checkzone www.example.com /var/named/example.com.zone

zone www.example.com/IN: loaded serial 160509

OK


이상이 없다면


# systemctl restart named


그리고 방화벽에서 53 포트를 열어주어야 한다.


# firewall-cmd --permanent --zone=public --add-service=dns

# firewall-cmd --reload



블로그 이미지

영은파더♥

가상서버호스팅 VPS 리눅스 서버관리 윈도우 IT

,

SQUID 프록시 특정 사이트만 허용 또는 차단하기



squid proxy 서버 설정에서 특정 사이트만 허용하거나 아니면 특정 사이트만 차단을 할 수가 있다.


/etc/squid/squid.conf 파일에 아래와 같이 작성한 뒤에 systemctl restart squid


▶ 특정 사이트 허용하기 (방법1)


acl allow_dst dstdom_regex \.google.com$ \.google.co.kr$

http_access deny !allow_dst

http_access allow allow_dst



▶ 특정 사이트 허용하기 (방법2)


acl allow_dst dstdomain .facebook.com .naver.com .daum.net

http_access deny !allow_dst

http_access allow allow_dst



▶ 특정 사이트 차단하기 (방법1)


acl deny_dst dstdom_regex \.google.com$ \.google.co.kr$

http_access deny deny_dst



▶ 특정 사이트 차단하기 (방법2)


acl deny_dst dstdomain .facebook.com .naver.com .daum.net

http_access deny deny_dst



블로그 이미지

영은파더♥

가상서버호스팅 VPS 리눅스 서버관리 윈도우 IT

,

Traffic control for Squid proxy



Squid 프록시 서버 운영시 대역폭(Bandwidth)을 제어하는 옵션이 있다.

아래 처럼 설정을 하면 전체 트래픽은 50Mbps 로 제한되며 1 Connection 당 5Mbps 로 속도를 제어할 수 있다.


/etc/squid/squid.conf


delay_pools 1

delay_class 1 3

delay_access 1 allow all

# 1Conn 5Mbps / Total 50Mbps

delay_parameters 1 6400000/6400000 -1/-1 640000/6400000


속도 테스트를 해보자.


다른 서버에서 테스트를 해야된다. 로컬에서는 테스트해도 의미가 없는 것 같다.


[root@virtualbox ~]# squidclient -h conoha.ivps.kr -p 8080 -g 5 http://www.naver.com/

2016-04-19 19:18:06 [1]: 0.211 secs, 450.175355 KB/s

2016-04-19 19:18:19 [2]: 0.256 secs, 348.921875 KB/s

2016-04-19 19:18:25 [3]: 0.167 secs, 511.347305 KB/s

2016-04-19 19:18:32 [4]: 0.203 secs, 430.251232 KB/s

2016-04-19 19:18:43 [5]: 0.260 secs, 340.130769 KB/s

5 requests, round-trip (secs) min/avg/max = 0.167/0.219/0.260


속도가 5Mbps 를 넘지 못하고 있는게 확인된다.


squidclient 는 yum -y install squid 하면 사용할 수 있다.





블로그 이미지

영은파더♥

가상서버호스팅 VPS 리눅스 서버관리 윈도우 IT

,

CentOS 7.2 Squid 프록시 서버 설치



SQUID 데몬을 설치해서 PROXY Server 를 운영할 수가 있다.


디폴트 설정이 로컬 네트워크를 위한 환경설정이므로 외부IP에서 접속이 가능한 프록시 서버를 설정해 보자.


테스트 서버는 ConoHa VPS 서버이며 일본 도쿄에 위치해 있다.


IP우회 목적으로 포스팅을 하려고 한 것인데, 네이버, 다음은 로딩이 되는데 페이스북이랑 구글은 왜 안 열리는지 모르겠다.

: 원인을 찾았다.

해결 방법은 아래에 적용되어 있다.


원인은 나중에 알아보고 우선 설치 방법 부터 알아보도록 하겠다.


[root@conoha ~]# yum -y install squid

Loaded plugins: fastestmirror, langpacks

Loading mirror speeds from cached hostfile

 * base: www.ftp.ne.jp

 * epel: ftp.kddilabs.jp

 * epel-debuginfo: ftp.kddilabs.jp

 * epel-source: ftp.kddilabs.jp

 * extras: www.ftp.ne.jp

 * ius: ius.mirror.constant.com

 * updates: www.ftp.ne.jp

Resolving Dependencies

--> Running transaction check

---> Package squid.x86_64 7:3.3.8-26.el7 will be installed

--> Finished Dependency Resolution


Dependencies Resolved


================================================================================

 Package         Arch             Version                  Repository      Size

================================================================================

Installing:

 squid           x86_64           7:3.3.8-26.el7           base           2.6 M


Transaction Summary

================================================================================

Install  1 Package


Total download size: 2.6 M

Installed size: 8.5 M

Downloading packages:

squid-3.3.8-26.el7.x86_64.rpm                              | 2.6 MB   00:00

Running transaction check

Running transaction test

Transaction test succeeded

Running transaction

  Installing : 7:squid-3.3.8-26.el7.x86_64                                  1/1

  Verifying  : 7:squid-3.3.8-26.el7.x86_64                                  1/1


Installed:

  squid.x86_64 7:3.3.8-26.el7


Complete!


yum 으로 squid 패키지를 설치한 다음에 /etc/squid/squid.conf 파일을 수정해주자.


# vi /etc/squid/squid.conf

http_access allow localnet

http_access allow localhost

http_access allow all


#http_port 3128

http_port 8080


cache_dir ufs /var/spool/squid 100 16 256



http_access allow all 추가

: all 을 해주면 모든 클라이언트 IP에서 접속이 가능하다. 특정 IP에서만 접속이 가능하게 하려면

acl myip src 특정IP 추가

http_access allow myip 추가

이렇게 해주면 된다.


http_port 3128 을 8080 으로 변경 (3128 포트도 되어야 하나 코노하에서 무슨짓을 해놓은 듯 하다. 그래서 8080으로 변경하였다.)


cache_dir 찾아서 주석을 풀어주자. (프록시서버가 IP우회 목적도 있지만 데이터를 캐싱해서 속도을 높여주는 목적도 있다.)


이제 환경설정 파일 수정은 끝났으니 방화벽에서 8080 포트를 허용해주자.


[root@conoha ~]# firewall-cmd --permanent --zone=public --add-port=443/tcp

success

[root@conoha ~]# firewall-cmd --permanent --zone=public --add-port=8080/tcp

success

[root@conoha ~]# firewall-cmd --reload

success


방화벽이 iptables 라면


# iptables -I INPUT -m state --state NEW -m tcp -p tcp --dport 443 -j ACCEPT

# iptables -I INPUT -m state --state NEW -m tcp -p tcp --dport 8080 -j ACCEPT

# service iptables save


구글, 페이스북 처럼 https:// 로 SSL 보안모드로 동작하는 페이지는 443 Port 를 방화벽에서 열어주어야 한다.


그리고 정확한 원인은 모르겠지만 ipv6 를 disable 시켜주어야 한다.


# vi /etc/sysctl.conf (아래 내용 추가)

net.ipv6.conf.all.disable_ipv6 = 1

net.ipv4.ip_forward = 1

# sysctl -p (재적용)

[root@conoha ~]# sysctl -p

net.ipv6.conf.all.disable_ipv6 = 1

net.ipv4.ip_forward = 1


이제 방화벽 셋팅 후에 squid 를 시작 및 부팅시에도 시작되게 셋팅해주면 된다.


[root@conoha ~]# systemctl start squid

[root@conoha ~]# systemctl enable squid

Created symlink from /etc/systemd/system/multi-user.target.wants/squid.service to /usr/lib/systemd/system/squid.service.


자 이제 모든게 완료되었으니 테스트를 해보도록 하자.




크롬 브라우저에서 프록시로 접속하는 방법은 http://itrooms.tistory.com/177 여기를 참고하면 된다.




블로그 이미지

영은파더♥

가상서버호스팅 VPS 리눅스 서버관리 윈도우 IT

,