[aws kr ug 1회 세미나] 비트윈 서버 아키텍처와 그에 따른 배포 방법 @ 이정행

Post on 23-Jun-2015

1.322 Views

Category:

Technology

8 Downloads

Preview:

Click to see full reader

DESCRIPTION

AWS 한국사용자모임 1회 세미나(2013-02-16) 비트윈 서버 아키텍처와 그에 따른 배포 방법

TRANSCRIPT

비트윈 서버 아키텍처와그에 따른 배포 방법

VCNC 개발팀 이정행

2013.02.16

아마존웹서비스한국사용자모임

VCNC 개발팀 이정행 (@eincs)

2013.02.16

비트윈?

커플들을 위한 모바일 서비스

• 2.57M downloads

• 611K weekly active users

• 19M message per day

• 160K photos per day

비트윈 서버 개발 스택

JAVA로 개발되었고, Tokyo region에서 운영됨

• Netty for network framework

• Thrift for defining protocol

• HBase for storing data

비트윈 서버 아키텍처

서비스 상태 또는 제공되는 기능에 따라 변경됨

• Single instance for closed beta

• Multi instance for open beta

• Shared instance for tcp chatting

비트윈 아키텍처 #1 (closed beta)

한 개의 인스턴스, 가정집의 Mac mini로 운영

비트윈 아키텍처 #1 (Cont'd)

세 개의 Git repository로 개발 및 배포

dev

build

deploy

HBase

(Standalone)

API Server

(HTTP)

stunnel

(for HTTPS)

dev에서 작업한 내용을 deploy에 반영 후, 운영 서버에서 git pull

S3

비트윈 아키텍처 #2 (open beta 이후)

여러 대의 인스턴스, AWS에서 운영

HBase

(Cluster)ELBAPI

APIAPI

S3

다운 타임을 최소화하기 위해, 인스턴스를 차례대로 롤링 업데이트(특정 인스턴스를 ELB에서 떼어낸 후, pull 받고 Netty서버 재시작)

HTTP

비트윈 아키텍처 #3 (빠른채팅 이후)

메세징에 대하여 TCP 프로토콜을 구현

HBase

(Cluster)

ELB

(HTTP)

API #1

API #3

API #2

HTTP

• TCP를 위한 ELB를 하나 두기

• 작성 중 상태가 변경 될 때 마

다 HBase 요청이 일어나게 됨

• 메모리에 들고 있고 싶지만 각

연인이 다른 서버로 연결 됨

ELB

(TCP)TCP

HBase 요청이 지나치게 많이 일어나므로실제 시스템에 적용하기에 부적절함

비트윈 아키텍처 #3 (cont'd)

특정 API 서버가 특정 커플을 샤딩

HBase

(Cluster)

ELB

(HTTP)

API #1

API #3

API #2

HTTP

ELB #1

(TCP)

ELB #2

(TCP)

ELB #3

(TCP)

TCP

• 채팅 상태를 메모리에 들고 있음

• 특정 커플은 특정 서버에 할당

• 어떤 서버로 할당될지는

Consistent Hashing으로 결정

• 각 API 서버가 살아있는

API서버 리스트를 관리해야함

각 API서버의 설정을 매번 바꾸어줘야하므로, 새로운 버전 배포가 매우 복잡함

비트윈 아키텍처 #3 (cont'd)

샤딩 정보를 ZooKeeper에서 관리

HBase

(Cluster)

ELB

(HTTP)

API #1

API #3

API #2

HTTP

ELB #1

(TCP)

ELB #2

(TCP)

ELB #3

(TCP)

ZooKeeper

TCP

• API 서버가 추가 되거나 삭

제되면 샤딩 정보가 바뀜

• 샤딩 정보 변경시 ZK에서 살

아 있는 API 서버로 바로 알

려줌 ZooKeeper에서살아있는 API서버를 바로바로알려주므로 그나마 간편한 롤링업데이트가 가능

비트윈 아키텍처 #3 (cont'd)

그나마 간단하게 롤링 업데이트가 가능함

HBase

(Cluster)

ELB

(HTTP)

API #1

API #2

HTTP

ELB #1

(TCP)

ELB #2

(TCP)

ZooKeeper

TCP

1. ELB(HTTP)에서 API #3 제거

2. ZooKeeper 업데이트하여

살아 있는 노드에서 API #3 제거

3. API #1, API #2는 API #3가제거

되었다는 사실을 즉시 알게 되고

커플은 다시 샤딩 됨

4. API #3에서 pull받고 Netty 재시작

5. 다시 ELB들을 붙이고 ZooKeeper 업데이트

API #3

ELB #3

(TCP)pull 받고 Netty서버 재시작

여전히 복잡함

비트윈 아키텍처 #3 (cont'd)

인스턴스가 새로 추가 될 때, ELB Warm-up이 필요함

HBase

(Cluster)

ELB

(HTTP)

API #1

API #2

HTTP

ELB #1

(TCP)

ELB #2

(TCP)

ZooKeeper

TCP

1. AMI에서 인스턴스 생성

2. 새로 붙이는 ELB를 Warm-up

3. ZooKeeper에새로운 인스턴스

붙이기

4. HTTP ELB에 새로운 인스턴스

추가

API #3

ELB #3

(TCP)

Warm-up 과정 때문에 오토스케일링이 어려움

비트윈 아키텍처 #4 (가까운 미래)

자동화가 어려운 문제를 해결하기 위한 Multitier 아키텍처

HBase

(Cluster)ELB

(HTTP)

APP #1

APP #3

APP #2HTTP

ELB

(TCP)

TCP

Presentation

#1

Presentation

#2

Presentation

#2

Rocky

Presentation Tier는 Stateless하므로, 오토 스케일이 쉽게 가능Application Tier는 Rocky의 도움을 받아, 배포 자동화, 오토 스케일, Failover가 가능

(Rocky는 Between 서비스를 위해 개발한 일종의 Coordinator)

비트윈 아키텍처 #5 (먼 미래)

좀더 나아가서, HBase 리전들을 APP 서버 로컬에 할당

HBase

(Cluster)

ELB

(HTTP)

APP #1

APP #3

APP #2HTTP

ELB

(TCP)

TCP

Presentation

#1

Presentation

#2

Presentation

#2

Rocky

HBase 리전들을 분산에 따라 APP서버의 담당 커플을 결정함특정 유저로 국한 됨Application Tier와 HBase Region간 통신이 로컬에서 이루어 지기 때문에 응답속도에 유리함

http://static.googleusercontent.com/external_content/untrusted_dlcp/research.google.com/ko//people/jeff/MIT_BigData_Sep2012.pdf

HBase

Region #1

HBase

Region #3

HBase

Region #2

비트윈 아키텍처 #5 (cont’d)

Multizone으로 구성이 가능해짐

APP#1

APP#3

APP#2

P #1

P #2

P #3

Rocky

APP#1

APP#3

APP#2

P #1

P #2

P #3

Rocky

ELB

(HTTP)

HTTP

ELB

(TCP)

TCP

• Presentation Tier는 비동기식으로 동작하므로 Zone간 Latency가

부담이 없음

• HBase에 Haeinsa 적용 후, Region서버간 통신은 묶여서

호출되므로, HBase Cluste의 Rack설정을 잘하면 하면 부담이 적음

Thank you for listening

top related