ricc update meet34

100
Cyber Media Center Osaka University 柏崎 礼生 RICC Update meet34 2013/10/30 ITRC meet34

Upload: hiroki-kashiwazaki

Post on 24-Jun-2015

616 views

Category:

Technology


3 download

DESCRIPTION

第 34 回インターネット技術第 163 委員会研究会 (ITRC meet34) の RICC 分科会で発表した「RICC update meet34」の資料です。meet33 に参加できなかったので一年分の研究進捗について報告しております。つまるところ、既に発表した資料を切ったり貼ったりしたもの、ということです。

TRANSCRIPT

Page 1: RICC update meet34

Cyber Media CenterOsaka University

柏崎 礼生

RICC Update meet34

2013/10/30 ITRC meet34

Page 2: RICC update meet34

2012.11.2 1st RICC workshop @Saga University

Page 3: RICC update meet34

2012.11.20 ITRC meet32 @いわき

Page 4: RICC update meet34

2013.5.7 2nd RICC workshop @Kanazawa university

Page 5: RICC update meet34

2013.5.23 ITRC meet33 @うめきた

Page 6: RICC update meet34

2013.9.6 3rd RICC workshop @Hokkaido University with Cloud Week 2013

Page 7: RICC update meet34

資金 big budgets

Page 8: RICC update meet34

科学研究費助成事業不採択

Page 9: RICC update meet34

先進的通信アプリケーション 開発推進事業不採択

Page 10: RICC update meet34

不採択

Page 11: RICC update meet34

燃えたよ、

燃え尽きた、

真っ白にな…

Page 12: RICC update meet34

DR Disaster Recovery

Page 13: RICC update meet34

1978

Page 14: RICC update meet34

Sun Information Systems

Page 15: RICC update meet34

mainframe hot site

Page 16: RICC update meet34

‘80-’90

Page 17: RICC update meet34

Realtime Processing

Page 18: RICC update meet34

POS point of sales

Page 19: RICC update meet34

’90-’00

Page 20: RICC update meet34

the Internet

Page 21: RICC update meet34
Page 22: RICC update meet34

2001.9.11 September 11 attacks

Page 23: RICC update meet34

2003.8.14 Northeast blackout of 2003

Page 24: RICC update meet34

in Japan

Page 25: RICC update meet34

2011.3.11 The aftermath of the 2011

Tohoku earthquake and tsunami

Page 26: RICC update meet34

BCP Business Continuity Plan

Page 27: RICC update meet34

館林市 Tatebayashi City

Page 28: RICC update meet34

群馬 Gunmma prefecture

Page 29: RICC update meet34

DR Disaster Recovery

Page 30: RICC update meet34

2つで 十分ですよ?

Page 31: RICC update meet34

学際大規模情報基盤 共同利用・共同研究拠点

Page 32: RICC update meet34

国立情報学研究所

Page 33: RICC update meet34

Kitami Institute of Technology

University of the Ryukyus

SINET 最長

北見工大

琉球大学

Page 34: RICC update meet34

Kitami Institute of Technology

University of the Ryukyus

XenServer 6.0.2

CloudStack 4.0.0

XenServer 6.0.2

CloudStack 4.0.0

Page 35: RICC update meet34

problems

Page 36: RICC update meet34

shared storage

Page 37: RICC update meet34

≒50ms

Page 38: RICC update meet34

RTT > 100ms

Page 39: RICC update meet34

Storage XenMotion Live Migration

without shared storage > XenServer 6.1

Page 40: RICC update meet34

VSA vSphere Storage Appliance

Page 41: RICC update meet34

WIDE cloud

different translate

Page 42: RICC update meet34

Distributed Storage

Page 43: RICC update meet34

requirement

Page 44: RICC update meet34

64 256 1024 4096 16384 65536 262144 1.04858e+06 4.1943e+06 1.67772e+07 6.71089e+07 4 16

64 256

1024 4096

16384

0

20000

40000

60000

80000

100000

120000

Kbyt

es/s

ec

File size in 2^n KBytes

Record size in 2^n Kbytes

0

20000

40000

60000

80000

100000

120000

High Random R/W Performance

Page 45: RICC update meet34

POSIX準拠 interface protocl

NFS, CIFS, iSCSI

Page 46: RICC update meet34

Regional InterCloud CommitteeRICC

Page 47: RICC update meet34

Distcloud 広域分散仮想化環境

Page 48: RICC update meet34

���"���� �$����������� ��������������� �������!���� �

Con$idential �

�� ��� %*,&.'+�#�)(-���

Global VM migration is also available by sharing "storage space" by VM host machines. Real time availability makes it possible. Actual data copy follows.

(VM operator need virtually common Ethernet segment and fat pipe for memory copy)

TOYAMA site

OSAKA site

TOKYO site before Migration

Copy to DR-sites

Copy to DR-sites

live migration of VM between distributed areas

real time and active-active features seem to be just a simple "shared storage". Live migration is also possible between DR sites

(it requires common subnet and fat pipe for memory copy, of course)

after Migration

Copy to DR-sites

Page 49: RICC update meet34

�� ������"����������� ���� ������������������������ ��

Con$idential �

�������#')$*%(�!�����+&�

Front-end servers aggregate client requests (READ / WRITE) so that, lots of back-end servers can handle user data in parallel & distributed manner. Both of performance & storage space are scalable, depends on # of servers.

front-end (access server)

Access Gateway (via NFS, CIFS or similar)

clients

back-end (core server)

WRITE req. write blocks�

read blocks�

READ req. �

scalable performance & scalable storage size

by parallel & distributing processing technology

Page 50: RICC update meet34

Fileblock block block

block block block

block block block

Hash

consistent hash

node (core servers)

Page 51: RICC update meet34

�� ������"����������� ���� ������������������������ ��

Con$idential �

�������#'+$,%(�!�-)*&�

1. assign a new unique ID for any updated block (to ensure consistency). 2. make replication in local site (for quick ACK) and update meta data.

3. make replication in global distributed environment (for actual data copies).

back-end (multi-sites)

a file, consisted from many blocks�

multiplicity in multi-location, makes each user data,

redundant in local, at first, 3 distributed copies, at last.

(2) create 2 copies in local for each user data, write META data, ant returns ACK

(1)�(1')� (3-a)�

(3-a)�

(3-a) make a copy in different location

right after ACK.�

(3-b) remove one of 2 local blocks,

in a future.

(3-b)�(1) assign a new unique ID

for any updated block, so that, ID ensures the consistency

Most important ! the key for "distributed replication" �

Page 52: RICC update meet34

NFS CIFS iSCSI

Page 53: RICC update meet34

redundancy = 3

r = 2ACK

r = 1

r = 0

write

Page 54: RICC update meet34

redundancy = 3

ACK

r = 2 e = 0

r = 1 e = 0

r = 0 e = 1

r = -1 e = 2

external

Page 55: RICC update meet34

10Gbps

Cisco UCS

Hypervisor

VM

1/4U server x4

Page 56: RICC update meet34

Ĉō®ƌ|� -{UÆďÆŎ�!  ĀďU�¸

!  ±Ê©UƇƦ±T8cƏëƁäfð� !  Ĉō���¢-sTSINET4fð�

!  |u-�il�ŗU®ƌ|� -{fð� !  ħʸTŵ�U|� -{Į¶fĽƍD !  ®ƌ|� -{T1EXAGE / Storage2fē�

!  ®ƌ|� -{UĖŖÞTN9OĀď(ŧąfÆĚ

����¢-sz��� � Copyright © 2012 Yoshiaki Kitaguchi, All right reserved.� �� �

n�[5OBJ�:ws��.2=G;33K0?� �*Z�z_�Z�X|�

�ĥ� ŴƘ�

¯Ø�Ĉæ�

��

RICCT<AcĔÐQDOĈōÆďÆŎfç]c�

Page 57: RICC update meet34

ÆďÆŎUśåĽà/Ľƍ¨0�

Copyright © 2012 Yoshiaki Kitaguchi, All right reserved.�

�ĥ�Ï�

Ĉæ�Ï�

�Ĺ�Ï �

ăóÏŌřß�

éîö�Ï�

SINET4 �

SINET4UL2VPN, L3VPNx-�|fð�D Ɓä¶f10GbpsPśå�

825km�

829km�

316km�

417km�274km�

223km�

440km�

RICC¢-sz��� � �� �

Page 58: RICC update meet34

広島大学 金沢大学

国立情報学研究所

VMM: 仮想計算機モニタ

CS: コアサーバHS: ヒントサーバAS: アクセスサーバ

AS AS

VMM VMM

CS CS CS CS CS CSHS HS

CS CS CSHS

L3VPN

L3VPN

L2VPN

L2VPN

L2VPN

L2VPN

L3VPN

EXAGE-LAN

EXAGE-LAN

管理LAN 管理LANMIGRATION-LAN

EXAGE-LAN

MIGRATION-LAN

L3VPN

L2VPN

L2VPN

Page 59: RICC update meet34
Page 60: RICC update meet34

iozone -aceI a: full automatic mode

c: Include close() in the timing calculations e: Include flush (fsync,fflush) in the timing calculations

I: Use DIRECT IO if possible for all file operations.

Page 61: RICC update meet34

write

64 256 1024 4096 16384 65536 262144 1.04858e+06 4.1943e+06 1.67772e+07 6.71089e+07 4 16

64 256

1024 4096

16384

0

20000

40000

60000

80000

100000

120000

Kbyt

es/s

ec

File size in 2^n KBytes

Record size in 2^n Kbytes

0

20000

40000

60000

80000

100000

120000

64 256 1024 4096 16384 65536 262144 1.04858e+06 4.1943e+06 1.67772e+07 6.71089e+07 4

16

64

256

1024

4096

16384

File size in 2^n KBytes

Record size in 2^n Kbytes

Page 62: RICC update meet34

0

20

40

60

80

100

120

10MB 100MB 1GB 10GB

Thro

ughp

ut (M

B/s

ec)

File size

write rewrite read reread

random read random write bkwd read

stride read fwrite freadlegend

record rewrite

0

20

40

60

80

100

120

10MB 100MB 1GB 10GB

Thro

ughp

ut (M

B/s

ec)

File size

0

20

40

60

80

100

120

10MB 100MB 1GB 10GB

Thro

ughp

ut (M

B/s

ec)

File size

0

20

40

60

80

100

120

10MB 100MB 1GB 10GB

Thro

ughp

ut (M

B/s

ec)

File size

0

20

40

60

80

100

120

10MB 100MB 1GB 10GB

Thro

ughp

ut (M

B/s

ec)

File size

0

20

40

60

80

100

120

10MB 100MB 1GB 10GB

Thro

ughp

ut (M

B/s

ec)

File size

0

20

40

60

80

100

120

10MB 100MB 1GB 10GB

Thro

ughp

ut (M

B/s

ec)

File size

0

20

40

60

80

100

120

10MB 100MB 1GB 10GB

Thro

ughp

ut (M

B/s

ec)

File size

0

20

40

60

80

100

120

10MB 100MB 1GB 10GB

Thro

ughp

ut (M

B/s

ec)

File size

0

20

40

60

80

100

120

10MB 100MB 1GB 10GB

Thro

ughp

ut (M

B/s

ec)

File size

0

20

40

60

80

100

120

10MB 100MB 1GB 10GB

Thro

ughp

ut (M

B/s

ec)

File size

従来方式 Exage/Storage

広域対応 Exage/Storage

Page 63: RICC update meet34

SINET4 Hiroshima University EXAGE L3VPN

SINET4 Kanazawa University EXAGE L3VPN

SINET4 NII EXAGE L3VPNSINET4 NII EXAGE L3VPN

Page 64: RICC update meet34

SINET4 Hiroshima University EXAGE L3VPN

SINET4 Kanazawa University EXAGE L3VPN

SINET4 NII EXAGE L3VPNSINET4 NII EXAGE L3VPN

Page 65: RICC update meet34
Page 66: RICC update meet34
Page 67: RICC update meet34
Page 68: RICC update meet34
Page 69: RICC update meet34

SC2013 2013/11/17~22 @Colorado Convention Center

Page 70: RICC update meet34

中川郁夫 Ikuo Nakagawa @Osaka Univ, INTEC Inc.

Page 71: RICC update meet34

市川昊平 Kouhei Ichikawa@NAIST

Page 72: RICC update meet34

We have been developing a widely distributed cluster storage system and evaluating the storage along with various applications. The main advantage of our storage is its very fast random I/O performance, even though it provides a POSIX compatible file system interface.

eutyklyxc_fpxylruzm_iwuqnly� g`skprÊ_mpxylruzmdwpllapywlatny�

Widely DistributedCluster Storageon Ultra High

Speed Networks

Applicationson Distributed

Cluster Storage

Long Distance Live Migrationfor Disaster Recovery

File Sharing between inter-cloud environment

Content Delivery Platformover inter-cloud environment

Internet

Live Migration

VM

Cluster Storage Delivery Platform

• Sharing global unique file system on the distributed cluster storage

• Accessing nearest site based on file replication algorithm

• Long Distance Live Migration with distributed cluster storage

• Transparent Accessibility during or after live migration

• Deliver large volume data based onthe distributed cluster storage

• Replicate to many sites, automatically• Works as cache service, as well

•  Long Distance: Sharing data across geographically dispersed locations •  Multi-sites: Replicating data over three different locations •  All Active: Simultaneous accessing from multiple locations

We have successfully performed a long distance live migration experiment. We have migrated VMs using our storage without significant performance degradation of read/write operations

¹À�°Á»¨��¥�

Page 73: RICC update meet34

もし途絶時間が 無視可能な時間で マイグレーション できたなら…

Page 74: RICC update meet34

VMの所在に頓着 しなくてもいい

Page 75: RICC update meet34

Available suppliesFrequency

xcores

time

`

VMの所在に頓着 してもいい

Page 76: RICC update meet34

課金は?

Page 77: RICC update meet34
Page 78: RICC update meet34
Page 79: RICC update meet34

おもしろくない…

Page 80: RICC update meet34

ユーザUsers

クラウド事業者Cloud Service Provider仮想化サーバ

Virtualization Servers

仮想マシンVirtualized Machines (VMs)

interface

4 cores 8GB memory 40GB storage

Page 81: RICC update meet34

ユーザUsers

クラウド事業者Cloud Service Provider仮想化サーバ

Virtualization Servers

仮想マシンVirtualized Machines (VMs)

4 cores 8GB memory 40GB storage

サービスIT services

Imaginary demand

Freq

uenc

y

timecores

Real demand

Freq

uenc

y

timecores

Available supplies

Freq

uenc

y

timecores

timecores

Frequency Imaginary

resource

ユーザがバカであればあるほど の見積もり誤りが大きいほど

儲けが大きい

Page 82: RICC update meet34

Real demand timecores

Real demand

Freq

uenc

y

timecores

Real demand

Freq

uenc

y

timecores

Real demand

Freq

uenc

y

timecores

Real demand

Freq

uenc

y

timecores

Real demandFr

eque

ncy

timecores

Real demand

Freq

uenc

y

timecores

Page 83: RICC update meet34

ユーザUsers

サービスIT services

構築user experience

ユーザは複数のサービスを構築する。 サービスはユーザにエクスペリエンスを提供する。 エクスペリエンスは、サービスが要求する単位時間あたりのリソース量に対する、実際に提供されたリソース量の比によって表現される。

Page 84: RICC update meet34

ユーザUsers

サービスIT services

仮想マシンVirtualized Machines (VMs)

リソース 要求

リソース 提供

ユーザは複数の仮想マシン(VM)を確保し、VM上で複数のサービスが動作する。 サービスはVMにリソースを要求し、VMはサービスにリソースを提供する。

Frequencyx

cores

Per day periodicity

time (sec)

time (sec)

Frequencyx

cores

Per week periodicity

Per year periodicity

time (day)

Frequencyx

cores

time (week)

Frequencyx

cores

Page 85: RICC update meet34

仮想マシンVirtualized Machines (VMs)

仮想化サーバVirtualization Servers

要求提供

リソース 要求

リソース 提供

仮想化サーバ上で複数のVMが動作する。 VMは仮想化サーバにリソースを要求し、仮想化サーバはVMにリソースを提供する。 VMが要求するリソース量はVMが持つ複数のサービスが要求するリソース量の累計。

Page 86: RICC update meet34

拠点Datacenter

拠点は複数の仮想化サーバを保有する。 仮想化サーバは拠点に電力を要求し、拠点は仮想化サーバに電力を提供する他、仮想化サーバのON/OFFの管理 (メンテナンス)、および仮想化サーバの増強を施す。

仮想化サーバVirtualization Servers

電力 要求

電力提供 メンテ命令 増強

Page 87: RICC update meet34

拠点Datacenter

電力供給Power Supplyer

電力要求電力提供 課金

電力供給は複数の拠点に対して電力を供給し、課金する。 拠点は電力供給に電力を要求し、電力使用量を支払う。要求する電力量は仮想化サーバが要求する電力量の累計である。

電力 要求

電力提供 メンテ命令 増強

Page 88: RICC update meet34

使用料金

管理サービスAdministration Service

リソース情報提供 リソース情報提供

マイグレーション

マイグレーシ

ョン命令 マイグレーション命令

VM作成・変更削除・移動要求

VM作成・変更削除・移動要求

VM作成・変更削除・移動要求

課金

拠点Datacenter

拠点Datacenter

仮想化サーバVirtualization Servers

仮想マシンVirtualized Machines (VMs)

仮想化サーバVirtualization Servers

仮想マシンVirtualized Machines (VMs)

サービスIT services

サービスIT services

ユーザUsers

電力

使用料金

電力

使用料金電力供給

メンテナンス命令増強

電力供給メンテナンス命令

増強

リソース要求

リソース要求

リソース要求

リソース提供

リソース要求

リソース提供

リソース提供

リソース提供

電力要求 電力要求

エクスペリエンス

サービス構築

電力供給Power Supplyer

cash back

Page 89: RICC update meet34

implementation of simulator

Page 90: RICC update meet34

ユーザUsers

Array

拠点Datacenter

仮想マシンVirtualized Machines (VMs)

仮想化サーバVirtualization Servers

Frequency

timecores

サービスIT services

Frequencyx

cores

time (msec)

Require

Supply

user experience

Frequencyx

cores

Per day periodicity

time (msec)×Per week periodicity

time (day)

Frequencyx

cores

×Per year periodicity

time (week)

Frequencyx

cores

Page 91: RICC update meet34

strategy of migration

Page 92: RICC update meet34

拠点Datacenter

仮想化サーバVirtualization Servers

Migration仮想マシンVirtualized Machines (VMs)

Frequencyx

cores

time (msec)

Require

Supply

worsen UX

Available supplies

Freq

uenc

y

cores

仮想化サーバVirtualization Servers

仮想マシンVirtualized Machines (VMs)

Migration

仮想化サーバが ダウンする時は 事前に

マイグレーション

リソースの潤沢な 仮想化サーバに 動的に

マイグレーション

仮想化サーバVirtualization Servers

Maintainance Mode

Page 93: RICC update meet34

IOTS2013 2013/12/12~13

@広島大学東広島キャンパス

Page 94: RICC update meet34

Future Works

Page 95: RICC update meet34

科学研究費助成事業

Page 96: RICC update meet34
Page 97: RICC update meet34

Big Data Analysis

Page 98: RICC update meet34

go to next stage

Page 99: RICC update meet34

伸縮自在なデータセンターを実現する インタークラウド資源管理システム

高野了成@産総研

Page 100: RICC update meet34

ビッグデータ時代の科学研究技術: データ指向型研究を支えるマッシュアップ技術

村田健史@NICT