eResearch Conference October 2013 Introduc)on Summary Summary 1. - - PowerPoint PPT Presentation

eresearch conference october 2013 introduc on
SMART_READER_LITE
LIVE PREVIEW

eResearch Conference October 2013 Introduc)on Summary Summary 1. - - PowerPoint PPT Presentation

eResearch Conference October 2013 Introduc)on Summary Summary 1. NSP Overview Nick Golovachenko (10 minutes) NSP Overview Nick Golovachenko (10 minutes) 1. 2. Technical Overview Damien echnical Overview Damien Mannix


slide-1
SLIDE 1

eResearch Conference October 2013

slide-2
SLIDE 2

Introduc)on ¡

Summary Summary

1.

  • 1. NSP Overview – Nick Golovachenko (10 minutes)

NSP Overview – Nick Golovachenko (10 minutes)

2.

  • 2. Technical Overview – Damien

echnical Overview – Damien Mannix Mannix (15 minutes) (15 minutes)

3.

  • 3. Use Cases

Use Cases

a. a.

IMOS – Peter Blain IMOS – Peter Blain

b. b.

Quadrant – Hamish Quadrant – Hamish Holewa Holewa

c. c.

TERN - TERN - Siddeswara Siddeswara Guru Guru

4.

  • 4. Question and Answers

Question and Answers

slide-3
SLIDE 3

Introduc)on ¡

NSP Overview NSP Overview

1.

  • 1. What is the NSP

What is the NSP

2.

  • 2. How was it built

How was it built

3.

  • 3. Self Service featur

Self Service features es

4.

  • 4. What is the dif

What is the differ ference between the NSP and the ence between the NSP and the Resear Research Cloud ch Cloud

5.

  • 5. Who is using it and benefitting fr

Who is using it and benefitting from it

  • m it

6.

  • 6. How to apply for the Service

How to apply for the Service

slide-4
SLIDE 4
  • 1. ¡What ¡is ¡the ¡NSP? ¡

§ The National Servers Program is a cloud based Infrastructure as a

Service (IaaS) service which hosts critical e-Research services for the Australian research community. Uniquely Australian, the NSP provides a robust national network of virtual servers and platforms to support many eResearch services such as the

  • perations for the Research Cloud, virtual laboratories, tools and

data.

§ The NSP is currently free for Australian researchers and is

available to be used now. It provides a safe and secure environment for Australian researchers to host their important research application which means they don’t have to worry about anything except managing their research.

slide-5
SLIDE 5
  • 2. ¡How ¡was ¡it ¡Built? ¡

— The NSP was built and consisted of two phases: — The Basic Access Phase offered a limited service

with manual provisioning (50 to 100 VMs)

— Full Service Phase was built to provide an enhanced

and expanded service with a range of self-service features to assist with researchers in building their applications to incorporate multi-site availability. (250 – 500 VMs)

slide-6
SLIDE 6
  • 2. ¡How ¡was ¡it ¡Built? ¡

§ The Service has been built and housed at the University of

Melbourne in two geographically separate data centres (Parkville and Noble Park in Melbourne)

§ NSP is a 24/7 service which built using Citrix Cloudplatform

which is a Vendor supported solution based upon Apache Cloudstack, an open source Infrastructure-as-a-Service (IaaS)

  • ffering.

§ The NSP Service will be monitored by the AARNet NOC service

(contracts pending) which will provide external and internal monitoring of the NSP as well uptime reporting.

§ The service has been running at 99.9% uptime.

slide-7
SLIDE 7
  • 2. ¡How ¡was ¡it ¡Built? ¡

¡ ¡

slide-8
SLIDE 8
  • 3. ¡Self ¡Service ¡Features ¡

— The NSP provides an unmanaged service for maximum

flexibility.

— Advanced Self service features allow Researchers to

control all stages of their VM lifecycle.

— Researchers can build their applications to leverage

features such as failover and load balancing between the two zones (Data Centres). Researchers can utilise a Portal for Self Service account management within their allocated Research Group, they can also manage snapshots, templates and advance networking, e.g., Firewall, NAT, DNS, DHCP , VPN and load balancing.

slide-9
SLIDE 9
  • 4. ¡What ¡is ¡the ¡difference ¡between ¡

the ¡NSP ¡and ¡the ¡Research ¡Cloud? ¡

  • The difference between the NSP and Research cloud is that the NSP is

designed to provide a higher tier of service (99.9% uptime) compared to that

  • f the Research cloud (98%).
  • Research Cloud seeks to provide researchers with quick and simple access

to a single working environment in which to execute their projects. VMs are notionally allocated for three months, although projects often run longer. It is targeted primarily at individual researchers or small research groups.

  • NSP provides a supported development (staging) environment and test

environment, and a production environment. The NSP provides a supported platform, and is built with the primary aim to provide reliability and high availability over a long period of time. It is targeted primarily at operators of services to the research community.

slide-10
SLIDE 10
  • 7. ¡Who ¡is ¡Using ¡the ¡NSP ¡

Australia Access Australia Access Federation (AAF) Federation (AAF) Australian National Data Australian National Data Service (ANDS) Service (ANDS) CCFR- Colon Cancer CCFR- Colon Cancer Family Registry Family Registry Mothers After Mothers After Gestational Diabetes in Gestational Diabetes in Australia (MAGDA) Australia (MAGDA) REDCap REDCap Health and Health and Biomedical Infor Biomedical Informatics matics Centr Centre portal e portal GRHANITE GRHANITE Quadrant Quadrant NeCT NeCTAR AR Resear Research Cloud ch Cloud IMOS IMOS Ar Archive for Digital chive for Digital Sour Sources in Endanger ces in Endangered ed Cultur Cultures (P es (PARADISEC) ARADISEC) TERN – T TERN – Terr errestrial estrial Ecosystem Resear Ecosystem Research ch Network Network The ARK - Open Sour The ARK - Open Source ce Softwar Software for Medical e for Medical Resear Research ch

slide-11
SLIDE 11
  • 5. ¡How ¡to ¡apply ¡for ¡the ¡Service ¡
  • In order to use the NSP you need to submit an application.
  • Applications to host services on the National Servers Program

(NSP) are reviewed by the NSP Allocation Committee which meets on the first Tuesday of every month. This committee consists of representatives from around Australia, and they review applications according to the following four merit criteria:

slide-12
SLIDE 12
  • 5. ¡How ¡to ¡apply ¡for ¡the ¡Service ¡

1.

The service underpins the integrated management or access to collaboration, data, compute or analysis resources and capabilities,

2.

The service is considered a core to other eResearch services and activities,

3.

The service will support activities by researchers from multiple institutions, and

4.

The service has suitable maintenance and user support resources in place.

slide-13
SLIDE 13

Damien ¡Mannix ¡– ¡Cloud ¡Systems ¡Administrator ¡

slide-14
SLIDE 14

The ¡Chosen ¡Pla,orm ¡for ¡the ¡NSP

— Citrix ¡CloudPlatform ¡& ¡CloudPortal ¡manage ¡the ¡

  • verall ¡infrastructure ¡of ¡the ¡NSP. ¡

— Why ¡Citrix? ¡It ¡is ¡a ¡supported ¡Platform ¡with ¡which ¡the ¡

NSP ¡has ¡a ¡24 ¡/ ¡7 ¡support ¡contract. ¡CloudPlatform ¡ derives ¡from ¡the ¡Apache ¡CloudStack ¡Project ¡which ¡is ¡ community ¡driven ¡and ¡mature ¡in ¡it’s ¡functionality. ¡

— Currently ¡we ¡are ¡also ¡using ¡XenServer ¡as ¡the ¡

underlying ¡hypervisor ¡of ¡choice ¡for ¡the ¡NSP ¡user ¡VM’s ¡ as ¡this ¡is ¡also ¡apart ¡of ¡the ¡ongoing ¡support ¡agreement. ¡ CloudPlatform ¡is ¡however ¡hypervisor ¡agnostic ¡and ¡ supports ¡KVM, ¡VMware. ¡

slide-15
SLIDE 15

NSP ¡Design ¡-­‑ ¡VM ¡ Infrastructure ¡

In ¡CloudPlatform ¡terms ¡a ¡zone ¡is ¡a ¡ data ¡centre. ¡In ¡a ¡zone ¡you ¡can ¡have ¡ multiple ¡clusters ¡as ¡long ¡as ¡each ¡ cluster ¡has ¡2 ¡or ¡more ¡matching ¡ hypervisor ¡physical ¡architecture. ¡ ¡ Currently ¡at ¡Q2 ¡we ¡have ¡2 ¡Clusters ¡– ¡ Staging ¡and ¡Production. ¡Staging ¡ Noble ¡Park ¡comprises ¡of ¡1 ¡Cluster ¡ ¡ Primary ¡Storage ¡(at ¡both ¡sites) ¡ 18 ¡TB ¡Fibre ¡Channel ¡Gold ¡Storage ¡ 9 ¡TB ¡Fibre ¡Channel ¡Silver ¡Storage ¡ ¡ Secondary ¡Storage ¡(both ¡sites) ¡ 10 ¡TB ¡NFS ¡Silver ¡Storage ¡ ¡ Network ¡connectivity ¡is ¡10GB ¡at ¡both ¡

  • sites. ¡

¡

Zone ¡One ¡ Queensberry ¡Street ¡ (QS2) ¡ ¡ Data ¡Centre ¡ Zone ¡Two ¡ Noble ¡Park ¡(NP) ¡ Data ¡Centre ¡

100 ¡ KM ¡

Hypervisor ¡Clusters ¡

Staging ¡ Production ¡VMs ¡ Production ¡VMs ¡

Primary ¡Storage ¡

Primary ¡Storage ¡has ¡Fibre ¡Channel ¡connectivity ¡ ¡ We ¡currently ¡offer ¡2 ¡Tiers ¡of ¡Storage ¡Gold ¡and ¡Silver ¡

Secondary ¡Storage ¡

NFS ¡storage ¡with ¡cross ¡site ¡replication ¡

slide-16
SLIDE 16

The ¡Management ¡Layer ¡

— CloudPlatform ¡(Citrix ¡supported ¡version ¡of ¡Apache ¡CloudStack) ¡ ¡ — OpenLDAP ¡-­‑ ¡for ¡user ¡Authentication ¡ — MySQL ¡– ¡underlying ¡database ¡for ¡both ¡Portal ¡and ¡

Platform ¡

— Software ¡Load ¡Balancers ¡– ¡Soon ¡to ¡be ¡migrated ¡to ¡F5 ¡

Hardware ¡Load ¡Balancers ¡

— XenServer ¡Hypervisors ¡currently ¡being ¡used ¡for ¡the ¡

Management ¡Stack ¡Virtual ¡Machines ¡ ¡

¡

slide-17
SLIDE 17

Management ¡Layer ¡

¡ ¡

CloudPortal1 ¡ CloudPortal2 ¡ CloudPlatform1 ¡ CloudPlatform2 ¡ Master ¡ Slave ¡ Software ¡Load ¡Balancers ¡ LB1 ¡ LB2 ¡

Incoming ¡requests ¡

To ¡be ¡replaced ¡by ¡F5 ¡Load ¡Balancers ¡ With ¡a ¡dependency ¡of ¡the ¡Unimelb ¡ Network ¡Improvement ¡Program ¡ being ¡ ¡ completed ¡

slide-18
SLIDE 18

Naviga)ng ¡the ¡Portal ¡

Home ¡page ¡after ¡login ¡

¡

My ¡Resources ¡

  • VM ¡Instances ¡
  • Volumes ¡
  • Snapshots ¡
  • IP ¡Addresses ¡
  • Templates ¡
  • ISOs ¡
  • Networks ¡

Users ¡

  • Add ¡/ ¡Remove ¡users ¡to ¡your ¡

domain ¡

Catalog ¡

  • Add ¡VM’s ¡& ¡Offerings ¡that ¡

are ¡available ¡

Support ¡

  • Notifications ¡for ¡

maintenance ¡periods ¡

Overall ¡View ¡

  • Current ¡Resource ¡usage ¡
  • Service ¡Health ¡
  • Notifications ¡
slide-19
SLIDE 19

My ¡Resources ¡-­‑ ¡overview ¡

  • 1. ¡Instances ¡
  • Your ¡current ¡VM’s ¡running ¡
  • 2. ¡Volumes ¡
  • Virtual ¡Disks ¡in ¡use, ¡

including ¡the ¡standard ¡ 10GB ¡Root ¡Partition* ¡

  • Option ¡to ¡add ¡Volumes ¡-­‑ ¡if ¡

allocation ¡allows ¡

  • Mount, ¡manage ¡

. ¡

  • 3. ¡Snapshots ¡
  • View ¡/ ¡Manage ¡snapshots ¡
  • Create ¡Volumes, ¡snapshots ¡

and ¡delete ¡volumes ¡

  • 4. ¡IP ¡Addresses ¡
  • Acquire ¡Public ¡

Addresses ¡

  • Enable ¡Static ¡Nat ¡
  • Firewalls ¡and ¡general ¡

network ¡management ¡

  • 5. ¡Templates ¡
  • Add ¡and ¡managing ¡your ¡
  • templates. ¡
  • ** ¡Your ¡own ¡templates? ¡

The ¡recommended ¡is ¡to ¡ use ¡the ¡provided ¡base ¡ template ¡as ¡this ¡offers ¡HA ¡ – ¡high ¡availability ¡and ¡we ¡ cannot ¡offer ¡stability ¡if ¡ BYO ¡

  • 6. ¡ISOs ¡
  • Same ¡rules ¡applies ¡as ¡

point ¡5 ¡

  • 7. ¡Networks ¡
  • This ¡will ¡offer ¡view ¡of ¡

your ¡Private ¡VLANs ¡– ¡ Virtual ¡Routers. ¡ ¡

  • View ¡instances ¡
  • Manage ¡Egress ¡Rules ¡
slide-20
SLIDE 20

CloudPlaRorm ¡Advanced ¡ Networking ¡

  • Isolated ¡Private ¡VLAN ¡per ¡Domain ¡/ ¡Account ¡at ¡

each ¡Zone. ¡

  • Virtual ¡Router ¡which ¡provides ¡networking ¡

features ¡within ¡your ¡VLAN ¡

  • DHCP ¡
  • DNS ¡
  • Firewall ¡
  • Network ¡Address ¡Translation ¡(NAT) ¡
  • VPN ¡
  • Load ¡Balancing ¡

Here ¡we ¡have ¡a ¡view ¡from ¡ the ¡IP ¡Addresses ¡tab. ¡ Please ¡note ¡the ¡ highlighted ¡IP ¡address ¡– ¡ under ¡NAT ¡is ¡source. ¡ This ¡is ¡the ¡public ¡address ¡ for ¡the ¡Virtual ¡Router. ¡ If ¡you ¡have ¡multiple ¡VM’s ¡ running ¡within ¡your ¡VLAN ¡ it ¡we ¡strongly ¡recommend ¡ that ¡you ¡configure ¡the ¡ firewall ¡on ¡the ¡acquired ¡IP ¡ address ¡that ¡is ¡NATted ¡to ¡ your ¡VM ¡

slide-21
SLIDE 21

Snapshots, ¡Templates ¡& ¡Volumes ¡

Volumes ¡can ¡be ¡either ¡the ¡standard ¡root ¡OS ¡volume ¡or ¡an ¡additional ¡data ¡

  • volume. ¡

We ¡can ¡offer ¡additional ¡volumes: ¡

  • Small ¡– ¡10GB ¡
  • Medium ¡– ¡20GB ¡
  • Large ¡– ¡40GB ¡

Supported ¡Operating ¡Systems ¡& ¡template ¡offerings ¡

  • Centos ¡6.x ¡
  • Ubuntu ¡10.x ¡& ¡12.04 ¡
  • Debian ¡6.x ¡& ¡7.x ¡
  • RHEL ¡(Subject ¡to ¡BYO ¡licensing) ¡
  • Windows ¡2008R2 ¡Server ¡(Subject ¡to ¡BYO ¡licensing) ¡

¡ Snapshots ¡ As ¡this ¡is ¡a ¡self ¡service ¡portal ¡the ¡users ¡are ¡expected ¡to ¡manage ¡their ¡own ¡

  • snapshotting. ¡Daily, ¡weekly ¡or ¡monthly ¡with ¡a ¡retention ¡limit ¡of ¡5 ¡days ¡

Please ¡refer ¡to ¡the ¡wiki ¡for ¡managing ¡snapshots ¡

slide-22
SLIDE 22

Working ¡with ¡APIs ¡

— Our ¡wiki ¡will ¡provide ¡a ¡basic ¡reference ¡for ¡API ¡usage, ¡

  • therwise ¡we ¡can ¡direct ¡you ¡to ¡the ¡documentation ¡

provided ¡by ¡Apache ¡CloudStack. ¡

— Some ¡available ¡API’s ¡Amazon ¡S3, ¡Networking ¡options, ¡

snapshots, ¡Projects. ¡

— Default ¡API ¡port ¡8096 ¡ — http://download.cloud.com/releases/3.0.6/api_3.0.6/

TOC_Domain_Admin.html ¡ ¡

slide-23
SLIDE 23

Dr Peter Blain Information Systems Architect Integrated Marine Observing System

slide-24
SLIDE 24

Australia's Integrated Marine Observing System (IMOS) was established in 2007 under the National Collaborative Research Infrastructure Strategy (NCRIS), and was extended and enhanced through the Education Investment Fund (EIF) in 2009, and extended under the Collaborative Research Infrastructure Scheme (CRIS) and NCRIS in 2013. IMOS is designed to be a fully-integrated national array of observing equipment to monitor the open oceans and coastal marine environment around Australia, covering physical, chemical and biological variables.

Integrated ¡Marine ¡Observing ¡ System ¡

slide-25
SLIDE 25
slide-26
SLIDE 26

Portals x 5 Postgres x 3 Geonetwork x 5 Geoserver x 2 Tomcat x many Spatial Search THREDDS RAMADDA Acoustic Data Viewer ncWMS WMS Scanner WFS Scanner Talend AUV Viewer AATAMS Depth Service OpenID Provider Rails Ocean Current AO-DAAC FTP Server Rsync server AWStats Publications Inventories Drupal Jenkins Nagios Matlab Squid Chef Tilecache Git & SVN

slide-27
SLIDE 27

FTP, ¡Talend ¡harvesters, ¡rsync, ¡Matlab, ¡Data ¡processing, ¡Nagios, ¡Chef ¡Server, ¡etc ¡

1.5TB ¡ ¡ Fastest ¡ NSP-­‑ ¡Back ¡End ¡Tier ¡ 3TB ¡ ¡ Fast ¡ 30TB ¡ ¡ Slow ¡

Postgres/PostGIS ¡ AO-­‑DAAC, ¡Thredds, ¡ ncWMS, ¡Geoserver, ¡ GeoNetwork, ¡etc ¡ Point ¡of ¡truth ¡for ¡services ¡ such ¡as ¡the ¡Acoustic ¡data ¡ viewer ¡and ¡the ¡AUV ¡

  • viewer. ¡

NSP ¡-­‑ ¡Input ¡Tier ¡ NSP ¡-­‑ ¡Front ¡End ¡Tier ¡

IMOS ¡Portal, ¡Spatial ¡Index, ¡AUV ¡Viewer, ¡ADViewer, ¡AATAMS, ¡Ocean ¡Current, ¡etc ¡ ¡

slide-28
SLIDE 28
slide-29
SLIDE 29
slide-30
SLIDE 30
slide-31
SLIDE 31

FTP, ¡Talend ¡harvesters, ¡rsync, ¡Matlab, ¡Data ¡processing, ¡Nagios, ¡Chef ¡Server, ¡etc ¡

1.5TB ¡ ¡ Fastest ¡ NSP-­‑ ¡Back ¡End ¡Tier ¡ 3TB ¡ ¡ Fast ¡ 30TB ¡ ¡ Slow ¡

Postgres/PostGIS ¡ AO-­‑DAAC, ¡Thredds, ¡ ncWMS, ¡Geoserver, ¡ GeoNetwork, ¡etc ¡ Point ¡of ¡truth ¡for ¡services ¡ such ¡as ¡the ¡Acoustic ¡data ¡ viewer ¡and ¡the ¡AUV ¡

  • viewer. ¡

NSP ¡-­‑ ¡Input ¡Tier ¡ NSP ¡-­‑ ¡Front ¡End ¡Tier ¡

IMOS ¡Portal, ¡Spatial ¡Index, ¡AUV ¡Viewer, ¡ADViewer, ¡AATAMS, ¡Ocean ¡Current, ¡etc ¡ ¡

slide-32
SLIDE 32

Hamish Holewa

slide-33
SLIDE 33

Quadrant

Quadrant is a cloud-based project management and data collection software tool that allows participant- based researchers to work collaboratively and efficiently from a self-managed centralised site.

§ Release BETA on 19 April 2013 § ~300 users § Manages ~ 2000 participants § ~170 registered project § ~43 institutions

slide-34
SLIDE 34

Quadrant ¡needs ¡

“increasing complexity involved in managing our

  • bligations regarding academic integrity, ethical

conduct, data management and project management... in finding new ways to establish better practice in the research conducted in our faculty.” (Research Functionality Advisory Committee Member)

slide-35
SLIDE 35

Quadrant ¡Requirements ¡

— Consistent, stable and available computing

infrastructure

— Appropriate EULA’s – consistent with Human

Research Ethics Councils and Code of Conduct for Research

— Data sovereignty. Assurances regarding location of

primary storage and backups

— Clear access and responsibility guidelines

slide-36
SLIDE 36

www.quadrant.edu.au Further information Mr Hamish Holewa, CQUniversity . hholewa@quadrant.edu.au +61 7 3295 1183 Quadrant is a project supported by the National eResearch Tools and Resources Project (NeCTAR), an initiative of the Commonwealth being conducted as part of the Super Science Initiative and financed from the Education Investment Fund, Department of Industry, Innovation, Science, Research and Tertiary Education. The University of Melbourne is the lead agent for the delivery of the NeCTAR project and the Queensland Cyber Infrastructure Foundation (QCIF) is the sub-contractor.

slide-37
SLIDE 37

Siddeswara ¡Guru ¡ TERN ¡Data ¡Integration ¡and ¡Synthesis ¡Coordinator ¡

slide-38
SLIDE 38

What ¡is ¡TERN ¡

— Coordinate and build national

n e t w o r k f o r t e r r e s t r i a l ecosystem research and management

— Facilitate open access to

ecosystem science data

— Build a strong ecosystem

science community to solve problems facing Australia’s ecosystem

— Enable to identify the gaps in

data to understand Australia’s ecosystem

National infrastructure for collecting, storing and sharing Australia’s terrestrial ecosystem datasets and knowledge

slide-39
SLIDE 39

Why ¡servers ¡from ¡NSP ¡

— National Infrastructure for research community — System management is independent to institutional

affiliation.

— Quick response during the application process — Infrastructure monitoring and admin support — It is free…

slide-40
SLIDE 40

TERN ¡Services ¡from ¡NSP ¡

— TERN Data Discovery Portal:

— Gateway to find all data published by TERN

— Australian Supersite Network:

— Publish all data and contents related to TERN

Australian Supersite Networks

— Long Term Ecological Network

— Publish all data and contents from TERN long term

ecological plot network

slide-41
SLIDE 41

Future ¡Direc)on ¡

— All critical TERN services will be moved to NSP

.

— Enable flexibility in managing the infrastructure — Fast turn around time for new resource provisioning — Strong integration to the NeCTAR and RDSI cloud

infrastructure

slide-42
SLIDE 42