Archive for

VMware NSX – Network Virtualization (Phần 1)

Phần 1: Giới thiệu

Với sự phát triển, công nghệ ảo hóa ra đời đặc biệt là ảo hóa máy chủ đã đem tới những siêu lợi ích về đơn giản hóa cơ sở hạ tầng, tăng cao khả năng hoạt động cũng như tận dụng triệt để nguồn tài nguyên và nhiều lợi ích khác. Không đừng ở đó, VMware vừa cho ra đời sản phẩm VMware NSX giúp ảo hóa cả hạ tầng network.Nếu đối với bộ sản phẩm vSphere giúp thu gom các tài nguyên vật lý máy chủ (Server Hypervisor) như CPU,RAM,NIC…để cung cấp cho các máy ảo (VM) thì nay với NSX với  Network Hypervisor/Network Virtualization Platform là 1 bộ chi tiết các thiết bị ảo như Switch, Router, Firewall, Balancer..v..v.  cung cấp dịch vụ mạng (thiết bị mạng) từ lớp 2 tới lớp 7.

2014-01-12_233744H1: Mô hình tương quan giữa ảo hóa máy chủ và ảo hóa mạng

Với việc ảo hóa hạ tầng mạng, thì việc thêm, xóa, thay đổi các thiết bị nay chỉ với vài click chuột đơn giản mà không cần setup phần cứng phức tạp. Đây sẽ là bước ngoặt cho các hệ thống mạng trong tương lai.

1. Thành phần trong VMware NSX:
VMware chia mô hình VMware NSX thành 3 phần: Management Plane, Control Plane và Data Plane.

a. Management Plane (Bảng quản lý)

2014-01-12_235312
NSX Manager là giao diện quản lý web-based cho phép quản trị viên có thể thêm bớt, giám sát hệ thống mạng ảo, tương tự như snapshot VM của vSphere, NSX có khả năng snapshot trạng thái các thiết bị ảo cũng như backup/restore.

b.Control Plane (Bảng điều khiển/kết nối)

2014-01-12_235317

NSX Controller tiếp nhận các API của vSphere và các Hypervisor khác (Xen, KVM…) và liên lạc với vSwitch, Gateway để forward thông tin.
Cần tối thiểu 3 NSX Controller trong 1 Controller Cluster để đảm bảo tính sãn sàng và trong NSX Controller (vẫn có quyền cài 1) chỉ forward các thông tin liên quan Control Plane, không chứa thông tin của Data Plane.
NSX Controller cũng liên lạc với các NSX Egde (Brigde,Gateway).

nsx-architecture-high-level-650x369

c. Data Plane

2014-01-12_235326
Data Plane gồm có NSX vSwitch sẽ liên lạc trực tiếp với Control Plane. Với môi trường sử dụng vSphere thì NSX vSwitch dựa trên VDS ( Virtual Distributed Switch) và Open vSwitch cho Hypervisor khác.
vSwitch hỗ trợ các tính như Routing, Firewall, VXLAN, Balancer…v.v.v.

Tuy NSX hỗ trợ cho cả các Hypervisor khác (KVM, Xen) nhưng thực tế vẫn có sự khác biệt giữa 2 mô hình : thuần vmware và thập cẩm.

* Mô hình đa Hypervisor (Xen/KVM/ESXi):
Với mô hình này lớp Control Plane hay rõ hơn là Controller phải là thiết bị vật lý và NSX Gateway cũng là thiết bị vật lý.

Hiện nay Hyper-V vẫn chưa được đề cập tới trong VMware NSX.

mixed-nsx-650x394

*Mô hình thuần VMware (ESXi only)
Ơ mô hình này, được hỗ trợ từ A-Z các chức năng ảo thiết bị như Controller, NSX Edge và VDS của VMware
Lúc này NSX Manger sẽ cùng làm việc nang hàng với  vCenter

single-nsx-650x394

Ở bài tới, sẽ đi sâu hơn vào các thành phần của VMware NSX

Những tính năng mới trong VMware vSphere 5.1

COMPUTE (Khả năng tính toán)
  • Nâng cấp cấu hình tối đa cho một máy ảo – Với VMware vSphere 5.1, các máy ảo có thể được trang bị tối đa 64 vCPUs (nâng cấp so với 32 vCPU của vSphere 5.0) và 1TB vRAM (giữ nguyên so với vSphere 5.0).
  • Format mới cho các máy ảo – Với format mới (Virtual Machine Version 9), các máy ảo có thêm một số tính năng như nâng cấp cấu hình tối đa (đề cập ở trên), bổ sung một số metrics khi đánh giá hiệu năng CPU và một số cải tiến về đồ họa khác.

STORAGE (Khả năng lưu trữ)
  • Nâng cao mức độ linh hoạt và hiệu năng sử dụng không gian lưu trữ của giải pháp VDI – Định dạng đĩa mới nâng cao mức độ cân bằng giữa hiệu năng sử dụng không gian lưu trữ với tốc độ truy xuất đĩa (I/O throughput) đối với môi trường máy trạm ảo (virtual desktop).
  • vSphere Distributed Switch – Một số bổ sung như Network Health Check, Configuration Backups and Restore, Roll Back and Recovery, và Link Aggregation Control Protocl (LACP) cung cấp các tính năng networking cao cấp phù hợp với môi trường doanh nghiệp cũng như môi trường cloud.
  • Hỗ trợ Single-root I/O virtulization (SR-IOV) – SR-IOV tối ưu hóa hiệu năng cho các ứng dụng phức tạp.

AVAILABILITY (Độ sẵn sàng)
  • vSphere vMotion – Thực hiện vMotion mà không cần shared storage (là một yêu cầu bắt buộc với vMotion ở các vSphere phiên bản trước)
  • vSphere Data Protection – Dựa trên nền tảng kiến trúc của giải pháp Avamar _ EMC, vSphere Data Protection mang đến một giải pháp đơn giản và hiệu quả cho việc backup và recovery các máy ảo. Người quản trị có thể backup virtual machine ra tủ đĩa mà không cần cài đặt agent trên máy ảo. vSphere Data Protection thay thế cho tính năng vSphere Data Recovery ở các phiên bản vSphere trước đây.
  • vSphere Replication – Cho phép replicate các máy ảo thông qua hệ thống mạng LAN / WAN với giao diện quản lý đơn giản và thời gian thực hiện dưới 15 phút.
  • VMware Tools – Các máy ảo nếu có VMware Tools đã được upgrade lên phiên bản tương ứng với vSphere 5.1 thì những lần upgrade VMware Tools về sau sẽ không cần phải reboot máy.

SECURITY (Bảo mật)
  • VMware vShield Endpoint – Cung cấp giải pháp bảo mật đầu cuối với tính năng đơn giản, hiệu quả và tương thích với cloud. vShield Endpoint tương thích tốt với các giải pháp bảo mật từ hãng thứ ba, qua đó giảm thiểu việc phải cài đặt agent lên các máy ảo, offload các tác vụ bảo mật từ máy ảo thông thường sang các máy ảo dedicate cho các tác vụ này, cũng như tối thiểu hóa sự ảnh hưởng đối với hiệu năng máy ảo khi thực hiện scan.

AUTOMATION (Tự động hóa)
  • vSphere Storage DRS và Profile-Driven Storage – Các tính năng này (đã có ở vSphere 5.0) được tích hợp với VMware vCloud Director nâng cáo hiệu năng sử dụng storage cũng như nâng cao khả năng tự động trong môi trường private cloud
  • vSphere Auto Deploy – Giới thiệu 2 phương pháp mới để triển khai / cài đặt vSphere host

MANAGEMENT (Quản lý với vCenter Server)
  • vSphere Web Client – sẽ được sử dụng như giao diện chính để kết nối đến hệ thống vSphere. vSphere Web Client có thể chạy tốt trên các trình duyệt Internet Explorer và Firefox. vSphere Client sẽ dần được thay thế bởi công cụ này.
  • vCenter Single Sign-On – Chỉ cần một lần log-in để có thể truy cập và sử dụng các tính năng của vCenter
  • vCenter Orchestrator – Sử dụng các công cụ tùy biến workflow linh hoạt, vCenter Orchestrator đơn giản hóa quá trình triển khai / cài đặt trên vCenter Server. Những thiết kế workflow mới mang lại giao diện thân thiện, dễ sử dụng và đặc biệt là có thể chạy trực tiếp từ vSphere Web Client.

VMware vSphere 5 : Tăng cường vMotion với cấu hình Multi-Nic

Nếu như các bạn người đang đọc bài viết này đã từng tim hiểu những cải tiến trong phiên bản vSphere 5 thì bài viết này hoàn toàn “đơn giản”. Trong bài viết này tôi sẽ không đi hết tất cả những NEWs trong vsphere 5 mà chỉ một phần nhỏ của mãng Network (New networking features) đó chính là tăng cường hiệu suất của tính năng vMotion thông qua cấu hình load trên nhiều NIC hay còn gọi là Multi-Nic vMotion. Với những phiên bản trước bao gồm cả 4.0 và 4.1 thì giới hạn mà vMotion mắc phải đó chính là traffic chỉ tập trung ở một NIC  và hoàn toàn không thể có khái niệm loadbalancing cho các traffic vMotion. Và từ phiên bản vSphere 5 đã giải quyết hoàn toàn bài toán đó mà không cần bất cứ thay đổi nào về cấu hình physical switch hay các tùy chọn cấu hình có ảnh hưởng đến hệ thống trên vCenter.

Trước khi đi qua vấn đề chình thì chúng ta sẽ đi qua một số chú ý về giới hạn vMotion trong phiên bản này dính líu một phần trong việc cấu hình Multi-Nic:

Số lượng NIC tối đa dành cho vMotion trong vSphere 5 (cho mỗi host) là:

  • 1GbE – 16 NICs
  • 10 GbE – 4NICs

Số lượng vMotion cho phép tại một thời điểm (cho mỗi host)

  • 1 GbE – 4 vMotions
  • 10GbE – 8 vMotions

Hướng dẫn cấu hình Multi-Nic vMotion

Chú ý: bài này chỉ hướng dẫn trên hệ thống sử dụng vDS (distributed switch) standard switch sẽ có cấu trúc tượng tự.

Bước 1: Tạo một vDS dành cho vMotion với n port group với n là số lượng NIC sẽ dùng cho cấu hình Multi-Nic vMotion

Trong hướng dẫn cấu hình này, tôi sử dụng hai NIC 1GbE và một vDS dành riêng cho vMotion trong đó tên các port groups lần lượt là vMotion_1 and và vMotion_2.  Nên nhớ rằng các bạn chỉ có tối đa được cấu hình 16 NIC cho đường truyền 1GbE và 4 NIC cho đường truyền 10GbE qui tắc đặt tên có thể tham khảo như tôi  vMotionx, vMotion_(x+1),… vMotion(n).

  VMware vSphere 5 : Tăng cường vMotion với cấu hình Multi Nic

Bước 2: Add các Hosts ESXi vào vDS vMotion vừa tạo với các NIC Uplink được chọn dùng cho cấu hình Multi-Nic vMotion

Bươc 3: quay lại Edit mỗi port group ở đây vMotion_1 và vMotion_2  vào mục Nic Teaming cấu hình Failover Order sử dụng một Active Uplink tất cả uplink còn lại cho standby. Cấu hình này cần đảm bảo mỗi Nic Uplink chỉ dành riêng cho một port group  và nó phải là active uplink còn lại là stanby uplink.

Ví dụ:

Port group vMotion_1 dùng dvUplink1 như active link và dvUplink2 như Stanby Uplink

Port group vMotion_2 dùng dvUplink2 như active link và dvUplink1 như stanby Uplink

 VMware vSphere 5 : Tăng cường vMotion với cấu hình Multi Nic

 VMware vSphere 5 : Tăng cường vMotion với cấu hình Multi Nic

Bước 4: cấu hình p số lượng VMkernel Ports cho mỗi host với p là số lượng Port Group cấu hình cho vMotion ( nó cũng tương tự như số lượng Nic uplink dùng cho vMotion bên trên). Gán mỗi VMkernel port tới một Port Group chỉ dành riêng cho nó.

 VMware vSphere 5 : Tăng cường vMotion với cấu hình Multi Nic

 VMware vSphere 5 : Tăng cường vMotion với cấu hình Multi Nic

Lúc này trong mục Configuration của vDS sẽ có cấu trúc như sau:

 VMware vSphere 5 : Tăng cường vMotion với cấu hình Multi Nic

 VMware vSphere 5 : Tăng cường vMotion với cấu hình Multi Nic

Kết quả đạt được

Trường hợp 1: một hành động vMotion trên đường truyền 1 Nic 1GbE

  • 884Mb/s transferred through vmk1
  • 26s average virtual machine migration time

 VMware vSphere 5 : Tăng cường vMotion với cấu hình Multi Nic

Trường hơp 2: Kết quả vMotion cho cấu hình Multi-Nic vMotion với 2 Nic Uplink

  • 1774Mb/s transferred through vmk1 (886.74Mb/s) and vmk2 (886.84Mb/s)
  • 16s average virtual machine migration time

 VMware vSphere 5 : Tăng cường vMotion với cấu hình Multi Nic

Ta sẽ nhận thấy rằng hiệu suất tăng cường đáng kể với 101% dữ liệu thực được truyền đi và thời gian chỉ tốn 63% so với cấu hình truyền thống trước kia.

Một điều cần chú ý trong quá trình truyền tải vMotion (với cấu hình Multi-Nic) tất cả uplink vMotion của Host nguồn sẽ đều hoạt động truyền data và tất cả uplink vMotion của Host địch đều có nhiệm vụ nhận data đó. Đây là điều làm nên sự thay đổi đáng kể khi vận dụng cấu hình này.

Sau đây là bảng số liệu mô tả traffic truyền và nhận giữa hai Host nguồn và đích:

 VMware vSphere 5 : Tăng cường vMotion với cấu hình Multi Nic

Tổng kết:

Multi-Nic vMotion không chỉ tăng cường hiệu suất trong vấn đề migration máy ảo mà còn là tiền đề cho các giải pháp tự động hóa khác trong môi trường VMware:

1. Tăng cường hiệu quả việc phân phối và sử dụng tài nguyên hệ thống trong chế độ DRS Fully Automated

2. Giảm thời gian bảo trì Host trên hệ thống đặc biệt là trong các môi trường ảo hóa lớn với tỷ trong máy ảo trên một Host nhiều.

VMware vSphere 4: Tổng quan virtual network

Ngay từ những phiên bản đầu tiên Vmware đã khẳng định được vị thế của mình trong làng công nghệ ảo hóa. Không đơn thuần mà Vmware được đánh giá cao như thế nó là sự nỗ lực nghiên cứu phát triển không ngừng trong lĩnh vực ảo hóa máy chủ. Hạ tầng Virtual Network của Vmware tiềm tàng các đặc tính mạnh mẽ nhất hỗ trợ tối đa cho các thiết kế hạ tầng network enterprise. Chúng có thể được quản lý riêng lẻ trên từng cá thể host của môi trường ảo cũng như  quản lý tập trung nhất thông qua sản phẩm Vmware vCenter.

Nhìn chung hạ tầng network của Vmware gồm các thành phần như hình sau:

image

Tình từ trên xuống có các thành phần như sau:

Nic ảo (card mạng ảo) là thiết bị network giao tiếp chính giữa các VMs với hạ tầng network bên dưới cả ảo lẫn physical. Trong quá trình dài phát triển của mình VMware cho ra đời nhiều phiên bản, dòng Nic ảo khác nhau cho môi trường ảo như

  • Vlance ( một dạng cacrd hỗ trợ cho các dòng OS cũ chỉ support 10Mbps
  • VMxnet là một dòng card hỗ trợ tối ưu hóa network cho các VMs nhưng đòi hỏi phải cài đặt driver trong Vmware Tools
  • Flexible là một định nghĩa card khá đặc biệt nếu sử dụng nó thì bạn đầu boot và sử dụng network sẽ hoạt động như Vlance khi thiết lập vmware tools và cái đặt các driver vmware thì sẽ hoạt động ở dạng VMxnet
  • E1000: tiếp theo đó là sự ra đời cho dòng Nic E1000 nó là kết quả của quá trình giả lập hoạt động cấu trúc của card Intel 82545EM Gigabit Ethernet NIC. Tuy nhiên driver của thiết bị này không có sẵn trên tất cả OS mà chỉ có trên các phiên bản từ Linux versions 2.4.19, Windows XP Professional x64 Edition và  Windows Server 2003 (32-bit) trở lên.
  • Về sau là sự phát triển của dòng VMxnet là VMxnet2 và VMxnet3 ngoài nâng cao khả năng hiệu suất còn có một số tính năng đặc biệt khác như jumbo frames , hardware offloads…

P/s: một VM tối đa được add 10 Nic ảo

Bản thân Host ESX/ESXi cũng sẽ có một hoặc nhiều Nic ảo để dành cho hoạt động giao tiếp với bên ngoài như vCenter. Trong các phiên bản trước thì đối với trường hợp này sẽ có 2 khái niệm:

Service Console: thực chất chỉ là tên một tên gọi bản chất của nó là một OS thu nhỏ gồm nhiều thành phần service: firewall, Simple Network, Management Protocol (SNMP) agents, web server…phục vụ cho nhu cầu tương tác với ESX và VMs được đóng gói sẵn trong các phiên bản trước nhằm cung cấp các giao diện quản lý trực tiếp trên host. Nhưng vì trong quá trình vận hành chúng trở nên không cần thiết nên đuợc lược bỏ đi trong các phiên bản sau này (từ bản 4 là không còn).

VMKernel: là lõi điều khiển chính cho toàn bộ hoat động bên dưới của các VMS hỗ trợ tương tác với phần cứng như quản lý lịch CPU, quản lý memory cũng như các tiến trình xử lý network bên trong các vswitch VMkernel bản thân nó cũng có một IP riêng dùng cho việc liên lạc với vCenter, vMotion, Fault tolerance, quản lý từ xa….

Lớp kế tiếp trong môi trường mạng ảo của Vmware là thành phần quan trong nhất nó chính là hệ thống các switch ảo. Mặc định mỗi host ESX/ESXi sẽ có một hệ thống switch riêng gọi là Virtual Standard Switch (vSwitch)

image

Mỗi host sẽ có một bộ vSwitch trong bộ đó sẽ có nhiều switch ảo. Trên mỗi vSwitch sẽ có nhiều port ngoài port cho service console và vmkernel dành cho host thì các port còn lại dành cho máy ảo nên còn gọi là VM port tuy nhiên trên các vSwitch để có thể plug Nic ảo vào vSwitch chúng ta cần thiết lập nên các nhóm port (Port Group) để có thể tùy nhu cầu mà thiết lập các policy khác nhau cho các nhóm port khác nhau ( I/O, Vlan, failover…) ngoài ra để đi ra được môi trường mạng bên ngoài thì mỗi vSwitch cần có ít nhất một Nic thật hay còn gọi là uplink mỗi vSwitch có thể mang theo nhiều uplink để failover, Load Balancing (tập hợp các uplink lúc này gọi là Nic Teaming) tuy nhiên chú ý là một NC thật chỉ  thuộc một vSwitch. Một số tác dụng của vSwitch như sau:

  • Kết nối các máy ảo trong cung một host
  • Kết nối giữa các máy ảo khác host với sự hỗ trợ của các uplink
  • Kết nối giữa các máy ảo và máy vật lý trong hệ thống mạng
  • Phuc vụ cho các truy cập Service console (chỉ trên ESX)
  • Phục vụ VMkernel phục vụ mục đích  VMotion, iSCSI, NFS, hoặc fault tolerance logging và quản lý trên ESXi.

image

Trên cơ bản vSwitch hoạt động không khác gì các switch thông thường tuy nhiên chúng không hỗ trợ các giao thức STP, VTP. Vì trong môi trường mạng thật nhiệm vụ của switch là kết nối và mở rộng thêm hạ tầng tuy nhiên trong môi trường ảo thì các switch ảo trên đó có thể có hằng trăm port nên việc kết nối các switch lại để mở rộng hạ tầng là không cần thiết. Đồng nghĩa việc các switch ảo này nằm ở lớp access cuối cùng không kết nối thêm switch nào nữa nên không xảy ra loop mà không xảy ra loop thì không cần STP đồng thời cũng chẳng có môi trường để cần sử dụng giao thức VTP. Nhưng vẫn hỗ trợ Vlan nhưng theo một phương thức khác điền hình là 3 loại thiêt kế:

  • Virtual switch tagging (VST mode)
  • Virtual machine guest tagging (VGT mode)
  • External switch tagging (EST mode)

Tuy nhiên việc sử dụng vSwitch trong môi trường mạng thật tế đã đem đến nhiều phiến phức trên mỗi host phải cấu hình từng bộ vSwitch, port group… để đảm bảo tính chung nhất cho toàn hệ thống đảm bảo cho các tính năng Migration do đó bài toán đặt ra là chúng ta cần một hệ thống vDS có thể quản lý tập trung được. Và để giải quyết bài toán tập trung này VMware đã xây dựng lên một khái niệm switch mới và chỉ có thể cấu hình và phân phôi từ vCenter Server gọi là Virtual Distributed Switch (vDS). Cấu hình sẽ được lưu trong database và phân phối đến từng host qui định.

image

So Sánh vSwitch và vDS

Ngoài việc khác nhau ở mặt quản lý tập trung thì hoạt bên trong giữa vSwitch và vDS vẫn có một số giống và khác nhau:

Giống nhau:

  • Đều làm việc ở Layer 2
  • Hỗ trợ việc đóng gói và vận chuyển vlan
  • Có thể có một hay nhiều uplink (Nic teaming)
  • Quản lý I/O chiều ra cho các luu thông traffic

Khác nhau (chỉ trên vDS):

  • Hỗ trợ quản lý I/O cả hai chiều
  • Quản lý tập trung qua giao diện quản lý của vCenter Server
  • Hỗ trợ Private vLan (PVLANS)

image

Ngoài ra còn một loại switch ảo đặc biệt thuộc hãng thứ 3 là Cisco phát triển đưa vào hoạt động trong môi trường ảo của VMware gọi là Cisco Nexus 1000 loại này cũng tương tự như vDS đều có thể quản lý tập trung. Tuy nhiên đây là sản phẩm dựa trên nền tảng network của Cisco nên nó mang lại những khác biệt vượt trội về policy, security, QoS…

image

Qua phần 1 của loạt bài về netowrk này hẳn các bạn đã nắm rõ sơ bộ về “hình hài” của hệ thống virtual network trong VMware vSphere 4. Nếu chưa rõ vui lòng xem lại VMware vSphere 4: Tổng quan virtual network (P.1). Tiếp theo loạt bài này chúng ta sẽ đi sâu về các thuật ngữ , các tính năng tùy chọn trong một Virtual Switch (vSwitch lẫn vDSwitch).

Trước hết chúng ta cần view lại một tý về một ví dụ điển hình khi thiết kế một vSwitch

image

Trong ví dụ bên trên là một vSwitch điển hình với một Port Group dành cho máy ảo và một VMkernel dành cho việc quản lý, vmotion, smotion… của máy host. Và ở đây chúng ta cần nhắc lại một số quy tắc:

  • Một vNic chỉ plug được một port trong portgroup trên vSwitch
  • Một host có thể có nhiều vSwitch cùng tồn tại
  • Một vSwitch có thể có nhiều port manangement cũng như có thể có nhiều port group với các policy khác nhau như Vlan, security, control I/O network…
  • Và để traffic network để đi ra được hệ thống switch physical thì chúng ta cần một đến nhiều uplink (NIC physical) khi mà một vSwitch có hơn hai uplink thì một tính năng đặc biệt sẽ có trong từng Port Groupđược gọi là NIC teaming

 NIC TEAMING

Ban đầu NIC Teaming trong một portgroup sẽ mặc định disable trừ khi chúng ta bật tính năng này lên. Tính năng này cho phép chúng ta quy định các thức làm việc của một nhóm các uplink trong một portgroup với sự hỗ trợ của các tùy chọn : load balancing, failover…

image

Xin nhắc lại là tính năng này là một policy về loadbalancing và failover nó chỉ được cấu hình ở mức độ portgroup thay vì vSwitch vì đơn giản policy này sẽ giúp chúng ta uyển chuyển hơn trong việc quản lý các nhóm máy ảo trên hệ thống với cơ chế loadbalancing, failover khác nhau.

Trong tính năng này cái chúng ta quan đầu tiên và quan trọng đó là các thức để load balancing các port uplink với bất cứ luồng traffice nào từ portgroup cấu hình muốn đi ra mạng physical bên ngoài.

Chúng ta tổng cộng có tất cả 4 cách thức Load Balancing khác nhau được VMware hỗ trợ:

image

Route based on the originating virtual port ID

Trong phương thức cân bằng tải này sẽ dựa trên cơ chế mỗi port trong một port group sẽ mapping (ánh xạ) với một physical NIC bằng cách chia đều port cho các card physical như hình sau

image

Một số điều lưu ý là chúng sẽ không quan tâm đến VM bên trên nên sẽ có trường hợp một VM 2 vNic có thể sẽ cùng dùng chung một physical Nic. Và bên cạnh đó với phương thức này tại một thời điểm một vNIC chỉ có thể đi ra một physical NIC. Nên phương thức này không thể xem như một phương thức cân bằng tải hiệu quả.

Kết quả cũng diễn ra tương tự với phương thức tiếp theo

Route based on source MAC hash

Với phương thức Route based on the originating virtual port ID thay vì dựa theo thứ tự port để phân chia ra các physical NIC thì với phương thức thứ hai này lại dựa vào MAC address cùa  vNIC để phân chia việc mapping physical nên gần như kết quả không gi mới mẻ so với phương thức đầu.

Đển với phương thức thứ 3 cũng là phương thức được đánh giá là giải quyết được bài toán Load Balancing thực sự

Route based on IP hash

Tại sao phương thức này được đánh giá cao về loadbalancing đo chính là vì phương thức chọn physical NIC của nó cực kỳ linh động với nhiều trường hợp. Phương thức của nó dựa trên việc băm (IP source + IP dest) và kết quả đó sẽ được dùng để quyết định lần lượt mỗi des IP khác nhau sẽ đi ra một physical NIC khác nhau. Giải quyết bài toán là tại một thời điểm có thể dùng cả physical NIC. Điển hình với 2 physical NIC 1GB chúng ta có thể đạt tới mức sử dụng 2GB thay vì dùng 2 phương thức trên chỉ tối đa một NIC 1GB.

Tuy nhiên nó không có lợi trong trường hợp một session truyền tải một lượng lớn data vì tất cả cũng chỉ sẽ đi qua một uplink do chi có một dest duy nhất trong một session. Ngoài ra với kiểu thiết kế dung Route baed on IP hash thì các up link phải cũng nối vào một physical switch để không gặp tình trạng một physical switch sẽ thấy MAC Vm trên nhiều port switch khó để dự đoán NIC nào sẽ nhận được gói tin trả về. Chú ý một điều “Route based on IP hash” chỉ quản lý chiều đi còn chiều về là tùy thuộc switch physical nhưng do switch physical đều lưu bảng Mac table rằng có nhiều port ra cho cùng một MAC address hiển nhiên nó sẽ broadcast ra các port đó. Nên thường thiết kế sử dụng Ethernet Channel để đạt hiệu quả cao hơn cho cả hai chiều.

Bên cạnh đó với thiết kế các uplink hoạt động dạng Ethernet Channel trên physical switch thì chỉ có một policy là route based on IP hash là có thể sử dụng trong trường hợp này.

Use explicit failover order

Phương thức này hoạt độngdựa theo thứ tự sắp xếp các NIC trong bảng như bên dưới để quyết định NIC hoạt động.

image

NETWORK FAILOVER DETECTION

Bản thân NIC teaming ngoài mặt hoạt động loadbalancing thì bản thân nó còn có khả năng xử lý failover. Tuy nhiên cái mà chúng ra quan tâm là làm sao nhận dang là failed. Bao gồm 2 tùy chọn:

image

Link status only

Phương thức này xác định một uplink là failed dựa trên trạng thái port của uplink. Khi port này mất tin hiệu với switch đồng nghĩa với việc việc nó failed. Tuy nhiên mấu chốt đây là nó chỉ có thể nhận dang failed với switch gần nhất cắm trực tiếp vào nó.

Trong khi hệ thống mạng chúng ta có thể có nhiều switch nối với nhau và nó trợ thành điểm yếu chết người cho phương thức này. Nó có thể nhận dạng failed trên switch thứ 1 gần nó nhưng khi switch thứ 2 thứ 3.. có tình trạng port failed thì nó không nhận dạng được. Để giải quyết tình thế này chúng ta cần áp dụng khái niệm gọi là Link state Tracking (cisco) hãng khác còn có tên gọi là Link Dependency

image

Tính năng này cho phép nhóm các port có mối liên hệ với nhau thành nhóm “quan hệ” với nhau. Ví dụ như hình trên port nối với uplink trái là port A và port còn lại trên cung switch là port B. Lúc này 2 port A và B chúng ta cấu hình Link state Tracking thì khi đầu B failed thì đồng nghĩa đầu A failed chung để giải quyết trường hợp bên trên khi đường đi switch 2 switch 3 failed… Trên thực tế Link State Tracking cần được cấu hình liên tục cả một chuỗi các switch đảm bảo bất cứ segment nào down cũng sẽ được hê thống VMware nhận dạng.

Beacon Probing

Ngoài việc có thể giải quyết bằng link state tracking VMware còn đưa ra một tùy chọn mới là Beacon Probing đây là một cơ chế đặt ra nó liên tục theo thời gian gửi đi và lắng nghe các tin phản hồi trên tất cả các NIC trong team và dùng thông tin này để nhận định tình trạng failed trên các NIC. Mục tiêu đặt ra cho cơ chế này là nhận dạng failed trong các trường hợp về cáp, switch bao gồm cả switch trực tiếp với NIC và các switch khác trên đường đi traffic, bên cạnh đó hỗ trợ một phần nào đó việc xác nhận cấu hình sai Vlan, port.. trên hệ thống switch.

image

Phương thức hoạt động của Beacon là theo định kỳ gửi các gói tín hiệu broadcast (tất cả VLAN đang có) ra tất cả các NIC trong Team.  Các physical switch lúc này sẽ tiếp nhận và đẩy ra các port cùng broadcast domain. Bên cạnh đó các NIC khác trong Team sẽ là các đối tượng chính tiếp nhận gói tin này. Nếu sau khi gửi tin bất kỳ một uplink nào trong Team không nhận được “3 tín hiệu” liên tục đồng nghĩa nó đang trạng thái lỗi.

Trên thực tế Beacon chỉ có lợi điểm khi hoạt động trong một nhóm nhiều hơn 3 NIC bởi khi chỉ có 2 NIC một khi fail xảy ra hệ thống sẽ không đảm bảo việc NIC nào sẽ đặt trong trạng thái fail loại bỏ việc sử dụng nó vì lúc này cả hai đều không nhận được tín hiệu của nhau.

Notify switches

Đây là một tùy chọn nhăm hỗ trợ giảm thời gian xây dựng lại bảng MAC table trên các switch thật. Cơ chế như sau khi NIC Teaming xảy ra bất kỳ sự kiện nào trong danh sách sau:

  • Máy ảo được khởi động
  • Một sự kiện vMotion xảy ra
  • MAC address máy ảo bị thay đổi
  • Failover và Failback trong NIC teaming xảy ra

Một khi xảy ra một trong các sự kiện say hệ thống sẽ sử dụng Reverse Address
Resolution Protocol (RARP) để thông báo sự thay đổi cho hệ thống switch thật về vị trí máy ảo hoặc MAC address trên hệ thống ảo giảm độ trễ cho phần network khi vMotion, change MAC address… xuống thấp nhất có thể.

image

Failback

Tính năng này cho phép khôi phục trạng thái active của một Uplink khi trải qua trang thái failed và đã được khôi phục chức năng.

image

Traffic Shapping

Là một tính năng hỗ trợ việc giới hạn băng thông “đi ra” (outbound) trên nhóm port group cụ thể bao gồm trong đó là 3 thông số cấu hình chính:

  • Average Bandwidth – lượng data trung bình mỗi giây truyền qua vSwitch
  • Peak Bandwidth – băng thông tối đa mà vSwitch có thể cho qua
  • Burst size – lượng data tối đa trong một chu kỳ

image

Security

image

Về bảo mật thì trong port group khá hạn chế chủ yếu gồm có 3 thông số chính:

Promiscuous Mode: mặc định là tắt trên tất cả máy ảo. Tính năng này sẽ hạn chế việc nghe trôm các gói tin unicast của các đối tượng khác trong cùng network.

MAC Address Changes: Đảm bảo sự toàn vẹn của các luồng traffic thông qua vSwitch đến máy ảo. Nếu cấu hình Reject thì mọi traffic đến VM sẽ bị drop nếu như Mac address trong file cấu hình VMware khác Mac Address hoạt động trong quá trình truyền tải dữ liệu

Forged Transmits: Đảm bảo sự toàn vẹn của các luồng traffic từ VMs đi đến vswitch. Khi bật reject hệ thống sẽ drop mọi traffic đi ra nếu như Mac address trong file cấu hình VMware khác Mac Address hoạt động trong quá trình truyền tải dữ liệu

Vì thế khi cấu hình Network Load Balancing nên chú ý cấu hình Accept cho hai tính năng MAC Address Changes và Forged Transmits

Giải pháp cân bằng tải máy chủ, Server Load Balancing

1-Giới Thiệu

Cơ sở hạ tầng CNTT đang đóng một vai trò ngày càng quan trọng trong sự thành công của một doanh nghiệp. Thị phần, khách hàng hài lòng với sản phẩm của công ty và hình ảnh công ty tất cả những thứ này có thể do website của doanh nghiệp đó chiếm một phần quan trọng. Mạng lưới các máy chủ hiện nay thường xuyên được sử dụng để lưu trữ ERP, thương mại điện tử và vô số các ứng dụng khác. Nền tảng của các trang web này, các chiến lược kinh doanh, cơ sở hạ tầng tốt sẽ cung cấp hiệu suất cao, tính sẵn sàng cao, và các giải pháp an toàn và khả năng mở rộng để hỗ trợ tất cả các ứng dụng.

Tuy nhiên, sự sẵn có của các ứng dụng này thường bị đe dọa bởi quá tải mạng cũng như sự cố xảy ra trên các máy chủ và các ứng dụng. Sử dụng tài nguyên thường trong sự cân bằng, dẫn đến các nguồn lực hiệu suất thấp đang quá tải với các yêu cầu, trong khi các nguồn lực hiệu suất cao vẫn nhàn rỗi. Server Load Balancing (máy chủ cân bằng tải) là một giải pháp giúp cân bằng lại giữa các nguồn lực và giúp tăng hiệu suất làm việc cho hệ thống mạng trong doanh nghiệp.

2- Máy chủ cần bằng tải – Server Load Balancing và lợi ích Của máy chủ cân bằng tải

Server Load Balancing ( máy chủ cân bằng tải ) là một quá trình phân phối các yêu cầu dịch vụ trên một nhóm các máy chủ. Sơ đồ dưới đây cho thấy cân bằng tải trong một nhóm các máy chủ.

Server Load Balancing ( máy chủ cân bằng tải ) ngày càng trở nên quan trọng trong hệ thống cơ sở hạ tầng mạng trong doanh nghiệp:

– Tăng cường khả năng mở rộng.
– Nâng cao hiệu suất.
– Tính sẵn sàng cao và khắc phục sự cố.

Nhiều ứng dụng chuyên sâu có quy mô lớn, vì vậy đòi hỏi các máy chủ phải có sự cân bằng tải cho nhau mới có thể chạy tốt các ứng dụng như vậy. Cả doanh nghiệp và nhà cung cấp dịch vụ cần sự linh hoạt để triển khai thêm các máy chủ một cách nhanh chóng và minh bạch để đáp ứng được nhu cầu xử lý công việc trong doanh nghiệp. Server Load Balancing (máy chủ cân bằng tải) làm cho nhiều máy chủ xuất hiện như là một máy chủ duy nhất,  một dịch vụ đơn ảo, phân phối các yêu cầu người sử dụng trong các máy chủ.

Hiệu suất cao nhất là đạt được khi sức mạnh xử lý của máy chủ được sử dụng thông minh. Nâng cao cân bằng tải máy chủ có thể trực tiếp yêu cầu dịch vụ người dùng cuối để các máy chủ xử lý công việc được đồng đều nhau và do đó khả năng cung cấp nhanh nhất thời gian để đáp ứng. Nhất thiết, các thiết bị cân bằng tải phải có khả năng xử lý lưu lượng tổng hợp của nhiều máy chủ. Nếu một thiết bị cân bằng tải máy chủ trở thành một “nút cổ chai”  nó không còn là một giải pháp, nó chỉ là một vấn đề bổ sung.

Lợi ích thứ ba của cân bằng tải máy chủ là khả năng cải thiện tính sẵn sàng ứng dụng. Nếu một ứng dụng hoặc máy chủ không thành công, cân bằng tải có thể tự động phân phối lại yêu cầu dịch vụ người dùng cuối để các máy chủ khác trong một nhóm các máy chủ hoặc tới các máy chủ trong một địa điểm. Máy chủ cân bằng tải cũng có kế hoạch ngăn ngừa sự cố cho phần mềm hoặc bảo trì phần cứng bằng các dịch vụ.

Máy chủ phân phối sản phẩm cân bằng tải cũng có thể cung cấp dịch vụ khắc phục sự cố bằng cách chuyển hướng yêu cầu dịch vụ trang một trang web khác khi có một sự cố xảy ra làm vô hiệu hóa các trang web chính.

3-Tích Hợp Server Load Balancing Vào Hệ Thống Mạng Trong Doanh Nghiệp

Tận dụng tốc độ của công nghệ Gigabit, Extreme Networks ® Ethernet cho phép các nhà quản lý để xây dựng lớn hơn, triển khai hệ thống mạng ít bị lỗi hơn, trong khi điều khiển băng thông dựa trên tầm quan trọng tương đối của mỗi ứng dụng. Extreme Networks cung cấp Wire-Speed IP Routing ở Layer 3 và wire-speed Layer 2 cũng như end-to-end dựa trên chính sách chất lượng dịch vụ (QoS) và wire-speed tiếp cận chính sách ở Layer 4 với các tùy chọn khả năng phục hồi được thiết kế để giảm chi phí sở hữu mạng.

Ứng dụng trên các Layer được xem như các dịch vụ quan trọng , Extreme Networks đã tích hợp các F5 Networks công nghệ cân bằng tải hàng đầu trên mã nguồn máy chủ để tăng tốc độ chuyển đổi giữa các ứng dụng. Để giúp các công ty di chuyển các mạng hiện có để đáp ứng yêu cầu ngày nay, Extreme Networks cung cấp các bộ phần mềm để tăng tốc độ quy mô, băng thông, kích thước mạng và chính sách dựa trên chất lượng dịch vụ.

Một bản tóm tắt các tính năng của máy chủ cân bằng tải tiên tiến mà Extreme Networks cung cấp bao gồm:

– Tích hợp phần cứng để nâng cao hiệu suất wire-speed từ server-to-client.

– Web cache giúp tăng tốc độ chuyển hướng trên một hay hoặc nhiều web lưu trữ hoặc các loại cache.

– Phối hợp Layer 2 và Layer 3 để nâng cao tính sẵn sàng trên máy chủ cân bằng tải tăng khả năng phục hồi kỹ thuật một cách đơn giản và hiệu quả.

– Tinh vi cao khả năng sẵn có, chẳng hạn như phiên trao đổi thông tin giữa các hoạt động và chờ máy chủ dịch vụ và cân bằng tải các hoạt động.

– Linh hoạt các tùy chọn để bảo toàn các tính năng trên máy chủ với các máy chủ và tối ưu hóa số truy cập trên web cache của máy chủ.

– Layer 1-7 kiểm tra tình trạng “sức khỏe” trên máy chủ, bao gồm cả khả năng tận dụng các thiết bị bên ngoài mà thực hiện việc kiểm tra trên các ứng dụng tùy biến.

– Kiểm tra danh sách truy cập để gia tăng an ninh.

– Policy-Based QoS quản lý băng thông và Diffserv khả năng để kiểm soát và ưu tiên việc chạy ứng dụng hoặc truy cập bởi lớp khách hàng cụ thể.

– Một số thuật toán cân bằng tải lựa chọn.

– Global cân bằng tải và chức năng phục hồi trang web thông qua hội nhập với các giải pháp F5 3DNS.

– Quản lý tầm nhìn bằng cách tích hợp với F5 SeeIT quản lý ứng dụng.

4-Li Ích Ca Vic Tích Hp Server Load Balancing Vào H Thng Mng

Các bộ phần mềm ExtremeWare thúc đẩy các khả năng hoạt động hiệu quả của phần cứng bằng cách cho phép chuyển đổi hàng loạt wire-speed trên Server Load Balancing và giúp chuyển hướng web cache. Extreme Networks giúp các dịch vụ chạy chồng lên nhau trên cơ sở hạ tầng từ đó giúp quá trình xử lý được nhanh hơn, cùng với Speed-Wire IP Routing tại Layer 3, Wire-Speed chuyển mạch tại Layer 2, Layer 1-4 giúp kiểm soát danh sách truy cập dựa trên QoS với quản lý băng thông.

Cách tiếp cận này cung cấp lợi ích đáng kể khi so sánh với các sản phẩm khác:

-Máy chủ cân bằng tải được phân phối như một dịch vụ chồng trên cơ sở hạ tầng mạng hiện có. Không có cần phải thiết kế lại mạng lưới để phù hợp với máy chủ cân bằng tải.

– Hiệu suất của Wire-Speed cho máy chủ cân bằng tải và các ứng dụng chuyển hướng web cache được rõ ràng.

– Việc tích hợp này cung cấp một giải pháp đơn giản hơn và linh động cho các kết nối , switch, router và khả năng cân bằng tải,

-Khả năng phối hợp mang lại hiệu quả cao dựa trên QoS, chính sách truy cập và hệ thống an ninh.

– Ngày càng giảm các thiết bị để quản lý dễ dàng và tiết kiệm chi phí.

–  Giảm chi phí sở hữu mạng.

Extreme Networks là nâng cao hiệu quả của việc tích hợp máy chủ cân bằng tải vào hệ thống, tiếp tục dẫn đầu thị trường trong việc cung cấp Wire-Speed IP Routing tại Layer 3, Wire-Speed chuyển mạch tại Player 2 và Policy-Based QoS. Từ đó giúp doanh nghiệp tiết kiệm chi phí, thu được lợi ích từ một giải pháp chuyển đổi hiệu quả mà máy chủ cân bằng tải mang lại.

Dưới đây là hai sơ đồ thể hiện việc trước khi  và sau khi tích hợp máy chủ cân bằng tải vào hệ thống:

Trong sơ đồ “before” các bạn thấy đấy chúng ta phải sử dụng thêm thiết bị Switches tại Layer 2 để kết nối theo phương thức Point-to-Point từ Server Load Balancing đến các cụm máy chủ và từ Server Load Balancing đến các Routers.

Cách tiếp cận này là phức tạp và tốn kém vì mỗi thiết bị đảm nhận một chức năng riêng. Làm cho hệ thống phức tạp và việc quản lý cũng rất khó khăn.

Mỗi thiết bị có cơ chế dự phòng riêng biệt của nó như Virtual Router Redundancy Protocol (VRRP), Spanning Tree và các Server Load Balancing đều có các giao thức riêng của. Không có những giao thức này tương tác với lớp mỗi khác, mà không có lá khả năng phục hồi khi có sự cố không xảy ra. Nếu một thiết bị, máy chủ cân bằng tải bị sự cố, các chế độ chờ của thiết bị, máy chủ cân bằng tải cũng không thể hoạt động được. Nhưng trừ khi một liên kết thực tế thất bại, thượng nguồn và hạ nguồn Layer 2 thiết bị chuyển mạch sẽ tiếp tục để chuyển tiếp lưu lượng truy cập đến máy chủ cân bằng tải trong hệ thống không cân đối thiết bị.

Một trở ngại cho phương pháp này là máy chủ cân bằng tải và các thiết bị có thể gây ra vấn đề hiệu suất. Bởi vì, không giống như thiết bị chuyển mạch LAN, họ thường không sử dụng wire-speed. Nhìn chung, mạng lưới này chỉ có thể chạy ở tỷ lệ thiết bị chậm nhất.

Một giải pháp hiệu quả hơn là được thể hiện trong mô hình “after”, mô hình này dựa trên việc tích hợp hai thiết bị chuyển mạch Summit7i tích hợp trên Server Load Balancing . Trong ví dụ này, chỉ có hai thiết bị chuyển mạch Summit7i được yêu cầu phải xây dựng tại Layer 2 và Layer 3 của cơ sở hạ tầng cung cấp một giải pháp phân phối công việc cho hệ thống xử lý tốt nhất. Phối hợp dự phòng giữa chuyển mạch, định tuyến và tải máy chủ cân bằng trong một nền tảng nhất quán và dễ quản lý cung cấp một giải pháp tốt hơn.

Tính sẵn sàng cao có thể được đảm bảo khi đưa nhiều thiết bị chuyển mạch primary/secondary  để cung cấp thêm nhiều dịch vụ ảo. Với các dịch vụ ảo này đảm bảo cho hệ thống chay ổn định khi có sự cố xảy ra.

Các thiết bị chuyển mạch Extreme Networks thực hiện việc chuyển mạch wire-speed tại Layer 3 đến các giao thức định tuyến liên quan đến Internet.

Bằng cách tích hợp đầy đủ các tính năng của máy chủ cân bằng tải vào hệ thống, giúp hệ thống luôn chạy ổn định bằng việc cân bằng tải công việc và giúp các cụm máy chủ đáp ứng đầy đủ các yêu cầu của ứng dụng quan trọng từ đó tạo ra doanh thu cho doanh nghiệp.

5- Chuyển Hướng Web Cache

Ngoài ra để cân bằng tải máy chủ, Extreme Networks còn tích hợp dịch vụ chuyển hướng web cache với một twist. Lưu lượng được chuyển hướng ở wire-speed bằng cách sử dụng protocol tại Layer 4, như HTTP cổng 80, cho một hoặc nhiều tải-chia sẻ cổng trên máy chủ một hoặc nhiều web cache. Tất cả điều này xảy ra rất linh hoạt, có nghĩa là người dùng không cần phải cấu hình lại trình duyệt ứng dụng.

Tích hợp dịch vụ chuyển hướng web cache bằng wire-speed vào máy chủ cân bằng tải thì Extreme Networks là nhà sản xuất đầu tiên tích hợp Wire-Speed IP Routing tại Layer 3 và wire-speed switch tại Layer 2 trên một nền tảng phần cứng duy nhất. việc tích hợp này cho phép các trang web có hiệu quả bộ nhớ đệm mà không cần thay đổi căn bản để thiết kế mạng. Một lần nữa, bộ phần mềm ExtremeWare tại Layer 4 cho phép web cache chuyển hướng hướng sang dịch vụ khác mà không cần thiết kế lại hệ thống mạng.

Đối với doanh nghiệp và các nhà cung cấp nội dung web, tăng bộ nhớ đệm giảm đáng kể số truy cập lặp đi lặp lại trên các máy chủ và cho phép các trang nội dung phong phú để được phục vụ nhanh chóng hơn cho khách hàng. Đối với các nhà cung cấp dịch vụ, điều này làm giảm chi phí băng thông WAN. Và cho các mạng doanh nghiệp, thường xuyên truy cập web nội dung , do đó WAN bảo tồn băng thông và giảm chi phí liên quan của nó.

6-Server Load Balancing Trong Môi Trường Chuyên Bit

Đối với các ứng dụng yêu cầu các tính năng chuyên sâu như URL / cookie và SSL ID, Vì vậy máy chủ cân bằng tải giúp cho hệ thống chạy tốt các ứng dụng này thông qua các thiết bị ngoài. Với sự tích hợp của wire-speed vào máy chủ cân bằng tải, Extreme Netword đã cung cấp cho doanh nghiệp hai giải pháp tốt nhất, ứng dụng vào trong hệ thống mang lại hiệu quả tối ưu cho doanh nghiệp:

– Các chức năng chuyên biệt của thiết bị.

-Hiệu quả cao từ giải pháp tích hợp wire-speed switching.

– Giảm chi phí tổng thể cho hệ thống.

Một giải pháp lý tưởng bao gồm kết hợp Wire-Speed IP Routing tại Layer 3 và wire-speed tại Layer 2 giúp hỗ trợ các chức năng đặc biệt của các thiết bị.

Trong ví dụ này, Summit7i giữ vai trò chính của máy chủ cân bằng tải hỗ trợ tốt cho việc chạy các ứng dụng đòi hỏi các yêu cầu xử lý cao. Layer 3 hỗ trợ chức năng định tuyến và liên kết các giao thức định tuyến Internet cho tất cả các dịch vụ ảo. Summit7i còn cung cấp chức năng như một router mặc định sử dụng ESRP để tích hợp trên các thiết bị.Các chức năng của các cấp độ của ứng dụng đặt biệt đòi hỏi phải được chạy trực tiếp trên thiết bị F5 BIG/ip. Với giải pháp này F5’s SEE/IT có chức năng quản lý ứng dụng còn 3DNS có chức năng phân phối cân bằng tải khối lượng công việc chạy trên các thiết bị. Với việc ứng dụng các chức năng của máy chủ cân bằng tải hỗ trợ cho hệ thống chạy tốt các ứng dụng trong các môi trường chuyên biệt.

7- Phân Phối Cân Bằng Tải Và Phục Hồi Sự Cố

Extreme Networks cùng với F5 cung cấp một khả năng đặc biệt gọi là phân phối máy chủ cân bằng tải. Phân phối cân bằng tải, cho phép người dùng truy cập vào các máy chủ thông qua mạng WAN.

Có nhiều lý do cần phải phân phối các máy chủ ở các nơi khác nhau. Trước tiên, các máy chủ có thể được đặt gần hơn với người dùng cuối để giúp tăng tốc độ truyền trong mạng WAN. Phân phối máy chủ cân bằng tải cũng có thể cung cấp dịch vụ giúp khắc phục các sự cố. Nhiệm vụ quan trọng của ứng dụng là có thể nhân rộng tại một trang web và khắc phục sự cố nếu các trang web chính trở nên không hoạt động, các khối lượng công việc được tự động chuyển hướng đến các trang web sao lưu.

Extreme Networks với thiết bị chuyển mạch tích hợp trên máy chủ cân bằng tải, cung cấp hiệu suất của thời gian thực và sẵn có của thông tin cần thiết cho bộ điều khiển thông minh F5 3DNS để cân bằng lưu lượng trên quy mô toàn cầu và cung cấp dự phòng trang web. 3DNS là một khu vực quản lý trên phạm vi rộng, mở rộng khả năng của Internet Domain Name Service(DNS). 3DNS có nhiệm vụ phân giải tên miền thành địa chỉ IP của máy chủ hoặc các máy chủ trạm dựa trên các tiêu chí như mức độ gần nhau của các máy chủ cho người dùng cuối, hoặc cung cấp các ứng dụng sẵn có trên mỗi trang web.

Điều này tạo ra một “môi trường trang web ảo” mà trung tâm quản lý là các trang web Internet và trung tâm dữ liệu, tạo cho người dùng cuối một URL duy nhất có quyền truy cập trên nhiều máy chủ tại nhiều địa điểm địa lý khác nhau.

Mô hình dưới đây cho thấy công cụ F5 và Extreme Networks Switch tích hợp trên máy chủ cân bằng tải dùng để phân phối mạng:

8- Kết Luận

Server Load Balancing là một kỹ thuật mạnh mẽ để nâng cao tính sẵn sàng ứng dụng và hiệu quả trong việc cung cấp dịch vụ, các nhà cung cấp dịch vụ web cung cấp nội dung và mạng lưới doanh nghiệp, thực hiện trọn vẹn nhưng cũng có thể làm tăng chi phí và độ phức tạp mạng. Bên cạnh những ưu thế từ việc ứng dụng Server Load Balancing và các thiết bị không dây, nó còn có hạn chế là nếu hoạt động ở tốc độ cao cũng có thể tạo ra nghẽn cổ chai của riêng mình.

Extreme Networks cung cấp các lợi ích chính của máy chủ cân bằng tải, giúp doanh nghiệp tiết kiệm chi phí và làm giảm độ phức tạp giúp hệ thống đạt được hiệu suất cao khi làm việc. Bằng cách tích hợp đầy đủ máy chủ cân bằng tải và wire-speed trên nhiều Layer giúp hệ thống website của doanh nghiệp luôn ổn định và luôn trực tuyến, mang lại hiệu quả tốt nhất cho hệ thống IT trong doanh nghiệp.

Server Load Balancing (Phần 3)

6-Server Load Balancing Trong Môi Trường Chuyên Biệt

Đối với các ứng dụng yêu cầu các tính năng chuyên sâu như URL / cookie và SSL ID, Vì vậy máy chủ cân bằng tải giúp cho hệ thống chạy tốt các ứng dụng này thông qua các thiết bị ngoài. Với sự tích hợp của wire-speed vào máy chủ cân bằng tải, Extreme Netword đã cung cấp cho doanh nghiệp hai giải pháp tốt nhất, ứng dụng vào trong hệ thống mang lại hiệu quả tối ưu cho doanh nghiệp:

– Các chức năng chuyên biệt của thiết bị.

-Hiệu quả cao từ giải pháp tích hợp wire-speed switching.

– Giảm chi phí tổng thể cho hệ thống.

Một giải pháp lý tưởng bao gồm kết hợp Wire-Speed IP Routing tại Layer 3 và wire-speed tại Layer 2 giúp hỗ trợ các chức năng đặc biệt của các thiết bị.

Trong ví dụ này, Summit7i giữ vai trò chính của máy chủ cân bằng tải hỗ trợ tốt cho việc chạy các ứng dụng đòi hỏi các yêu cầu xử lý cao. Layer 3 hỗ trợ chức năng định tuyến và liên kết các giao thức định tuyến Internet cho tất cả các dịch vụ ảo. Summit7i còn cung cấp chức năng như một router mặc định sử dụng ESRP để tích hợp trên các thiết bị.Các chức năng của các cấp độ của ứng dụng đặt biệt đòi hỏi phải được chạy trực tiếp trên thiết bị F5 BIG/ip. Với giải pháp này F5’s SEE/IT có chức năng quản lý ứng dụng còn 3DNS có chức năng phân phối cân bằng tải khối lượng công việc chạy trên các thiết bị. Với việc ứng dụng các chức năng của máy chủ cân bằng tải hỗ trợ cho hệ thống chạy tốt các ứng dụng trong các môi trường chuyên biệt.

7- Phân Phối Cân Bằng Tải Và Phục Hồi Sự Cố

Extreme Networks cùng với F5 cung cấp một khả năng đặc biệt gọi là phân phối máy chủ cân bằng tải. Phân phối cân bằng tải, cho phép người dùng truy cập vào các máy chủ thông qua mạng WAN.

Có nhiều lý do cần phải phân phối các máy chủ ở các nơi khác nhau. Trước tiên, các máy chủ có thể được đặt gần hơn với người dùng cuối để giúp tăng tốc độ truyền trong mạng WAN. Phân phối máy chủ cân bằng tải cũng có thể cung cấp dịch vụ giúp khắc phục các sự cố. Nhiệm vụ quan trọng của ứng dụng là có thể nhân rộng tại một trang web và khắc phục sự cố nếu các trang web chính trở nên không hoạt động, các khối lượng công việc được tự động chuyển hướng đến các trang web sao lưu.

Extreme Networks với thiết bị chuyển mạch tích hợp trên máy chủ cân bằng tải, cung cấp hiệu suất của thời gian thực và sẵn có của thông tin cần thiết cho bộ điều khiển thông minh F5 3DNS để cân bằng lưu lượng trên quy mô toàn cầu và cung cấp dự phòng trang web. 3DNS là một khu vực quản lý trên phạm vi rộng, mở rộng khả năng của Internet Domain Name Service(DNS). 3DNS có nhiệm vụ phân giải tên miền thành địa chỉ IP của máy chủ hoặc các máy chủ trạm dựa trên các tiêu chí như mức độ gần nhau của các máy chủ cho người dùng cuối, hoặc cung cấp các ứng dụng sẵn có trên mỗi trang web.

Điều này tạo ra một “môi trường trang web ảo” mà trung tâm quản lý là các trang web Internet và trung tâm dữ liệu, tạo cho người dùng cuối một URL duy nhất có quyền truy cập trên nhiều máy chủ tại nhiều địa điểm địa lý khác nhau.

Mô hình dưới đây cho thấy công cụ F5 và Extreme Networks Switch tích hợp trên máy chủ cân bằng tải dùng để phân phối mạng:

8- Kết Luận

Server Load Balancing là một kỹ thuật mạnh mẽ để nâng cao tính sẵn sàng ứng dụng và hiệu quả trong việc cung cấp dịch vụ, các nhà cung cấp dịch vụ web cung cấp nội dung và mạng lưới doanh nghiệp, thực hiện trọn vẹn nhưng cũng có thể làm tăng chi phí và độ phức tạp mạng. Bên cạnh những ưu thế từ việc ứng dụng Server Load Balancing và các thiết bị không dây, nó còn có hạn chế là nếu hoạt động ở tốc độ cao cũng có thể tạo ra nghẽn cổ chai của riêng mình.

Extreme Networks cung cấp các lợi ích chính của máy chủ cân bằng tải, giúp doanh nghiệp tiết kiệm chi phí và làm giảm độ phức tạp giúp hệ thống đạt được hiệu suất cao khi làm việc. Bằng cách tích hợp đầy đủ máy chủ cân bằng tải và wire-speed trên nhiều Layer giúp hệ thống website của doanh nghiệp luôn ổn định và luôn trực tuyến, mang lại hiệu quả tốt nhất cho hệ thống IT trong doanh nghiệp.

Nguồn TechBrief

Server Load Balancing (Phần 2)

4-Lợi Ích Của Việc Tích Hợp Server Load Balancing Vào Hệ Thống Mạng

Các bộ phần mềm ExtremeWare thúc đẩy các khả năng hoạt động hiệu quả của phần cứng bằng cách cho phép chuyển đổi hàng loạt wire-speed trên Server Load Balancing và giúp chuyển hướng web cache. Extreme Networks giúp các dịch vụ chạy chồng lên nhau trên cơ sở hạ tầng từ đó giúp quá trình xử lý được nhanh hơn, cùng với Speed-Wire IP Routing tại Layer 3, Wire-Speed chuyển mạch tại Layer 2, Layer 1-4 giúp kiểm soát danh sách truy cập dựa trên QoS với quản lý băng thông.

Cách tiếp cận này cung cấp lợi ích đáng kể khi so sánh với các sản phẩm khác:

-Máy chủ cân bằng tải được phân phối như một dịch vụ chồng trên cơ sở hạ tầng mạng hiện có. Không có cần phải thiết kế lại mạng lưới để phù hợp với máy chủ cân bằng tải.

– Hiệu suất của Wire-Speed cho máy chủ cân bằng tải và các ứng dụng chuyển hướng web cache được rõ ràng.

– Việc tích hợp này cung cấp một giải pháp đơn giản hơn và linh động cho các kết nối , switch, router và khả năng cân bằng tải,

-Khả năng phối hợp mang lại hiệu quả cao dựa trên QoS, chính sách truy cập và hệ thống an ninh.

– Ngày càng giảm các thiết bị để quản lý dễ dàng và tiết kiệm chi phí.

–  Giảm chi phí sở hữu mạng.

Extreme Networks là nâng cao hiệu quả của việc tích hợp máy chủ cân bằng tải vào hệ thống, tiếp tục dẫn đầu thị trường trong việc cung cấp Wire-Speed IP Routing tại Layer 3, Wire-Speed chuyển mạch tại Player 2 và Policy-Based QoS. Từ đó giúp doanh nghiệp tiết kiệm chi phí, thu được lợi ích từ một giải pháp chuyển đổi hiệu quả mà máy chủ cân bằng tải mang lại.

Dưới đây là hai sơ đồ thể hiện việc trước khi  và sau khi tích hợp máy chủ cân bằng tải vào hệ thống:

 

Trong sơ đồ “before” các bạn thấy đấy chúng ta phải sử dụng thêm thiết bị Switches tại Layer 2 để kết nối theo phương thức Point-to-Point từ Server Load Balancing đến các cụm máy chủ và từ Server Load Balancing đến các Routers.

Cách tiếp cận này là phức tạp và tốn kém vì mỗi thiết bị đảm nhận một chức năng riêng. Làm cho hệ thống phức tạp và việc quản lý cũng rất khó khăn.

Mỗi thiết bị có cơ chế dự phòng riêng biệt của nó như Virtual Router Redundancy Protocol (VRRP), Spanning Tree và các Server Load Balancing đều có các giao thức riêng của. Không có những giao thức này tương tác với lớp mỗi khác, mà không có lá khả năng phục hồi khi có sự cố không xảy ra. Nếu một thiết bị, máy chủ cân bằng tải bị sự cố, các chế độ chờ của thiết bị, máy chủ cân bằng tải cũng không thể hoạt động được. Nhưng trừ khi một liên kết thực tế thất bại, thượng nguồn và hạ nguồn Layer 2 thiết bị chuyển mạch sẽ tiếp tục để chuyển tiếp lưu lượng truy cập đến máy chủ cân bằng tải trong hệ thống không cân đối thiết bị.

Một trở ngại cho phương pháp này là máy chủ cân bằng tải và các thiết bị có thể gây ra vấn đề hiệu suất. Bởi vì, không giống như thiết bị chuyển mạch LAN, họ thường không sử dụng wire-speed. Nhìn chung, mạng lưới này chỉ có thể chạy ở tỷ lệ thiết bị chậm nhất.

Một giải pháp hiệu quả hơn là được thể hiện trong mô hình “after”, mô hình này dựa trên việc tích hợp hai thiết bị chuyển mạch Summit7i tích hợp trên Server Load Balancing . Trong ví dụ này, chỉ có hai thiết bị chuyển mạch Summit7i được yêu cầu phải xây dựng tại Layer 2 và Layer 3 của cơ sở hạ tầng cung cấp một giải pháp phân phối công việc cho hệ thống xử lý tốt nhất. Phối hợp dự phòng giữa chuyển mạch, định tuyến và tải máy chủ cân bằng trong một nền tảng nhất quán và dễ quản lý cung cấp một giải pháp tốt hơn.

Tính sẵn sàng cao có thể được đảm bảo khi đưa nhiều thiết bị chuyển mạch primary/secondary  để cung cấp thêm nhiều dịch vụ ảo. Với các dịch vụ ảo này đảm bảo cho hệ thống chay ổn định khi có sự cố xảy ra.

Các thiết bị chuyển mạch Extreme Networks thực hiện việc chuyển mạch wire-speed tại Layer 3 đến các giao thức định tuyến liên quan đến Internet.

Bằng cách tích hợp đầy đủ các tính năng của máy chủ cân bằng tải vào hệ thống, giúp hệ thống luôn chạy ổn định bằng việc cân bằng tải công việc và giúp các cụm máy chủ đáp ứng đầy đủ các yêu cầu của ứng dụng quan trọng từ đó tạo ra doanh thu cho doanh nghiệp.

5- Chuyển Hướng Web Cache

Ngoài ra để cân bằng tải máy chủ, Extreme Networks còn tích hợp dịch vụ chuyển hướng web cache với một twist. Lưu lượng được chuyển hướng ở wire-speed bằng cách sử dụng protocol tại Layer 4, như HTTP cổng 80, cho một hoặc nhiều tải-chia sẻ cổng trên máy chủ một hoặc nhiều web cache. Tất cả điều này xảy ra rất linh hoạt, có nghĩa là người dùng không cần phải cấu hình lại trình duyệt ứng dụng.

Tích hợp dịch vụ chuyển hướng web cache bằng wire-speed vào máy chủ cân bằng tải thì Extreme Networks là nhà sản xuất đầu tiên tích hợp Wire-Speed IP Routing tại Layer 3 và wire-speed switch tại Layer 2 trên một nền tảng phần cứng duy nhất. việc tích hợp này cho phép các trang web có hiệu quả bộ nhớ đệm mà không cần thay đổi căn bản để thiết kế mạng. Một lần nữa, bộ phần mềm ExtremeWare tại Layer 4 cho phép web cache chuyển hướng hướng sang dịch vụ khác mà không cần thiết kế l���i hệ thống mạng.

Đối với doanh nghiệp và các nhà cung cấp nội dung web, tăng bộ nhớ đệm giảm đáng kể số truy cập lặp đi lặp lại trên các máy chủ và cho phép các trang nội dung phong phú để được phục vụ nhanh chóng hơn cho khách hàng. Đối với các nhà cung cấp dịch vụ, điều này làm giảm chi phí băng thông WAN. Và cho các mạng doanh nghiệp, thường xuyên truy cập web nội dung , do đó WAN bảo tồn băng thông và giảm chi phí liên quan của nó.

(còn tiếp)

Nguồn TechBrief

Server Load Balancing (Phần 1)

1-Giới Thiệu

Cơ sở hạ tầng CNTT đang đóng một vai trò ngày càng quan trọng trong sự thành công của một doanh nghiệp. Thị phần, khách hàng hài lòng với sản phẩm của công ty và hình ảnh công ty tất cả những thứ này có thể do website của doanh nghiệp đó chiếm một phần quan trọng. Mạng lưới các máy chủ hiện nay thường xuyên được sử dụng để lưu trữ ERP, thương mại điện tử và vô số các ứng dụng khác. Nền tảng của các trang web này, các chiến lược kinh doanh, cơ sở hạ tầng tốt sẽ cung cấp hiệu suất cao, tính sẵn sàng cao, và các giải pháp an toàn và khả năng mở rộng để hỗ trợ tất cả các ứng dụng.

Tuy nhiên, sự sẵn có của các ứng dụng này thường bị đe dọa bởi quá tải mạng cũng như sự cố xảy ra trên các máy chủ và các ứng dụng. Sử dụng tài nguyên thường trong sự cân bằng, dẫn đến các nguồn lực hiệu suất thấp đang quá tải với các yêu cầu, trong khi các nguồn lực hiệu suất cao vẫn nhàn rỗi. Server Load Balancing (máy chủ cân bằng tải) là một giải pháp giúp cân bằng lại giữa các nguồn lực và giúp tăng hiệu suất làm việc cho hệ thống mạng trong doanh nghiệp.

2- Server Load Balancing Và Lợi Ích Của Nó

Server Load Balancing (máy chủ cân bằng tải) là một quá trình phân phối các yêu cầu dịch vụ trên một nhóm các máy chủ. Sơ đồ dưới đây cho thấy cân bằng tải trong một nhóm các máy chủ.

Server Load Balancing (máy chủ cân bằng tải) ngày càng trở nên quan trọng trong hệ thống cơ sở hạ tầng mạng trong doanh nghiệp:

– Tăng cường khả năng mở rộng.
– Nâng cao hiệu suất.
– Tính sẵn sàng cao và khắc phục sự cố.

Nhiều ứng dụng chuyên sâu có quy mô lớn, vì vậy đòi hỏi các máy chủ phải có sự cân bằng tải cho nhau mới có thể chạy tốt các ứng dụng như vậy. Cả doanh nghiệp và nhà cung cấp dịch vụ cần sự linh hoạt để triển khai thêm các máy chủ một cách nhanh chóng và minh bạch để đáp ứng được nhu cầu xử lý công việc trong doanh nghiệp. Server Load Balancing (máy chủ cân bằng tải) làm cho nhiều máy chủ xuất hiện như là một máy chủ duy nhất,  một dịch vụ đơn ảo, phân phối các yêu cầu người sử dụng trong các máy chủ.

Hiệu suất cao nhất là đạt được khi sức mạnh xử lý của máy chủ được sử dụng thông minh. Nâng cao cân bằng tải máy chủ có thể trực tiếp yêu cầu dịch vụ người dùng cuối để các máy chủ xử lý công việc được đồng đều nhau và do đó khả năng cung cấp nhanh nhất thời gian để đáp ứng. Nhất thiết, các thiết bị cân bằng tải phải có khả năng xử lý lưu lượng tổng hợp của nhiều máy chủ. Nếu một thiết bị cân bằng tải máy chủ trở thành một “nút cổ chai”  nó không còn là một giải pháp, nó chỉ là một vấn đề bổ sung.

Lợi ích thứ ba của cân bằng tải máy chủ là khả năng cải thiện tính sẵn sàng ứng dụng. Nếu một ứng dụng hoặc máy chủ không thành công, cân bằng tải có thể tự động phân phối lại yêu cầu dịch vụ người dùng cuối để các máy chủ khác trong một nhóm các máy chủ hoặc tới các máy chủ trong một địa điểm. Máy chủ cân bằng tải cũng có kế hoạch ngăn ngừa sự cố cho phần mềm hoặc bảo trì phần cứng bằng các dịch vụ.

Máy chủ phân phối sản phẩm cân bằng tải cũng có thể cung cấp dịch vụ khắc phục sự cố bằng cách chuyển hướng yêu cầu dịch vụ trang một trang web khác khi có một sự cố xảy ra làm vô hiệu hóa các trang web chính.

3-Tích Hợp Server Load Balancing Vào Hệ Thống Mạng Trong Doanh Nghiệp

Tận dụng tốc độ của công nghệ Gigabit, Extreme Networks ® Ethernet cho phép các nhà quản lý để xây dựng lớn hơn, triển khai hệ thống mạng ít bị lỗi hơn, trong khi điều khiển băng thông dựa trên tầm quan trọng tương đối của mỗi ứng dụng. Extreme Networks cung cấp Wire-Speed IP Routing ở Layer 3 và wire-speed Layer 2 cũng như end-to-end dựa trên chính sách chất lượng dịch vụ (QoS) và wire-speed tiếp cận chính sách ở Layer 4 với các tùy chọn khả năng phục hồi được thiết kế để giảm chi phí sở hữu mạng.

Ứng dụng trên các Layer được xem như các dịch vụ quan trọng , Extreme Networks đã tích hợp các F5 Networks công nghệ cân bằng tải hàng đầu trên mã nguồn máy chủ để tăng tốc độ chuyển đổi giữa các ứng dụng. Để giúp các công ty di chuyển các mạng hiện có để đáp ứng yêu cầu ngày nay, Extreme Networks cung cấp các bộ phần mềm để tăng tốc độ quy mô, băng thông, kích thước mạng và chính sách dựa trên chất lượng dịch vụ.

Một bản tóm tắt các tính năng của máy chủ cân bằng tải tiên tiến mà Extreme Networks cung cấp bao gồm:

– Tích hợp phần cứng để nâng cao hiệu suất wire-speed từ server-to-client.

– Web cache giúp tăng tốc độ chuyển hướng trên một hay hoặc nhiều web lưu trữ hoặc các loại cache.

– Phối hợp Layer 2 và Layer 3 để nâng cao tính sẵn sàng trên máy chủ cân bằng tải tăng khả năng phục hồi kỹ thuật một cách đơn giản và hiệu quả.

– Tinh vi cao khả năng sẵn có, chẳng hạn như phiên trao đổi thông tin giữa các hoạt động và chờ máy chủ dịch vụ và cân bằng tải các hoạt động.

– Linh hoạt các tùy chọn để bảo toàn các tính năng trên máy chủ với các máy chủ và tối ưu hóa số truy cập trên web cache của máy chủ.

– Layer 1-7 kiểm tra tình trạng “sức khỏe” trên máy chủ, bao gồm cả khả năng tận dụng các thiết bị bên ngoài mà thực hiện việc kiểm tra trên các ứng dụng tùy biến.

– Kiểm tra danh sách truy cập để gia tăng an ninh.

– Policy-Based QoS quản lý băng thông và Diffserv khả năng để kiểm soát và ưu tiên việc chạy ứng dụng hoặc truy cập bởi lớp khách hàng cụ thể.

– Một số thuật toán cân bằng tải lựa chọn.

– Global cân bằng tải và chức năng phục hồi trang web thông qua hội nhập với các giải pháp F5 3DNS.

– Quản lý tầm nhìn bằng cách tích hợp với F5 SeeIT quản lý ứng dụng.

(còn tiếp)

Nguồn TechBrief

Cân bằng tải trong các ứng dụng Web

Nội dung bài này nhằm mục đích cung cấp một số phương pháp để cân bằng tải trên các nhóm máy chủ (cluster) ứng dụng Web của bạn. Cluster là một nhóm các máy chủ chạy đồng thời một ứng dụng Web, quá trình thực hiện liên kết nhóm này làm cho các máy chủ hoạt động như một máy chủ riêng lẻ khi quan sát  từ khía cạnh bên ngoài. Để cân bằng tải máy chủ, hệ thống cần phải phân phối các yêu cầu (request) đến nhiều nút khác nhau bên trong cluster máy chủ, với mục đích tối ưu hóa hiệu suất hệ thống. Điều này sẽ mang đến cho mạng của bạn hiệu suất cao hơn, khả năng mở rộng (scalability) – tránh rơi vào tình trạng túng thiếu tài nguyên mạng trong một doanh nghiệp hay một ứng dụng Web nào đó.

Khả năng có sẵn cao có thể được hiểu là tình trạng dư thừa. Nếu một máy chủ không thể quản lý một yêu cầu thì các máy chủ khác trong cluster đó có quản lý được nó không? Trong một hệ thống có khả năng cung cấp cao, nếu một Web Server bị lỗi thì máy chủ khác sẽ tiếp quản ngay để xử lý yêu cầu.

Khả năng mở rộng (Scalability) là khả năng của một ứng dụng có thể hỗ trợ được số lượng người ngày một tăng. Nếu nó cần 10ms để một ứng dụng có thể đáp trả cho một yêu cầu thì khoảng thời gian sẽ là bao lâu để nó đáp trả đến 10.000 yêu cầu cùng một lúc? Khả năng mở rộng vô hạn sẽ cho phép nó đáp trả các yêu cầu này chỉ trong khoảng 10ms. Khả năng mở rộng là đơn vị đo cho một loạt các hệ số như số lượng người dùng đồng thời mà một cluster có thể hỗ trợ và thời gian nó cần để xử lý một yêu cầu.

Có hai phương pháp chính để cân bằng tải đó là:

  • Luân chuyển vòng DNS
  • Sử dụng các bộ cân bằng tải bằng phần cứng

Luân chuyển vòng DNS

Hầu hết trong số các bạn có lẽ đều đã biết rằng, cơ sở dữ liệu DNS (Domain Name Server) bản đồ hóa tên host thành các địa chỉ IP.

Khi bạn nhập một URL vào trong trình duyệt (ví dụ như www.loadbalancedsite.com) thì trình duyệt sẽ gửi một yêu cầu đến DNS yêu cầu nó trả về địa chỉ IP của site. Đây được gọi là việc tra cứu DNS. Sau khi trình duyệt Web có được địa chỉ IP cho site thì nó sẽ liên hệ với site bằng địa chỉ IP, và hiển thị trang mà bạn vừa yêu cầu. Máy chủ DNS thường có một địa chỉ IP được bản đồ hóa với một tên site nào đó. Trong ví dụ riêng của chúng tôi thì site làwww.loadbalancedsite.com bản đồ hóa thành địa chỉ IP là 203.24.23.3.

Để cân bằng tải bằng DNS, máy chủ DNS phải duy trình một số địa chỉ IP khác nhau cho cùng một tên site. Nhiều địa chỉ IP thể hiện nhiều máy trong một cluster, tất cả trong số chúng đều bản đồ hóa đến một tên site logic. Trong ví dụ của chúng ta, www.loadbalancedsite.com có thể được cấu hình trên ba máy chủ trong một cluster với các địa chỉ IP dưới đây:

203.34.23.3
203.34.23.4
203.34.23.5

Trong trường hợp này, máy chủ DNS được bản đồ hóa như sau:

www.loadbalancedsite.com  203.34.23.3
www.loadbalancedsite.com  203.34.23.4
www.loadbalancedsite.com  203.34.23.5

Diagram.

Khi yêu cầu đầu tiên đến được máy chủ DNS, nó sẽ trả về địa chỉ IP 203.34.23.3, máy đầu tiên. Khi có yêu cầu thứ hau, nó sẽ trả về địa chỉ IP thứ hai: 203.34.23.4. Tiếp tục như vậy, với yêu cầu thứ tư, địa chỉ IP đầu tiên lại được lặp lại.

Bằng cách sử dụng luân chuyển vòng DNS như ở trên, tất cả các yêu cầu đối với một site nào đó đều được phân phối đều đến tất cả các máy trong cluster. Chính vì vậy, với phương pháp cân bằng tải này, tất cả các nút trong cluster đều được sử dụng.

Ưu điểm của phương pháp luân chuyển vòng DNS

Các ưu điểm chính của phương pháp này nằm ở chỗ rẻ và dễ dàng:

Không đắt và dễ dàng thiết lập: Các quản trị viên hệ thống chỉ cần tạo một số thay đổi trong máy chủ DNS để hỗ trợ được việc luân chuyển vòng, và nhiều máy chủ DNS đã có sự hỗ trợ này. Nó không yêu cầu đến sự thay đổi mã của ứng dụng Web; trong thực tế, các ứng dụng Web không hề biết về cơ chế cân bằng tải mà nó bị thực hiện.

Đơn giản: Phương pháp này không yêu cầu đến các chuyên gia về mạng trong việc thiết lập hoặc giỡ rối hệ thống trong trường hợp có vấn đề nào đó xay ra.

Nhược điểm của phương pháp này

Có hai nhược điểm chính của phương pháp dựa trên phần mềm này là nó không cung cấp sự hỗ trợ mối quan hệ thời gian thực giữa các máy chủ với nhau và không hỗ trợ khả năng có sẵn cao.

Không hỗ trợ mối quan hệ thời gian thực giữa các máy chủ. Mối quan hệ thời gian thực giữa các máy chủ là khả năng của hệ thống trong việc quản lý các yêu cầu của người dùng, máy chủ này hoặc bất kỳ máy chủ nào, phụ thuộc vào thông tin session được duy trì trên máy chủ hoặc tại mức cơ sở bản, mức cơ sở dữ liệu.

Không có được khả năng hỗ trợ mối quan hệ giữa các máy chủ, phương pháp luân chuyển vòng DNS dựa vào một trong ba phương pháp đã được đưa ra để duy trì sự kiểm soát session hoặc sự nhận dạng người dùng đối với các yêu cầu đang đến trên HTTP.

  • Các cookie
  • Các trường ẩn
  • Viết lại URL

Khi một người dùng thực hiện một yêu cầu đầu tiên, máy chủ Web sẽ trả một thẻ bằng văn bản duy nhất để phân biệt người dùng đó. Các yêu cầu tiếp theo có thẻ này để sử dụng cookie, viết lại URL hoặc các trường ẩn, cho phép máy chủ xuất hiện để duy trì một session giữa máy khách và máy chủ. Khi người dùng thiết lập một session với một máy chủ, thì tất cả các yêu cầu đến sau thường đều đi đến cùng một máy chủ.

Vấn đề ở đây là trình duyệt lưu địa chỉ IP của máy chủ đó. Khi Cache hết hạn, trình duyệt sẽ thực hiện một yêu cầu khác đối với máy chủ DNS để có được địa chỉ IP có liên kết với tên miền. Nếu máy chủ DNS trả về một địa chỉ IP khác, một máy chủ khác trong cluster, thì các thông tin về session sẽ bị mất.

Không hỗ trợ cho khả năng có sẵn cao. Xem xét một cluster có n nút. Nếu một nút nào đó gặp vấn đề thì cứ yêu cầu thứ n đến máy chủ DNS đều hướng bạn đến một nút hỏng này. Một router thông minh có thể giải quyết được vấn đề này bằng cách kiểm tra các nút ở các khoảng thời gian nào đó, phát hiện ra các nút bị hỏng và gỡ bỏ chúng ra khỏi danh sách, chính vì vậy sẽ không có yêu cầu nào được gửi đến chúng nữa. Tuy vậy, vấn đề ở đây vẫn tồn tại nếu nút vẫn có nhưng ứng dụng Web đang chạy trên nút đã bị hỏng.

Thay đổi cluster sẽ mất nhiều thời gian để truyền bá đến toàn bộ phần còn lại của Internet. Một lý do ở đây là trong nhiều tổ chức lớn – các ISP, các công ty, hay đại lý – lưu các yêu cầu DNS của họ để giảm lưu lượng mạng và thời gian request. Khi người dùng bên trong các tổ chức như vậy thực hiện một request thì hệ thống sẽ được kiểm tra danh sách các tên DNS của Cache đã được bản đồ hóa địa chỉ IP. Nếu hệ thống phát hiện thấy một entry nào thì nó sẽ trả địa chỉ IP về cho người dùng. Nếu nó không phát hiện thấy entry nào trong Cache nội bộ thì ISP sẽ gửi request DNS này đến máy chủ DNS và lưu sự đáp trả.

Khi một entry đã được lưu hết hạn, ISP sẽ nâng cấp cơ sở dữ liệu nội bộ của nó bằng cách liên hệ với các máy chủ DNS khác. Khi danh sách các máy chủ của bạn thay đổi, nó có thể cần đến một khoảng thời gian ngắn cho các entry đã được lưu trên mạng của các tổ chức khác hết hạn và tìm kiếm danh sách các máy chủ đã được cập nhật. Trong suốt chu trình này, máy khách vẫn có thể thực hiện hành động “hit” nút máy chủ bị hỏng, nếu ISP của máy khách đó vẫn có một entry trỏ đến nó. Trong trường hợp như vậy, một số người dùng của ISP đó không thể truy cập vào site của bạn từ những lần truy cập ban đầu, thậm trí nếu cluster của bạn có các máy chủ dư thừa vẫn đang hoạt động.

Một vấn đề còn lớn hơn xuất hiên khi gỡ bỏ (removing) một nút so với việc bổ sung. Khi bạn bớt đi một nút, người dùng có thể đang thực hiện “hit” một máy chủ không tồn tại. Còn khi bạn thêm một nút thì máy chủ đó vẫn chưa được sử dụng cho tới khi địa chỉ IP của nó đến được tất cả các máy chủ DNS.

Mặc dù phương pháp này có thể cân bằng được một số lượng người dùng trên mỗi máy chủ, nhưng nó không hoàn toàn cân bằng tải máy chủ. Một số người dùng có thể yêu cầu mức tải cao hơn trong suốt một session của họ so với những người dùng khác ở trên máy chủ khác, và phương pháp này không thể bảo đảm chống lại được sự bất công bằng đó.

Cân bằng tải dựa trên phần cứng

Các bộ cân bằng tải phần cứng giải quyết được nhiều vấn đề mà chúng ta vừa phải đối mặt trong phương pháp phần mềm luân chuyển vòng DNS ở trên thông qua các địa chỉ IP ảo. Bộ cân bằng tải sẽ thể hiện một địa chỉ IP ảo đối với mạng bên ngoài, địa chỉ này bản đồ hóa đến các địa chỉ của mỗi máy trong một cluster. Chính vì vậy bộ cân băng tải này cần phải đưa ra một địa chỉ IP của toàn bộ các máy tính trong cluster đối với thế giới bên ngoài.

Khi một request đến bộ cân bằng tải, nó sẽ ghi lại header của request để trỏ đến các máy khác trong cluster. Nếu một máy nào đó bị gỡ bỏ từ cluster thì request sẽ không chạy một cách rủi ro việc “hit” vào máy chủ đã chết này, vì tất cả các máy chủ khác trong cluster xuất hiện đều có cùng địa chỉ IP. Địa chỉ này duy trì giống nhau thậm chí nếu một nút nào đó trong cluster bị hỏng. Khi một đáp trả được trả về, máy khách sẽ xem đáp trả đang đến từ bộ cân bằng tải phần cứng. Hay nói theo cách khác thì máy khách sẽ xử lý với một máy tính đó là bộ cân bằng phần cứng.

Ưu điểm

Mối quan hệ giữa các máy chủ. Bộ cân bằng tải phần cứng đọc cookie hoặc các URL đang được đọc trên mỗi một request bởi máy khách. Dựa trên các thông tin này, nó có thể ghi lại các thông tin header và gửi request đến nút thích hợp trong cluster, nơi session của nó được duy trì.

Các bộ cân bằng tải này có thể cung cấp mối quan hệ giữa các máy chủ trong truyền thông HTTP, nhưng không thông qua kênh an toàn như HTTPS. Trong kênh an toàn, các thông báo được mã hóa SSL và có thể tránh được bộ cân bằng tải từ việc đọc các thông tin session.

Khả năng có sẵn cao thông qua hệ thống tự động chuyển đổi dự phòng. Việc chuyển đổi dự phòng xảy ra khi một nút trong cluster không thể xử lý một request và chuyển hướng nó đến một nút khác. Có hai kiểu tự động chuyển đổi dự phòng:

  • Yêu cầu mức chuyển đổi dự phòng. Khi một nút trong cluster không thể xử lý một request (thường là vì bị hỏng) thì nó sẽ chuyển request này sang một nút khác.
  • Chuyển đổi dự phòng session một cách trong suốt. Khi một lời triệu gọi thất bại, nó sẽ được định tuyến một cách trong suốt đến một nút khác trong cluster để hoàn tất sự thực thi.

Bộ cân bằng kiểu này cung cấp chuyển đổi dự phòng mức request; tức là khi nó phát hiện có một nút nào đó bị sự cố thì bộ cân bằng này sẽ chuyển hướng tất cả các request theo sau được gửi đến nút này sang một nút tích cực khác trong cluster. Mặc dù vậy, bất kỳ một thông tin session nào trên nút chết sẽ bị mất khi các request được chuyển hướng đến một nút mới.

Chuyển đổi dự phòng session trong suốt yêu cầu một số kiến thức về sự thực thi cho một quá trình trong một nút, vì bộ cân bằng tải phần cứng chỉ có thể phát hiện các vấn đề mức mạng, không có lỗi. Để thực thi một cách trong suốt về vấn đề chuyển đổi dự phòng, các nút trong cluster phải kết hợp với các nút khác và có vùng bộ nhớ chia sẻ hoặc cơ sở dữ liệu chung để lưu tất cả các dữ liệu session. Cũng chính vì vậy nếu một nút trong cluster có vấn đề thì một session có thể tiếp tục trong một nút khác.

Metrics. Vì tất cả các yêu cầu tới một ứng dụng web đều phải qua hệ thống cân bằng tải, hệ thống có thể quyết định số lượng session hoạt động, số lượng session hoạt động được kết nối trong các trường hợp khác nhau, các khoảng thời gian đáp ứng, thời gian tối đa điện áp, số lượng session trong suốt khoảng tối đa điện áp, số lượng session trong suốt khoảng tối thiểu điện áp… Tất cả các thông tin kiểm định này được sử dụng để tinh chỉnh toàn bộ hệ thống nhằm tối ưu hiệu suất.

Nhược điểm

Nhược điểm đối với định tuyến phần cứng là giá thành của nó, sự phức tạp trong vấn đề thiết lập và khả năng hổng ở một vấn đề nào đó trong tương lai. Vì tất cả request đều được chuyển qua một bộ cân bằng tải phần cứng nên lỗi yêu cầu của phần cứng đó ảnh hưởng đến toàn bộ site.

Việc cân bằng các request HTTPS

Như đã đề cập ở trên, rất khó khăn trong vấn đề cân bằng tải và duy trì các thông tin session của request sử dụng giao thức HTTPS, vì chúng đã được mã hóa. Bộ cân bằng tải phần cứng không thể chuyển tiếp các request dựa trên thông tin trong header, cookie hay URL. Có hai cách để giải quyết vấn đề này:

  • Proxy của Web Server
  • Bộ giải mã SSL phần cứng

Bổ sung các proxy của Web Server

Một Web server proxy nằm trước một cluster của các máy chủ Web lấy tất cả các request và mã hóa chúng. Sau đó nó chuyển hướng chúng đến một nút thích hợp, dựa trên các thông tin header trong phần header, cookie và URL.

Ưu điểm của Web server proxy là chúng cung cấp cách để có được mối liên hệ giữa các máy chủ cho các thông báo được mã hóa SSL, không cần bất cứ một phần cứng mở rộng. Nhưng quá trình SSL mở rộng cần đến một tải mở rộng trên proxy.

Apache và Tomcat. Trong nhiều hệ thống phục vụ, các máy chủ Apache và Tomcat làm việc cùng với nhau để quản lý tất cả request HTTP cho các trang động (JSSP hoặc servlets). Các máy chủ Tomcat cũng quản lý các trang tĩnh, nhưng trong các hệ thống phối hợp, chúng thường được thiết lập để quản lý các request động.

Bạn cũng có thể cấu hình Apache và Tomcat để điều khiển các yêu cầu HTTPS và trong các tải cân bằng. Để thực hiện điều này, bạn chạy trường hợp đa máy chủ Tomcat trên một hoặc nhiều máy. Nếu tất cả máy chủ Tomcat đều chạy trên một máy, chúng nên được cấu hình để nghe trên các cổng khác nhau. Để thực thi cân bằng tải, bạn tạo một mẫu Tomcat đặc biệt gọi là Tomcat Worker.

Như những gì bạn có thể thấy trên hình trên, Web server Apache nhận request HTTP và HTTPS từ các máy khách. Nếu request là HTTPS, thì Web server Apache sẽ mã hóa request và gửi nó đến adapter máy chủ Web, máy chủ sẽ gửi request đến Tomcat Worker, gồm có cả thuật toán cân bằng tải. Tương tự với Web server proxy, thuật toán này cũng cân bằng tải giữa các máy như Tomcat.

Bộ giải mã SSL bằng phần cứng

Cuối cùng, chúng ta nên đề cập đến ở đây rằng có một số thiết bị phần cứng có khả năng giải mã các request SSL. Hướng dẫn chi tiết về chúng không nằm trong phạm vi bài này, nhưng có thể nói một cách vắn tắt, chúng được đặt trước bộ cân bằng tải phần cứng và cho phép giải mã thông tin trong các cookie, header và URL.

Các bộ giải mã SSL phần cứng này thường hoạt động nhanh hơn các proxy máy chủ Web và có khả năng mở rộng cao. Tuy nhiên như hầu hết các giải pháp phần cứng, chúng vẫn gây ra nhiều vấn đề phức tạp trong việc thiết lập và cấu hình.

Nguồn QTM

Giải pháp Load Balancing Web Server

I. Giới thiệu chung:

Mục đích :
− Tổng hợp các sức mạnh đơn lẻ thành một
− Tăng cường khả năng chịu lỗi

Về kỹ thuật :  hệ thống sẽ bao gồm các hệ thống con:

1. Web server
− Đây là hệ thống public, phục vụ cho mục đích marketing, quảng bá đưa hình ảnh hoạt động, sản phẩm của công ty đến với mọi người.
− Hệ thống này, về kỹ thuật, cho phép tất cả người dùng Internet đều có thể tìm kiếm thông tin, trao đổi thông tin với website của bạn. Do vậy, cần phải đảm bảo về tốc độ truy cập, tính ổn định.

2. Database Server
− Hệ thống Database chung để Web server access vào lấy dữ liệu và hiển thị nội dung trên website.
− Đây là hệ thống chứa mọi thông tin cho hoạt động cả Public & nội bộ công ty.
− Do vậy, hệ thống DB phải đủ mạnh, ổn định & an toàn dữ liệu.

3. Proxy server (Load Balancing)
    − Đây là hệ thống chuyển tiếp thông tin và kiểm soát thông tin, tạo sự an toàn cho server web, database server.
− Chức năng Load Balancing (LB) cho các web server sẽ được cài đặt trên máy chủ Proxy này.

II. Mô hình kết nối:


Mô hình giải pháp high availability và load balancing cho website

III. Thiết bị và các yêu cầu khác:

− 3 IP PUBLIC  :
• IP WAN 1 : Sẽ được gán cho LB1
• IP WAN 2 : Gán cho LB2
• IP WAN 3 : Sử dụng cho Virtual IP  ( Người dùng sẽ truy cập đến các Webserver thông qua địa chỉ này )

− Cần 4 Server :
• 2 Server đóng vai trò control việc load balancing  :
Mỗi Server cần có 2 Interface .
Vì là nơi chuyển traffic chính nên yêu cầu throughput cho network traffic cao . Khả năng throughput này dựa trên CPU và RAM .
• 2 Server đóng vai trò Website
Lưu trữ thông tin website trên đây .
Trên 2 Server ta có có thể setup mysql để làm database .
Để  đảm việc đồng bộ giữa 2 database trên 2 server này luôn giống nhau , ta có thể thiết lập giải pháp replicate mysql .

IV. Cách thức hoạt động:

− Ta sẽ có 2 Server đảm nhận vai trò là LoadBalancer và Firewall .
− Load Balancer :
• 1 Server đóng vai trò là active. ( ở đây là LB1)
• Server còn lại giữ vai trò standby. ( LB2 )
• Khi bên ngoài truy cập đến website thông qua địa chỉ : IP WAN3 . sẽ được redirect theo đường dẫn (mũi tên màu đen) đến server LB1 ( Active ). LB1 sẽ tự động thực hiện nắm giữ việc load balancing tới 2 Web Server .
• Khi Server LB1 không còn khả năng phục vụ , lúc này server LB2 sẽ được tự động chuyển lên Active tiếp tục nắm giữ việc load balancing đến 2 Web Server , đảm bảo cho việc truy cập đến website liên tục đối với người dùng internet  ( đường dẫn mũi tên màu đỏ ) .
• Khi Server LB1 up lên lại , vai trò sẽ được tự động chuyển lại cho LB1 .
• Bằng cách này ta có thể đảm bảo độ sẵn sàng cao và cân bằng tải cho website .
− Firewall :
• Các Web Server sẽ được đặt trong vùng DMZ được bảo vệ bởi LoadBalancer ( Nhờ vào Firewall được cài đặt trên Load Balancer )
− Mô hình 1:

– Mô hình này thích hợp cho trường hợp :
. Dữ liệu trong database lớn và yêu cầu bảo mật cao
. Web Server thực thi Read và Write liên tục đến Database.
– Với mô hình trên :
. Web Server và Database chạy độc lập trên mỗi Server vật lý .
. Có thể triển khai cấu hình phần cứng thích hợp cho Web Server và Database Server .
. Đảm bảo Secure . Trường hợp Hacker tấn công nắm quyền kiểm soát trên Web Server =>Vẫn còn phải thao tac kết nối đến Database Server
– Việc Replicate giữa 2 Database Server sẽ không ảnh hưởng nhiều đến khả năng hoạt động của Web Server ( Do chạy độc lập ) .
– Tăng khả năng chịu tải của Web Server ( Do không phải share resource với database )
– Việc truy xuất dữ liệu chỉ trong mạng LAN và không ảnh hưởng đến 2 Load Balancer .
– Mô hình 2:

– Mô hình này ta đặt Database và Web trên đồng thời mỗi Server .
– Mô hình này áp dụng trong trường hợp dữ liệu database thuộc vào dạng ít hoặc trung bình . Nhưng đòi hỏi truy cập vào web nhanh và luôn sẵn sàng ( số lượng Web Server lên đến 4 )
– Với mô hình trên , lượng request từ Internet sẽ được phân tải đến 4 Server.
– Database trên mỗi Server sẽ đồng bộ với nhau . ( Lên đến 4 )
– Lúc này , do  Load Balancer phải chịu tải lên đến 4 Server => Yêu cầu cấu hình mạnh cho 2 máy