Load Balancing Web

This category contains 8 posts

Giải pháp cân bằng tải máy chủ, Server Load Balancing

1-Giới Thiệu

Cơ sở hạ tầng CNTT đang đóng một vai trò ngày càng quan trọng trong sự thành công của một doanh nghiệp. Thị phần, khách hàng hài lòng với sản phẩm của công ty và hình ảnh công ty tất cả những thứ này có thể do website của doanh nghiệp đó chiếm một phần quan trọng. Mạng lưới các máy chủ hiện nay thường xuyên được sử dụng để lưu trữ ERP, thương mại điện tử và vô số các ứng dụng khác. Nền tảng của các trang web này, các chiến lược kinh doanh, cơ sở hạ tầng tốt sẽ cung cấp hiệu suất cao, tính sẵn sàng cao, và các giải pháp an toàn và khả năng mở rộng để hỗ trợ tất cả các ứng dụng.

Tuy nhiên, sự sẵn có của các ứng dụng này thường bị đe dọa bởi quá tải mạng cũng như sự cố xảy ra trên các máy chủ và các ứng dụng. Sử dụng tài nguyên thường trong sự cân bằng, dẫn đến các nguồn lực hiệu suất thấp đang quá tải với các yêu cầu, trong khi các nguồn lực hiệu suất cao vẫn nhàn rỗi. Server Load Balancing (máy chủ cân bằng tải) là một giải pháp giúp cân bằng lại giữa các nguồn lực và giúp tăng hiệu suất làm việc cho hệ thống mạng trong doanh nghiệp.

2- Máy chủ cần bằng tải – Server Load Balancing và lợi ích Của máy chủ cân bằng tải

Server Load Balancing ( máy chủ cân bằng tải ) là một quá trình phân phối các yêu cầu dịch vụ trên một nhóm các máy chủ. Sơ đồ dưới đây cho thấy cân bằng tải trong một nhóm các máy chủ.

Server Load Balancing ( máy chủ cân bằng tải ) ngày càng trở nên quan trọng trong hệ thống cơ sở hạ tầng mạng trong doanh nghiệp:

– Tăng cường khả năng mở rộng.
– Nâng cao hiệu suất.
– Tính sẵn sàng cao và khắc phục sự cố.

Nhiều ứng dụng chuyên sâu có quy mô lớn, vì vậy đòi hỏi các máy chủ phải có sự cân bằng tải cho nhau mới có thể chạy tốt các ứng dụng như vậy. Cả doanh nghiệp và nhà cung cấp dịch vụ cần sự linh hoạt để triển khai thêm các máy chủ một cách nhanh chóng và minh bạch để đáp ứng được nhu cầu xử lý công việc trong doanh nghiệp. Server Load Balancing (máy chủ cân bằng tải) làm cho nhiều máy chủ xuất hiện như là một máy chủ duy nhất,  một dịch vụ đơn ảo, phân phối các yêu cầu người sử dụng trong các máy chủ.

Hiệu suất cao nhất là đạt được khi sức mạnh xử lý của máy chủ được sử dụng thông minh. Nâng cao cân bằng tải máy chủ có thể trực tiếp yêu cầu dịch vụ người dùng cuối để các máy chủ xử lý công việc được đồng đều nhau và do đó khả năng cung cấp nhanh nhất thời gian để đáp ứng. Nhất thiết, các thiết bị cân bằng tải phải có khả năng xử lý lưu lượng tổng hợp của nhiều máy chủ. Nếu một thiết bị cân bằng tải máy chủ trở thành một “nút cổ chai”  nó không còn là một giải pháp, nó chỉ là một vấn đề bổ sung.

Lợi ích thứ ba của cân bằng tải máy chủ là khả năng cải thiện tính sẵn sàng ứng dụng. Nếu một ứng dụng hoặc máy chủ không thành công, cân bằng tải có thể tự động phân phối lại yêu cầu dịch vụ người dùng cuối để các máy chủ khác trong một nhóm các máy chủ hoặc tới các máy chủ trong một địa điểm. Máy chủ cân bằng tải cũng có kế hoạch ngăn ngừa sự cố cho phần mềm hoặc bảo trì phần cứng bằng các dịch vụ.

Máy chủ phân phối sản phẩm cân bằng tải cũng có thể cung cấp dịch vụ khắc phục sự cố bằng cách chuyển hướng yêu cầu dịch vụ trang một trang web khác khi có một sự cố xảy ra làm vô hiệu hóa các trang web chính.

3-Tích Hợp Server Load Balancing Vào Hệ Thống Mạng Trong Doanh Nghiệp

Tận dụng tốc độ của công nghệ Gigabit, Extreme Networks ® Ethernet cho phép các nhà quản lý để xây dựng lớn hơn, triển khai hệ thống mạng ít bị lỗi hơn, trong khi điều khiển băng thông dựa trên tầm quan trọng tương đối của mỗi ứng dụng. Extreme Networks cung cấp Wire-Speed IP Routing ở Layer 3 và wire-speed Layer 2 cũng như end-to-end dựa trên chính sách chất lượng dịch vụ (QoS) và wire-speed tiếp cận chính sách ở Layer 4 với các tùy chọn khả năng phục hồi được thiết kế để giảm chi phí sở hữu mạng.

Ứng dụng trên các Layer được xem như các dịch vụ quan trọng , Extreme Networks đã tích hợp các F5 Networks công nghệ cân bằng tải hàng đầu trên mã nguồn máy chủ để tăng tốc độ chuyển đổi giữa các ứng dụng. Để giúp các công ty di chuyển các mạng hiện có để đáp ứng yêu cầu ngày nay, Extreme Networks cung cấp các bộ phần mềm để tăng tốc độ quy mô, băng thông, kích thước mạng và chính sách dựa trên chất lượng dịch vụ.

Một bản tóm tắt các tính năng của máy chủ cân bằng tải tiên tiến mà Extreme Networks cung cấp bao gồm:

– Tích hợp phần cứng để nâng cao hiệu suất wire-speed từ server-to-client.

– Web cache giúp tăng tốc độ chuyển hướng trên một hay hoặc nhiều web lưu trữ hoặc các loại cache.

– Phối hợp Layer 2 và Layer 3 để nâng cao tính sẵn sàng trên máy chủ cân bằng tải tăng khả năng phục hồi kỹ thuật một cách đơn giản và hiệu quả.

– Tinh vi cao khả năng sẵn có, chẳng hạn như phiên trao đổi thông tin giữa các hoạt động và chờ máy chủ dịch vụ và cân bằng tải các hoạt động.

– Linh hoạt các tùy chọn để bảo toàn các tính năng trên máy chủ với các máy chủ và tối ưu hóa số truy cập trên web cache của máy chủ.

– Layer 1-7 kiểm tra tình trạng “sức khỏe” trên máy chủ, bao gồm cả khả năng tận dụng các thiết bị bên ngoài mà thực hiện việc kiểm tra trên các ứng dụng tùy biến.

– Kiểm tra danh sách truy cập để gia tăng an ninh.

– Policy-Based QoS quản lý băng thông và Diffserv khả năng để kiểm soát và ưu tiên việc chạy ứng dụng hoặc truy cập bởi lớp khách hàng cụ thể.

– Một số thuật toán cân bằng tải lựa chọn.

– Global cân bằng tải và chức năng phục hồi trang web thông qua hội nhập với các giải pháp F5 3DNS.

– Quản lý tầm nhìn bằng cách tích hợp với F5 SeeIT quản lý ứng dụng.

4-Li Ích Ca Vic Tích Hp Server Load Balancing Vào H Thng Mng

Các bộ phần mềm ExtremeWare thúc đẩy các khả năng hoạt động hiệu quả của phần cứng bằng cách cho phép chuyển đổi hàng loạt wire-speed trên Server Load Balancing và giúp chuyển hướng web cache. Extreme Networks giúp các dịch vụ chạy chồng lên nhau trên cơ sở hạ tầng từ đó giúp quá trình xử lý được nhanh hơn, cùng với Speed-Wire IP Routing tại Layer 3, Wire-Speed chuyển mạch tại Layer 2, Layer 1-4 giúp kiểm soát danh sách truy cập dựa trên QoS với quản lý băng thông.

Cách tiếp cận này cung cấp lợi ích đáng kể khi so sánh với các sản phẩm khác:

-Máy chủ cân bằng tải được phân phối như một dịch vụ chồng trên cơ sở hạ tầng mạng hiện có. Không có cần phải thiết kế lại mạng lưới để phù hợp với máy chủ cân bằng tải.

– Hiệu suất của Wire-Speed cho máy chủ cân bằng tải và các ứng dụng chuyển hướng web cache được rõ ràng.

– Việc tích hợp này cung cấp một giải pháp đơn giản hơn và linh động cho các kết nối , switch, router và khả năng cân bằng tải,

-Khả năng phối hợp mang lại hiệu quả cao dựa trên QoS, chính sách truy cập và hệ thống an ninh.

– Ngày càng giảm các thiết bị để quản lý dễ dàng và tiết kiệm chi phí.

–  Giảm chi phí sở hữu mạng.

Extreme Networks là nâng cao hiệu quả của việc tích hợp máy chủ cân bằng tải vào hệ thống, tiếp tục dẫn đầu thị trường trong việc cung cấp Wire-Speed IP Routing tại Layer 3, Wire-Speed chuyển mạch tại Player 2 và Policy-Based QoS. Từ đó giúp doanh nghiệp tiết kiệm chi phí, thu được lợi ích từ một giải pháp chuyển đổi hiệu quả mà máy chủ cân bằng tải mang lại.

Dưới đây là hai sơ đồ thể hiện việc trước khi  và sau khi tích hợp máy chủ cân bằng tải vào hệ thống:

Trong sơ đồ “before” các bạn thấy đấy chúng ta phải sử dụng thêm thiết bị Switches tại Layer 2 để kết nối theo phương thức Point-to-Point từ Server Load Balancing đến các cụm máy chủ và từ Server Load Balancing đến các Routers.

Cách tiếp cận này là phức tạp và tốn kém vì mỗi thiết bị đảm nhận một chức năng riêng. Làm cho hệ thống phức tạp và việc quản lý cũng rất khó khăn.

Mỗi thiết bị có cơ chế dự phòng riêng biệt của nó như Virtual Router Redundancy Protocol (VRRP), Spanning Tree và các Server Load Balancing đều có các giao thức riêng của. Không có những giao thức này tương tác với lớp mỗi khác, mà không có lá khả năng phục hồi khi có sự cố không xảy ra. Nếu một thiết bị, máy chủ cân bằng tải bị sự cố, các chế độ chờ của thiết bị, máy chủ cân bằng tải cũng không thể hoạt động được. Nhưng trừ khi một liên kết thực tế thất bại, thượng nguồn và hạ nguồn Layer 2 thiết bị chuyển mạch sẽ tiếp tục để chuyển tiếp lưu lượng truy cập đến máy chủ cân bằng tải trong hệ thống không cân đối thiết bị.

Một trở ngại cho phương pháp này là máy chủ cân bằng tải và các thiết bị có thể gây ra vấn đề hiệu suất. Bởi vì, không giống như thiết bị chuyển mạch LAN, họ thường không sử dụng wire-speed. Nhìn chung, mạng lưới này chỉ có thể chạy ở tỷ lệ thiết bị chậm nhất.

Một giải pháp hiệu quả hơn là được thể hiện trong mô hình “after”, mô hình này dựa trên việc tích hợp hai thiết bị chuyển mạch Summit7i tích hợp trên Server Load Balancing . Trong ví dụ này, chỉ có hai thiết bị chuyển mạch Summit7i được yêu cầu phải xây dựng tại Layer 2 và Layer 3 của cơ sở hạ tầng cung cấp một giải pháp phân phối công việc cho hệ thống xử lý tốt nhất. Phối hợp dự phòng giữa chuyển mạch, định tuyến và tải máy chủ cân bằng trong một nền tảng nhất quán và dễ quản lý cung cấp một giải pháp tốt hơn.

Tính sẵn sàng cao có thể được đảm bảo khi đưa nhiều thiết bị chuyển mạch primary/secondary  để cung cấp thêm nhiều dịch vụ ảo. Với các dịch vụ ảo này đảm bảo cho hệ thống chay ổn định khi có sự cố xảy ra.

Các thiết bị chuyển mạch Extreme Networks thực hiện việc chuyển mạch wire-speed tại Layer 3 đến các giao thức định tuyến liên quan đến Internet.

Bằng cách tích hợp đầy đủ các tính năng của máy chủ cân bằng tải vào hệ thống, giúp hệ thống luôn chạy ổn định bằng việc cân bằng tải công việc và giúp các cụm máy chủ đáp ứng đầy đủ các yêu cầu của ứng dụng quan trọng từ đó tạo ra doanh thu cho doanh nghiệp.

5- Chuyển Hướng Web Cache

Ngoài ra để cân bằng tải máy chủ, Extreme Networks còn tích hợp dịch vụ chuyển hướng web cache với một twist. Lưu lượng được chuyển hướng ở wire-speed bằng cách sử dụng protocol tại Layer 4, như HTTP cổng 80, cho một hoặc nhiều tải-chia sẻ cổng trên máy chủ một hoặc nhiều web cache. Tất cả điều này xảy ra rất linh hoạt, có nghĩa là người dùng không cần phải cấu hình lại trình duyệt ứng dụng.

Tích hợp dịch vụ chuyển hướng web cache bằng wire-speed vào máy chủ cân bằng tải thì Extreme Networks là nhà sản xuất đầu tiên tích hợp Wire-Speed IP Routing tại Layer 3 và wire-speed switch tại Layer 2 trên một nền tảng phần cứng duy nhất. việc tích hợp này cho phép các trang web có hiệu quả bộ nhớ đệm mà không cần thay đổi căn bản để thiết kế mạng. Một lần nữa, bộ phần mềm ExtremeWare tại Layer 4 cho phép web cache chuyển hướng hướng sang dịch vụ khác mà không cần thiết kế lại hệ thống mạng.

Đối với doanh nghiệp và các nhà cung cấp nội dung web, tăng bộ nhớ đệm giảm đáng kể số truy cập lặp đi lặp lại trên các máy chủ và cho phép các trang nội dung phong phú để được phục vụ nhanh chóng hơn cho khách hàng. Đối với các nhà cung cấp dịch vụ, điều này làm giảm chi phí băng thông WAN. Và cho các mạng doanh nghiệp, thường xuyên truy cập web nội dung , do đó WAN bảo tồn băng thông và giảm chi phí liên quan của nó.

6-Server Load Balancing Trong Môi Trường Chuyên Bit

Đối với các ứng dụng yêu cầu các tính năng chuyên sâu như URL / cookie và SSL ID, Vì vậy máy chủ cân bằng tải giúp cho hệ thống chạy tốt các ứng dụng này thông qua các thiết bị ngoài. Với sự tích hợp của wire-speed vào máy chủ cân bằng tải, Extreme Netword đã cung cấp cho doanh nghiệp hai giải pháp tốt nhất, ứng dụng vào trong hệ thống mang lại hiệu quả tối ưu cho doanh nghiệp:

– Các chức năng chuyên biệt của thiết bị.

-Hiệu quả cao từ giải pháp tích hợp wire-speed switching.

– Giảm chi phí tổng thể cho hệ thống.

Một giải pháp lý tưởng bao gồm kết hợp Wire-Speed IP Routing tại Layer 3 và wire-speed tại Layer 2 giúp hỗ trợ các chức năng đặc biệt của các thiết bị.

Trong ví dụ này, Summit7i giữ vai trò chính của máy chủ cân bằng tải hỗ trợ tốt cho việc chạy các ứng dụng đòi hỏi các yêu cầu xử lý cao. Layer 3 hỗ trợ chức năng định tuyến và liên kết các giao thức định tuyến Internet cho tất cả các dịch vụ ảo. Summit7i còn cung cấp chức năng như một router mặc định sử dụng ESRP để tích hợp trên các thiết bị.Các chức năng của các cấp độ của ứng dụng đặt biệt đòi hỏi phải được chạy trực tiếp trên thiết bị F5 BIG/ip. Với giải pháp này F5’s SEE/IT có chức năng quản lý ứng dụng còn 3DNS có chức năng phân phối cân bằng tải khối lượng công việc chạy trên các thiết bị. Với việc ứng dụng các chức năng của máy chủ cân bằng tải hỗ trợ cho hệ thống chạy tốt các ứng dụng trong các môi trường chuyên biệt.

7- Phân Phối Cân Bằng Tải Và Phục Hồi Sự Cố

Extreme Networks cùng với F5 cung cấp một khả năng đặc biệt gọi là phân phối máy chủ cân bằng tải. Phân phối cân bằng tải, cho phép người dùng truy cập vào các máy chủ thông qua mạng WAN.

Có nhiều lý do cần phải phân phối các máy chủ ở các nơi khác nhau. Trước tiên, các máy chủ có thể được đặt gần hơn với người dùng cuối để giúp tăng tốc độ truyền trong mạng WAN. Phân phối máy chủ cân bằng tải cũng có thể cung cấp dịch vụ giúp khắc phục các sự cố. Nhiệm vụ quan trọng của ứng dụng là có thể nhân rộng tại một trang web và khắc phục sự cố nếu các trang web chính trở nên không hoạt động, các khối lượng công việc được tự động chuyển hướng đến các trang web sao lưu.

Extreme Networks với thiết bị chuyển mạch tích hợp trên máy chủ cân bằng tải, cung cấp hiệu suất của thời gian thực và sẵn có của thông tin cần thiết cho bộ điều khiển thông minh F5 3DNS để cân bằng lưu lượng trên quy mô toàn cầu và cung cấp dự phòng trang web. 3DNS là một khu vực quản lý trên phạm vi rộng, mở rộng khả năng của Internet Domain Name Service(DNS). 3DNS có nhiệm vụ phân giải tên miền thành địa chỉ IP của máy chủ hoặc các máy chủ trạm dựa trên các tiêu chí như mức độ gần nhau của các máy chủ cho người dùng cuối, hoặc cung cấp các ứng dụng sẵn có trên mỗi trang web.

Điều này tạo ra một “môi trường trang web ảo” mà trung tâm quản lý là các trang web Internet và trung tâm dữ liệu, tạo cho người dùng cuối một URL duy nhất có quyền truy cập trên nhiều máy chủ tại nhiều địa điểm địa lý khác nhau.

Mô hình dưới đây cho thấy công cụ F5 và Extreme Networks Switch tích hợp trên máy chủ cân bằng tải dùng để phân phối mạng:

8- Kết Luận

Server Load Balancing là một kỹ thuật mạnh mẽ để nâng cao tính sẵn sàng ứng dụng và hiệu quả trong việc cung cấp dịch vụ, các nhà cung cấp dịch vụ web cung cấp nội dung và mạng lưới doanh nghiệp, thực hiện trọn vẹn nhưng cũng có thể làm tăng chi phí và độ phức tạp mạng. Bên cạnh những ưu thế từ việc ứng dụng Server Load Balancing và các thiết bị không dây, nó còn có hạn chế là nếu hoạt động ở tốc độ cao cũng có thể tạo ra nghẽn cổ chai của riêng mình.

Extreme Networks cung cấp các lợi ích chính của máy chủ cân bằng tải, giúp doanh nghiệp tiết kiệm chi phí và làm giảm độ phức tạp giúp hệ thống đạt được hiệu suất cao khi làm việc. Bằng cách tích hợp đầy đủ máy chủ cân bằng tải và wire-speed trên nhiều Layer giúp hệ thống website của doanh nghiệp luôn ổn định và luôn trực tuyến, mang lại hiệu quả tốt nhất cho hệ thống IT trong doanh nghiệp.

Server Load Balancing (Phần 3)

6-Server Load Balancing Trong Môi Trường Chuyên Biệt

Đối với các ứng dụng yêu cầu các tính năng chuyên sâu như URL / cookie và SSL ID, Vì vậy máy chủ cân bằng tải giúp cho hệ thống chạy tốt các ứng dụng này thông qua các thiết bị ngoài. Với sự tích hợp của wire-speed vào máy chủ cân bằng tải, Extreme Netword đã cung cấp cho doanh nghiệp hai giải pháp tốt nhất, ứng dụng vào trong hệ thống mang lại hiệu quả tối ưu cho doanh nghiệp:

– Các chức năng chuyên biệt của thiết bị.

-Hiệu quả cao từ giải pháp tích hợp wire-speed switching.

– Giảm chi phí tổng thể cho hệ thống.

Một giải pháp lý tưởng bao gồm kết hợp Wire-Speed IP Routing tại Layer 3 và wire-speed tại Layer 2 giúp hỗ trợ các chức năng đặc biệt của các thiết bị.

Trong ví dụ này, Summit7i giữ vai trò chính của máy chủ cân bằng tải hỗ trợ tốt cho việc chạy các ứng dụng đòi hỏi các yêu cầu xử lý cao. Layer 3 hỗ trợ chức năng định tuyến và liên kết các giao thức định tuyến Internet cho tất cả các dịch vụ ảo. Summit7i còn cung cấp chức năng như một router mặc định sử dụng ESRP để tích hợp trên các thiết bị.Các chức năng của các cấp độ của ứng dụng đặt biệt đòi hỏi phải được chạy trực tiếp trên thiết bị F5 BIG/ip. Với giải pháp này F5’s SEE/IT có chức năng quản lý ứng dụng còn 3DNS có chức năng phân phối cân bằng tải khối lượng công việc chạy trên các thiết bị. Với việc ứng dụng các chức năng của máy chủ cân bằng tải hỗ trợ cho hệ thống chạy tốt các ứng dụng trong các môi trường chuyên biệt.

7- Phân Phối Cân Bằng Tải Và Phục Hồi Sự Cố

Extreme Networks cùng với F5 cung cấp một khả năng đặc biệt gọi là phân phối máy chủ cân bằng tải. Phân phối cân bằng tải, cho phép người dùng truy cập vào các máy chủ thông qua mạng WAN.

Có nhiều lý do cần phải phân phối các máy chủ ở các nơi khác nhau. Trước tiên, các máy chủ có thể được đặt gần hơn với người dùng cuối để giúp tăng tốc độ truyền trong mạng WAN. Phân phối máy chủ cân bằng tải cũng có thể cung cấp dịch vụ giúp khắc phục các sự cố. Nhiệm vụ quan trọng của ứng dụng là có thể nhân rộng tại một trang web và khắc phục sự cố nếu các trang web chính trở nên không hoạt động, các khối lượng công việc được tự động chuyển hướng đến các trang web sao lưu.

Extreme Networks với thiết bị chuyển mạch tích hợp trên máy chủ cân bằng tải, cung cấp hiệu suất của thời gian thực và sẵn có của thông tin cần thiết cho bộ điều khiển thông minh F5 3DNS để cân bằng lưu lượng trên quy mô toàn cầu và cung cấp dự phòng trang web. 3DNS là một khu vực quản lý trên phạm vi rộng, mở rộng khả năng của Internet Domain Name Service(DNS). 3DNS có nhiệm vụ phân giải tên miền thành địa chỉ IP của máy chủ hoặc các máy chủ trạm dựa trên các tiêu chí như mức độ gần nhau của các máy chủ cho người dùng cuối, hoặc cung cấp các ứng dụng sẵn có trên mỗi trang web.

Điều này tạo ra một “môi trường trang web ảo” mà trung tâm quản lý là các trang web Internet và trung tâm dữ liệu, tạo cho người dùng cuối một URL duy nhất có quyền truy cập trên nhiều máy chủ tại nhiều địa điểm địa lý khác nhau.

Mô hình dưới đây cho thấy công cụ F5 và Extreme Networks Switch tích hợp trên máy chủ cân bằng tải dùng để phân phối mạng:

8- Kết Luận

Server Load Balancing là một kỹ thuật mạnh mẽ để nâng cao tính sẵn sàng ứng dụng và hiệu quả trong việc cung cấp dịch vụ, các nhà cung cấp dịch vụ web cung cấp nội dung và mạng lưới doanh nghiệp, thực hiện trọn vẹn nhưng cũng có thể làm tăng chi phí và độ phức tạp mạng. Bên cạnh những ưu thế từ việc ứng dụng Server Load Balancing và các thiết bị không dây, nó còn có hạn chế là nếu hoạt động ở tốc độ cao cũng có thể tạo ra nghẽn cổ chai của riêng mình.

Extreme Networks cung cấp các lợi ích chính của máy chủ cân bằng tải, giúp doanh nghiệp tiết kiệm chi phí và làm giảm độ phức tạp giúp hệ thống đạt được hiệu suất cao khi làm việc. Bằng cách tích hợp đầy đủ máy chủ cân bằng tải và wire-speed trên nhiều Layer giúp hệ thống website của doanh nghiệp luôn ổn định và luôn trực tuyến, mang lại hiệu quả tốt nhất cho hệ thống IT trong doanh nghiệp.

Nguồn TechBrief

Server Load Balancing (Phần 2)

4-Lợi Ích Của Việc Tích Hợp Server Load Balancing Vào Hệ Thống Mạng

Các bộ phần mềm ExtremeWare thúc đẩy các khả năng hoạt động hiệu quả của phần cứng bằng cách cho phép chuyển đổi hàng loạt wire-speed trên Server Load Balancing và giúp chuyển hướng web cache. Extreme Networks giúp các dịch vụ chạy chồng lên nhau trên cơ sở hạ tầng từ đó giúp quá trình xử lý được nhanh hơn, cùng với Speed-Wire IP Routing tại Layer 3, Wire-Speed chuyển mạch tại Layer 2, Layer 1-4 giúp kiểm soát danh sách truy cập dựa trên QoS với quản lý băng thông.

Cách tiếp cận này cung cấp lợi ích đáng kể khi so sánh với các sản phẩm khác:

-Máy chủ cân bằng tải được phân phối như một dịch vụ chồng trên cơ sở hạ tầng mạng hiện có. Không có cần phải thiết kế lại mạng lưới để phù hợp với máy chủ cân bằng tải.

– Hiệu suất của Wire-Speed cho máy chủ cân bằng tải và các ứng dụng chuyển hướng web cache được rõ ràng.

– Việc tích hợp này cung cấp một giải pháp đơn giản hơn và linh động cho các kết nối , switch, router và khả năng cân bằng tải,

-Khả năng phối hợp mang lại hiệu quả cao dựa trên QoS, chính sách truy cập và hệ thống an ninh.

– Ngày càng giảm các thiết bị để quản lý dễ dàng và tiết kiệm chi phí.

–  Giảm chi phí sở hữu mạng.

Extreme Networks là nâng cao hiệu quả của việc tích hợp máy chủ cân bằng tải vào hệ thống, tiếp tục dẫn đầu thị trường trong việc cung cấp Wire-Speed IP Routing tại Layer 3, Wire-Speed chuyển mạch tại Player 2 và Policy-Based QoS. Từ đó giúp doanh nghiệp tiết kiệm chi phí, thu được lợi ích từ một giải pháp chuyển đổi hiệu quả mà máy chủ cân bằng tải mang lại.

Dưới đây là hai sơ đồ thể hiện việc trước khi  và sau khi tích hợp máy chủ cân bằng tải vào hệ thống:

 

Trong sơ đồ “before” các bạn thấy đấy chúng ta phải sử dụng thêm thiết bị Switches tại Layer 2 để kết nối theo phương thức Point-to-Point từ Server Load Balancing đến các cụm máy chủ và từ Server Load Balancing đến các Routers.

Cách tiếp cận này là phức tạp và tốn kém vì mỗi thiết bị đảm nhận một chức năng riêng. Làm cho hệ thống phức tạp và việc quản lý cũng rất khó khăn.

Mỗi thiết bị có cơ chế dự phòng riêng biệt của nó như Virtual Router Redundancy Protocol (VRRP), Spanning Tree và các Server Load Balancing đều có các giao thức riêng của. Không có những giao thức này tương tác với lớp mỗi khác, mà không có lá khả năng phục hồi khi có sự cố không xảy ra. Nếu một thiết bị, máy chủ cân bằng tải bị sự cố, các chế độ chờ của thiết bị, máy chủ cân bằng tải cũng không thể hoạt động được. Nhưng trừ khi một liên kết thực tế thất bại, thượng nguồn và hạ nguồn Layer 2 thiết bị chuyển mạch sẽ tiếp tục để chuyển tiếp lưu lượng truy cập đến máy chủ cân bằng tải trong hệ thống không cân đối thiết bị.

Một trở ngại cho phương pháp này là máy chủ cân bằng tải và các thiết bị có thể gây ra vấn đề hiệu suất. Bởi vì, không giống như thiết bị chuyển mạch LAN, họ thường không sử dụng wire-speed. Nhìn chung, mạng lưới này chỉ có thể chạy ở tỷ lệ thiết bị chậm nhất.

Một giải pháp hiệu quả hơn là được thể hiện trong mô hình “after”, mô hình này dựa trên việc tích hợp hai thiết bị chuyển mạch Summit7i tích hợp trên Server Load Balancing . Trong ví dụ này, chỉ có hai thiết bị chuyển mạch Summit7i được yêu cầu phải xây dựng tại Layer 2 và Layer 3 của cơ sở hạ tầng cung cấp một giải pháp phân phối công việc cho hệ thống xử lý tốt nhất. Phối hợp dự phòng giữa chuyển mạch, định tuyến và tải máy chủ cân bằng trong một nền tảng nhất quán và dễ quản lý cung cấp một giải pháp tốt hơn.

Tính sẵn sàng cao có thể được đảm bảo khi đưa nhiều thiết bị chuyển mạch primary/secondary  để cung cấp thêm nhiều dịch vụ ảo. Với các dịch vụ ảo này đảm bảo cho hệ thống chay ổn định khi có sự cố xảy ra.

Các thiết bị chuyển mạch Extreme Networks thực hiện việc chuyển mạch wire-speed tại Layer 3 đến các giao thức định tuyến liên quan đến Internet.

Bằng cách tích hợp đầy đủ các tính năng của máy chủ cân bằng tải vào hệ thống, giúp hệ thống luôn chạy ổn định bằng việc cân bằng tải công việc và giúp các cụm máy chủ đáp ứng đầy đủ các yêu cầu của ứng dụng quan trọng từ đó tạo ra doanh thu cho doanh nghiệp.

5- Chuyển Hướng Web Cache

Ngoài ra để cân bằng tải máy chủ, Extreme Networks còn tích hợp dịch vụ chuyển hướng web cache với một twist. Lưu lượng được chuyển hướng ở wire-speed bằng cách sử dụng protocol tại Layer 4, như HTTP cổng 80, cho một hoặc nhiều tải-chia sẻ cổng trên máy chủ một hoặc nhiều web cache. Tất cả điều này xảy ra rất linh hoạt, có nghĩa là người dùng không cần phải cấu hình lại trình duyệt ứng dụng.

Tích hợp dịch vụ chuyển hướng web cache bằng wire-speed vào máy chủ cân bằng tải thì Extreme Networks là nhà sản xuất đầu tiên tích hợp Wire-Speed IP Routing tại Layer 3 và wire-speed switch tại Layer 2 trên một nền tảng phần cứng duy nhất. việc tích hợp này cho phép các trang web có hiệu quả bộ nhớ đệm mà không cần thay đổi căn bản để thiết kế mạng. Một lần nữa, bộ phần mềm ExtremeWare tại Layer 4 cho phép web cache chuyển hướng hướng sang dịch vụ khác mà không cần thiết kế l���i hệ thống mạng.

Đối với doanh nghiệp và các nhà cung cấp nội dung web, tăng bộ nhớ đệm giảm đáng kể số truy cập lặp đi lặp lại trên các máy chủ và cho phép các trang nội dung phong phú để được phục vụ nhanh chóng hơn cho khách hàng. Đối với các nhà cung cấp dịch vụ, điều này làm giảm chi phí băng thông WAN. Và cho các mạng doanh nghiệp, thường xuyên truy cập web nội dung , do đó WAN bảo tồn băng thông và giảm chi phí liên quan của nó.

(còn tiếp)

Nguồn TechBrief

Server Load Balancing (Phần 1)

1-Giới Thiệu

Cơ sở hạ tầng CNTT đang đóng một vai trò ngày càng quan trọng trong sự thành công của một doanh nghiệp. Thị phần, khách hàng hài lòng với sản phẩm của công ty và hình ảnh công ty tất cả những thứ này có thể do website của doanh nghiệp đó chiếm một phần quan trọng. Mạng lưới các máy chủ hiện nay thường xuyên được sử dụng để lưu trữ ERP, thương mại điện tử và vô số các ứng dụng khác. Nền tảng của các trang web này, các chiến lược kinh doanh, cơ sở hạ tầng tốt sẽ cung cấp hiệu suất cao, tính sẵn sàng cao, và các giải pháp an toàn và khả năng mở rộng để hỗ trợ tất cả các ứng dụng.

Tuy nhiên, sự sẵn có của các ứng dụng này thường bị đe dọa bởi quá tải mạng cũng như sự cố xảy ra trên các máy chủ và các ứng dụng. Sử dụng tài nguyên thường trong sự cân bằng, dẫn đến các nguồn lực hiệu suất thấp đang quá tải với các yêu cầu, trong khi các nguồn lực hiệu suất cao vẫn nhàn rỗi. Server Load Balancing (máy chủ cân bằng tải) là một giải pháp giúp cân bằng lại giữa các nguồn lực và giúp tăng hiệu suất làm việc cho hệ thống mạng trong doanh nghiệp.

2- Server Load Balancing Và Lợi Ích Của Nó

Server Load Balancing (máy chủ cân bằng tải) là một quá trình phân phối các yêu cầu dịch vụ trên một nhóm các máy chủ. Sơ đồ dưới đây cho thấy cân bằng tải trong một nhóm các máy chủ.

Server Load Balancing (máy chủ cân bằng tải) ngày càng trở nên quan trọng trong hệ thống cơ sở hạ tầng mạng trong doanh nghiệp:

– Tăng cường khả năng mở rộng.
– Nâng cao hiệu suất.
– Tính sẵn sàng cao và khắc phục sự cố.

Nhiều ứng dụng chuyên sâu có quy mô lớn, vì vậy đòi hỏi các máy chủ phải có sự cân bằng tải cho nhau mới có thể chạy tốt các ứng dụng như vậy. Cả doanh nghiệp và nhà cung cấp dịch vụ cần sự linh hoạt để triển khai thêm các máy chủ một cách nhanh chóng và minh bạch để đáp ứng được nhu cầu xử lý công việc trong doanh nghiệp. Server Load Balancing (máy chủ cân bằng tải) làm cho nhiều máy chủ xuất hiện như là một máy chủ duy nhất,  một dịch vụ đơn ảo, phân phối các yêu cầu người sử dụng trong các máy chủ.

Hiệu suất cao nhất là đạt được khi sức mạnh xử lý của máy chủ được sử dụng thông minh. Nâng cao cân bằng tải máy chủ có thể trực tiếp yêu cầu dịch vụ người dùng cuối để các máy chủ xử lý công việc được đồng đều nhau và do đó khả năng cung cấp nhanh nhất thời gian để đáp ứng. Nhất thiết, các thiết bị cân bằng tải phải có khả năng xử lý lưu lượng tổng hợp của nhiều máy chủ. Nếu một thiết bị cân bằng tải máy chủ trở thành một “nút cổ chai”  nó không còn là một giải pháp, nó chỉ là một vấn đề bổ sung.

Lợi ích thứ ba của cân bằng tải máy chủ là khả năng cải thiện tính sẵn sàng ứng dụng. Nếu một ứng dụng hoặc máy chủ không thành công, cân bằng tải có thể tự động phân phối lại yêu cầu dịch vụ người dùng cuối để các máy chủ khác trong một nhóm các máy chủ hoặc tới các máy chủ trong một địa điểm. Máy chủ cân bằng tải cũng có kế hoạch ngăn ngừa sự cố cho phần mềm hoặc bảo trì phần cứng bằng các dịch vụ.

Máy chủ phân phối sản phẩm cân bằng tải cũng có thể cung cấp dịch vụ khắc phục sự cố bằng cách chuyển hướng yêu cầu dịch vụ trang một trang web khác khi có một sự cố xảy ra làm vô hiệu hóa các trang web chính.

3-Tích Hợp Server Load Balancing Vào Hệ Thống Mạng Trong Doanh Nghiệp

Tận dụng tốc độ của công nghệ Gigabit, Extreme Networks ® Ethernet cho phép các nhà quản lý để xây dựng lớn hơn, triển khai hệ thống mạng ít bị lỗi hơn, trong khi điều khiển băng thông dựa trên tầm quan trọng tương đối của mỗi ứng dụng. Extreme Networks cung cấp Wire-Speed IP Routing ở Layer 3 và wire-speed Layer 2 cũng như end-to-end dựa trên chính sách chất lượng dịch vụ (QoS) và wire-speed tiếp cận chính sách ở Layer 4 với các tùy chọn khả năng phục hồi được thiết kế để giảm chi phí sở hữu mạng.

Ứng dụng trên các Layer được xem như các dịch vụ quan trọng , Extreme Networks đã tích hợp các F5 Networks công nghệ cân bằng tải hàng đầu trên mã nguồn máy chủ để tăng tốc độ chuyển đổi giữa các ứng dụng. Để giúp các công ty di chuyển các mạng hiện có để đáp ứng yêu cầu ngày nay, Extreme Networks cung cấp các bộ phần mềm để tăng tốc độ quy mô, băng thông, kích thước mạng và chính sách dựa trên chất lượng dịch vụ.

Một bản tóm tắt các tính năng của máy chủ cân bằng tải tiên tiến mà Extreme Networks cung cấp bao gồm:

– Tích hợp phần cứng để nâng cao hiệu suất wire-speed từ server-to-client.

– Web cache giúp tăng tốc độ chuyển hướng trên một hay hoặc nhiều web lưu trữ hoặc các loại cache.

– Phối hợp Layer 2 và Layer 3 để nâng cao tính sẵn sàng trên máy chủ cân bằng tải tăng khả năng phục hồi kỹ thuật một cách đơn giản và hiệu quả.

– Tinh vi cao khả năng sẵn có, chẳng hạn như phiên trao đổi thông tin giữa các hoạt động và chờ máy chủ dịch vụ và cân bằng tải các hoạt động.

– Linh hoạt các tùy chọn để bảo toàn các tính năng trên máy chủ với các máy chủ và tối ưu hóa số truy cập trên web cache của máy chủ.

– Layer 1-7 kiểm tra tình trạng “sức khỏe” trên máy chủ, bao gồm cả khả năng tận dụng các thiết bị bên ngoài mà thực hiện việc kiểm tra trên các ứng dụng tùy biến.

– Kiểm tra danh sách truy cập để gia tăng an ninh.

– Policy-Based QoS quản lý băng thông và Diffserv khả năng để kiểm soát và ưu tiên việc chạy ứng dụng hoặc truy cập bởi lớp khách hàng cụ thể.

– Một số thuật toán cân bằng tải lựa chọn.

– Global cân bằng tải và chức năng phục hồi trang web thông qua hội nhập với các giải pháp F5 3DNS.

– Quản lý tầm nhìn bằng cách tích hợp với F5 SeeIT quản lý ứng dụng.

(còn tiếp)

Nguồn TechBrief

Cân bằng tải trong các ứng dụng Web

Nội dung bài này nhằm mục đích cung cấp một số phương pháp để cân bằng tải trên các nhóm máy chủ (cluster) ứng dụng Web của bạn. Cluster là một nhóm các máy chủ chạy đồng thời một ứng dụng Web, quá trình thực hiện liên kết nhóm này làm cho các máy chủ hoạt động như một máy chủ riêng lẻ khi quan sát  từ khía cạnh bên ngoài. Để cân bằng tải máy chủ, hệ thống cần phải phân phối các yêu cầu (request) đến nhiều nút khác nhau bên trong cluster máy chủ, với mục đích tối ưu hóa hiệu suất hệ thống. Điều này sẽ mang đến cho mạng của bạn hiệu suất cao hơn, khả năng mở rộng (scalability) – tránh rơi vào tình trạng túng thiếu tài nguyên mạng trong một doanh nghiệp hay một ứng dụng Web nào đó.

Khả năng có sẵn cao có thể được hiểu là tình trạng dư thừa. Nếu một máy chủ không thể quản lý một yêu cầu thì các máy chủ khác trong cluster đó có quản lý được nó không? Trong một hệ thống có khả năng cung cấp cao, nếu một Web Server bị lỗi thì máy chủ khác sẽ tiếp quản ngay để xử lý yêu cầu.

Khả năng mở rộng (Scalability) là khả năng của một ứng dụng có thể hỗ trợ được số lượng người ngày một tăng. Nếu nó cần 10ms để một ứng dụng có thể đáp trả cho một yêu cầu thì khoảng thời gian sẽ là bao lâu để nó đáp trả đến 10.000 yêu cầu cùng một lúc? Khả năng mở rộng vô hạn sẽ cho phép nó đáp trả các yêu cầu này chỉ trong khoảng 10ms. Khả năng mở rộng là đơn vị đo cho một loạt các hệ số như số lượng người dùng đồng thời mà một cluster có thể hỗ trợ và thời gian nó cần để xử lý một yêu cầu.

Có hai phương pháp chính để cân bằng tải đó là:

  • Luân chuyển vòng DNS
  • Sử dụng các bộ cân bằng tải bằng phần cứng

Luân chuyển vòng DNS

Hầu hết trong số các bạn có lẽ đều đã biết rằng, cơ sở dữ liệu DNS (Domain Name Server) bản đồ hóa tên host thành các địa chỉ IP.

Khi bạn nhập một URL vào trong trình duyệt (ví dụ như www.loadbalancedsite.com) thì trình duyệt sẽ gửi một yêu cầu đến DNS yêu cầu nó trả về địa chỉ IP của site. Đây được gọi là việc tra cứu DNS. Sau khi trình duyệt Web có được địa chỉ IP cho site thì nó sẽ liên hệ với site bằng địa chỉ IP, và hiển thị trang mà bạn vừa yêu cầu. Máy chủ DNS thường có một địa chỉ IP được bản đồ hóa với một tên site nào đó. Trong ví dụ riêng của chúng tôi thì site làwww.loadbalancedsite.com bản đồ hóa thành địa chỉ IP là 203.24.23.3.

Để cân bằng tải bằng DNS, máy chủ DNS phải duy trình một số địa chỉ IP khác nhau cho cùng một tên site. Nhiều địa chỉ IP thể hiện nhiều máy trong một cluster, tất cả trong số chúng đều bản đồ hóa đến một tên site logic. Trong ví dụ của chúng ta, www.loadbalancedsite.com có thể được cấu hình trên ba máy chủ trong một cluster với các địa chỉ IP dưới đây:

203.34.23.3
203.34.23.4
203.34.23.5

Trong trường hợp này, máy chủ DNS được bản đồ hóa như sau:

www.loadbalancedsite.com  203.34.23.3
www.loadbalancedsite.com  203.34.23.4
www.loadbalancedsite.com  203.34.23.5

Diagram.

Khi yêu cầu đầu tiên đến được máy chủ DNS, nó sẽ trả về địa chỉ IP 203.34.23.3, máy đầu tiên. Khi có yêu cầu thứ hau, nó sẽ trả về địa chỉ IP thứ hai: 203.34.23.4. Tiếp tục như vậy, với yêu cầu thứ tư, địa chỉ IP đầu tiên lại được lặp lại.

Bằng cách sử dụng luân chuyển vòng DNS như ở trên, tất cả các yêu cầu đối với một site nào đó đều được phân phối đều đến tất cả các máy trong cluster. Chính vì vậy, với phương pháp cân bằng tải này, tất cả các nút trong cluster đều được sử dụng.

Ưu điểm của phương pháp luân chuyển vòng DNS

Các ưu điểm chính của phương pháp này nằm ở chỗ rẻ và dễ dàng:

Không đắt và dễ dàng thiết lập: Các quản trị viên hệ thống chỉ cần tạo một số thay đổi trong máy chủ DNS để hỗ trợ được việc luân chuyển vòng, và nhiều máy chủ DNS đã có sự hỗ trợ này. Nó không yêu cầu đến sự thay đổi mã của ứng dụng Web; trong thực tế, các ứng dụng Web không hề biết về cơ chế cân bằng tải mà nó bị thực hiện.

Đơn giản: Phương pháp này không yêu cầu đến các chuyên gia về mạng trong việc thiết lập hoặc giỡ rối hệ thống trong trường hợp có vấn đề nào đó xay ra.

Nhược điểm của phương pháp này

Có hai nhược điểm chính của phương pháp dựa trên phần mềm này là nó không cung cấp sự hỗ trợ mối quan hệ thời gian thực giữa các máy chủ với nhau và không hỗ trợ khả năng có sẵn cao.

Không hỗ trợ mối quan hệ thời gian thực giữa các máy chủ. Mối quan hệ thời gian thực giữa các máy chủ là khả năng của hệ thống trong việc quản lý các yêu cầu của người dùng, máy chủ này hoặc bất kỳ máy chủ nào, phụ thuộc vào thông tin session được duy trì trên máy chủ hoặc tại mức cơ sở bản, mức cơ sở dữ liệu.

Không có được khả năng hỗ trợ mối quan hệ giữa các máy chủ, phương pháp luân chuyển vòng DNS dựa vào một trong ba phương pháp đã được đưa ra để duy trì sự kiểm soát session hoặc sự nhận dạng người dùng đối với các yêu cầu đang đến trên HTTP.

  • Các cookie
  • Các trường ẩn
  • Viết lại URL

Khi một người dùng thực hiện một yêu cầu đầu tiên, máy chủ Web sẽ trả một thẻ bằng văn bản duy nhất để phân biệt người dùng đó. Các yêu cầu tiếp theo có thẻ này để sử dụng cookie, viết lại URL hoặc các trường ẩn, cho phép máy chủ xuất hiện để duy trì một session giữa máy khách và máy chủ. Khi người dùng thiết lập một session với một máy chủ, thì tất cả các yêu cầu đến sau thường đều đi đến cùng một máy chủ.

Vấn đề ở đây là trình duyệt lưu địa chỉ IP của máy chủ đó. Khi Cache hết hạn, trình duyệt sẽ thực hiện một yêu cầu khác đối với máy chủ DNS để có được địa chỉ IP có liên kết với tên miền. Nếu máy chủ DNS trả về một địa chỉ IP khác, một máy chủ khác trong cluster, thì các thông tin về session sẽ bị mất.

Không hỗ trợ cho khả năng có sẵn cao. Xem xét một cluster có n nút. Nếu một nút nào đó gặp vấn đề thì cứ yêu cầu thứ n đến máy chủ DNS đều hướng bạn đến một nút hỏng này. Một router thông minh có thể giải quyết được vấn đề này bằng cách kiểm tra các nút ở các khoảng thời gian nào đó, phát hiện ra các nút bị hỏng và gỡ bỏ chúng ra khỏi danh sách, chính vì vậy sẽ không có yêu cầu nào được gửi đến chúng nữa. Tuy vậy, vấn đề ở đây vẫn tồn tại nếu nút vẫn có nhưng ứng dụng Web đang chạy trên nút đã bị hỏng.

Thay đổi cluster sẽ mất nhiều thời gian để truyền bá đến toàn bộ phần còn lại của Internet. Một lý do ở đây là trong nhiều tổ chức lớn – các ISP, các công ty, hay đại lý – lưu các yêu cầu DNS của họ để giảm lưu lượng mạng và thời gian request. Khi người dùng bên trong các tổ chức như vậy thực hiện một request thì hệ thống sẽ được kiểm tra danh sách các tên DNS của Cache đã được bản đồ hóa địa chỉ IP. Nếu hệ thống phát hiện thấy một entry nào thì nó sẽ trả địa chỉ IP về cho người dùng. Nếu nó không phát hiện thấy entry nào trong Cache nội bộ thì ISP sẽ gửi request DNS này đến máy chủ DNS và lưu sự đáp trả.

Khi một entry đã được lưu hết hạn, ISP sẽ nâng cấp cơ sở dữ liệu nội bộ của nó bằng cách liên hệ với các máy chủ DNS khác. Khi danh sách các máy chủ của bạn thay đổi, nó có thể cần đến một khoảng thời gian ngắn cho các entry đã được lưu trên mạng của các tổ chức khác hết hạn và tìm kiếm danh sách các máy chủ đã được cập nhật. Trong suốt chu trình này, máy khách vẫn có thể thực hiện hành động “hit” nút máy chủ bị hỏng, nếu ISP của máy khách đó vẫn có một entry trỏ đến nó. Trong trường hợp như vậy, một số người dùng của ISP đó không thể truy cập vào site của bạn từ những lần truy cập ban đầu, thậm trí nếu cluster của bạn có các máy chủ dư thừa vẫn đang hoạt động.

Một vấn đề còn lớn hơn xuất hiên khi gỡ bỏ (removing) một nút so với việc bổ sung. Khi bạn bớt đi một nút, người dùng có thể đang thực hiện “hit” một máy chủ không tồn tại. Còn khi bạn thêm một nút thì máy chủ đó vẫn chưa được sử dụng cho tới khi địa chỉ IP của nó đến được tất cả các máy chủ DNS.

Mặc dù phương pháp này có thể cân bằng được một số lượng người dùng trên mỗi máy chủ, nhưng nó không hoàn toàn cân bằng tải máy chủ. Một số người dùng có thể yêu cầu mức tải cao hơn trong suốt một session của họ so với những người dùng khác ở trên máy chủ khác, và phương pháp này không thể bảo đảm chống lại được sự bất công bằng đó.

Cân bằng tải dựa trên phần cứng

Các bộ cân bằng tải phần cứng giải quyết được nhiều vấn đề mà chúng ta vừa phải đối mặt trong phương pháp phần mềm luân chuyển vòng DNS ở trên thông qua các địa chỉ IP ảo. Bộ cân bằng tải sẽ thể hiện một địa chỉ IP ảo đối với mạng bên ngoài, địa chỉ này bản đồ hóa đến các địa chỉ của mỗi máy trong một cluster. Chính vì vậy bộ cân băng tải này cần phải đưa ra một địa chỉ IP của toàn bộ các máy tính trong cluster đối với thế giới bên ngoài.

Khi một request đến bộ cân bằng tải, nó sẽ ghi lại header của request để trỏ đến các máy khác trong cluster. Nếu một máy nào đó bị gỡ bỏ từ cluster thì request sẽ không chạy một cách rủi ro việc “hit” vào máy chủ đã chết này, vì tất cả các máy chủ khác trong cluster xuất hiện đều có cùng địa chỉ IP. Địa chỉ này duy trì giống nhau thậm chí nếu một nút nào đó trong cluster bị hỏng. Khi một đáp trả được trả về, máy khách sẽ xem đáp trả đang đến từ bộ cân bằng tải phần cứng. Hay nói theo cách khác thì máy khách sẽ xử lý với một máy tính đó là bộ cân bằng phần cứng.

Ưu điểm

Mối quan hệ giữa các máy chủ. Bộ cân bằng tải phần cứng đọc cookie hoặc các URL đang được đọc trên mỗi một request bởi máy khách. Dựa trên các thông tin này, nó có thể ghi lại các thông tin header và gửi request đến nút thích hợp trong cluster, nơi session của nó được duy trì.

Các bộ cân bằng tải này có thể cung cấp mối quan hệ giữa các máy chủ trong truyền thông HTTP, nhưng không thông qua kênh an toàn như HTTPS. Trong kênh an toàn, các thông báo được mã hóa SSL và có thể tránh được bộ cân bằng tải từ việc đọc các thông tin session.

Khả năng có sẵn cao thông qua hệ thống tự động chuyển đổi dự phòng. Việc chuyển đổi dự phòng xảy ra khi một nút trong cluster không thể xử lý một request và chuyển hướng nó đến một nút khác. Có hai kiểu tự động chuyển đổi dự phòng:

  • Yêu cầu mức chuyển đổi dự phòng. Khi một nút trong cluster không thể xử lý một request (thường là vì bị hỏng) thì nó sẽ chuyển request này sang một nút khác.
  • Chuyển đổi dự phòng session một cách trong suốt. Khi một lời triệu gọi thất bại, nó sẽ được định tuyến một cách trong suốt đến một nút khác trong cluster để hoàn tất sự thực thi.

Bộ cân bằng kiểu này cung cấp chuyển đổi dự phòng mức request; tức là khi nó phát hiện có một nút nào đó bị sự cố thì bộ cân bằng này sẽ chuyển hướng tất cả các request theo sau được gửi đến nút này sang một nút tích cực khác trong cluster. Mặc dù vậy, bất kỳ một thông tin session nào trên nút chết sẽ bị mất khi các request được chuyển hướng đến một nút mới.

Chuyển đổi dự phòng session trong suốt yêu cầu một số kiến thức về sự thực thi cho một quá trình trong một nút, vì bộ cân bằng tải phần cứng chỉ có thể phát hiện các vấn đề mức mạng, không có lỗi. Để thực thi một cách trong suốt về vấn đề chuyển đổi dự phòng, các nút trong cluster phải kết hợp với các nút khác và có vùng bộ nhớ chia sẻ hoặc cơ sở dữ liệu chung để lưu tất cả các dữ liệu session. Cũng chính vì vậy nếu một nút trong cluster có vấn đề thì một session có thể tiếp tục trong một nút khác.

Metrics. Vì tất cả các yêu cầu tới một ứng dụng web đều phải qua hệ thống cân bằng tải, hệ thống có thể quyết định số lượng session hoạt động, số lượng session hoạt động được kết nối trong các trường hợp khác nhau, các khoảng thời gian đáp ứng, thời gian tối đa điện áp, số lượng session trong suốt khoảng tối đa điện áp, số lượng session trong suốt khoảng tối thiểu điện áp… Tất cả các thông tin kiểm định này được sử dụng để tinh chỉnh toàn bộ hệ thống nhằm tối ưu hiệu suất.

Nhược điểm

Nhược điểm đối với định tuyến phần cứng là giá thành của nó, sự phức tạp trong vấn đề thiết lập và khả năng hổng ở một vấn đề nào đó trong tương lai. Vì tất cả request đều được chuyển qua một bộ cân bằng tải phần cứng nên lỗi yêu cầu của phần cứng đó ảnh hưởng đến toàn bộ site.

Việc cân bằng các request HTTPS

Như đã đề cập ở trên, rất khó khăn trong vấn đề cân bằng tải và duy trì các thông tin session của request sử dụng giao thức HTTPS, vì chúng đã được mã hóa. Bộ cân bằng tải phần cứng không thể chuyển tiếp các request dựa trên thông tin trong header, cookie hay URL. Có hai cách để giải quyết vấn đề này:

  • Proxy của Web Server
  • Bộ giải mã SSL phần cứng

Bổ sung các proxy của Web Server

Một Web server proxy nằm trước một cluster của các máy chủ Web lấy tất cả các request và mã hóa chúng. Sau đó nó chuyển hướng chúng đến một nút thích hợp, dựa trên các thông tin header trong phần header, cookie và URL.

Ưu điểm của Web server proxy là chúng cung cấp cách để có được mối liên hệ giữa các máy chủ cho các thông báo được mã hóa SSL, không cần bất cứ một phần cứng mở rộng. Nhưng quá trình SSL mở rộng cần đến một tải mở rộng trên proxy.

Apache và Tomcat. Trong nhiều hệ thống phục vụ, các máy chủ Apache và Tomcat làm việc cùng với nhau để quản lý tất cả request HTTP cho các trang động (JSSP hoặc servlets). Các máy chủ Tomcat cũng quản lý các trang tĩnh, nhưng trong các hệ thống phối hợp, chúng thường được thiết lập để quản lý các request động.

Bạn cũng có thể cấu hình Apache và Tomcat để điều khiển các yêu cầu HTTPS và trong các tải cân bằng. Để thực hiện điều này, bạn chạy trường hợp đa máy chủ Tomcat trên một hoặc nhiều máy. Nếu tất cả máy chủ Tomcat đều chạy trên một máy, chúng nên được cấu hình để nghe trên các cổng khác nhau. Để thực thi cân bằng tải, bạn tạo một mẫu Tomcat đặc biệt gọi là Tomcat Worker.

Như những gì bạn có thể thấy trên hình trên, Web server Apache nhận request HTTP và HTTPS từ các máy khách. Nếu request là HTTPS, thì Web server Apache sẽ mã hóa request và gửi nó đến adapter máy chủ Web, máy chủ sẽ gửi request đến Tomcat Worker, gồm có cả thuật toán cân bằng tải. Tương tự với Web server proxy, thuật toán này cũng cân bằng tải giữa các máy như Tomcat.

Bộ giải mã SSL bằng phần cứng

Cuối cùng, chúng ta nên đề cập đến ở đây rằng có một số thiết bị phần cứng có khả năng giải mã các request SSL. Hướng dẫn chi tiết về chúng không nằm trong phạm vi bài này, nhưng có thể nói một cách vắn tắt, chúng được đặt trước bộ cân bằng tải phần cứng và cho phép giải mã thông tin trong các cookie, header và URL.

Các bộ giải mã SSL phần cứng này thường hoạt động nhanh hơn các proxy máy chủ Web và có khả năng mở rộng cao. Tuy nhiên như hầu hết các giải pháp phần cứng, chúng vẫn gây ra nhiều vấn đề phức tạp trong việc thiết lập và cấu hình.

Nguồn QTM

Giải pháp Load Balancing Web Server

I. Giới thiệu chung:

Mục đích :
− Tổng hợp các sức mạnh đơn lẻ thành một
− Tăng cường khả năng chịu lỗi

Về kỹ thuật :  hệ thống sẽ bao gồm các hệ thống con:

1. Web server
− Đây là hệ thống public, phục vụ cho mục đích marketing, quảng bá đưa hình ảnh hoạt động, sản phẩm của công ty đến với mọi người.
− Hệ thống này, về kỹ thuật, cho phép tất cả người dùng Internet đều có thể tìm kiếm thông tin, trao đổi thông tin với website của bạn. Do vậy, cần phải đảm bảo về tốc độ truy cập, tính ổn định.

2. Database Server
− Hệ thống Database chung để Web server access vào lấy dữ liệu và hiển thị nội dung trên website.
− Đây là hệ thống chứa mọi thông tin cho hoạt động cả Public & nội bộ công ty.
− Do vậy, hệ thống DB phải đủ mạnh, ổn định & an toàn dữ liệu.

3. Proxy server (Load Balancing)
    − Đây là hệ thống chuyển tiếp thông tin và kiểm soát thông tin, tạo sự an toàn cho server web, database server.
− Chức năng Load Balancing (LB) cho các web server sẽ được cài đặt trên máy chủ Proxy này.

II. Mô hình kết nối:


Mô hình giải pháp high availability và load balancing cho website

III. Thiết bị và các yêu cầu khác:

− 3 IP PUBLIC  :
• IP WAN 1 : Sẽ được gán cho LB1
• IP WAN 2 : Gán cho LB2
• IP WAN 3 : Sử dụng cho Virtual IP  ( Người dùng sẽ truy cập đến các Webserver thông qua địa chỉ này )

− Cần 4 Server :
• 2 Server đóng vai trò control việc load balancing  :
Mỗi Server cần có 2 Interface .
Vì là nơi chuyển traffic chính nên yêu cầu throughput cho network traffic cao . Khả năng throughput này dựa trên CPU và RAM .
• 2 Server đóng vai trò Website
Lưu trữ thông tin website trên đây .
Trên 2 Server ta có có thể setup mysql để làm database .
Để  đảm việc đồng bộ giữa 2 database trên 2 server này luôn giống nhau , ta có thể thiết lập giải pháp replicate mysql .

IV. Cách thức hoạt động:

− Ta sẽ có 2 Server đảm nhận vai trò là LoadBalancer và Firewall .
− Load Balancer :
• 1 Server đóng vai trò là active. ( ở đây là LB1)
• Server còn lại giữ vai trò standby. ( LB2 )
• Khi bên ngoài truy cập đến website thông qua địa chỉ : IP WAN3 . sẽ được redirect theo đường dẫn (mũi tên màu đen) đến server LB1 ( Active ). LB1 sẽ tự động thực hiện nắm giữ việc load balancing tới 2 Web Server .
• Khi Server LB1 không còn khả năng phục vụ , lúc này server LB2 sẽ được tự động chuyển lên Active tiếp tục nắm giữ việc load balancing đến 2 Web Server , đảm bảo cho việc truy cập đến website liên tục đối với người dùng internet  ( đường dẫn mũi tên màu đỏ ) .
• Khi Server LB1 up lên lại , vai trò sẽ được tự động chuyển lại cho LB1 .
• Bằng cách này ta có thể đảm bảo độ sẵn sàng cao và cân bằng tải cho website .
− Firewall :
• Các Web Server sẽ được đặt trong vùng DMZ được bảo vệ bởi LoadBalancer ( Nhờ vào Firewall được cài đặt trên Load Balancer )
− Mô hình 1:

– Mô hình này thích hợp cho trường hợp :
. Dữ liệu trong database lớn và yêu cầu bảo mật cao
. Web Server thực thi Read và Write liên tục đến Database.
– Với mô hình trên :
. Web Server và Database chạy độc lập trên mỗi Server vật lý .
. Có thể triển khai cấu hình phần cứng thích hợp cho Web Server và Database Server .
. Đảm bảo Secure . Trường hợp Hacker tấn công nắm quyền kiểm soát trên Web Server =>Vẫn còn phải thao tac kết nối đến Database Server
– Việc Replicate giữa 2 Database Server sẽ không ảnh hưởng nhiều đến khả năng hoạt động của Web Server ( Do chạy độc lập ) .
– Tăng khả năng chịu tải của Web Server ( Do không phải share resource với database )
– Việc truy xuất dữ liệu chỉ trong mạng LAN và không ảnh hưởng đến 2 Load Balancer .
– Mô hình 2:

– Mô hình này ta đặt Database và Web trên đồng thời mỗi Server .
– Mô hình này áp dụng trong trường hợp dữ liệu database thuộc vào dạng ít hoặc trung bình . Nhưng đòi hỏi truy cập vào web nhanh và luôn sẵn sàng ( số lượng Web Server lên đến 4 )
– Với mô hình trên , lượng request từ Internet sẽ được phân tải đến 4 Server.
– Database trên mỗi Server sẽ đồng bộ với nhau . ( Lên đến 4 )
– Lúc này , do  Load Balancer phải chịu tải lên đến 4 Server => Yêu cầu cấu hình mạnh cho 2 máy

Giải pháp Load Balancing và Fail Over toàn diện dành cho Web Server

Xây dựng một hệ thống High Available (HA) là một nhiệm vụ sống còn dành cho doanh nghiệp hiện nay. Đã có những trường hợp đáng tiếc khiến cho doanh nghiệp phải chịu những thiệt hại lớn không đáng có, thậm chí là mất đi các khách hàng quan trọng – nguồn sống trong kinh doanh.

Trong bài “Để website luôn online với cluster Apache High Availability Linux” đăng trên một số trang web hiện nay tuy thuận tiện nhưng vẫn còn những nhược điểm đáng kể. Một trong những nhược điểm đó là hệ thống chỉ có tác dụng chịu lỗi (Fail Over) mà không thể cân bằng tải (Load Balancing). Do đó, hệ thống chỉ có thể thích hợp với những doanh nghiệp nhỏ lẻ, nhu cầu truy cập web của khách hàng không cao. Nếu sử dụng phương thức trên cho doanh nghiệp lớn thì sẽ gây hiện tượng thắt cổ chai (bottle neck) làm nghẽn lưu lượng truy cập. Mặt khác, doanh nghiệp muốn triển khai thêm nhiều dịch vụ khác thì đây không phải là một lựa chọn thật sự hiệu quả.

Một giải pháp được Kênh Giải Pháp VN đưa ra là xây dựng một hệ thống có tính sẵn sàng cao vừa có khả năng chịu lỗi vừa có khả năng cân bằng tải. Giải pháp này dựa trên nền tảng Linux Virtual Server (LVS). LVS ẩn server thật sau một IP ảo và thực hiện quá trình cân bằng tải các gói tin gửi đến sang tất cả các node dựa trên thuật toán Scheduling. Do tất cả các quá trình được thực hiện ở lớp transport bên trong nhân Linux nên phương thức này còn được gọi là Layer-4 Switching.

Mô hình cụ thể
Hệ thống này được xây dựng trên 4 Server sử dụng hệ điều hành CentOS. Mỗi Server được lắp đặt 2 card mạng riêng biệt. Thông số về các card mạng trên mỗi server được thể hiện trên hình sau:

Client truy cập vào Web Server thông qua IP ảo (192.168.2.200).

Trong mô hình này LVS1 và LVS2 đóng vai trò là các Load Balancer (LB). Hai LVS này hoặc động theo phương thức Active/Passive. Có nghĩa là, khi LVS1 chạy thì LVS2 sẽ ở trạng thái Stand-by, cho đến khi LVS1 gặp sự cố thì LVS2 sẽ tự động kích hoạt và thay thế LVS1 cho đến khi khắc phục được sự cố. LB có nhiệm vụ dẫn đường cho các truy cập đến Web Server.

Trên LVS sẽ được cài đặt các gói chương trình heartbeat, ldirectord và ipvsadm. Trong đó chương trình heartbeat sẽ có nhiệm vụ kiểm tra tình trạng “sống còn” của hai LVS. Do đó, đảm bảo được khả năng chịu lỗi của hệ thống. Còn ldirectord (Linux Director Daemon) có nhiệm vụ giám sát và kiểm tra tín hiệu của các Web Server thông qua một URL request. Trong trường hợp dịch vụ web trên một server bị lỗi thì server đó sẽ bị loại ra khỏi danh sách real server và truy cập sẽ được dồn về Web Server còn lại đảm bảo được tính cân bằng tải lẫn khả năng chịu lỗi.

Cấu hình cụ thể
Đầu tiên, chúng ta tắt Firewall trên tất cả các Server.
/etc/init.d/iptables stop
+ LVS1/LVS2
Cài đặt các dịch vụ cần thiết (heartbeat, ldirectord, ipvsadm)
yum install heartbeat ipvsadm heartbeat-ldirectord –y
Để LB có thể dẫn đường được cho các yêu cầu đến server thì cần active kernel IPV4 packet forwarding.
#/etc/sysctl.conf
net.ipv4.ip_forward = 1
Lưu lại cấu hình cho sysctl.conf
sysctl -p
Tạo file /etc/ha.d/ha.cf
logfile /var/log/ha-log
logfacility local0
keepalive 2
deadtime 30
initdead 120
bcast eth1
ucast eth1 10.0.0.1         # Trên LVS2 là 10.0.0.2
udpport 694
auto_failback on
node lb1.kenhgiaiphap.vn
node lb2.kenhgiaiphap.vn
Tạo file /etc/ha.d/haresoures
lb1.kenhgiaiphap.vn \
ldirectord::ldirectord.cf \
LVSSyncDaemonSwap::master \
Ipaddr2::192.168.2.200
Tạo file /etc/ha.d/authkeys
auth 1
1 crc
File authkeys chỉ có thể thay đổi thông qua tài khoản root
chmod 600 /etc/ha.d/authkeys
Tạo file /etc/ha.d/ldirectord.cf
checktimeout=30
checkinterval=2
autoreload=yes
logfile=”/var/log/ldirectord.log”
quiescent=no
virtual=192.168.2.200:80
real=10.0.0.3:80 gate
real=10.0.0.4:80 gate
service=http
request=”kenhgiaiphap.html”
httpmethod=GET
receive=”maychumang”
persistent=100
scheduler=lblc
protocol=tcp
checktype=negotiate

Khởi động các dịch vụ cần thiết
/etc/init.d/ldirectord stop
/ect/init.d/heartbeat start
+ WebServer1/WebServer2
Sau khi cài đặt Apache Server ta tạo file kiểm tra
echo “maychumang” > /var/www/html/kenhgiaiphap.html
Echo ‘This site is 192.168.2.122’ > /var/www/html/index.html (Webserver1)
Echo ‘This site is 192.168.2.123’ > /var/www/html/index.html (Webserver2)
service httpd start
Tắt chức năng ARP reply cho IP ảo trên Web Server
# /etc/sysctl.conf

net.ipv4.conf.all.ARP_ignore = 1
net.ipv4.conf.eth0.ARP_ignore = 1
net.ipv4.conf.all.ARP_announce = 2
net.ipv4.conf.eth0.ARP_announce = 2

+ Kiểm tra kết quả
Web Server (Load Balancing và Fail Over)
Mở web browser trên máy khác cùng mạng và nhập vào địa chỉ 192.168.2.200. Refresh lại nhiều lần thấy nội dung web thay đổi là cấu hình cân bằng tải thành công.

Muốn kiểm tra khả năng chịu lỗi thì tắt dịch vụ web trên 1 server sau đó thử lại. Nếu trang web hiển thị chuyển sang server còn lại là thành công.


Load Balancer (Fail Over)

Sau khi cài đặt xong kiểm tra trên cả hai LVS. Nếu kết quả giống như trong hình là cài đặt thành công. Trong đó máy 192.168.2.125 là máy Active, chịu trách nhiệm dẫn đường đến Web Server. Máy 192.168.2.130 đang ở chế độ backup.

Kiểm tra Fail Over bằng cách tắt dịch vụ heartbeat trên LVS1 (192.168.2.125) nếu bạn vẫn còn có thể duyệt web là thành công.

Mọi thắc mắc trong quá trình cài đặt các bạn có thể liên lạc với chúng tôi qua email : Support@kenhgiaiphap.vn để được hỗ trợ .

Team VN Solutions Channel

Choosing a Load Balancing Solution

Choosing a Load Balancing Solution

When a website reaches the point where a single web server can no longer handle the amount of traffic to the content or services it provides you must find a way to reliably distribute its load over two or more individual web servers. This type of service is called load balancing which is where a specific device or service accepts connections, processes them using a balancing algorithm, then directs that incoming request out to an available server of many servers to handle the request. To perform load balancing, there are a few options you can choose from. DNS load balancing is possible, but not widely used. Software based load balancing where software performs the balancing of requests on a linux server is a powerful and reliable method of distributing load. Hardware load balancing where you have a dedicated hardware device handles the load balancing can be used for advanced applications and needs.

DNS Load Balancing

DNS itself has the capability to load balance a domain across multiple servers, RFC1794 covers the implementation in detail. While this sounds like a good and simple idea, this functionality is rarely ever used. With DNS load balancing you have no control over the balancing algorithm used, it simply uses Round-Robin between all servers it has listed for a given record. DNS caching can also severely limit its usefulness. If a certain server were to become unavailable in the listed pool, DNS would continue to provide that address to requesting clients potentially for hours until you remove that DNS record and all instances of that record expire from every DNS servers cache. Because DNS also has no ability to see how many clients are currently connected to each server in its pool, the DNS mechanism for balancing doesn’t really balance at all, it simply distributes.

Software Load Balancing

The Linux Virtual Server project (LVS) uses a software based load balancer called IPVS (IP Virtual Server). IPVS is a powerful transport-layer load balancer inside the Linux kernel that offers extremely high throughput with minimal cpu utilization. IPVS is simple to use, very reliable, and has been included in most kernels since 2.4. The default configuration of IPVS is to perform Layer-4, transport layer switching. Using IPVS is as simple as placing and configuring IPVS on a server in front of the real servers (servers that have the actual content in LVS-speak) and configuring a load balancing policy. IPVS is flexible as it allows you to load balance any service with it. You are not limited to HTTP and HTTPS, but can balance FTP, DNS, SSH, SMTP, and basically any service you wish.

Hardware Load Balancing

Dedicated hardware appliance load balancers are the third option available. I want to note that most dedicated hardware load balancers are simply servers running Linux or an embedded Linux distribution with IPVS and a web based management interface that allows you to configure them. Because of this, the true difference between a software and hardware load balancer can be minimal at the load balancing level. The really high-end hardware load balancers will use dedicated ASIC based hardware which will be more efficient per clock cycle than regular x86 based hardware allowing more powerful packet inspection capabilities. This level of hardware is usually seen where layer-7 load balancing is required. My general opinion of layer-7 load balancing is that you should not be doing it unless you are in a situation where it is absolutely necessary. Layer-7 should be handled by the application, not the load balancer. Hardware load balancers can offer other advanced features such as caching and ssl offloading but for most applications these features would not be necessary and can add additional complexity.

Next time I will discuss the features and capabilities of IPVS software based load balancing and explain why here at Nexcess it is our preferred method of architecting very large high bandwidth clustered hosting solutions.