Phân tích hiệu năng của kiến trúc tính toán song song trên nền Hadoop Framework

Kiến trúc tính toán song song dựa trên hệ thống cụm máy tính sử dụng Hadoop framework trong vài

năm trở lại đây nhận được sự quan tâm rất lớn vì khả năng tính toán và mở rộng của hệ thống khá thuận

lợi và dễ dàng, đặc biệt là trong xử lý dữ liệu cực lớn lên tới hàng Tera-byte hay thậm chí là Peta-byte. Tuy

nhiên, hiệu năng của kiến trúc này phụ thuộc vào nhiều yếu tố như cài đặt thuật toán, tối ưu hóa câu lệnh

HiveQL, kiến trúc cluster, v.v Bài báo này sẽ đề xuất giải pháp sử dụng kiến trúc tính toán song song Hive

trên nền Hadoop cho bài toán xử lý luồng gói tin trong mạng nhằm phát hiện sự có mặt của Virus đồng thời

phân tích và đưa ra một số biện pháp cải tiến hiệu năng cho hệ thống tính toán.

Phân tích hiệu năng của kiến trúc tính toán song song trên nền Hadoop Framework trang 1

Trang 1

Phân tích hiệu năng của kiến trúc tính toán song song trên nền Hadoop Framework trang 2

Trang 2

Phân tích hiệu năng của kiến trúc tính toán song song trên nền Hadoop Framework trang 3

Trang 3

Phân tích hiệu năng của kiến trúc tính toán song song trên nền Hadoop Framework trang 4

Trang 4

Phân tích hiệu năng của kiến trúc tính toán song song trên nền Hadoop Framework trang 5

Trang 5

pdf 5 trang xuanhieu 4460
Bạn đang xem tài liệu "Phân tích hiệu năng của kiến trúc tính toán song song trên nền Hadoop Framework", để tải tài liệu gốc về máy hãy click vào nút Download ở trên

Tóm tắt nội dung tài liệu: Phân tích hiệu năng của kiến trúc tính toán song song trên nền Hadoop Framework

Phân tích hiệu năng của kiến trúc tính toán song song trên nền Hadoop Framework
 v.v Bài báo này sẽ đề xuất giải pháp sử dụng kiến trúc tính toán song song Hive 
trên nền Hadoop cho bài toán xử lý luồng gói tin trong mạng nhằm phát hiện sự có mặt của Virus đồng thời 
phân tích và đưa ra một số biện pháp cải tiến hiệu năng cho hệ thống tính toán.
Từ khóa: Hadoop, big data, parallel processing, performance analysis, tính toán song song.
I. GIỚI THIỆU
Trong lĩnh vực phân tích các thông tin di 
chuyển trong mạng (Network Traffic), phương pháp 
giám sát dựa trên các luồng (Flow) là một trong 
những phương pháp được sử dụng rất rộng rãi. Việc 
phân tích luồng có thể giúp chúng ta: phát hiện được 
sự có mặt của Virus, tấn công DDoS, phát hiện mất 
cân bằng tải, mức độ sử dụng, v.v Lý do người ta 
sử dụng phương pháp này đó là bởi vì nó không đi 
vào phân tích nội dung của gói tin (Packet Content) 
mà đi vào phân tích các thông tin công khai liên 
quan đến luồng gói tin đó, ví dụ như: Địa chỉ nguồn, 
địa chỉ đích, cổng nguồn, cổng đích, loại giao thức, 
kích thước gói tin, v.v Các thông tin này có thể 
bắt (capture) bởi các router hoặc các công cụ phần 
mềm theo dõi chuyên dụng. Một số công cụ bắt gói 
tin được dùng phổ biến như [1,2,3].
Tuy nhiên, các công cụ phân tích theo 
phương pháp truyền thống gặp một trở ngại rất lớn 
đó là lưu lượng gói tin trong mạng sẽ rất lớn, có 
thể lớn tới hàng Giga-byte hoặc thậm chí là hàng 
Tera-byte, Peta-byte tùy theo quy mô và mức độ sử 
dụng của mạng. Ví dụ như [4], trung bình một ngày, 
dung lượng thông tin bắt về vào khoảng 40 GB. Với 
dung lượng lớn này, các công cụ hiện hành gần như 
là không thể phân tích được trên một trạm xử lý 
đơn lẻ.
Gần đây, một hướng tiếp cận mới trong việc 
xử lý dữ liệu lớn (big data) đó là song song và phân 
tán hóa quá trình xử lý và lưu trữ sử dụng Hadoop 
Framework. Hadoop được phát triển bởi Google, 
Yahoo, Facebook, và đã cho những kết quả rất 
khả quan. Theo kết quả đánh giá năm 2013, 
Hadoop đã về nhất khi sắp xếp 102.5 TB mất 4.328s 
với 2100 nodes [5].
Trong bài báo này, chúng tôi sẽ đưa ra mô 
hình xử lý luồng gói tin trên nền tảng Hadoop 
Framework ở phần II. Phần III sẽ đề cập một nền 
tảng khác là Hive Framework [6] được phát triển 
trên nền Hadoop để làm đơn giản hóa tương tác 
giữa nhà phát triển và Hadoop, sử dụng các câu lệnh 
tương tác giống như truy vấn SQL quen thuộc. Phần 
IV sẽ đề xuất một cách làm tăng hiệu quả xử lý khi 
kết nối các bảng dữ liệu trong Hive bằng các hàm tự 
định nghĩa. Phần V sẽ tiến hành thử nghiệm và đánh 
giá đề xuất được đưa ra ở phần IV chứng minh tính 
hiệu quả về hiệu năng của hệ thống
II. XÂY DỰNG MÔ HÌNH XỬ LÝ LUỒNG 
GÓI TIN
1. Luồng gói tin (Network Flow)
Trong môi trường mạng, các trạm trao đổi 
với nhau bằng cách gửi các gói tin, mỗi gói tin ngoài 
nội dung bên trong thì luôn kèm theo các thông tin 
định tuyến như địa chỉ nguồn, địa chỉ đích, cổng 
nguồn, cổng đích, kích thước gói tin, kiểu gói 
tin, thời gian, loại giao thức được sử dụng, v.v 
Các thông tin này hoàn toàn có thể bắt được bằng 
các phần mềm giám sát mạng như Wireshark [6], 
TcpDump, hoặc các thiết bị phần cứng chuyên 
dụng [7] hoặc bằng chính các router Cisco đời mới 
có tính năng gọi là “Flow Export” [8]. 
2. Mô hình xử lý
Dưới đây là mô hình đề xuất cho việc bắt và 
xử lý luồng gói tin, kết hợp giữa Router và Hadoop 
ISSN 2354-0575
Khoa học & Công nghệ - Số 22/Tháng 6 - 2019 Journal of Science and Technology 25
framework.
Tại đây, các gói tin đi qua sẽ được Router 
bắt lại và Export tới địa chỉ đích đã được cấu hình 
trước.
Các luồng gói tin này sẽ được lưu và xử lý 
trong hệ thống Hadoop. Kết quả xử lý của hệ thống 
Hadoop được kết xuất ra một file text.
3. Hadoop Framework
Hadoop [9] là một hệ thống cho phép 
lưu trữ dữ liệu trên hệ thống file phân tán HDFS 
(Hadoop Distrbuted File System) tại các nút (Node) 
và xử lý dữ liệu này thông qua một framework là 
MapReduce. MapReduce có hai hàm chính là hàm 
Map (Mapping) và hàm Reduce. Hai hàm này sẽ 
được người dùng viết lại tùy thuộc vào bài toán cụ 
thể. Tuy nhiên, việc tùy biến sử dụng 2 hàm này 
không phải lúc nào cũng dễ dàng. Vì vậy, để thuận 
tiện, một Framework khác là Hive [10] được phát 
triển đóng vai trò trung gian giữa nhà phát triển và 
Hadoop nhằm đơn giản hóa trong việc viết hai hàm 
Map và Reduce. Nhà phát triển khi đó có thể khai 
thác dễ dàng hệ thống Hadoop thông qua các câu 
lệnh HiveQL với cú pháp tương tự ngôn ngữ truy 
vấn SQL.
III. PHÂN TÍCH LUỒNG GÓI TIN VÀ PHÁT 
HIỆN VIRUS VỚI HIVE FRAMEWORK
1. Phát hiện sự có mặt của Virus thông qua phân 
tích luồng gói tin
Nhờ vào việc phân tích thông tin của các 
luồng gói tin, người ta hoàn toàn có thể đưa ra được 
các thông tin rất có ích, như: Phát hiện sự có mặt 
của Virus, phát hiện các cuộc tấn công DDoS, mức 
độ tải trên các trạm hay các báo cáo hữu ích khác 
cho người quản trị mạng. 
1.1. Phát hiện sự có mặt của Virus
Thông thường, các ứng dụng chạy trên môi 
trường mạng đều sử dụng các cổng định sẵn (80 cho 
web, 21 cho FTP, 23 cho Telnet, 110 cho POP3)
Hình 1. Mô hình xử lý luồng gói tin
Như vậy, nếu khi kiểm tra các gói tin có địa 
chỉ cổng đích khác với các cổng định sẵn ở trên thì 
rất có khả năng đó là các gói tin chứa Virus. Ví dụ: 
Virus WinCrash dùng cổng 3024,Virus MicroSpy 
dùng cổng 3031, Virus Delta Remote Access dùng 
cổng 3119.
1.2. Phát hiện tấn công từ chối dịch vụ - DoS
Bản chất của tấn công từ chối dịch vụ DoS 
đó chính là việc rất nhiều máy tính cùng gửi yêu cầu 
dịch vụ tới một máy nhất định. Nói cách khác là các 
luồng gói tin sẽ có cổng nguồn giống nhau nhưng 
đều có cổng đích giống nhau. Như vậy, để phát hiện 
xem có kiểu tấn công này hay không thì có thể kiểm 
tra xem tổng số trạm (địa chỉ nguồn) truy cập đến 
cùng một cổng của địa chỉ đích có vượt qua một 
ngưỡng cho phép nào đó hay không?. Nếu con số 
này lớn quá một ngưỡng cho phép thì rất có thể kết 
luận là bị tấn công DoS.
2. Phân tích luồng gói tin với HiveQL
Với HiveQL, việc xử lý các yêu cầu ở trên 
khá đơn giản bằng các câu lệnh HiveQL.
Giả thiết thông tin về các luồng được lưu 
trữ trong một bảng trong Hive là tblFlows(SrcIP, 
DstIP, SrcPort, DstPort) và danh sách Virus đã 
biết được lưu trữ trong bảng tblVirus(VirusPort, 
VirusName). 
- Khi đó, để phát hiện sự có mặt của Virus 
trong các luồng, có thể dùng câu lệnh (i):
SELECT DISTINCT SrcIP,DstIP, SrcPort, 
DstPort, Virusname 
FROM tblFlows F JOIN tblVirus V 
ON F.SrcPort=V.VirusPort
- Để phát hiện có tấn công DoS hay không, 
có thể dùng câu lệnh sau đây để đưa ra các trạm đã 
sử dụng quá nhiều cổng (Thread) để truy xuất vào 
cùng một trạm đích. Từ kết quả kết xuất theo thứ tự 
giảm dần có thể biết được các máy nguồn khả nghi 
tấn công DoS (ii):
SELECT SrcIP, DstIP, DstPort, Count(*) C
FROM tblFlows GROUP BY SrcIP, DstIP, DstPort 
ORDER BY C DESC LIMIT 100;
IV. ĐỀ XUẤT CẢI TIẾN HIỆU NĂNG BẰNG 
HÀM TỰ ĐỊNH NGHĨA
1. Hàm tự định nghĩa trong HiveQL
Ở đây, kích thước của bảng tblFlows thường 
là rất lớn (big huge), có hàng triệu thậm chí hàng 
tỉ bản ghi, vì vậy khi xuất câu lệnh kết nối với một 
bảng khác thì tốc độ xử lý sẽ rất chậm và tiêu tốn 
ISSN 2354-0575
Journal of Science and Technology26 Khoa học & Công nghệ - Số 22/Tháng 6 - 2019
rất nhiều tài nguyên khiến cho hiệu năng chung của 
toàn hệ thống giảm đáng kể.
Thật may mắn là HiveQL cung cấp một cơ 
chế cho phép người dùng có thể tự định nghĩa một 
số hàm và cho phép gọi các hàm này ngay trong câu 
lệnh HiveQL, kiểu như:
SELECT * FROM tblFlow WHERE 
MyFunction(DstPort) = 80;
Trong đó: MyFunction là hàm do người dùng tự 
định nghĩa, viết bằng ngôn ngữ Pert, Java
Cách định nghĩa và gọi hàm tự định nghĩa 
này có thể tham khảo trong [11].
2. Cải tiến hiệu năng với hàm do người dùng tự 
định nghĩa
Khi thực hiện kết nối giữa hai bảng ở trên, 
giả sử kích thước của bảng lớn chứa N bản ghi và 
của bảng nhỏ chứa k bản ghi, thì về bản chất, Hive 
sẽ quét toàn bộ N bản ghi và với mỗi bản ghi nhận 
về sẽ so sánh với k bản ghi trong bản nhỏ. Như vậy 
số phép so sánh mà Hive thực hiện trong câu lệnh 
SELECT sẽ là N x k phép. Do đó, với số N cực lớn 
thì dù k có nhỏ (cỡ hàng trăm hoặc nghìn bản ghi) 
thì số phép so sánh cũng sẽ vô cùng lớn. 
Để giảm số phép so sánh này, một phương 
án mà bài báo đề xuất đó là giảm thời gian so sánh 
giữa một bản ghi nhận được trong N bản ghi với k 
bản ghi trong bảng nhỏ thông qua cơ chế hàm tự 
định nghĩa, trong đó việc so sánh này sẽ mất thời 
gian là hằng số O(1). Lý do thực hiện được điều này 
đó là do k khá nhỏ nên ta hoàn toàn có thể đưa vào 
một cấu trúc bảng băm (Hash Table) và như vậy, 
thời gian tìm kiếm và so sánh chỉ là O(1).
Các bước thực hiện như sau:
Bước 1: Xây dựng một lớp (Class) trong 
Java. 
Bước 2: Nạp bảng nhỏ chứa k bản ghi vào 
một cấu trúc Hash trong hàm khởi tạo
Bước 3: Cài đặt (Overload) hàm evaluate 
trong Java, nhận tham số là giá trị khóa cần kiểm 
tra, và trả về true nếu thấy khóa đó tồn tại trong 
Hash và false nếu ngược lại.
Bước 4: Khai báo hàm này với một tên bí 
danh (ví dụ IfExistInTable) trong Hive và sử dụng.
Như vậy, câu lệnh kiểm tra sự xuất hiện của 
Virus ở trên:
SELECT DISTINCT SrcIP,DstIP, SrcPort, 
DstPort, Virusname 
FROM tblFlows F JOIN tblVirus V ON 
F.SrcPort=V.VirusPort
Có thể viết lại như sau mà không cần kết nối 
bảng như sau:
SELECT DISTINCT SrcIP,DstIP, SrcPort, 
DstPort, Virusname 
FROM tblFlows WHERE 
IfExistInTable(SrcPort)
Theo cách này, ta có thể áp dụng cho trường 
hợp kết nối 3 bảng, 4 bảng v.v
V. THỬ NGHIỆM, ĐÁNH GIÁ
1. Môi trường thử nghiệm
Trong nghiên cứu này, chúng tôi tiến hành 2 
thử nghiệm: 
+ Thử nghiệm thứ nhất để cho thấy khả năng 
xử lý dữ liệu rất lớn của hệ thống xử lý trên nền 
Hadoop so với các công cụ thông thường, ví dụ: 
Flow Tools. 
+ Thử nghiệm thứ hai cho thấy hiệu năng 
được cải tiến rõ rệt giữa phương án đề xuất của 
chúng tôi so với tốc độ xử lý thông thường khi có 
kết nối bảng trong câu lệnh HiveQL.
Môi trường phần cứng và phần mềm dùng 
thử nghiệm: 
• Hadoop cluster: 1,2,4,8 nodes; Data node: 
Intel Xeon@2.4GHz, 12 GB RAM
• Flow-tools: Version 1.6.8;
2. Kết quả thử nghiệm
2.1. Kết quả thử nghiệm giữa Flow Tools và 
Hadoop
Đưa ra danh sách các cổng đích (Destination 
Port) sử dụng nhiều băng thông nhất (nhiều packets 
nhất) – Yêu cầu này còn gọi là “Destination Port 
Break Down”:
- Câu lệnh trong công cụ Flow tools là:
flow-stat –f5 –S2 < LogFile.flow
- Câu lệnh trong HiveQL là: SELECT 
dstPort, count(*), sum(packets) P FROM 
FlowLog GROUP BY dstPort ORDER BY P desc;
Hình 2. So sánh khả năng xử lý của công cụ hiện 
hành với Hadoop
ISSN 2354-0575
Khoa học & Công nghệ - Số 22/Tháng 6 - 2019 Journal of Science and Technology 27
2.2. Kết quả thử nghiệm giữa dùng kết nối thông 
thường (gọi là Common Join) và kết nối thông 
qua hàm tự định nghĩa (gọi là UDF Join) sử dụng 
cụm Cluster 4 nút và 8 nút xử lý
Hình 3. So sánh tốc độ xử lý khi kết nối bảng trên 
Cluster 4 nút
Hình 4. So sánh tốc độ xử lý khi kết nối bảng trên 
Cluster 8 nút
Hình 5. Tài nguyên bộ nhớ được sử dụng
giữa UDF Join và Common Join
3. Đánh giá
Ở Hình 2 cho thấy, khi dữ liệu nhỏ thì các 
công cụ xử lý trên máy tính đơn lẻ hiện nay như 
Flow Tools cho hiệu quả rất tốt và đưa ra kết quả 
gần như tức thì. Tuy nhiên, khi dữ liệu trở lên rất lớn 
(trên 150 triệu bản ghi) thì các công cụ này không 
có khả năng xử lý và bị treo.
Hình 3 và Hình 4, cho thấy hiệu quả xử lý 
tăng lên rõ rệt khi ta thực hiện kết nối bảng theo đề 
xuất của bài báo so với kết nối thông thường. Thời 
gian tăng lên rất chậm ngay cả khi kích thước đầu 
vào tăng mạnh. Trong khi đó, đối với kết nối thông 
thường thì thời gian sẽ tăng đột biến khi đầu vào đạt 
ngưỡng nhất định.
Hình 5 cũng cho thấy tính hiệu quả về mặt 
tài nguyên bộ nhớ khi sử dụng kết nối thông thường 
so với kết nối dùng hàm tự định nghĩa theo đề xuất 
của bài báo.
VI. KẾT LUẬN
Bài báo đã cho thấy rõ khả năng áp dụng nền 
tảng Hadoop trong việc xử lý dữ liệu lớn là hướng 
đi rất hứa hẹn và có nhiều ưu thế so với các công cụ 
sẵn có hiện nay. Đặc biệt, khi kết hợp với Hive thì 
khả năng khai thác sức mạnh của Hadoop sẽ càng 
tăng lên và giải quyết được nhiều bài toán thực tế, 
trong đó việc phân tích luồng gói tin trong mạng 
phục vụ công tác bảo mật, quản trị mạng là một ứng 
dụng tiêu biểu. 
Đề xuất của bài báo về việc loại bỏ kết nối 
thông qua cơ chế hàm tự định nghĩa có thể áp dụng 
để xử lý các trường hợp có kết nối 2 bảng, 3 bảng 
v.v ngoài ra cũng có thể áp dụng để xây dựng các 
câu lệnh quen thuộc như IN, NOT IN trong SQL 
nhưng HiveQL hiện chưa hỗ trợ.
Tài liệu tham khảo
[1].  
[2]. 
[3]. 
[4]. 
[5]. 
[6]. www.wireshark.org
[7]. 
[8]. https://supportforums.cisco.com/docs/DOC-25009
[9].  
ISSN 2354-0575
Journal of Science and Technology28 Khoa học & Công nghệ - Số 22/Tháng 6 - 2019
[10].  
[11]. flow 
[12]. L. Deri, nProbe, “an Open Source NetFlow Probe for Gigabit Networks”. TERENA Networking 
Conference, May 2003.
[13]. J. Dean, MapReduce, “Simplified Data Processing on Large Cluster”, OSDI, 2004.
[14]. Youngseok Lee, Wonchul Kang, “An Internet Traffic Analysis Method with MapReduce”.
IEEE/IFIP Network Operations and Management Symposium Workshops, 2010.
[15]. J. Dean, S. Ghemawat, “MapReduce: Simplified Data Processing on Large Clusters,” In Proc. 
of the 6th Symposium on Operating Systems Design and Implementation, San Francisco CA, Dec. 
2004.
[16]. A. Gates, O. Natkovich, S. Chopra, P. Kamath, S. Narayanam, C. Olston, B. Reed, S. 
Srinivasan, U. Srivastava. “Building a High-Level Dataflow System on top of MapReduce: The Pig 
Experience,” In Proc. of Very Large Data Bases, vol 2 no. 2, 2009, pp. 1414–1425.
[17]. S. Ghemawat, H. Gobioff, S. Leung. “The Google File System,” In Proc. of ACM Symposium 
on Operating Systems Principles, Lake George, NY, Oct 2003, pp 29–43.
[18]. T. White, Hadoop, “The Definitive Guide”. O’Reilly Media, Yahoo! Press, June 5, 2009.
PERFORMANCE ANALYSIS OF PARALLEL COMPUTING ARCHITECTURE
USING HADOOP FRAMEWORK
Abstract:
Parallel computing architecture based on PC cluster systems using Hadoop Framework in the 
past few years received great attention because of the computing power and expansion of the system is 
quite favorable and easy, especially is in handling extremely large data amounting to Tera-bytes or even 
Peta-bytes. However, the performance of this architecture depends on many factors, such as installing 
algorithm, HiveQL queries optimization, cluster architectures, etc ... This paper proposes solutions using 
parallel computing architecture Hive on Hadoop Framework for processing network packet flows in order 
to detect the presence of viruses and analyzed and givea number of solutions to improve performance of 
the computing system.
Keywords: Hadoop, HiveQL, Parallel processing, packet flow analysis, performance analysis.

File đính kèm:

  • pdfphan_tich_hieu_nang_cua_kien_truc_tinh_toan_song_song_tren_n.pdf