Botnet được định nghĩa là một mạng gồm các máy tính (Zom-bie/Bot) được điều khiển bởi kẻ tấn công hoặc Botmaster. Bot lây nhiễm và điều khiển máy tính được kết nối khác, do đó hình thành một mạng lưới các máy tính bị xâm nhập có tên là Botnet. Bot thường được sử dụng như Spam, các cuộc tấn công DDoS, Webspiders để thu thập dữ liệu máy chủ và phân phối phần mềm độc hại trên các Website tải xuống. Kiểm tra CAPTCHA được sử dụng bởi các Website để bảo vệ khỏi Bot bằng cách xác minh người dùng là con người.
Các cuộc tấn công này cung cấp các phương pháp để kẻ tấn công cướp dữ liệu cá nhân và tài chính, các tài liệu quan trọng không được bảo vệ, xem sự bấm phím trên bàn phím với mục đích lấy mật khẩu và đạt được xác thực vào chi tiết ngân hàng. Botnet được tạo và điều khiển bởi Bot-master và các cổng cụ thể cần thiết cho kết nối và điều khiển lệnh. Hạn chế các cổng và chặn cổng có thể giúp ngăn chặn các cuộc tấn công của mạng Botnet. Các hệ thống phát hiện xâm nhập được cập nhật có thể dễ dàng phát hiện và chặn hầu hết các mạng Botnet nhưng những kẻ tấn công rất thông minh và chúng giải mã hệ thống ngăn chặn xâm nhập để vượt qua nó. Route chống vi rút và chống thư rác, bảo đảm rằng hệ thống được cập nhật.
Tất cả các phần mềm và ứng dụng khác cũng được cập nhật, bởi những kẻ tấn công đang tìm cách khai thác zero-day trong hệ thống và mọi người điều không biết về các lỗ hổng mới nhất. Vì vậy, cập nhật các ứng dụng có thể giúp bảo vệ khỏi các mạng Botnet. Bất kỳ liên kết không xác định nào trong mail cần được kiểm tra kỹ lưỡng trước khi tải xuống. Điện thoại thông minh là đối tượng dễ dàng cho các cuộc tấn công mạng Botnet đến chỉ huy và điều khiển. Trước khi cài đặt bất kỳ ứng dụng nào, nó phải được kiểm tra tính xác thực và cập nhật phiên bản hiện hành.
Tài liệu tham khảo
1. Nguyễn Văn Kha và cộng sự, "Nghiên cứu xây dựng hệ thống Honeywall phục vụ công tác bảo vệ Website các đơn vị hành chính, sự nghiệp trên địa bàn thành phố Cần Thơ" đề tài cấp thành phố nghiệm thu năm 2021.
2. A. Sadeghian and M. Zamani, "Detecting and preventing DDoS attacks in botnets by the help of self triggered black holes," 2014 Asia-Pacific Conference on Computer Aided System Engineering (APCASE), 2014, pp. 38-42, doi: 10.1109/APCASE.2014.6924468.
3. A. M. Kandan, G. JaspherWillsie Kathrine and A. R. Melvin, "Network Attacks and Prevention techniques - A Study," 2019 IEEE International Conference on Electrical, Computer and Communication Technologies (ICECCT), 2019, pp. 1-6, doi: 10.1109/ICECCT.2019.8869077.
Một cuộc tấn công từ chối dịch vụ phân tán (DDoS) xảy ra khi nhiều thiết bị khác nhau được sử dụng trong cuộc tấn công DoS, như trường hợp khi Botnet được sử dụng cho một cuộc tấn công DoS. Có nhiều kiểu tấn công DoS và DDoS khác nhau; phổ biến nhất là TCP SYN Flood Attack, Teardrop Attack, Smurf Attack, Ping-of-Death Attack và Botnet.
Tài liệu tham khảo
1. Nguyễn Văn Kha và cộng sự, "Nghiên cứu xây dựng hệ thống Honeywall phục vụ công tác bảo vệ Website các đơn vị hành chính, sự nghiệp trên địa bàn thành phố Cần Thơ" đề tài cấp thành phố nghiệm thu năm 2021
Một cuộc tấn công từ chối dịch vụ (Denial of Service - DoS) làm tổn hại đến tính khả dụng của dữ liệu. Trong cuộc tấn công này, một mạng hoặc Website chứa thông tin bị quá tải thông tin, độc quyền băng thông của hệ thống và ngăn người dùng hợp pháp nhận yêu cầu dịch vụ của họ thông qua, dẫn đến việc người dùng trải nghiệm hệ thống là không khả dụng. Bản thân một cuộc tấn công DoS không cấu thành sự xâm nhập vào mạng hoặc Website, nhưng nó có thể được kết hợp với các hình thức tấn công khác để làm tổn hại tính bảo mật hoặc tính toàn vẹn của mạng hoặc dữ liệu của mạng. Một cuộc tấn công từ chối dịch vụ phân tán (DDoS) xảy ra khi nhiều thiết bị khác nhau được sử dụng trong cuộc tấn công DoS, như trường hợp khi Botnet được sử dụng cho một cuộc tấn công DoS. Có nhiều kiểu tấn công DoS và DDoS khác nhau; phổ biến nhất là TCP SYN Flood Attack, Teardrop Attack, Smurf Attack, Ping-of-Death Attack và Botnet.
Tài liệu tham khảo
1. Nguyễn Văn Kha và cộng sự, "Nghiên cứu xây dựng hệ thống Honeywall phục vụ công tác bảo vệ Website các đơn vị hành chính, sự nghiệp trên địa bàn thành phố Cần Thơ" đề tài cấp thành phố nghiệm thu năm 2021
TCP (Transmission Control Protocol - "Giao thức điều khiển truyền vận") là một trong các giao thức cốt lõi của bộ giao thức TCP/IP. Nó nằm giữa các Lớp Ứng dụng và Mạng, sử dụng TCP, các ứng dụng trên các máy chủ được nối mạng có thể tạo các "kết nối" với nhau, mà qua đó chúng có thể trao đổi dữ liệu hoặc các gói tin. Giao thức này đảm bảo chuyển giao dữ liệu tới nơi nhận một cách đáng tin cậy và đúng thứ tự. TCP còn phân biệt giữa dữ liệu của nhiều ứng dụng (chẳng hạn, dịch vụ Web và dịch vụ thư điện tử) đồng thời chạy trên cùng một máy chủ.
Tài liệu tham khảo
1. https://vi.wikipedia.org/wiki/TCP
Octet là một đơn vị thông tin trong điện toán và viễn thông gồm có 8 bit. Thuật ngữ này thường được sử dụng khi thuật ngữ byte có ý nghĩa mơ hồ, vì byte trong lịch sử từng được sử dụng làm đơn vị lưu trữ có nhiều kích thước khác nhau (không chỉ là 8 bit).
Tài liệu tham khảo
1. https://vi.wikipedia.org/wiki/Octet_(%C4%91i%E1%BB%87n_to%C3%A1n)
YouTube là một nền tảng chia sẻ video trực tuyến của Mỹ có trụ sở chính tại San Bruno, California. Nền tảng này được tạo ra vào tháng 2 năm 2005 bởi ba nhân viên cũ của PayPal — Chad Hurley, Steve Chen và Jawed Karim — đã được Google mua lại vào tháng 11 năm 2006 với giá 1,65 tỷ đô la Mỹ và hiện hoạt động như một trong những công ty con của Google. YouTube là trang web được truy cập nhiều thứ hai sau Google Tìm kiếm, theo xếp hạng của Alexa Internet.
Trang web cho phép người dùng tải lên, xem, chia sẻ, thêm vào danh sách phát, báo cáo và nhận xét về video, đăng ký người dùng khác và sử dụng công nghệ WebM, H.264/MPEG-4 AVC và Adobe Flash Player để hiển thị nhiều video đa phương tiện do người dùng và doanh nghiệp tạo ra. Nội dung có sẵn bao gồm video clip, đoạn chương trình truyền hình, video âm nhạc, phim tài liệu ngắn và tài liệu, bản ghi âm, đoạn giới thiệu phim và các nội dung khác như viết blog bằng video, video sáng tạo ngắn và video giáo dục.
Hầu hết nội dung trên YouTube được các cá nhân tải lên, nhưng các công ty truyền thông bao gồm CBS, BBC, Vevo và Hulu cung cấp một số tài liệu của họ qua YouTube như một phần của chương trình đối tác với YouTube. Người dùng không đăng ký vẫn có thể xem được hầu hết video ở trang, còn người dùng đăng ký được phép tải lên số lượng video vô hạn. Một số video chỉ dành cho người dùng trên 18 tuổi (ví dụ video có chứa những nội dung nhạy cảm hoặc có khả năng xúc phạm).
YouTube kiếm doanh thu quảng cáo từ Google AdSense, một chương trình nhắm mục tiêu quảng cáo theo nội dung và của trang web. YouTube có YouTube Premium (trước đây là YouTube Red), một dịch vụ thuê bao cung cấp quyền truy cập vào nội dung độc quyền được thực hiện với những người dùng hiện có, và YouTube Music, một dịch vụ stream và nghe các bài hát của nghệ sĩ trên trang web. Tính đến tháng 8 năm 2019, trang web này được Alexa Internet, một công ty phân tích lưu lượng truy cập web, xếp hạng là trang web phổ biến thứ hai trên toàn cầu.
Tài liệu tham khảo
1. https://vi.wikipedia.org/wiki/YouTube
LIME (Local Interpretable Model-Agnostic Explanations) là một kỹ thuật thay thế có thể được áp dụng cho bất kỳ mô hình học máy nào để diễn giải các dự đoán của nó. Kỹ thuật này cố gắng hiểu mô hình bằng cách đảo lộn đầu vào của các mẫu dữ liệu và hiểu các dự đoán thay đổi như thế nào.
Khả năng diễn giải cục bộ là diễn giải / giải thích quyết định về mô hình tại một điểm dữ liệu duy nhất, trong khi Khả năng diễn giải toàn cầu liên quan đến việc diễn giải mô hình như một tổng thể trên toàn bộ tập dữ liệu. Mô hình-Bất khả tri có nghĩa là kỹ thuật này có thể được áp dụng cho bất kỳ mô hình học máy hộp đen nào nói chung.
Phương pháp này giải thích các dự đoán riêng lẻ của bất kỳ bộ phân loại nào theo cách có thể diễn giải và trung thực, bằng cách học một mô hình có thể diễn giải (ví dụ: mô hình tuyến tính) cục bộ xung quanh mỗi dự đoán. Cụ thể, LIME ước tính các phân bổ tính năng trên các trường hợp riêng lẻ, ghi lại sự đóng góp của từng tính năng trên dự đoán hộp đen.
Tài liệu tham khảo
1. S. Sahay, N. Omare and K. K. Shukla, "An Approach to identify Captioning Keywords in an Image using LIME," 2021 International Conference on Computing, Communication, and Intelligent Systems (ICCCIS), 2021, pp. 648-651, doi: 10.1109/ICCCIS51004.2021.9397159.
2. Marco Tulio Ribeiro, Sameer Singh, and Carlos Guestrin. 2016. "Why Should I Trust You?": Explaining the Predictions of Any Classifier. In Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (KDD '16). Association for Computing Machinery, New York, NY, USA, 1135–1144. https://doi.org/10.1145/2939672.2939778
Web crawler còn được gọi là Web robot hoặc Web spider (trình thu thập thông tin web) là một chương trình tự động duyệt qua cấu trúc siêu văn bản của Web bằng cách truy xuất một tài liệu và truy xuất đệ quy tất cả các tài liệu được tham chiếu. Trình thu thập thông tin web thường được sử dụng làm công cụ khám phá và truy xuất tài nguyên cho các công cụ tìm kiếm Web như Google, Baidu, v.v ...
Nhưng việc trình thu thập thông tin tự động truy cập vào các trang Web cũng gây ra nhiều vấn đề. Thứ nhất, xét về bí mật kinh doanh, nhiều trang web thương mại điện tử không hy vọng các trình thu thập thông tin trái phép lấy thông tin từ trang web của họ. Thứ hai, nhiều trang web Thương mại điện tử cần phân tích hành vi duyệt của khách truy cập, nhưng phân tích như vậy có thể bị bóp méo nghiêm trọng do sự hiện diện của trình thu thập dữ liệu Web. Thứ ba, nhiều trang web của chính phủ cũng không hy vọng thông tin của họ được các trình thu thập thông tin thu thập và lập chỉ mục vì một lý do nào đó. Thứ tư, các trình thu thập dữ liệu được thiết kế kém thường ngốn nhiều tài nguyên mạng và máy chủ, ảnh hưởng đến việc truy cập của những khách hàng bình thường. Vì vậy, người quản lý trang Web cần phát hiện các trình thu thập dữ liệu Web từ tất cả những người truy cập và thực hiện các biện pháp thích hợp để chuyển hướng các trình thu thập dữ liệu Web hoặc ngừng phản hồi.
Tài liệu tham khảo
1. W. Guo, Y. Zhong and J. Xie, "A Web Crawler Detection Algorithm Based on Web Page Member List," 2012 4th International Conference on Intelligent Human-Machine Systems and Cybernetics, 2012, pp. 189-192, doi: 10.1109/IHMSC.2012.54.
2. Soumen Chakrabarti, Martin van den Berg, Byron Dom, Focused crawling: a new approach to topic-specific Web resource discovery, Computer Networks, Volume 31, Issues 11–16, 1999, Pages 1623-1640, ISSN 1389-1286, https://doi.org/10.1016/S1389-1286(99)00052-3.
Web scraping là việc sử dụng phần mềm tự động thu thập thông tin mong muốn từ một trang web, chuẩn hóa thông tin đó thành một định dạng hữu ích cho mục đích đã định và lưu trữ trong cơ sở dữ liệu ngoại tuyến để sử dụng sau này. Một thành phần cố hữu của Web scraping là trình thu thập thông tin web (Web crawler), điều hướng qua các trang web và truy cập vào tất cả các liên kết quan tâm. Thông thường, thu thập thông tin được thực hiện bằng cách yêu cầu trang HTML và sau đó phân tích cú pháp kết quả thô hoặc bằng cách sử dụng các khuôn khổ tự động hóa việc sử dụng các trình duyệt web thông thường. Mặc dù cách tiếp cận thứ hai phức tạp hơn và tiêu tốn nhiều tài nguyên hơn, nhưng nó có những lợi ích mà trình thu thập thông tin có thể sử dụng tất cả các tính năng của trình duyệt, chẳng hạn như việc sử dụng JavaScript.
Tài liệu tham khảo
1. K. Hemakumar and B. Prakash, "Learning based web crawl forum," International Conference on Information Communication and Embedded Systems (ICICES2014), 2014, pp. 1-7, doi: 10.1109/ICICES.2014.7033889.
2. K. Turk, S. Pastrana and B. Collier, "A tight scrape: methodological approaches to cybercrime research data collection in adversarial environments," 2020 IEEE European Symposium on Security and Privacy Workshops (EuroS&PW), 2020, pp. 428-437, doi: 10.1109/EuroSPW51379.2020.00064.
Bot là phần mềm được thiết kế để thực hiện các hành động cụ thể. Bot có nguồn gốc từ 'Robot', lần đầu tiên được phát triển để quản lý các kênh trò chuyện của IRC- Internet Relay Chat một giao thức giao tiếp dựa trên văn bản xuất hiện vào năm 1989. Một số Bot được sử dụng cho các mục đích hợp pháp như lập trình Video và cạnh tranh trực tuyến giữa các chức năng khác. Các Bot độc hại được thiết kế để tạo thành Botnet.
Botnet được định nghĩa là một mạng gồm các máy tính (Zom- bie/Bot) được điều khiển bởi kẻ tấn công hoặc Botmaster. Bot lây nhiễm và điều khiển máy tính được kết nối khác, do đó hình thành một mạng lưới các máy tính bị xâm nhập có tên là Botnet. Bot thường được sử dụng như Spam, các cuộc tấn công DDOS, Webspiders để thu thập dữ liệu máy chủ và phân phối phần mềm độc hại trên các Website tải xuống. Kiểm tra CAPTCHA được sử dụng bởi các Website để bảo vệ khỏi Bot bằng cách xác minh người dùng là con người.
Tài liệu tham khảo
1. Nguyễn Văn Kha và cộng sự, "Nghiên cứu xây dựng hệ thống Honeywall phục vụ công tác bảo vệ Website các đơn vị hành chính, sự nghiệp trên địa bàn thành phố Cần Thơ" đề tài cấp thành phố nghiệm thu năm 2021.