Hadoop là một framework mã nguồn mở cho phép lưu trữ và xử lý dữ liệu lớn trong môi trường phân tán trên các cụm máy tính bằng các mô hình lập trình đơn giản. Nó được thiết kế để mở rộng từ các máy chủ đơn lẻ đến hàng nghìn máy, mỗi máy cung cấp khả năng tính toán và lưu trữ cục bộ.
Hướng dẫn ngắn này cung cấp cái nhìn tổng quan nhanh về Dữ liệu lớn, thuật toán MapReduce, và Hệ thống tệp phân tán Hadoop.
Hướng dẫn này được chuẩn bị cho các chuyên gia mong muốn học các kiến thức cơ bản về Phân tích Dữ liệu lớn bằng cách sử dụng Hadoop Framework và trở thành nhà phát triển Hadoop. Các chuyên gia phần mềm, chuyên gia phân tích và các nhà phát triển ETL là những người hưởng lợi chính từ khóa học này.
Trước khi bắt đầu với hướng dẫn này, chúng tôi giả định rằng bạn đã có kinh nghiệm cơ bản về Java, các khái niệm cơ sở dữ liệu và bất kỳ phiên bản hệ điều hành Linux nào.
(getButton) #text=(Xem e-Book) #icon=(link)
.png)
