جزییات کتاب
اگر سازمان شما در حال ورود به دنیای داده های بزرگ است، نه تنها باید تصمیم بگیرید که آیا آپاچی هدوپ پلت فرم مناسب برای استفاده است، بلکه کدامیک از اجزای متنوع آن برای کار شما مناسب است.
این کتاب باعث می شود که بتوانید اکوسیستم هدوپ را در بخش های کوتاه و قابل فهم مشاهده کنید. شما به سرعت خواهید فهمید که چگونه پروژه ها، زیر پروژه ها و فن آوری های مرتبط با هدوپ با هم کار می کنند. هر فصل یک موضوع متفاوت مانند فن آوری های اصلی یا انتقال داده را معرفی می کند و توضیح می دهد که چرا برخی اجزاء ممکن است برای نیازهای خاص مفید باشد یا خیر.
Summary by mojtaba.banaie
If your organization is about to enter the world of big data, you not only need to decide whether Apache Hadoop is the right platform to use, but also which of its many components are best suited to your task. This field guide makes the exercise manageable by breaking down the Hadoop ecosystem into short, digestible sections. You’ll quickly understand how Hadoop’s projects, subprojects, and related technologies work together.Each chapter introduces a different topic—such as core technologies or data transfer—and explains why certain components may or may not be useful for particular needs. When it comes to data, Hadoop is a whole new ballgame, but with this handy reference, you’ll have a good grasp of the playing field.Topics include:Core technologies—Hadoop Distributed File System (HDFS), MapReduce, YARN, and SparkDatabase and data management—Cassandra, HBase, MongoDB, and HiveSerialization—Avro, JSON, and ParquetManagement and monitoring—Puppet, Chef, Zookeeper, and OozieAnalytic helpers—Pig, Mahout, and MLLibData transfer—Scoop, Flume, distcp, and StormSecurity, access control, auditing—Sentry, Kerberos, and KnoxCloud computing and virtualization—Serengeti, Docker, and Whirr