آموزش محاسبات کارا برای دانشمندان و مهندسین

قیمت 16,000 تومان

خرید محصول توسط کلیه کارت های شتاب امکان پذیر است و بلافاصله پس از خرید، لینک دانلود محصول در اختیار شما قرار خواهد گرفت.
این کتاب توسط کارشناسان HPC (محاسبات کارا) نوشته شده است.
این کتاب مقدمه‌ای را برای جریان اصلی و فعلی معماری کامپیوتر، غالب مدل‌های برنامه‌نویسی موازی و استراتژی‌های مفید برای بهینه‌سازی علمی HPC ارائه می‌دهد.
هم‌چنین معماری‌های ریزپردازنده‌های مبتنی بر حافظه پنهان را معرفی می‌کند و قبل از توصیف استراتژی‌های بهینه‌سازی کلی برای این نوع معماری‌ها، محدودیت‌های عملکردی آن‌ها را بررسی می‌کند.
در ادامه به بررسی حافظه مشترک و توزیع شده‌ی معماری کامپیوتر موازی و مناسبت‌ترین توپولوژی شبکه می‌پردازد.
سال انتشار: 2010  |  تعداد صفحات: 356  |  حجم فایل: 2.13 مگابایت  |  زبان: انگلیسی
Introduction to High Performance Computing for Scientists and Engineers
نویسنده:
Georg Hager
ناشر:
CRC Press
ISBN10:
143981192X
ISBN13:
9781439811924

 

عناوین مرتبط:


Written by high performance computing (HPC) experts, Introduction to High Performance Computing for Scientists and Engineers provides a solid introduction to current mainstream computer architecture, dominant parallel programming models, and useful optimization strategies for scientific HPC. From working in a scientific computing center, the authors gained a unique perspective on the requirements and attitudes of users as well as manufacturers of parallel computers. The text first introduces the architecture of modern cache-based microprocessors and discusses their inherent performance limitations, before describing general optimization strategies for serial code on cache-based architectures. It next covers shared- and distributed-memory parallel computer architectures and the most relevant network topologies. After discussing parallel computing on a theoretical level, the authors show how to avoid or ameliorate typical performance problems connected with OpenMP. They then present cache-coherent nonuniform memory access (ccNUMA) optimization techniques, examine distributed-memory parallel programming with message passing interface (MPI), and explain how to write efficient MPI code. The final chapter focuses on hybrid programming with MPI and OpenMP. Users of high performance computers often have no idea what factors limit time to solution and whether it makes sense to think about optimization at all. This book facilitates an intuitive understanding of performance limitations without relying on heavy computer science knowledge. It also prepares readers for studying more advanced literature. Read about the authors’ recent honor: Informatics Europe Curriculum Best Practices Award for Parallelism and Concurrency