Menü
Hesabım
Şifremi Unuttum
Kayıt Ol
Sepetim
Paralel Programlama
%2 
396,00 TL
388,08 TL

Paralel Programlama

%2 
396,00 TL
388,08 TL
%2 
396,00 TL
388,08 TL
Kazancınız:7,92

Tükendi

Gelince Haber Ver
Kitap Açıklaması

Paralel çalışabilen sistemler artık hemen hemen her yerde karşımıza çıkmaktadır. Günümüzde çok çekirdekli bir işlemci kullanmayan bir dizüstü bilgisayar masaüstü veya sunucu bulmak oldukça zordur. Bununla birlikte çoğu bilgisayar mühendisleri paralel programlama hakkında çok az tecrübeye sahip veya az deneyimli bir şekilde mezun olmaktadır. Her ne kadar birçok üniversite son sınıflara doğru seçmeli ders olarak paralel hesaplamayı sunmakta iseler de öğrenciler zorunlu alması gereken derslere öncelik tanıdıklarından çok kanallı veya çok işlemli bir program yazma becerisinden yoksun olarak mezun olmaktadır. Bu durumun değişmesi gerektiği açıktır. Birçok program tek bir çekirdek üzerinde tatmin edici bir performans elde edebilmesine rağmen Bilgisayar bilimcileri paralellik ile elde edilebilecek geniş kapsamlı performans iyileştirmelerinin farkında olmalı ve ihtiyaç duyulduğunda bu potansiyelden yararlanabilmelidir.Bu kitap kısmen bu problemi çözmek için yazılmıştır. Ayrıca paralel programlama kavramını açıklayan ilk kitaplardan biridir. Paralel programlama için en yaygın kullanılan uygulama programlama arayüzlerinden (API) ikisi olan MPI ve OpenMP ile paralel programların yazılmasına bir giriş sağlanmaktadır. Örneklerin birçoğu günümüzde yaygın kullanıma sahip C ve Python dili ile kodlanmıştır. Hedef kitle paralel programlar yazması beklenilen öğrenciler araştırmacılar ve profesyonellerdir. Kitaptan en iyi bir şekilde yararlanabilmek için önkoşullar minimal düzeyde tutulmuştur. Açıkçası lise düzeyinde bir matematik ve C dilinde temel programlar yazma becerisi bu kitabı anlayabilmek ve uygulayabilmek için yeterli gelmektedir.Paralel hesaplama ile önceden deneyime sahip olmayan okuyucular ilk önce Bölüm 1'i okumalıdır. Burada paralel sistemlerin neden bilgisayar mimarisine ve alanına hâkim olduğuna dair açıklama bulunmaktadır. Bu bölüm ayrıca paralel sistemlere ve paralel programlamaya kısa bir giriş sağlar. Bölüm 2 3 ve 4 sırasıyla OpenMP MPI ve Python ile programlamaya dairdir. 2. ve 3. Bölümde kodlanan örnekler C programlama dili ile yazılmıştır çünkü kullanılan tüm API'lar C-dili arayüzlerine sahiptirler. Bununla birlikte C++ ve Java programcıları C dili söz dizimine aşina olduklarından bölümlerde yazılan C kodlarını rahatlıkla anlayacaklardır. 4.Bölümdeki örnek kodlarda ise günümüzde popüler bir dil olan Python 3.7 dili kullanılmıştır.Umuyorum ki okuyucular OpenMP MPI ve Python'un tam anlamıyla kodlanma tarzını ve gücünü kullanmayı öğrenirler. Bu kitap paralel programlamaya yeni başlayanlara mükemmel bir giriş özelliğini taşımaktadır. Kitapta bulunan bütün örnek kodlar ayrı ayrı özenle test edilmiş ve düzgün çalıştığı doğrulanmıştır. Yine de gözden kaçan eksiklikler olabilir. Bu nedenle okuyucuların bulduğu sorunları ve/veya varsa önerilerini bashar.aptech@gmail.com e-posta adresine göndermelerini rica ediyorum.Kitapta yer alan bölümler aşağıdaki gibidir.İÇİNDEKİLER1.Bölüm: Paralel Programlamaya Giriş1.1 Neden Paralel Hesaplama?1.2 Neden sürekli artan performansa ihtiyaç duyuluyor?1.3 Neden paralel sistemler kuruyoruz?1.4 Neden paralel programları yazmamıza gerekir?1.5 PARALELDE SORUN GİDERME1.5.1 Zamansal Paralellik Kavramı1.5.2 Veri Paralelliği Kavramı1.6 Von Neumann mimarisi1.7 BAZI TEMEL PARALEL KAVRAMLARI1.7.1 Program Kavramı (Program Concept)1.7.2 Süreç / İşlem Kavramı (Process Concept)1.7.3 İplik / İşparçacığı Kavramı (Thread Concept)1.7.4 Eşzamanlı ve Paralel Yürütme Kavramı (Concurrent & Parallel Execution Concept)1.7.5 Yarış Koşulları (Race Conditions)1.7.6 Kilitlenme (Deadlocks)1.7.7 Açlık (Starvations)1.7.8 İplik Güvenliği (Thread Safty)1.7.9 Granülerlik/Taneciklilik (Granularity)1.8 VON NEUMANN MODELİNE DEĞİŞİKLİKLER1.8.1 Caching temelleri1.8.2 SANAL BELLEK (Virtual Memory)1.9 PARALEL İŞLEME SEVİYELERİ1.9.1. Komut Seviyesinde Paralellik (Instruction-level Parallelism (ILP))1.9.1.1 Boru hattı (Pipelining)1.9.1.2 Komut Pipeline1.9.1.3 Komut Buffer'i:1.9.2. Döngü Seviyesinde Paralellik (Loop Level Parallelism)1.9.3. Prosedür Seviyesinde Paralellik (Procedure Level Parallelism)1.9.4. Program Seviyesinde Paralellik (Program Level Parallelism)1.10 PARALEL BİLİSAYARLARIN SINIFLANDIRILMASI1.10.1 Flynn'in Paralel İşleme Sınıflandırması1.10.1.1 Tek komut ve Tek Veri akışı (Single Instruction and Single Data stream (SISD))1.10.1.2 Tek Komut ve Çoklu Veri Akışı (Single Instruction and Multiple Data stream (SIMD))1.10.1.3 Çoklu Komut ve Tek Veri akışı (Multiple Instruction and Single Data stream (MISD))1.10.1.4 Çoklu Komut ve Çoklu Veri akışı (Multiple Instruction and Multiple Data stream (MIMD))1.11 YAPISAL SINIFLANDIRMA1.11.1 Paylaşımlı Bellek Sistemleri (Shared Memory Systems)1.11.2 Dağıtılmış Bellek Sistemleri (Distributed Memory System)1.12 Arabağlantı ağları (Interconnection networks)1.12.1 Tam bağlı (Fully connected) Topoloji1.12.2 Kol Demiri (Cross Bar) Topolojisi1.12.3 Doğrusal Array (Linear Array) Topolojisi1.12.4 Mesh Topolojisi1.12.5 Halka (Ring) Topolojisi1.12.6 Torus Topolojisi1.12.7 Ağaç ağı (Tree) Topolojisi1.12.8 İri ağaç (Fat Tree) Topolojisi1.12.9. Sistolik Dizi (Systolic Array) Topolojisi1.12.10. Küp (Cube) topolojisi1.13 Permütasyon Ağı Kavramı1.13.1 Mükemmel Karıştırma Permütasyonu1.13.2 Kelebek Permütasyonu1.13.3 Clos ağı1.13.4 Benz ağı1.14 Önbellek Tutarlılığı (Cache Coherence)1.14.1 Önbellek Tutarlılığını Gözetleme (Snooping cache coherence)1.14.2 Dizin Tabanlı Önbellek Tutarlılığı (Directory-based cache coherence)1.15 Yanlış paylaşım konsepti (False Sharing)1.15.1 Önbellek Hatları (Cache lines)1.15.2 Önbellek tutarlılığı (Cache coherence)1.15.3 Yanlış paylaşım1.16 Tanecik Boyuna (Grain size) Göre Bilgisayar Sınıflandıması1.16.1 Paralellik Koşulları1.16.2 Veri Bağımlılığı (Data Dependency)1.16.3 Paralellik tespiti için Bernstein koşulları1.16.4 Kaynak Bağımlılığı1.17 Paralellik potansiyeli1.18 Paralel Hesaplama Gereksinimi1.19 ÖzetÇalışma soruları2. Bölüm: OpenMP Kullanarak Paylaşımlı Bellek Programlaması2.1 OpenMP ile başlayalım2.2 Visual Studio'yu kullanarak OpenMP programlarının derleme ve çalıştırması2.3 Open MP'nin Bazı Terimelri2.3.1 OpenMP Derleyici Yapıları2.3.2 OpenMP Derleyici Yapıların Deyimleri2.3.3 "Parallel" Yapısı2.4 OpenMP Programındaki İpliklerin Arasında Paylaşma2.4.1 Döngü Yapısı (Loop Construct)2.4.2 "Sections" (bölümler) Yapısı2.4.3 "Single" (Tek) Yapısı2.5 Birleşik Paralel Çalışma-Paylaşım yapıları (Combined Parallel Work-Sharing Constructs)2.6 Paralel ve Çalışma Paylaşım Yapılarını Kontrol Eden Deyimler2.6.1 "Shared" (Paylaşılan) Deyimi2.6.2 Private (Özel) Deyimi2.6.3 "Lastprivate" deyimi2.6.4 "Firstprivate" Deyimi2.6.5 "Default" (Varsayılan) Deyimi2.6.6 "Nowait" Deyimi2.6.7 "Schedule" (zamanlama) deyimi2.7 OpenMP Senkronizasyon Yapıları2.7.1 Barrier (Bariyer) Yapısı2.7.2 "Ordered" (sıralı) Yapısı2.7.4 "Atomic" (Atomik) Yapısı2.7.5 "Master" Yapısı2.8 Yürütme Ortamı ile Etkileşim2.9 Daha Fazla OpenMP deyimleri2.9.1 "If" deyimi2.9.2 "Num_threads" deyimi2.9.3 "Ordered" deyimi2.9.4 "Reduction" (azaltma) deyimi2.10 Gelişmiş OpenMP yapıları2.10.1 İç içe Paralelizm2.10.2 "Threadprivate" Yapısı2.11 ÖzetÇalışma Soruları3.Bölüm: MPI (Message-Passing Interface) Kullanarak Dağıtılmış Bellek Programlaması3.1 Noktadan Noktaya (Point-to-Point) İşlemler Türleri3.1.1 Engelli karşı engelsiz (Blocking vs. Non-Blocking)3.1.1.1 Engelli (Blocking) Mod3.1.1.2 Engelsiz (Non-Blocking) Mod3.1.2 Buffer'li karşı Buffer'sız (Buffered vs Unbuffered)3.2 Merhaba Dünya Programı3.2.1 MPI_Init ve MPI_Finalize3.2.2 İletişimciler (Communicators) MPI_Comm_size ve MPI_Comm_rank3.3 MS Visual Studio'yu kullanarak MPI programın kurma ve çalıştırma3.4 Engelli Mesaj Göndermesi Fonksiyonları (Blocking Message Passing Routines)3.4.1 SIMD programları3.4.2 İşlemler Arasında İletişim3.4.2.1 MPI_Send3.4.2.2 MPI_Recv3.4.2.3 Mesaj Eşleşmesi3.4.2.4 Status_p argümanı3.4.2.5 MPI_Send ve MPI_Recv Anlamları3.4.2.6 Bazı potansiyel tuzaklar3.4.3 MPI'da İplik Desteği Seviyesi3.5 Engelsiz Mesaj Göndermesi Fonksiyonları (Non-Blocking Message Passing Routines)3.6 MPI'da Toplu İletişimi (Collective Communication in MPI)3.6.1 Toplu iletişim türleri3.6.1.1 Bariyer Senkronizasyonu3.6.1.2 Veri Hareketi veya Global İletişim (Global Communication)3.6.1.2.1 MPI_Bcast (Broadcast (one to all)3.6.1.2.2 MPI_Scatter3.6.1.2.3 MPI_Alltoall()3.6.1.2.4 MPI_Gather (All-To-One)3.6.1.2.5 MPI_Allgather()3.6.1.3 Kolektif Operasyonlar (veya Küresel Azaltma)3.6.1.3.1 MPI_Reduce3.6.1.3.2 MPI_Allreduce3.7 Paralel Performansı Kıyaslaması3.8 ÖzetÇalışma Soruları4. Bölüm: Python kullanarak Paralel Programlama4.1 Python Tanıtımı4.2 Python indirmesi ve yüklemesi4.3 Python temelleri4.4 Paralel Python4.5 Python'daki işlemlerle çalışmaya başlamak4.6 Python'da İplikle Çalışmaya Başlamak4.6.1 Python "threading" modülünü kullanması4.6.2 Lock ile İş Parçacığı Senkronizasyonu4.6.3 RLock ile İş Parçacığı Senkronizasyonu4.6.4 Semaforlar ile İş Parçacığı Senkronizasyonu4.6.5 Bir Koşulla İş Parçacığı Senkronizasyonu4.6.6 Bir Olayla İş Parçacığı Senkronizasyonu4.6.7 "with" ifadesini kullanması4.6.8 Bir Kuyruk Kullanarak İş Parçacığı İletişimi4.7 Çok İplikli Uygulamaların Performansının Değerlendirilmesi4.8 ÖzetÇalışma SorularıKaynakçaİnternet Kaynakçası

Kitap Özellikleri
Basım Yılı2019
Baskı1
Cilt DurumuKarton Kapak
DilTürkçe
Ebat16,5 x 23,5
ISBN-106056823312
Kağıt TürüKitap Kağıdı
Sayfa Sayısı288
favorilerime ekle
Kitap Açıklaması

Paralel çalışabilen sistemler artık hemen hemen her yerde karşımıza çıkmaktadır. Günümüzde çok çekirdekli bir işlemci kullanmayan bir dizüstü bilgisayar masaüstü veya sunucu bulmak oldukça zordur. Bununla birlikte çoğu bilgisayar mühendisleri paralel programlama hakkında çok az tecrübeye sahip veya az deneyimli bir şekilde mezun olmaktadır. Her ne kadar birçok üniversite son sınıflara doğru seçmeli ders olarak paralel hesaplamayı sunmakta iseler de öğrenciler zorunlu alması gereken derslere öncelik tanıdıklarından çok kanallı veya çok işlemli bir program yazma becerisinden yoksun olarak mezun olmaktadır. Bu durumun değişmesi gerektiği açıktır. Birçok program tek bir çekirdek üzerinde tatmin edici bir performans elde edebilmesine rağmen Bilgisayar bilimcileri paralellik ile elde edilebilecek geniş kapsamlı performans iyileştirmelerinin farkında olmalı ve ihtiyaç duyulduğunda bu potansiyelden yararlanabilmelidir.Bu kitap kısmen bu problemi çözmek için yazılmıştır. Ayrıca paralel programlama kavramını açıklayan ilk kitaplardan biridir. Paralel programlama için en yaygın kullanılan uygulama programlama arayüzlerinden (API) ikisi olan MPI ve OpenMP ile paralel programların yazılmasına bir giriş sağlanmaktadır. Örneklerin birçoğu günümüzde yaygın kullanıma sahip C ve Python dili ile kodlanmıştır. Hedef kitle paralel programlar yazması beklenilen öğrenciler araştırmacılar ve profesyonellerdir. Kitaptan en iyi bir şekilde yararlanabilmek için önkoşullar minimal düzeyde tutulmuştur. Açıkçası lise düzeyinde bir matematik ve C dilinde temel programlar yazma becerisi bu kitabı anlayabilmek ve uygulayabilmek için yeterli gelmektedir.Paralel hesaplama ile önceden deneyime sahip olmayan okuyucular ilk önce Bölüm 1'i okumalıdır. Burada paralel sistemlerin neden bilgisayar mimarisine ve alanına hâkim olduğuna dair açıklama bulunmaktadır. Bu bölüm ayrıca paralel sistemlere ve paralel programlamaya kısa bir giriş sağlar. Bölüm 2 3 ve 4 sırasıyla OpenMP MPI ve Python ile programlamaya dairdir. 2. ve 3. Bölümde kodlanan örnekler C programlama dili ile yazılmıştır çünkü kullanılan tüm API'lar C-dili arayüzlerine sahiptirler. Bununla birlikte C++ ve Java programcıları C dili söz dizimine aşina olduklarından bölümlerde yazılan C kodlarını rahatlıkla anlayacaklardır. 4.Bölümdeki örnek kodlarda ise günümüzde popüler bir dil olan Python 3.7 dili kullanılmıştır.Umuyorum ki okuyucular OpenMP MPI ve Python'un tam anlamıyla kodlanma tarzını ve gücünü kullanmayı öğrenirler. Bu kitap paralel programlamaya yeni başlayanlara mükemmel bir giriş özelliğini taşımaktadır. Kitapta bulunan bütün örnek kodlar ayrı ayrı özenle test edilmiş ve düzgün çalıştığı doğrulanmıştır. Yine de gözden kaçan eksiklikler olabilir. Bu nedenle okuyucuların bulduğu sorunları ve/veya varsa önerilerini bashar.aptech@gmail.com e-posta adresine göndermelerini rica ediyorum.Kitapta yer alan bölümler aşağıdaki gibidir.İÇİNDEKİLER1.Bölüm: Paralel Programlamaya Giriş1.1 Neden Paralel Hesaplama?1.2 Neden sürekli artan performansa ihtiyaç duyuluyor?1.3 Neden paralel sistemler kuruyoruz?1.4 Neden paralel programları yazmamıza gerekir?1.5 PARALELDE SORUN GİDERME1.5.1 Zamansal Paralellik Kavramı1.5.2 Veri Paralelliği Kavramı1.6 Von Neumann mimarisi1.7 BAZI TEMEL PARALEL KAVRAMLARI1.7.1 Program Kavramı (Program Concept)1.7.2 Süreç / İşlem Kavramı (Process Concept)1.7.3 İplik / İşparçacığı Kavramı (Thread Concept)1.7.4 Eşzamanlı ve Paralel Yürütme Kavramı (Concurrent & Parallel Execution Concept)1.7.5 Yarış Koşulları (Race Conditions)1.7.6 Kilitlenme (Deadlocks)1.7.7 Açlık (Starvations)1.7.8 İplik Güvenliği (Thread Safty)1.7.9 Granülerlik/Taneciklilik (Granularity)1.8 VON NEUMANN MODELİNE DEĞİŞİKLİKLER1.8.1 Caching temelleri1.8.2 SANAL BELLEK (Virtual Memory)1.9 PARALEL İŞLEME SEVİYELERİ1.9.1. Komut Seviyesinde Paralellik (Instruction-level Parallelism (ILP))1.9.1.1 Boru hattı (Pipelining)1.9.1.2 Komut Pipeline1.9.1.3 Komut Buffer'i:1.9.2. Döngü Seviyesinde Paralellik (Loop Level Parallelism)1.9.3. Prosedür Seviyesinde Paralellik (Procedure Level Parallelism)1.9.4. Program Seviyesinde Paralellik (Program Level Parallelism)1.10 PARALEL BİLİSAYARLARIN SINIFLANDIRILMASI1.10.1 Flynn'in Paralel İşleme Sınıflandırması1.10.1.1 Tek komut ve Tek Veri akışı (Single Instruction and Single Data stream (SISD))1.10.1.2 Tek Komut ve Çoklu Veri Akışı (Single Instruction and Multiple Data stream (SIMD))1.10.1.3 Çoklu Komut ve Tek Veri akışı (Multiple Instruction and Single Data stream (MISD))1.10.1.4 Çoklu Komut ve Çoklu Veri akışı (Multiple Instruction and Multiple Data stream (MIMD))1.11 YAPISAL SINIFLANDIRMA1.11.1 Paylaşımlı Bellek Sistemleri (Shared Memory Systems)1.11.2 Dağıtılmış Bellek Sistemleri (Distributed Memory System)1.12 Arabağlantı ağları (Interconnection networks)1.12.1 Tam bağlı (Fully connected) Topoloji1.12.2 Kol Demiri (Cross Bar) Topolojisi1.12.3 Doğrusal Array (Linear Array) Topolojisi1.12.4 Mesh Topolojisi1.12.5 Halka (Ring) Topolojisi1.12.6 Torus Topolojisi1.12.7 Ağaç ağı (Tree) Topolojisi1.12.8 İri ağaç (Fat Tree) Topolojisi1.12.9. Sistolik Dizi (Systolic Array) Topolojisi1.12.10. Küp (Cube) topolojisi1.13 Permütasyon Ağı Kavramı1.13.1 Mükemmel Karıştırma Permütasyonu1.13.2 Kelebek Permütasyonu1.13.3 Clos ağı1.13.4 Benz ağı1.14 Önbellek Tutarlılığı (Cache Coherence)1.14.1 Önbellek Tutarlılığını Gözetleme (Snooping cache coherence)1.14.2 Dizin Tabanlı Önbellek Tutarlılığı (Directory-based cache coherence)1.15 Yanlış paylaşım konsepti (False Sharing)1.15.1 Önbellek Hatları (Cache lines)1.15.2 Önbellek tutarlılığı (Cache coherence)1.15.3 Yanlış paylaşım1.16 Tanecik Boyuna (Grain size) Göre Bilgisayar Sınıflandıması1.16.1 Paralellik Koşulları1.16.2 Veri Bağımlılığı (Data Dependency)1.16.3 Paralellik tespiti için Bernstein koşulları1.16.4 Kaynak Bağımlılığı1.17 Paralellik potansiyeli1.18 Paralel Hesaplama Gereksinimi1.19 ÖzetÇalışma soruları2. Bölüm: OpenMP Kullanarak Paylaşımlı Bellek Programlaması2.1 OpenMP ile başlayalım2.2 Visual Studio'yu kullanarak OpenMP programlarının derleme ve çalıştırması2.3 Open MP'nin Bazı Terimelri2.3.1 OpenMP Derleyici Yapıları2.3.2 OpenMP Derleyici Yapıların Deyimleri2.3.3 "Parallel" Yapısı2.4 OpenMP Programındaki İpliklerin Arasında Paylaşma2.4.1 Döngü Yapısı (Loop Construct)2.4.2 "Sections" (bölümler) Yapısı2.4.3 "Single" (Tek) Yapısı2.5 Birleşik Paralel Çalışma-Paylaşım yapıları (Combined Parallel Work-Sharing Constructs)2.6 Paralel ve Çalışma Paylaşım Yapılarını Kontrol Eden Deyimler2.6.1 "Shared" (Paylaşılan) Deyimi2.6.2 Private (Özel) Deyimi2.6.3 "Lastprivate" deyimi2.6.4 "Firstprivate" Deyimi2.6.5 "Default" (Varsayılan) Deyimi2.6.6 "Nowait" Deyimi2.6.7 "Schedule" (zamanlama) deyimi2.7 OpenMP Senkronizasyon Yapıları2.7.1 Barrier (Bariyer) Yapısı2.7.2 "Ordered" (sıralı) Yapısı2.7.4 "Atomic" (Atomik) Yapısı2.7.5 "Master" Yapısı2.8 Yürütme Ortamı ile Etkileşim2.9 Daha Fazla OpenMP deyimleri2.9.1 "If" deyimi2.9.2 "Num_threads" deyimi2.9.3 "Ordered" deyimi2.9.4 "Reduction" (azaltma) deyimi2.10 Gelişmiş OpenMP yapıları2.10.1 İç içe Paralelizm2.10.2 "Threadprivate" Yapısı2.11 ÖzetÇalışma Soruları3.Bölüm: MPI (Message-Passing Interface) Kullanarak Dağıtılmış Bellek Programlaması3.1 Noktadan Noktaya (Point-to-Point) İşlemler Türleri3.1.1 Engelli karşı engelsiz (Blocking vs. Non-Blocking)3.1.1.1 Engelli (Blocking) Mod3.1.1.2 Engelsiz (Non-Blocking) Mod3.1.2 Buffer'li karşı Buffer'sız (Buffered vs Unbuffered)3.2 Merhaba Dünya Programı3.2.1 MPI_Init ve MPI_Finalize3.2.2 İletişimciler (Communicators) MPI_Comm_size ve MPI_Comm_rank3.3 MS Visual Studio'yu kullanarak MPI programın kurma ve çalıştırma3.4 Engelli Mesaj Göndermesi Fonksiyonları (Blocking Message Passing Routines)3.4.1 SIMD programları3.4.2 İşlemler Arasında İletişim3.4.2.1 MPI_Send3.4.2.2 MPI_Recv3.4.2.3 Mesaj Eşleşmesi3.4.2.4 Status_p argümanı3.4.2.5 MPI_Send ve MPI_Recv Anlamları3.4.2.6 Bazı potansiyel tuzaklar3.4.3 MPI'da İplik Desteği Seviyesi3.5 Engelsiz Mesaj Göndermesi Fonksiyonları (Non-Blocking Message Passing Routines)3.6 MPI'da Toplu İletişimi (Collective Communication in MPI)3.6.1 Toplu iletişim türleri3.6.1.1 Bariyer Senkronizasyonu3.6.1.2 Veri Hareketi veya Global İletişim (Global Communication)3.6.1.2.1 MPI_Bcast (Broadcast (one to all)3.6.1.2.2 MPI_Scatter3.6.1.2.3 MPI_Alltoall()3.6.1.2.4 MPI_Gather (All-To-One)3.6.1.2.5 MPI_Allgather()3.6.1.3 Kolektif Operasyonlar (veya Küresel Azaltma)3.6.1.3.1 MPI_Reduce3.6.1.3.2 MPI_Allreduce3.7 Paralel Performansı Kıyaslaması3.8 ÖzetÇalışma Soruları4. Bölüm: Python kullanarak Paralel Programlama4.1 Python Tanıtımı4.2 Python indirmesi ve yüklemesi4.3 Python temelleri4.4 Paralel Python4.5 Python'daki işlemlerle çalışmaya başlamak4.6 Python'da İplikle Çalışmaya Başlamak4.6.1 Python "threading" modülünü kullanması4.6.2 Lock ile İş Parçacığı Senkronizasyonu4.6.3 RLock ile İş Parçacığı Senkronizasyonu4.6.4 Semaforlar ile İş Parçacığı Senkronizasyonu4.6.5 Bir Koşulla İş Parçacığı Senkronizasyonu4.6.6 Bir Olayla İş Parçacığı Senkronizasyonu4.6.7 "with" ifadesini kullanması4.6.8 Bir Kuyruk Kullanarak İş Parçacığı İletişimi4.7 Çok İplikli Uygulamaların Performansının Değerlendirilmesi4.8 ÖzetÇalışma SorularıKaynakçaİnternet Kaynakçası

Kitap Özellikleri
Basım Yılı2019
Baskı1
Cilt DurumuKarton Kapak
DilTürkçe
Ebat16,5 x 23,5
ISBN-106056823312
Kağıt TürüKitap Kağıdı
Sayfa Sayısı288
Benzer Ürünler
Hukuk Felsefesi
%26
198,00 TL
146,52 TL
Favorilerime Ekle Sepete Ekle
Fenomenoloji
%26
185,00 TL
136,90 TL
Favorilerime Ekle Sepete Ekle
Eliza Boom'un Günlüğü
%23
198,50 TL
152,85 TL
Favorilerime Ekle Sepete Ekle
Düşmanlık Politikaları
%26
176,00 TL
130,24 TL
Favorilerime Ekle Sepete Ekle
İngiltere'nin Kısa Tarihi
%26
259,00 TL
191,66 TL
Favorilerime Ekle Sepete Ekle
Felsefe Yapma Sanatı
%30
160,00 TL
112,00 TL
Favorilerime Ekle Sepete Ekle
Cumhuriyet'in Sonbaharı
%20
170,00 TL
136,00 TL
Favorilerime Ekle Sepete Ekle
Yatmaya Hazırlanalım
%21
295,00 TL
233,05 TL
Favorilerime Ekle Sepete Ekle
T-Soft E-Ticaret Sistemleriyle Hazırlanmıştır.