2
18
ORGANISASI DAN ARSITEKTUR KOMPUTER
Cache Memory
Di susun oleh :
Haris Agriawan ( 16.11.0337 )
Wira Kusuma ( 16.11.0338 )
Samsul Rijal ( 16.11.0387 )
Ria Hikmah Pratitis ( 16.11.0396 )
16 S1 Informatika 06
FAKULTAS ILMU KOMPUTER
UNIVERSITAS AMIKOM YOGYAKARTA
2017
Daftar Isi
Daftar Isi
Kata Pengantar
Bab I Pendahuluan
1.1 Latar belakang
1.2 Rumusan masalah
1.3 Tujuan masalah
Bab II Pembahasan
2.1 Pengertian cache memory
2.2 Tujuan cache memory
2.3 Letak cache memory
2.4 Struktur cache memory
2.5 Operasi baca data pada cache memory
2.6 Mengapa ukuran cache memory kecil
2.7 Mengapa ukuran cache berbeda-beda
2.8 Mengapa perlu di maping
2.9 Jenis-jenis mapping
2.10 Replacement Algoritms/Algoritma penggantian
2.10 a. Direct mapping
2.10 b. Accociative mapping
i. Least recently used ( LRU )
ii. First in first ( FIFO )
iii. Least Fraquently Used ( LFU )
iv. Random
2.11. Cara penulisan ( Write policy ) pada cache memory
2.11 a. Write Throught ( Tujuan, problem, solusi)
2.11 b. Write Back ( Tujuan, problem, solusi )
2.12. Ukuran Block Memory
2.13. Jenis-jenis cache memory ( berdasarkan letak, level dan jenis data yang disimpan )
Bab III Penutup
3.1 Kesimpulan
3.2 Saran
Daftar Pustaka
KATA PENGANTAR
Dengan menyebut nama Allah SWT yang Maha Pengasih lagi Maha Penyayang. Kami panjatkan puji syukur atas kehadirat-Nya yang telah melimpahkan rahmat, hidyah serta inayah-Nya kepada kami, sehingga kami dapat menyelesaikan Makalah Organisasi dan Arsitektur Komputer.
Makalah ini akan membahas tentang Organisasi dan Arsitektur Komputer, Terima kasih kepada semua pihak yang telah membantu dalam menyusun makalah ini dan terimakasih atas bimbingan serta ilmu yang telah dibagi.
Terlepas dari semua itu. Kami menyadari sepenuhnya bahwa masih banyak kekurangan baik dari segi penyusunan kalimat maupun tata bahasanya. Oleh karena itu kami dengan senang hati menerima kritik dan saran dari pembaca agar dapat memperbaiki makalah ini.
Akhir kata kami berharap semoga Makalah Organisasi dan Arsitektur Komputer ini dapat memberikan informasi, Manfaat dan dapat digunakan sebagai sarana referensi belajar untuk pembaca.
Yogyakarta, April 2017
Penulis
Bab I Pendahuluan
1.1. Latar Belakang
Pada dunia modern saat ini khususnya Teknologi kini semakin terlihat perkembangannya, mulai dari perkembangan hardware dan software seperti processor dan terutama pada memory. Karena perkembangan teknologi saat ini banyak membantu manusia dalam berbagai bidang baik dalam bidang perkantoran, dan lain-lain. Perbedaan kecepatan operasi antara processor dan memory utama juga bias menjadi kendala bagi pencapaian efisiensi kerja sistim computer. Kendala ini menyebabkan diperlukannya Cache, yaitu memory yang berkapasitas kecil akan tetapi berkecepatan tinggi, yang dipasang antara processor dan memory utama. Cacche umunya menggunakan memory static yang harganya mahal, sedangkan yang memory utama menggunakan memory dinamik yang jauh lebih murah.
1.2 Rumusan Masalah
Tujuan cache memory
Jenis-jenis cache memory
Letak dan struktur cache memory
Operasi baca data pada cache memory
Ukuran cache
Mapping dan jenis-jenis mapping
Cara penulisan pada cache memory
1.3 Tujuan
Mengetahui Cache memory
Mengetahui fungsi, letak, cara penulisan cache memory
Mengetahui struktur,ukuran dan operasi baca cache memory
Memahami mapping
Mengetahui jenis-jenis mapping
Bab II Pembahasan
2.1 Pengertian Cache Memory
Cache memory adalah memory yang berukuran kecil yang sifatnya temporary (sementara). Walaupun ukuran file nya sangat kecil namun kecepatannya sangat tinggi. Dalam terminologi hardware, istilah ini biasanya merujuk pada memory berkecepatan tinggi yang menjembatani aliran data antara processor dengan memory utama (RAM) yang biasanya memiliki kecepatan yang lebih rendah.
Memori ini digunakan untuk menjembatani perbedaan kecepatan CPU yang sangat tinggi dengan kecepatan RAM yang jauh lebih rendah. Jika processor membutuhkan suatu data, pertama-tama ia akan mencarinya pada cache. Jika data ditemukan, processor akan langsung membacanya dengan delay yang sangat kecil. Tetapi jika data tidak ditemukan, processor akan mencarinya pada RAM.
2.2 Tujuan Cache Memory
Tujuan dari Cache Memory adalah sebagai tempat menyimpan data sementara atau instruksi yang diperlukan oleh processor, atau cache sendiri berfungsi untuk mempercepat akses data pada komputer karena cache menyimpan data atau infomasi yang telah di akses oleh suatu buffer, sehingga meringankan kerja processor.
Dalam Internet sebuah proxy cache dapat mempercepat proses browsing dengan cara menyimpan data yang telah diakses di komputer yang berjarak dekat dengan komputer pengakses. Jika kemudian ada user yang mengakses data yang sama, proxy cache akan mengirim data tersebut dari cache-nya, bukan dari tempat yang lama diakses. Dengan mekanisme HTTP, data yang diberikan oleh proxy selalu data yang terbaru, karena proxy server akan selalu mencocok kan data yang ada di cache-nya dengan data yang ada di server luar.
Fungsi cache memory secara umunya yaitu :
Mempercepat akses data pada komputer.
Meringankan kerja processor.
Menjembatani perbedaan kecepatan antara cpu dan memory utama.
Mempercepat kinerja memory.
Adapun Cara kerjanya adalah Jika processor membutuhkan suatu data, pertama-tama dia akan mencarinya pada cache. Jika data ditemukan, processor akan langsung membacanya dengan delay yang sangat kecil. Tetapi jika data yang dicari tidak ditemukan,prosesor akan mencarinya pada RAM yang kecepatannya lebih rendah. Pada umumnya, cache dapat menyediakan data yang dibutuhkan oleh prosesor sehingga pengaruh kerja RAM yang lambat dapat dikurangi.
Dengan cara ini maka memory bandwidth akan naik dan kerja prosesor menjadi lebih efisien. Selain itu kapasitas memori cache yang semakin besar juga akan meningkatkan kecepatan kerja komputer secara keseluruhan. Dua jenis cache yang sering digunakan dalam dunia komputer adalah memory caching dan disk caching. Implementasinya dapat berupa sebuah bagian khusus dari memori utama komputer atau sebuah media penyimpanan data khusus yang berkecepatan tinggi.
2.3 Letak Cache Memory
Terdapat di dalam Processor (on chip),Cache internal diletakkan dalam prosesor sehingga tidak memerlukan bus eksternal, maka waktu aksesnya akan sangat cepat sekali.
Terdapat diluar Processor(off chip), Berada pada MotherBoard memori jenis ini kecepatan aksesnya sangat cepat,meskipun tidak secepat chache memori jenis pertama.
2.4 Struktur Cache Memory
2.5 Operasi Baca Data pada Cache Memory
Cache memory merupakan memori yang memiliki kecepatan sangat tinggi, digunakan sebagai perantara antara Main Memory dan CPU. Memori ini mempunyai kecepatan lebih tinggi dari pada Main Memory, namun harganya lebih mahal. Cache memory digunakan untuk menjembatani perbedaan kecepatan CPU yang sangat tinggi dengan kecepatan RAM yang jauh lebih rendah. Dengan menggunakan cache memory, sejumlah data dapat dipindahkan ke memori ini dalam sekali waktu, dan kemudian ALU akan mengambil data tersebut dari memori ini. Dengan pendekatan seperti ini, pemrosesan data dapat dilakukan lebih cepat dari pada kalau CPU mengambil data secara langsung dari RAM. Memperlihatkan sistem interkoneksi untuk cache memory.
2.6 Mengapa Ukuran Cache kecil
Ini berkaitan dengan fungsi cache itu sendiri, ukuran cache dibuat kecil supaya proses pencarian data pada memory cache bisa lebih cepat.(bayangkan bila kita mencari jarum di kotaknya dengan mencari jarum di padang pasir, mana yang lebih cepat??
Karena Cache berukuran kecil, maka data yang ada di dalam cache harus dikeluarkan. Untuk mengeluarkan data - data ini diperlukan sebuah program yang disebut Algoritma Penggantian yang berfungsi untuk mengeluarkan blok-blok yang berisi data.
antara lain :
1. least recently used (LSU) : mengganti blok yang berada dalam set yang telah berada paling lama dalam cache dengan tidak memiliki referensi.
first in-first out (FIFO) : mengganti blok yang telah berada pada cache dalam waktu terlama.
least frequently used (LFU) : menggantikan blok di dalam set yang mengalami referensi paling sedikit.
2.7 Mengapa ukuran cache berbeda-beda
Pada umumnya cache terbagi menjadi beberapa jenis, misalnya L1 Cache, L2 Cache dan L3 Cache. L1 cache terletak di dalam prosesor dan merupakan cache yang memiliki kecepatan paling tinggi. L2 cache terletak di luar prosesor dan memiliki ukuran yang lebih besar dibanding L1 Cache. Sedangkan L3 cache hanya terdapat pada komputer yang memiliki core lebih dari satu. (dual core, quad core, etc).
Pengelompokan cache menjadi beberapa jenis ini bertujuan untuk mempercepat kerja prosesor. Prosesor bekerja berdasarkan prioritas. L1 Cache yang berukuran paling kecil adalah memory yang diakses pertama kali, kemudian L2 Cache, L3 Cache dan yang terakhir adalah main memory. Jika data yang diperlukan oleh prosesor telah berada di memory yang diakses lebih dulu, maka data tersebut dapat langsung digunakan tanpa harus mencari lagi di main memory.
Gambar dibawah ini dapat sedikit menunjukkan posisi cache pada computer
2.8 Mengapa perlu di mapping
Perlunya Mapping pada cache memory karena saluran cache memory lebih sedikit dibandingkan dengan blok memori utama, maka diperlukan algoritma untuk pemetaan blok memori utama ke dalam saluran cache memory. Pemilihan terhadap fungsi pemetaan akan sangat menentukan bentuk organisasi cache memory.
Telah kita ketahui bahwa cache memory mempunyai kapasitas yang kecil dibandingkan memori utama. Sehingga diperlukan aturan blok-blok mana yang diletakkan dalam cache memory. Terdapat tiga metode, yaitu pemetaan langsung (direct mapping), pemetaan asosiatif, dan pemetaan asosiatif set.
2.9 Jenis-jenis Mapping
Beberapa jenis Mapping Function (Fungsi Pemetaan) :
Direct Mapping Cache
Assosiate Mapping Cache
Block Set Assosiate Mapping Cache
A. Direct Mapping Cache
Pemetaan langsung adalah teknik yang paling sederhana, yaitu teknik ini memetakan blok memori utama hanya ke sebuah saluran cache saja. Jika suatu block ada di cache, maka tempatnya sudah tertentu. Keuntungan dari direct mapping adalah sederhana dan murah. Sedangkan kerugian dari direct mapping adalah suatu blok memiliki lokasi yang tetap (jika program mengakses 2 blok yang di map ke line yang sama secara berulang-ulang, maka cache-miss sangat tinggi).
Berikut penjelasan lebih detail :
Setiap blok pada main memory dipetakan dengan line tertentu pada cache. i = j modulo C di mana i adalah nomor line pada cache yang digunakan untuk meletakkan blok main memory ke-j.
Jika M = 64 dan C = 4, maka pemetaan
antara line dengan blok menjadi
seperti berikut :
Line 0 can hold blocks 0, 4, 8, 12, ...
Line 1 can hold blocks 1, 5, 9, 13, ...
Line 2 can hold blocks 2, 6, 10, 14, ...
Line 3 can hold blocks 3, 7, 11, 15, ...
Pada cara ini, address pada main memory dibagi 3 field atau bagian, yaitu:
o Tag identifier.
o Line number identifier
o Word identifier (offset)
Word identifier berisi informasi tentang lokasi word atau unit addressable lainnya dalam line tertentu pada cache.
Line identifier berisi informasi tentang nomor fisik (bukan logika) line pada chace
Tag identifier disimpan pada cache bersama dengan blok pada line.
o Untuk setiap alamat memory yang dibuat oleh CPU, line tertentu yang menyimpan copy alamat tsb ditentukan, jika blok tempat lokasi data tersebut sudah dikopi dari main memory ke cache.
o Tag yang ada pada line akan dicek untuk melihat apakah benar blok yang dimaksud ada line tsb.
Gambar 2.1 : Gambar Organisasi Direct Mapping.
Keuntungan Menggunakan Direct Mapping antara lain :
Mudah dan Murah diimplementasikan
Mudah untuk menentukan letak salinan data main memory pada chace.
Kerugian menggunakan Direct Mapping antara lain :
Setiap blok main memory hanya dipetakan pada 1 line saja.
Terkait dengan sifat lokal pada main memory, sangat mungkin mengakses blok yang dipetakan pada line yang sama pada cache. Blok seperti ini akan menyebabkan seringnya sapu masuk dan keluar data ke/dari cache, sehingga hit ratio mengecil. Hit ratio adalah perbandingan antara jumlah ditemukannya data pada cache dengan jumlah usaha mengakses cache.
Gambar 2.2 : Gambar Contoh Pengalamatan Direct Mapping.
Ringkasan direct mapping nampak pada tabel berikut:
Item
Keterangan
Panjang alamat
(s+w) bits
Jumlah unit yang dapat dialamati
2s+w words or bytes
Ukuran Bloks sama dengan ukuran Line
2w words or bytes
Jumlah blok memori utama
2s+ w/2w = 2s
Jumlah line di chace
M = 2r
Besarnya tag
(s - r) bits
B. Assosiate Mapping Cache
Pemetaan asosiatif mengatasi kekurangan pemetaan langsung dengan cara mengizinkan setiap blok memori utama untuk dimuatkan ke sembarang saluran cache. Dengan pemetaan assosiatif, terdapat fleksibilitas penggantian blok ketika blok baru dibaca ke dalam cache. Kekurangan pemetaan asosiatif yang utama adalah kompleksitas rangkaian yang diperlukan untuk menguji tag seluruh saluran cache secara parallel, sehingga pencarian data di cache menjadi lama.
Memungkinkan blok diletakkan di sebarang line yang sedang tidak terpakai.
Diharapkan akan mengatasi kelemahan utama Direct Mapping.
Harus menguji setiap cache untuk menemukan blok yang diinginkan.
o Mengecek setiap tag pada line
o Sangat lambat untuk cache berukuran besar.
Nomor line menjadi tidak berarti. Address main memory dibagi menjadi 2 field saja, yaitu tag dan word offset.
Gambar 2.3 : Gambar Organisasi Associative Mapping.
Melakukan pencarian ke semua tag untuk menemukan blok.
Cache dibagi menjadi 2 bagian :
o lines dalam SRAM
o tag dalam associative memory
Gambar 2.4 : Gambar Contoh Pengalamatan Associative Mapping
Keuntungan Associative Mapping : Cepat dan fleksibel.
Kerugian Associative Mapping : Biaya Implementasi, misalnya untuk cache ukuran 8 kbyte dibutuhkan 1024 x 17 bit associative memory untuk menyimpan tag identifier.
Ringkasan Associative Mapping Jelasnya pada tabel berikut:
Item
Keterangan
Panjang alamat
(s+w) bits
Jumlah unit yang dapat dialamati
2s+w words or bytes
Ukuran Bloks sama dengan ukuran Line
2w words or bytes
Jumlah blok memori utama
2s+ w/2w = 2s
Jumlah line di chace
Undetermined
Besarnya tag
s bits
C. Assosiate Set Mapping Cache
Pada pemetaan ini, cache dibagi dalam sejumlah sets. Setiap set berisi sejumlah line. Pemetaan asosiatif set memanfaatkan kelebihan-kelebihan pendekatan pemetaan langsung dan pemetaan asosiatif.
Merupakan kompromi antara Direct dengan Full Associative Mapping.
Membagi cache menjadi sejumlah set (v) yang masing-masing memiliki sejumlah line (k)
Setiap blok dapat diletakkan di sebarang line dengan nomor set: nomor set = j modulo v
Gambar 2.5 : Gambar Organisasi K-Way Set Associative Mapping.
Jika sebuah set dapat menampung X line, maka cache disebut memiliki X way set associative cache.
Hampir semua cache yang digunakan saat ini menggunakan organisasi 2 atau 4-way set associative mapping.
Gambar 2.6 : Gambar Contoh Pengalamatan 2-Way Associative Mapping.
Keuntungan menggunakan Set Associative Mapping antara lain:
Setiap blok memori dapat menempati lebih dari satu kemungkinan nomor line
(dapat menggunakan line yang kosong), sehingga thrashing dapat diperkecil
Jumlah tag lebih sedikit (dibanding model associative), sehingga jalur untuk melakukan
perbandingan tag lebih sederhana.
Ringkasan Set Associative Mapping nampak pada tabel berikut:
Item
Keterangan
Panjang alamat
(s+w) bits
Jumlah unit yang dapat dialamati
2s+w words or bytes
Ukuran Bloks sama dengan ukuran Line
2w words or bytes
Jumlah blok memori utama
2d
Jumlah line dalam set
k
Jumlah set
V=2d
Jumlah line di chace
Kv = k*2d
Besarnya tag
( s – d )bits
2.10 Replacement Algoritms/Algoritma penggantian
Algoritma penggantian adalah suatu mekanisme pergantian blok-blok dalam memori cache yang lama dengan data baru. Dalam pemetaan langsung tidak diperlukan algoritma ini, namun dalam pemetaan assosiatif dan asosiatif set, algoritma ini mempunyai peranan penting untuk meningkatkan kinerja cache memori.
Banyak algoritma penggantian yang telah dikembangkan, algoritma yang paling efektif adalah Least Recently Used (LRU), yaitu mengganti blok data yang terlama berada dalam cache dan tidak memiliki referensi. Algoritma lainnya adalah First In First Out (FIFO), yaitu mengganti blok data yang awal masuk. Kemudian Least Frequently Used (LFU) adalah mengganti blok data yang mempunyai referensi paling sedikit. Teknik lain adalah algoritma Random, yaitu penggantian tidak berdasarkan pemakaian datanya, melainkan berdasar slot dari beberapa slot kandidat secara acak.
Direct Mapping
Algoritma penggantian data cache memori tidak berlaku pada Direct Mapping. Karena pada direct mapping posisi tiap blok telah ditentukan.
Assosiative Mapping
Pada metode associative dan set-associative, saat blok baru akan dibawa ke cache dan semua blok cache telah penuh, maka harus diputuskan blok mana yang akan di overwrite.
Secara umum metode ini adalah mempertahankan data yang tampaknya akan segera digunakan (direferensi) dan mengganti data yang tidak/belum akan direferensi.
Properti locality of reference dapat menjadi petunjuk, karena kemungkinan besar blok yang telah direferensi akan segera direferensi lagi. Maka jika harus melakukan overwrite dapat dipilih blok yang lama tidak direferensi.
algoritma penggantian LRU (LRU replacement algorithm).
i. Last recently used
Merupakan blok yang paling lama tidak direferensi disebut blok LAST Recently Used (LRU) atau algoritma penggantian LRU (LRU replacement algorithm).
ii . First in first out
Merupakan algoritma yang paling sederhana, FIFO diasosiasikan dengan sebuah page, apabila page tersebut dibawa ke memory. Dan apabila ada page yang akan ditempatkan, maka posisi page yang paling lama akan digantikan. Algoritma ini tidak perlu menyimpan waktu pada saat sebuah page dibawa ke memory. Kelemahan dari FIFO adalah kinerjanya yang tidak selalu baik. Ini disebabkan karena ada kemungkinan halaman yag baru saja keluar dari memori ternyata dibutuhkan kembali.
iii Least Recently Used
Mengacu pada Algoritma cache untuk manajemen memori. Kebijakan kadaluarsa akan menghapus entitas dari cache yang di pergunakan palig sedikit. Jika frekuensi penggunaan setiap etensitas adalah sama, maka mereka berakhir oleh algoritma Least Recently Used ( LRU )
iv Random ( Algoritma Acak )
Setiap terjadi page fault, yang yang digantidipilih secara acak,teknik ini tidak memakai informasi apapun dalam menentukan page yang akan diganti. Semua page pada memori utama mempunyai bobot sama untuk dipilih. Maka teknik ini dapat memilih sembarang page, termasuk page yang sedang diacu (yang seharusnya tidak diganti, pilihan terburuk ), percobaan ini sangat buruk algoritma acak akan menimbulkan rate terjadinya page fault yang sangat tinggi.
2.11. Cara penulisan ( Write policy ) pada cache memory
Sistem akan menuliskan data kedalam cache, sistem juga harus menuliskan data tersebut pada disk ( backing store). Waktu penulisan tersebut dikontrol oleh kebijakan yang bernama write policy ( kebijkan menulis ). Penulisan ini sangat kompleks, apalgi memory utama dapat diakses langsung oleh modul I/O yang memungkinkan datadidalam memori utama berubah.
Ada dua macam metode dasar penulisan cache:
Write-through
Operasi penulisan yang melibatkan data pada memori utama dan sekaligus pada cache memori sehingga data selalu valid.
Kekurangan teknik ini adalah :
– Lalu lintas data ke memori utama dan cache sangat tinggi
– Mengurangi kinerja sistem, bisa terjadi hang
Write back
Teknik me-minimalisasi penulisan dengan cara penulisan pada cache saja.
Pada saat akan terjadi penggantian blok data cache maka baru diadakan penulisan pada memori utama.
Masalah : manakala data di memori utama belum di-update telah diakses modul I/O sehingga data di memori utama tidak valid
Selain kedua metode di atas adapula metode lain yaitu Multi cache.
Multi cache untuk multiprosesor.Masalah yang lebih kompleks.Masalah validasi data tidak hanya antara cache dan memori utama.Antar cache harus diperhatikan Kapasitas, Satuan Transfer, Metode Akses, Kinerja, Tipe Fisik dan Karakteristik Fisik.
Penggunaan multi cache terutama untuk multi prosesor akan menjumpai masalah yang lebih kompleks. Masalah validasi data tidak hanya antara cache dan memori utama saja, namun antar cache juga harus diperhatikan. Pendekatan penyelesaian masalah yang dapat dilakukan adalah dengan :
Bus Watching with Write Through
Yaitu setiap cache controller akan memonitoring bus alamat untuk mendeteksi adanya operasi tulis. Apabila ada operasi tulis di alamat yang datanya digunakan bersama maka cache controller akan menginvalidasi data cache-nya.
Hardware Transparency
Yaitu adanya perangkat keras tambahan yang menjamin semua updating data memori utama melalui cache direfleksikan pada seluruh cache yang ada.
Non Cacheable Memory
Yaitu hanya bagian memori utama tertentu yang digunakan secara bersama. Apabila ada pengaksesan data yang tidak di-share merupakan kegagalan cache.
2.12 . Ukuran Blok Memory
Adanya sifat lokalitas referensi menyebabkan nilai ukuran blok sangatlah penting. Apabila blok berukuran besar ditransfer ke cache akan menyebabkan hit ratio mengalami penurunan karena banyaknya data yang dikirim di sekitar referensi. Tetapi bila terlalu kecil, dimungkinkan memori yang akan dibutuhkan CPU tidak tercakup. Apabila blok berukuran besar ditransfer ke cache, maka akan terjadi :
Blok-blok yang berukuran lebih besar mengurangi jumlah blok yang menempati cache. Karena setiap pengambilan blok menindih isi cache yang lama, maka sejumlah kecil blok akan menyebabkan data menjadi tertindih setelah blok itu diambil.
Dengan meningkatnya ukuran blok maka jarak setiap word tambahan menjadi lebih jauh dari word yang diminta, sehingga menjadi lebih kecil kemungkinannya digunakan dengan cepat.
Hubungan antara ukuran blok dan hit ratio sangat rumit untuk dirumuskan, tergantung pada karakteristik lokalitas programnya dan tidak terdapat nilai optimum yang pasti telah ditemukan. Ukuran antara 4 hingga 8 satuan yang dapat dialamati (word atau byte) cukup beralasan untuk mendekati nilai optimum.
Jenis Cache Memory
1. L1 cache L1 Cache adalah Sejumlah kecil SRAM memori yang digunakan sebagai cache yang terintegrasi menyatu pada prosesor.
- Berguna untuk menyimpan secara sementara instruksi dan data, dan memastikan bahwa prosesor memiliki supply data yangstabil untuk diproses sementara memori mengambil dan menyimpan data baru.
- L1 cache (Level 1 cache) disebut pula dengan istilah primary cache, first cache, atau level one cache.
- Transfer data dari L1 cache ke prosesor terjadi paling cepat Kecepatannya mendekati kecepatan register
2. L2 cache Arti istilah L2 Cache adalah Sejumlah kecil SRAM memori yang berada di motherboard dekat dengan posisi dudukan prosesor.
- Berguna untuk menyimpan sementara instruksi dan data, dan memastikan bahwa prosesor memiliki supply data yangstabil untuk diproses sementara memori mengambil dan menyimpan data baru
- (Level 2 cache) secondary cache, second level cache, atau level two cache.
- L2 cache memiliki ukuran lbih besar dibandingkan L1 namun kecepatan transfernya sedikit lebih lama dari L1cache.
3. L3 cache jarang sekali ada, hanya ada di komputer tertentu.
- Berguna ketika terdapat cache yang hilang "missing" pada cache L1&L2
- L3 cache memiliki ukuran lbih besar dibandingkan L1 dan L2 namun kecepatan
- transfernya lebih lama dari L1cache dan L2 Cache.
Bab III Penutup
3.1 Kesimpulan
Cache memory merupakan memori yang memiliki kecepatan sangat tinggi, digunakan sebagai perantara antara Main Memory dan CPU. Memori ini mempunyai kecepatan lebih tinggi dari pada Main Memory, namun harganya lebih mahal. Cache memory digunakan untuk menjembatani perbedaan kecepatan CPU yang sangat tinggi dengan kecepatan RAM yang jauh lebih rendah.
Dengan menggunakan cache memory, sejumlah data dapat dipindahkan ke memori ini dalam sekali waktu, dan kemudian ALU akan mengambil data tersebut dari memori ini. Dengan pendekatan seperti ini, pemrosesan data dapat dilakukan lebih cepat dari pada kalau CPU mengambil data secara langsung dari RAM. Memperlihatkan sistem interkoneksi untuk cache memory.
3.2 Saran
Apabila didalam penulisan makalah masih banyak kesalahan kami mohon maaf, dan setiap tahun pasti teknologi mengalami perubahan, jadi informasi yang disampaikan harus diupdate sesuai dengan perkembangan zaman.
Daftar Pustaka