Den langsomste placering for at få data til CPU'en til behandling er
fra sekundær opbevaring (harddiskdrev, SSD osv.) .
Her er hvorfor:
* CPU -hastighed: CPU'er er utroligt hurtige og fungerer ved Gigahertz -hastigheder.
* hukommelseshastighed: RAM (Random Access Memory) er meget hurtigere end sekundær opbevaring, der opererer ved nanosekunder. Dette skyldes, at RAM er direkte forbundet til CPU'en.
* sekundær opbevaringshastighed: Harddiske og SSD'er er markant langsommere end RAM, da de er mekaniske enheder, der fysisk bevæger sig for at få adgang til data. De opererer på millisekunder, som er tusinder af gange langsommere end RAM.
Dataoverførselsproces:
1. CPU -anmodning: CPU'en har brug for data til behandling.
2. Kontroller cache: CPU'en tjekker først sin cache (meget lille, meget hurtig hukommelse). Hvis dataene er der, hentes de hurtigt.
3. Ram Access: Hvis dataene ikke er i cachen, får CPU'en adgang til RAM. Dette er stadig relativt hurtigt.
4. sekundær opbevaringsadgang: Hvis dataene ikke er i RAM, skal CPU'en hente dem fra sekundær opbevaring. Dette er det langsomste trin på grund af den mekaniske karakter af disse enheder.
Eksempel: Forestil dig, at du leder efter en bestemt bog i et bibliotek.
* cache: Kontrol af indholdsfortegnelsen (meget hurtig).
* ram: Søger gennem en boghylde (hurtigere).
* Sekundær opbevaring: Gå til en anden bygning, finde den rigtige hylde og hente bogen (meget langsommere).
Kort sagt: Flytning af data fra sekundær opbevaring til CPU'en er en betydelig flaskehals og tager den længste tid.