Was ist ein Cache?

Ein Cache ist eine Art Zusatzspeicher, aus dem mit relativ geringer Speicherkapazität ein Hochgeschwindigkeitsabruf möglich ist. Es befindet sich zwischen der Zentraleinheit (CPU) und dem Hauptspeicher. Er hilft dabei, Zugriffe auf die Festplatte oder komplexe Neuberechnungen zu vermeiden, indem bestimmte Daten zwischengespeichert und bei Bedarf schnell verfügbar gemacht werden. Der Cache speichert eine Kopie der aktuellen Anforderung und spiegelt in gewissem Sinne wider, was auf dem angeforderten Medium enthalten ist.

Wie funktioniert der Cache?

Um einen effizienten Zugriff zu ermöglichen, werden häufig verwendete Programmteile und berechnete Daten im Cache gespeichert und stehen so schneller zur Verfügung. Der Cache fungiert als Puffer zwischen dem Hauptspeicher und der Festplatte und ermöglicht die effizientere Verarbeitung bestimmter Threads. Darüber hinaus können Daten, die schnell benötigt werden, im Voraus in den Cache geladen werden und sind einsatzbereit.

Der Cache-Speicher ist in Hierarchien unterteilt, die durch Ebenen gekennzeichnet sind. Dieser gibt Auskunft darüber, an welcher Position die jeweilige Hierarchie im Datenstrom steht. Ein Level-0-Cache (L0) hat eine geringe Speicherkapazität von wenigen Bytes, wodurch der Datenstrom zu Beginn in der Zentraleinheit entkoppelt wird. L1- und L2-Caches sind intern, während der Level 3-Cache (L3) ein separater Speicher auf der Hauptplatine ist. Jede Cache-Ebene kann Treffer und Fehler abfragen. Wenn eine aktuelle Datenanforderung mit der bereits im Cache vorhandenen Anforderung identisch ist, handelt es sich um einen Treffer und der aktuelle Prozess kann mithilfe des Caches verarbeitet werden. Andernfalls handelt es sich um einen Fehler, und der Vorgang muss unter bestimmten Umständen auf die Festplatte zugreifen.

Die Anwendungsbereiche des Cache

Neben den bekanntesten Speicher-Caches gibt es Caches für Disketten-, CD- und DVD-Laufwerke. Diese Speichergeräte verwenden eine andere Speichertechnologie, um Daten vorübergehend zu speichern. In Bezug auf Webanwendungen ist ein Cache ein Pufferspeicher, der vorübergehend Daten für eine Website, Formulare oder verfügbare Medien wie Videos und Bilder speichert. So müssen diese Daten nicht erneut geladen werden, wenn die Ressource abgefragt wird. Solche Caches sind Teil der Software und verwenden bestimmte Ressourcen, die die Software sowieso benötigt.

Der Cache eines Browsers lädt Daten, die der Benutzer bereits eingegeben hat oder die der Server zur Verfügung stellt, wie beispielsweise Formulare oder Videos. Solche Daten werden auch als temporäre Dateien bezeichnet, da sie nur für kurze Zeit zwischengespeichert werden. Cookies und Benutzerdaten wie Passwörter werden ebenfalls in einem Cache gespeichert. Für jeden Browser gibt es entsprechende Anweisungen, wenn Sie den Cache löschen möchten.

Was hat der Cache mit SEO zu tun?

Auch Suchmaschinen wie Google haben einen Cache, in dem eine Art Schnappschuss der jeweiligen Seite gespeichert wird. Diese Kopie ist auf den Servern der Suchmaschine hinterlegt und kann unabhängig von der aktuellen Verfügbarkeit der Website über den Cache wieder abgerufen werden. Dies kann zu rechtlichen Problemen führen. Die Betreiber von Webseiten sollten dies berücksichtigen und sich vor der Registrierung der URL informieren. Die Server von Google können Webseiten jedoch nicht direkt und immer in der neuesten Version zur Verfügung stellen. Jeder Abruf einer Website von den SERPs ist ein Bild, das von den Crawlern von Google zu einem bestimmten Zeitpunkt erstellt wurde, um es im Index zu speichern. Was der Benutzer sieht, ist eine Kopie der Site aus dem Index. Das US-Recht deckt diese Kopie mit dem Fair Use Act ab. Im deutschen Recht besteht hier jedoch eine unpraktische Lücke. Webseiten-Betreiber haben trotzdem ein großes Interesse daran, in den Suchergebnislisten von Google gefunden zu werden. Auch dann noch, wenn es sich eigentlich um ein Bild der Website aus dem Google-Index handelt.

, ,