Suchmaschinen und die Suchmaschinenoptimierung von Ausgabeseiten

Suchmaschinen sind im Web wesentliche Türöffner für Angebote. Sie können einerseits dazu verwendet werden, Angebote überhaupt erst zu finden. Andererseits eignen sie sich, um das Angebot auf einer Domain nach einzelnen Stichworten zu durchsuchen und ersetzen hierdurch die Installation einer eigenen Suche.

1. Positiv-Kriterien für Suchmaschinen

Für Suchmaschinen ist es - nach Meinung des Verfassers - unumgänglich, daß der Code einer Seite synaktisch korrekt ist. Da Ausgabeseiten wohlgeformt sein müssen und der Html-Code per Xsl-Transformation erzeugt wird, sind grobe Html-Fehler ausgeschlossen.

2. Einzelne Seiten ausschließen

Für das Ausschließen von Seiten stehen zwei Methoden zur Verfügung. Eine einzelne Seite kann mittels Metatags oder durch das Verschieben in ein gesperrtes Verzeichnis ausgeschlossen werden.

2.1 Ausschluß mit Metatags

Fügen Sie in das Html-Head-Element der Ausgabeseite das folgende Element ein:
<meta name='robots' content='noindex,nofollow'/>
Der gesamte Seitenkopf könnte bsp. wie folgt aussehen:
<html>
	<head>
		<meta name='robots' content='noindex,nofollow'/>
		<title>Titel dieser Seite</title>
	</head>
	<body>

	Seitencode

	</body>
</html>
Dies überschreibt die Standardeinstellungen
<meta name='robots' content='index,follow'/>
noindex bedeutet, daß die Datei nicht indiziert wird, nofollow stellt sicher, daß die ausgehenden Links nicht weiterverfolgt werden. Es können auch die Kombinationen 'noindex,follow' bzw. 'index,nofollow' gewählt werden. Fehlt ein Eintrag, so wird 'index' bzw. 'follow' verwendet.

2.2 Ausschluß durch das Verschieben in ein gesperrtes Verzeichnis

Das robots-exclusion-Standardverfahren im Web, Dateien auszuschließen, besteht darin, in der Datei /robots.txt Unterverzeichnisse zu sperren. Dort liegende Dateien werden von Suchmaschinen ignoriert. Die Domain server-daten.de verwendet, zusammen mit allen Subdomains, eine robots.txt mit dem folgenden Inhalt:
User-agent: *
Allow: /
Disallow: /admin/
Disallow: /confirm/
Disallow: /temp/
Disallow: /internal/
Disallow: /tables/
Disallow: /views/
Disallow: /queries/
Die erste Anweisung legt fest, daß sämtliche Suchmaschinen einheitlich behandelt werden. Die zweite Anweisung ('Allow') gehört zwar nicht zum robots-Standard von 1994. Sie wurde jedoch schon vor langer Zeit von google eingeführt und gestattet das Indizieren des Wurzelverzeichnisses. Anschließend werden die beiden Standard-Unterverzeichnisse /admin/ für den Aufruf der internen Masken sowie /confirm/ für die Schlüsselbestätigung gesperrt. Das /temp/ - Verzeichnis wird genutzt, um den Aufruf für die Vorschau von Ausgabeseiten vom gewöhnlichen Aufruf zu unterscheiden. Dieses Verzeichnis darf nicht für Ausgabeseiten genutzt werden. Denn bei einem solchen Aufruf wird nur geprüft, ob die Seite im aktuellen Cache gefunden werden kann. Ansonsten wird eine leere Seite ausgegeben. Das Verzeichnis /internal/ steht für benutzerdefinierte Seiten zur Verfügung, um diese gegen das Indizieren durch Suchmaschinen zu sperren. Die drei letzten Verzeichnisse dienen dazu, die Xml-Ausgaben bereitzustellen.

Sie können folglich eine Ausgabeseite vor dem Indizieren schützen, indem Sie diese in der Form

internal/name-der-gesperrten-Seite.html
anlegen. Ebenso können, durch entsprechende Benennung der Ausgabeseiten, weitere Unterordner erstellt werden, deren Inhalt ebenfalls für Suchmaschinen gesperrt ist.

Beachten Sie, daß der Ausschluß von Dateien nicht bedeutet, daß die Url von Suchmaschinen nicht angezeigt wird. Der robots-Standard fordert lediglich die Nicht-Indizierung dieser Seiten. Eine Suche bei google nach

www.server-daten.de/admin/
liefert deshalb die Url ohne Beschreibung.

2.3 Ergänzende Hinweise

Beachten Sie, daß Sie keine eigene robots.txt für Ihre Subdomain erstellen können. Intern sind die Subdomains als CNAME (= Canonical Name) definiert und leiten auf die Website der Hauptdomain (= www.server-daten.de) weiter. Dies ermöglicht, daß nur eine einzige Website betrieben wird und daß die gecachten Daten für die internen Menüs von allen Subdomains gemeinsam verwendet werden. Die Unterscheidung zwischen den Kunden erfolgt durch die Auswertung des Namens vor '.server-daten.de'. Physikalisch gibt es deshalb nur eine einzige robots.txt, die damit für alle Kunden einheitlich ist.

Ferner ist der Aufruf über die IP blockiert und liefert einen Http-Status 410 zurück. Dies verhindert gewöhnlich, daß solche Seiten jemals von einer Suchmaschine indiziert werden.

3. Vermeidung vervielfachter / duplizierter Inhalte beim Suchen.

Enthält eine Ausgabeseite den Inhalt einer Tabelle und Sortierpfeile, so kann der Erstaufruf in der Form
http://datenbank-name.server-daten.de/ausgabeseite.html
erfolgen. Jedes anschließend ausgeführte Sortieren wird über Links bereitgestellt, welche Url-Überschreibungen nutzen. Es kann bsp. ein folgender Link erscheinen (der Umbruch wurde nur aus Darstellungsgründen eingefügt):
http://datenbank-name.server-daten.de/
	ausgabeseite.html/rs-ausgabe/table/Artikel/so/2/sc/A_Name
Hier wird die Tabelle 'Artikel' ausgegeben und nach der Spalte (sc = SortColumn) A_Name absteigend (so = sort order) sortiert. Bei solchen neuen Ausgaben werden nur die Ergebniszeilen geändert, der Rest der Seite bleibt unverändert. Bietet eine Subdomain viele solcher 'sehr ähnlicher' Seiten an, so kann dies bei Suchmaschinen zur Abwertung führen, da die Seiteninhalte größtenteils übereinstimmen und sich nur die Sortierung ändert. Zur Reduzierung dieses Problems werden deshalb alle Seiten, deren Aufrufpfad Url-Überschreibungen oder Ausdrücke mit '?' enthalten, mit 'noindex,nofollow' ausgegeben. Ersteres verhindert das Erzeugen von solchem 'duplicate content'. Zweiteres stellt sicher, daß höchstens eine weitere Linkebene aufgerufen wird, so daß nicht zu viele, ohnehin nicht zu indizierende Seitenaufrufe erfolgen.

Aus demselben Grund der Vermeidung sinnloser Vielfach-Indizierungen werden die Startseiten für jede Subdomain, welche zunächst beim Aufruf von

http://datenbank-name.server-daten.de
erscheinen, mit 'noindex,nofollow' ausgegeben. Erstellen Nutzer eine Ausgabeseite namens 'index.html' mit eigenständigem Inhalt, so gilt hier 'index,follow'.

4. Einige allgemeine Hinweise

Die bislang aufgezählten Kriterien sind vom Grundsystem vorgegeben. Sie liefern allerdings nur einen minimalen Rahmen für die OnPage-Optimierung von Ausgabeseiten. Zusätzlich sollte gelten:
  • Nutzen Sie die Vielfalt der Html-Elemente: Tabellen für die Darstellung tabellarischer Daten, Listen für Aufzählungen, <strong> und <em> für Betonungen.
  • Sorgen Sie dafür, daß alle Seiten über wenigstens einen statischen Textlink erreichbar sind. Von jeder Unterseite sollte es wieder einen Weg zurück zur Startseite geben. Suchmaschinen lesen keine JavaScript-Navigation und verfolgen keine Formular-Buttons.
  • Das Grundsystem bietet keine Möglichkeit, Bilder auf dem Server zu speichern. Dies ist beabsichtigt, da es sich um ein Projekt handelt, welches komplexe Datenbank-Ressourcen zur Verfügung stellt. Sie können jedoch Bilder auf Ihrem eigenen Server bereitstellen und diese per Link einbinden. Für Suchmaschinen ist es hilfreich, das alt-Attribut mit einem geeigneten Text zu belegen. Ein Beispiel:
    <img src='http://www.ihre-firma.de/sd-images/firmengebaeude.jpg'
    	alt='Hauptgebäude der Firma ihre-firma'/>
All diese Hinweise unterstützen es, daß Ihre Seiten überhaupt von Suchmaschinen gelesen und indiziert werden können. Dies bedeutet allerdings nicht, daß Ihre Seiten nur durch die Beachtung dieser Regeln bereits auf vorderen Plätzen angezeigt werden. Hierfür sind in der Regel viele eingehende Links auf Ihre Seiten erforderlich. Solche Dienstleistungen bietet server-daten nicht an. Ferner werden die Ausgabeseiten der Kunden nicht dafür genutzt, damit server-daten weitere, bsp. versteckt eingefügte Links auf die eigenen Domains erzeugt. Auch dies ist ein Grund, die unveränderte Standardseite auf jeder Subdomain mit 'nofollow' auszugeben und den /admin/-Ordner zu sperren.

Falls Kunden des hiesigen Systems Dienstleister beauftragen, ihre Seiten mit dem Ziel besserer Platzierungen zu optimieren, so weist server-daten auf Richtlinien hin, wie sie bsp. in den google-Guidelines zu finden sind. Von Dienstleistern, die versteckte Links auf eigene Angebote in die Ausgabeseiten einfügen oder vom Kunden erwarten, solche Links zu setzen, muß abgeraten werden. Der Kunde läuft Gefahr, daß seine Subdomain von den Suchmaschinen ausgeschlossen wird. Da allerdings alle Subdomains voneinander isoliert und nicht miteinander verlinkt sind, bleiben die Ausgabeseiten anderer Kunden hiervon unberührt.


Kontaktformular:

Schreiben Sie mir und wir bauen gemeinsam Ihre neue Web-Datenbank!

Die Erläuterungen zum Datenschutz habe ich gelesen und stimme diesen zu.

© 2003-2019 Jürgen Auer, Berlin.