Netzwerkanalyse, Fehlersuche, Testberichte
Home / News
Netzwerkanalyse
Grundlagen
Verkabelung
Erste Schritte
Baselining
Let's sniff
Tools
Auswerten/Filtern
Typische Probleme 1
Typische Probleme 2
Sicherheit
Bücher
Tutorials
Cacti
DSL einrichten
DynDNS einrichten
m0n0wall | pfSense
Nmap
VirtualBox
Wireshark
FAQ
Know How
Testberichte
Hardware-DB
Netzwerklexikon
Links / Service
Suche
Kontakt
Impressum
Feedback
Sitemap
Tutorials

Suchmaschinen Optimierung (SEO), Teil 1

Eigentlich ist der Titel dieses Tutorials nicht ganz korrekt. Es geht ja nicht darum, eine Suchmaschine zu optimieren. Vielmehr soll das eigene Internetangebot für Suchmaschinen optimiert werden. Noch wichtiger ist allerdings die Optimierung für den Besucher.
Mirko Kulpa, 30.01.2005

Einleitung

Das Ziel jedes Anbieters von Internetseiten sind Besucher. Aber woher kommen diese Besucher? Im wesentlichen gibt es drei Wege:

  • Links von anderen Webseiten
  • Suchmaschinen
  • Direkte Eingabe der URL, Auswahl aus Lesezeichen bzw. Favoriten

Externe Links sollten von thematisch passenden Seiten kommen. Einträge in Katalogen wie dem ODP und Yahoo sind sehr nützlich. Wie man seine Position in den Suchmaschinen verbessert, erfahren Sie weiter unten.

Damit Besucher und die Spider der Suchmaschinen problemlos auf Ihre Angebote zugreifen können, müssen eine Reihe von Kriterien erfüllt sein. Beginnen wollen wir mit den technischen Grundlagen.

Technische Grundlagen

Ihre Domain sollte stabil und problemlos zu erreichen sein. Surfer die beim ersten Aufruf einer URL eine Fehlermeldung bekommen, werden nur selten zurück kommen.

Whois

In den Whois-Datenbanken der Registrare stehen die Ansprechpartner für eine Domain. Überprüfen Sie Ihre Daten dort auf Aktualität. Die angegebenen Mailadressen und Telefonnummer sollten auf jeden Fall erreichbar sein. Es gab schon Fälle, wo Domainregistrierungen auf Grund falscher Whois-Einträge gelöscht wurden.

Als Eigner (Owner-C) und administrativer Kontakt (Admin-C) sollte Ihr Name bzw. Firmenname eingetragen sein. Nutzen Sie eine Umlautdomain nicht unbedingt als Hauptdomain. Momentan bereiten Umlautdomains noch einige technische Probleme. Bei Bedarf registrieren Sie die Domain mit und ohne Umlaut und leiten Sie die Umlautdomain auf die andere Domain mit einem permanenten Redirect (HTTP 301) um. Wie das geht, erfahren Sie weiter unten.

DNS

Der Dienst DNS ist u.a. verantwortlich für die Auflösung von Hostnamen zu IP-Adressen. Wenn also ein Besucher Ihrem Domainnamen in seinen Browser eingibt, wird zuerst via DNS die entsprechende IP-Adresse bestimmt. Über die beiden folgenden Seiten können Sie Ihre DNS-Konfiguration einfach überprüfen.

Gibt es mindestens zwei Server für Ihre Domain? Liefern alle Server die gleiche IP-Adresse zurück?

Kanonische Hostnamen / Standard-Domain

Jede Seite Ihres Webangebotes sollte genau unter einer URL zu erreichen sein. Einigen Sie sich auf die Variante mit "www" (www.example.org) oder ohne "www" (example.org). Die jeweils andere Schreibweise sollte mit einem permanenten Redirect (HTTP Code 301) entsprechend umgeleitet werden. Das gilt auch für den gleichen Domainnamen mit und ohne Umlaut. Bieten Sie auf keinen Fall den identischen Inhalt auf zwei Domänen an. Google könnte das als "duplicate content" ansehen und eine, oder auch beide, Domains aus dem Index löschen.

Für das Umleiten bzw. Umschreiben der URL gibt es zwei Möglichkeiten. Die eine ist das Umleiten via RedirectPermanent. Diese bietet sich an, wenn der Hoster kein mod_rewrite und beide URL's auf unterschiedliche Verzeichnisse auf dem Webserver zeigen. Um alle Aufrufe von "www.example.org" nach "example.org" umzuleiten, wird fogender Eintrag in der Datei ".htaccess" benötigt.

RedirectPermanent / http://example.org/

Die ".htaccess" kommt in das htdocs-Verzeichnis der Domain "www.example.org".

Eleganter ist das Umschreiben der URL mit dem Apache-Modul mod_rewrite. Dazu müssen die beiden URL's "www.example.org" und "example.org" auf das gleiche htdocs-Verzeichnis zeigen. In die dortige ".htaccess" kommt dann folgener Eintrag:

RewriteEngine on

RewriteCond %{HTTP_HOST} !^example\.org$
RewriteRule ^(.*)$ http://example.org/$1 [L,R=301]

Dieser Eintrag leitet alle Aufrufe von "www.example.org" auf "example.org" um. Deeplinks werden ebenfalls korrekt umgeschrieben. Die 301 steht für den HTTP-Statuscode. Die Robots der Suchmaschinen kommen mit der 301 (Moved Permanently) gut zurecht. Wer es lieber mit "www" mag, packt folgenden Eintrag in seine ".htaccess":

RewriteEngine on

RewriteCond %{HTTP_HOST} !^www\.example\.org$
RewriteRule ^(.*)$ http://www.exmple.org/$1 [L,R=301]

Der Web-Sniffer zeigt Ihnen die HTTP-Codes an und hilft so bei der Einrichtung der Umleitung. Geben Sie die verschiedenen Varianten der URL in den Websniffer ein, und achten Sie auf den HTTP Status Code der angezeigt wird.

Valides HTML

Internetseiten bestehen Hauptsächlich aus HTML. Der Aufbau von HTML-Seiten unterliegt gewissen Regeln. Grundsätzlich sollten Ihre Seiten aus fehlerfreiem, validem HTML bestehen. Überprüfen können Sie ihre Inhalte mit dem HTML-Validator auf

Alle Seiten Ihrer Site sollten aus validem HTML bestehen. Vergessen Sie nicht auch Ihre Style Sheets (CSS) einer Syntaxprüfung zu unterziehen.

Meta Tags

Meta Tags bieten die Möglichkeit zusätzliche Informationen im Header einer HTML-Datei unterzubringen. Füllen Sie die Tags nicht mit Tausenden Suchworten. Es ist sinnlos. Google fällt auf solche Tricks schon lange nicht mehr rein.

Sparsamer Einsatz einiger Tags im Header ist ok.

<html lang="de">
<HEAD>
<meta http-equiv="content-type" content="text/html; charset=ISO-8859-1">
<meta name="description" content="Optimierung von Internetangeboten, Suchmaschinenoptimierung">
<meta name="author" content="Mirko Kulpa">
<meta name="robots" content="index, follow">
<meta name="keywords" content="SEO, SERP, Google">
</HEAD>

Einige Suchmaschinen lesen die Metatags und zeigen zum Beispiel die Description in den SERP's an.

Cascading Sytle Sheets CSS

Über CSS kann das Aussehen von Webseiten beliebig verändert werden. Style Sheets können auch in eine seperate Datei ausgelagert werden. Dadurch wird die HTML-Datei nicht unnötig groß und das Style Sheet wird nur einmal geladen.

Semantik

Nutzen Sie HTML sinnvoll. Überschriften werden zum Beispiel mit <H1> und nicht mit <DIV> ausgezeichnet. Zur Beeinflussung der Darstellung von Überschriften können Sie CSS benutzen.

Mit Hilfe von SELFHTML lernen Sie HTML sinnvoll einzusetzen.

URL-Design

URL's die die Adressleiste des Browsers sprengen, sind nicht wirklich sinnvoll. Versuchen Sie kurze, sprechende URL's zu verwenden. Setzen Sie einen wichtigen Suchbegriff in den Dateinamen. Verwenden Sie das Minuszeichen "-" als Trenner in Dateinamen. Also zum Beispiel "birnen-und-aepfel.html" und nicht "birnen_und_aepfel.html". Versuchen Sie Session-ID und ähnliche Konstrukte in der URL zu vermeiden. Beim Webserver Apache können Sie das Modul mod_rewrite zum Umschreiben der URL benutzen.

Fehlerseiten und Umleitungen

Achten Sie darauf, dass die Fehlerseiten des Webservers auch den richtigen HTTP-Responsecode (z.B. 404) liefern und nicht etwa eine 200.
Weiterleitungen sollten immer mit einem HTTP-Redirect mit Response Code 301 realisiert werden. Google kann die 301 (Redirect Permanent) auswerten und so Ihre Inhalte korrekt indexieren.

Redirect mit Perl

Für die Umleitung in CGI-Scripten kann der folgende Codeschnippsel genutzt werden. Das Script darf vor dem print keinen HTTP-Header ausgeben. Das Ziel für den Redirect muß immer als absolute (vollständige) URL angegeben werden.

use CGI ('redirect'); 

print redirect( -url => "http://www.example.org/neu", 
                -status=>301); 

robots.txt

Die Datei /robots.txt sagt den Robots der Suchmaschinen, wie sie sich verhalten sollen. Über einen Eintrag in der robots.txt können Sie zum Beispiel bestimmte Bereiche Ihrer Site vom Indexieren ausschließen. Eine minimalistische robots.txt sieht so aus:

User-agent: *
Disallow:

Damit erlauben Sie allen Crawlern das Lesen aller Ordner des Webservers. Um zum Beispiel die CGI-Scripte vom Indexieren auszuklammern reicht folgende robots.txt:

User-agent: *
Disallow: /cgi-bin/

Überprüfen Sie die robots.txt auf jeden Fall mit einem Validator.

Ladezeiten, Seitengrößen

Denken Sie beim Erstellen Ihrer Seiten auch daran, dass nicht jeder mit DSL 3000 im Internet unterwegs ist. Textseiten sollten nicht größer als 15 KByte sein. Seihen Sie sparsam im Umgang mit Grafiken und Bildern. Bei großen Bildern ist es ratsam eine Vorschau mit geringer Auflösung anzubieten. Sehen Sie sich Ihre Seiten mal von einem ISDN-Zugang aus an. Suchmaschinen wie Google durchsuchen nur die ersten 100 KB einer Datei. Vermeiden Sie daher sehr große Textdateien.

Frames, iFrame

Verzichten Sie auf den Einsatz von Frames in Ihren Seiten. Frames erschweren eine gute Indexierung durch Suchmaschinen unnötig. Wenn Sie nicht auf Frames verzichten wollen, achten Sie auf eine funktioniernde Navigation im noframe-Bereich.

JavaScript und ActiveX

Die Navigation Ihrer Site muss auch ohne JScript und ActiveX problemlos funktionieren. Der Googlebot kennt kein JavaScript.

Shockwave, Flash, Java und Co.

Verwenden Sie Elemente, die zur Darstellung eine spezielles Plugin benötigen sehr sparsam. Längst nicht jeder Surfer ist gewillt, zur Anzeige einer Seite irgendwelche Software zu installieren. Ein Intro oder Splash Screen an dem man ohne Shockwave nicht vorbeikommt, ist ein sicheres Mittel um Besucher zu vergraulen.

Unterschiedliche Browser und Usability

Optimieren Sie Ihre Seiten nicht für einen bestimmten Browser oder gar eine bestimmte Bildschirmauflösung. Schreiben Sie lieber valides HTML!

Natürlich sollten die Seiten mit den populärsten Browsers wie Firefox, Mozilla, Opera und dem Internet Explorer vernünftig darstellbar sein. Testen Sie Ihre Angebote mit möglichst vielen Browsern auf vielen Plattformen. Sehen Sie sich die Seiten auch mit einem Textbrowser wie Lynx an.

Achten Sie beim Design auf Barrierefreiheit und Usability Ihrer Seiten. Lassen Sie ein paar Leute aus Ihrer potentiellen Zielgruppe Ihre Site testen.

Im zweiten Teil des Tutorials erhalten Sie Informationen zu Themen wie Backlinks und Auswertung von Logfiles.

Suchmaschinenoptimierung Teil 2 - Inhalte, Backlinks, Kataloge

 

 
© 2004-2023, network lab - we make your net work - Netzwerkforum
aktualisiert am 22.03.2012