Servermeldungen
200er Meldung - alles gut301 Meldung - rewrite
404 Fehler - Seite nicht verfügbar
500er Fehler - ganz gravierend
Webmaster Tools von Google
Hier kann ich alle meine verwalteten Websites zusammenführen, überprüfen und pflegen, und das ganze kostenlos. Z.B. kann ich zur Feinjustierung Sitelinks (wie interne Verlinkungen auf der Seite) meiner Seite abwerten, die Handhabung von Parametern in URLs bestimmen, weitere Nutzer für ein gemeinsames Verwalten aufnehmen, verschiedene Kanäle wie Youtube und Blogspot verlinken als Partner.Unter Status finde ich Crawling Fehler und Crawling Statistiken. Diese zeigen an, wie oft der Crawler vorbeikommt und wie viel er ausliest, je nach Häufigkeit der Aktualisierung und der neuen Links nimmt die Crawler Aktivität ab oder bleibt optimalerweise auf hohem Niveau. Pro Tag heruntergeladene Kilobyte liegen durchschnittlich bei 100, wenn man vorrangig auf Text setzt. Dauer des Herunterladens zeigt, wie gut die Seite erreichbar ist. Dauert die Ladezeit zu lang, verliere ich Besucher, deshalb sollten hier keine Spitzen/ Ausreisser auftauchen. Am besten notiere ich alle Durchschnittszahlen monatlich. Unter Blockierte URLs kann ich prüfen, ob meine robots.txt Datei richtig funktioniert. Abrufe wie durch Google ermöglichen es mir, den Crawler über meine Seite gehen zu lassen und diese Seite dann an den Index senden. Über den Indexierungsstatus überprüfe ich meine Listung dann. Wenn Malware ein Ergebnis liefert, ist meine Seite gehackt/ mit Spam infiziert.
Zugriffe: Suchanfragen zeigt an, wie die Webseite gefunden worden ist. Außerdem bekomme ich hier einen Überblick über die Links zu meiner Webeite, genauso wie die internen Links auf meiner Seite.
Optimierungen: User-Sitemap (baut nochmal Link-Juice auf) und Sitemap in XML Form (für Suchmaschinen interessant). XML kann wesentlich schneller ausgelesen werden, das ist vor allem für große Seiten wie umfangreiche Shopsysteme interessant. Es gibt viele Anbieter für die Erstellung von XML Sitemaps, die fertige Datei kann ich dann in den Webmaster Tools in das Root Verzeichnis der Seite eintragen. Außerdem kann ich hier URLs aus dem Index entfernen lassen, bevor ich dann Seiten lösche (sonst bleiben die URLs erhalten und geben Fehlermeldungen). Ich kann die Seite noch weiter optimieren durch HTML Verbesserungen, und überprüfen, wie Google die Content Keywords beurteilt. Mit strukturierten Daten (rich snippets) kann man der Suchmaschine sagen, welche Daten zu welcher Zeit besonders wichtig sind, z.B. für Events. Und unter anderen Ressourcen kann man Produkte im Google Merchant Center oder Seiten in Google Places anlegen.
Web Hosting Anbieter
Strato1&1
host Europe
All-inkl
Unbedingt darauf achten, daß man FTP Zugänge (mehrere Personen pflegen Kontent), PHP Unterstützung und SQL Datenbanken im Hosting Tarif integriert hat.
FileZilla ist ein kleines FTP Programm, aufgebaut wie der Windows Explorer, mit dem ich meine Dateien ganz einfach auf den FTP Server hochladen und verwalten kann (leichter als die Programme der Web Hosting Anbieter). Nachdem die FTP Zugänge auf dem Hosting Server angelegt wurden, können die Nutzer in FileZilla eingetragen werden.
Kostenloses Webhosting auf tipido.com - gut zum ausprobieren.
Wordpress
Wordpress ist zwar kostenlos, aber die Plug-ins, die eine Seite erst interessant machen, muß ich extra zahlen. Alternativ gehe ich über einen Web Server, zahle dort eine Hosting Fee pro Monat und habe dann freie Gestaltungsmöglichkeiten. Dazu kann ich mir das Wordpress Content Management System kostenlos hier runterladen. Nachdem die Systemstruktur auf den FTP Server hochgeladen wurde, kann der Inhalt der Seite online im Backend erstellt werden (/wp-admin).Webprojekt Struktur
Einzelne Webprojekte werden in Ordnern angelegt.Ordner "/" ist die Server Root Datei
Ordner "/projektname" ist die Root Datei der Webseite
Wenn ich ein Content Management System nutze, muß ich hinter jeder Webseite eine Datenbank anlegen mit den entsprechenden Wordpress Dateien in dem jeweiligen Ordner.
Unterschiedliche URLs können auf eine bestimmte Webseite weiterleiten. Damit es nicht zu Duplicate Content kommt, brauchen wir robots.txt, htaccess und eine XML Sitemap in dem jeweiligen Webprojekt.
Eine htaccess ist bereits vorkonfiguriert von Wordpress, diese einfach erweitern (nicht löschen!) um die gewünschten rewrites (z.B. um bestimmte Seiten mit Passwort zu schützen, suchmaschinenfreundliche URLs zu kreieren oder auch einfach nur eine Weiterleitung von einer Adresse ohne www zu einer mit www)
Eine Robots Datei müssen wir selbst erstellen als einfache Textdatei: z.B. user-agent:*,Disallow: /impressum/
Eine XML Sitemap müssen wir ebenfalls über einen Sitemap Generator erstellen.
Danach kann ich das Projekt beim Webmaster Tool erfolgreich anmelden. Dazu gibt Google mir eine Minidatei, die ich in den Projektordner hochlade, und kann so verifizieren, das ich berechtigt bin, diese Webseite mit Google Webmaster Tools zu bearbeiten.
Perma-Links als verkürzte, "sprechende" Links anlegen.
Nochmal eine Sammlung von Tips & Tricks für Suchmaschinenoptimierung
25 Gründe warum Google Seiten abstraft.
Keine Kommentare:
Kommentar veröffentlichen