Donnerstag, 25. April 2013

HTML 4

Auf CSS For You  finde ich alle möglichen CSS Befehle. Die neueste CSS 3 Version kann nur von ganz aktuellen Browsern dargestellt werden, über den CSS 3 Generator bekomme ich spannende neue Gestaltungsmöglichkeiten und gleich ein Vorschau-Layout und den CSS Code dafür.

Suchen und automatisiert ersetzen:
ein Wort markieren und Strg + c, Text ersetzen durch neues Wort.

Interessante Add-ons von Mozilla, die mir die Programmierung erleichtern:
  • Web Developer
  • Color Picker
  • HTML Validator (am besten HTML Tidy)
  • Pixellineal 

wichtige CSS Regel für Seitenlayout

Der Body erhält NIE eine Größenangabe! Dafür machen wir immer einen Container (ID anlegen, #container, dieser erhält dann die Höhe und Breite). Der Body erhält die Angaben margin:0px, padding:0px, das ist der sogenannte Body-Reset, damit der Body Bereich immer genau am Rand ansetzt (sonst gäbe es einen kleinen Abstand).

Freitag, 19. April 2013

HTML 3

Hintergrundbilder

einfachen Verlauf erstellen
1. in Photoshop Bild erstellen: 10px breit, 1600px hoch (reicht für eine sehr hohe Bildschirmauflösung), 72 dpi, RGB. Für Web speichern und optimieren, z.B. als JPG mit mittlerer Qualität (für Webdesign ist Qualität zwischen 50 und 60 optimal).
 2. Bild einfügen in den Body Tag und mit Pfad versehen. ../bilder sagt dem Browser, daß er aus dem Ordner Seiten einen Ordner höher gehen und dann in den Ordner Bilder schauen soll.

Pfade angeben: . . / bedeutet einen Ordner zurückgehen. Wichtig für die Navigation auf der Webseite.

HTML 2

HTML Schriftarten gibt's z.B. unter www.wss-expert.de

Lesezeichen

Bei den vielen Links ist die Verwaltung der Lesezeichen in Ordnern sinnvoll. Interessante Seiten dann einfach per drag&drop auf den Erdball neben der URL in den jeweiligen Ordner ziehen. Lesezeichen mitnehmen auf einen anderen Rechner: über Menüpunkt Chronik - gesamte Chronik - sichern - JSON Datei auf Desktop speichern.

Sicherheits-Tip

Lesezeichen und auch Passwörter werden automatisch in einer  .json Datei gespeichert. Diese sollte man immer mit einem Master Passwort schützen, ansonsten können Hacker meine gesamten Passwörter ausspionieren.

Mittwoch, 17. April 2013

HTML 1

Hier ein paar hilfreiche Shortcuts für Windows

Flagge + E: öffnet den Arbeitsplatz (erst mal Erweiterungen für bekannte Dateien wieder einblenden, um Dateiendungen zu sehen)
STRG + W: automatischer Umbruch, damit ich die Programmierzeilen vollständig sehen kann in meinem Editor und nicht immer scrollen muß (oder Editor Einstellungen: Zeilenumbruch am rechten Rand anklicken)
F2 Taste: Menü ausblenden und Dokument auf voller Breite sehen (nochmal = wieder einblenden)
Alt + Tab: zwischen den Programmen switchen
STRG + #: Kommentar einfügen im Text. Gut für Notizen, denn später ist er auf der Webseite nicht zu sehen
STRG + F9 springt gleich in den Hauptbrowser
STRG + "+"/ "-"/ "0": Vergrößert/ verkleinert/ setzt zurück auf Standard Ansicht
shift + tab: wenn der programmierte Text markiert ist, löscht diese Kombi Klick für Klick alle Tabs - zum Aufräumen wichtig!!
STRG + Leertaste: ergzeugt ein   ein erzwungenes Leerzeichen
F4: schaltet im Editor Farbpalette ein und aus

html-Editor

Phase5.info ist aktuell der beste html-Editor. Dieser kann viele verschiedene Programmiersprachen, sogar auch php, wir machen aber erst mal Java Script in HTML. Jetzt kann ich ein neues Projekt mit Seiten, Bildern und CSS Dateien anlegen. Wir nutzen dazu XHTML transitional.

Tip: "Benutzer Tags nach Einstellung <" immer ausklicken!
Die W3C Organisation legt Internet- und Browser-Standards fest. Mittlerweile haben Browser-Hersteller aber auch eigene Standards festgelegt.

Alternativer html-Editor für MAC: Aptana Studio 3

HTML Tags werden immer geöffnet und geschlossen. Es gibt nur 5 Ausnahmen (XHMTL spezifisch):
- <meta /> Meta Tags
- <br /> Zeilenumbruch (break) ist ja nur eine einmalige Aktion ohne weiteren Inhalt
- <img /> Bild laden hat auch keinen weiteren Inhalt, nur die Bildquelle, Größe, Bildtitel und Alternativtext
- <hr /> Header rower, Trennlinie
- <input /> Eingabefeld bei Formularen

Farben
Für Farbdefinitionen brauche ich den Hexadezimalcode. Hier ein hilfreicher Link zu HTML Color Codes. Bei Firefox kann ich mir aus dem Bereich Webentwickler das Add-on Colorzilla runterladen und in meine Menüleiste ziehen und so fix Farben, die ich im Web finde in Hexa Code umwandeln.

Freitag, 12. April 2013

Tag 19 Pinterest, Foursquare & Co und deren Einbindung

Pinterest

Einstieg in Pinterest mit einem kleinen Video
Das am schnellsten wachsende Social Network, sehr Bildlastig, daher verwundert es nicht, daß heute über 60% der Pinterest User Frauen sind.
Schnell mal Konto anlegen...
Funktionsweise ähnlich wie Twitter, ich folge Pinnwänden und erhalte deren neue Pins, gleichzeitig sehen meine Follower meine neuesten Pins auf meinen Pinnwänden. Aus Marketing-Sicht sollten die Pins immer auf eine Webseite oder andere Netzwerkseite weiterleiten, auf der ein Besucher dann eine gewünschte Aktion ausführen kann (Fan werden, Newsletter bekommen, kaufen,...)
Die URL meiner Pinwand kann ich auch wieder über Google Analytics tracken lassen.

Foursquare

Findet tolle Orte in meiner Nähe anhand von GPS Daten. Für Mobile Marketing = Einsatz drahtloser Kommunikation. Ich kann rund um mich herum Orte entdecken und einchecken, wo andere sich auch schon eingecheckt haben. Bin ich mit Freunden vernetzt, sehe ich sogar deren Profilbild, wenn sie eingecheckt haben. Hier ergeben sich Ansätze für Online Marketing - über News und Specials zu meinem Ort (checkt Euch das erste Mal ein und erhaltet gratis...).
Foursquare Business Tools: ich kann mich als Laden oder als Marke anlegen und mit Fotos, News und Infos füllen. "Mayor" ist der Bürgermeister dieses Platzes, checkt am häufigsten ein - diesen Stammkunden sollte ich besonders pampern.
Für Aktivitäten im Netzwerk erhalte ich Badges, das fördert den Spieltrieb ;-)

Buttons einbinden in Webprojekt

Schicke Social Media Buttons gibt's z.B. über add this oder share this (unter jedem Artikel und für die ganze Seite mit Button-Leiste am Rand).
Problem Datenschutz: die Buttons sind direkt aktiv. Wenn Social Media Buttons auf einer Seite integriert sind und Besucher dieser Seite bei Facebook eingeloggt sind während sie die Seite besuchen, weiß Facebook über das Suchverhalten automatisch Bescheid. Alternative ist 2 clicks: ich muß als Besucher erst die Share-Buttons aktivieren und kann dann teilen (2 clicks Buttons auf meine Seite integrieren über plug-ins).

Schon mal anschauen: Video von trnd, Europas größer Community für Mitmach-Marketing. Quintessenz: Mundpropaganda heißt, nicht mehr Marken zu inszenieren, sondern Menschen helfen, sich selbst zu inszenieren.

Donnerstag, 11. April 2013

Tag 18 Google Analytics und kostenpflichtige Analysetools

Kennzahlen Google Analytics

Nutzerebene
  • Eindeutige Besucher - anhand der Clientadresse festgestellt, das ist für die Auswertung die relevanteste Zahl
  • Returning visitors ("Klebrigkeit") - ist aber mit Unschärfe versehen, da ganz viele Benutzer ihre Cookies löschen, dann werden sie als neue Besucher gezählt
  • Seiten/ Besuch - wieviele Seiten haben Besucher sich durchschnittlich angeschaut
  • Besuchsdauer - kann z.B. durch das Einbinden von Videos verbessert werden
  • Absprungrate - nur Einstiegsseite angesehen, danach die Seite wieder verlassen (bei normalen Projekten sollte diese unter 30% liegen. Wird die Einstiegsseite länger angeschaut, ist das kein Absprung mehr sondern ein Ausstieg). Interaktionsmöglichkeit kann die Absprungrate senken.
  • Demografische Merkmale - Achtung Unschärfe, hier wird getrackt, wo der Server steht, über den der Besucher anfragt. Ob der Besucher auch tatsächlich dort sitzt, ist nicht gesichert.
  • Technologie - weisen bestimmte Browser höhere Absprungraten, geringere Besuchsdauer aus als andere?
  • Mobil - wie Technologie, für Mobilgeräte. Schlechte Zahlen können ein Hinweis sein, daß die Seite nicht Mobilgeräte-freundlich programmiert ist. Responsive Design: Webseiten Design paßt sich dem Endgerät des Besuchers an. t3n bietet eine gute Übersicht.
  • Besucherfluß - funktioniert meine Landingpage? Auf welche anderen ersten Seiten gelangen Besucher noch? Interaktion: Wohin gehen die Besucher als nächste Seite? Oder springen sie ab? Besonders wichtig für Shopbetreiber!!
 Wenn über Clickrate gesprochen wird geht es meistens um eindeutige Besucher pro Monat. Für mein erfolgreiches Tracking muß ich definieren, welche Zahlen tatsächlich für mein Business relevant sind.

Besucherquellen
  • über welche Quellen kommen die Besucher zu mir? Suchzugriff vs Direkter Zugriff.
  • über welche Suche von Keywords?
  • Kampagnen: welche Kampagnen funktionieren gut (Besuchsdauer, Verkäufe,...)
  • Suchmaschinenoptimierung: für den Bericht Suchanfragen müssen Webmaster-Tools aktiviert sein
  • Soziale Netzwerke: über Verwaltung kann ich die entsprechenden Profile meiner Seite mit anbinden (Facebook, Twitter, etc.) und in den Reports auswerten lassen. Trackbacks und Pingbacks sind spannend in der Blogosphäre: wie stark bin ich verknüpft?

Content

Je nachdem, welche anderen Programme ich noch angebunden habe, kann ich hier die wildesten Auswertungen fahren.
In-Page-Analyse: auf welchen Bereich der Seite klicken die Besucher am häufisten (sehr interessant). Hilfreich bei der Frage: Wenn ich etwas im Layout geändert habe, hat das was gebracht?

Ziele

In der Verwaltung meiner Webseiten kann ich auf Profil-Ebene Ziele anlegen. So können aus einfachen Kennzahlen KPIs (Key Performance Indicators) werden.

Bei Besuchsdauer Zielen kann ich ein bestimmtes Interesse am Kauf unterstellen.
Bei URL Zielen kann ich einen Zieltrichter anlegen, also die Seiten-Schritte, die zu meiner Zielseite führen. Wichtig für Shopbetreiber (Schritte: Warenkorb, Bestellübersicht, Bezahlseite, Dankesseite).
Ereignisziele sagen etwas darüber aus, welche Aktionen der Besucher durchgeführt hat, dazu braucht es Parameter.
In den Berichten finde ich dann unter Conversions die Zielwerte. In Kombination mit den bei den Zielen angegebenen Zielwerten (z.B. durchschnittlicher Kundenumsatz) wird daraus ein potentieller Umsatz abgeleitet, den ich erzielen kann.

Dashboards

Alle für mich relevanten Kennzahlen und Ziele kann ich in meinem personalisierten Dashboard zusammenstellen (über "Widget hinzufügen"). Außerdem kann ich den Berichtversand an meinen Kunden automatisieren.
Was ich hier aber nicht machen kann, ist eine Sentiment-Analyse (wer ist gekommen, fanden sie es gut, haben sie danach positiv/negativ geäußert?). Das ist nur in kostenpflichtigen Tools möglich!

Weitere Social Network Monitoring Tools (kostenfrei)

  • facebook insights
  • Social Bro für Twitter
  • Cision Social Media Dashboard für PR

kostenpflichtige Analysetools

Das führende Tool zum Monitoring Sozialer Netzwerke ist SalesForce Radian6, gerade für große Unternehmen als CRM System interessant. Dieses Tool trackt weltweit und kann z.B. Sentiment Analysen in acht Sprachen monitoren.

alternativ: Brandwatch

Netvibes stellt erst mal kostenlos Dashboards zur Verfügung, gut zum Einlesen und Testen, eine Auswertung kostet dann allerdings Geld.

Mittwoch, 10. April 2013

Tag 17 Video Advertising, KPIs und Google analytics

Werbung in und mit Youtube

Wir schauen uns Vlogger an wie
Anna Frost
Herr Tutorial
The Dorient (Make up)
Jenna Marbels
Blendtec
Kicesie

Anzahl der Abonnenten in Kombination mit vorgeschalteter und eingebetteter Werbung - die Formel für Geld verdienen mit Youtube

Einstellen und Optimierung eines Videos

Grundlegende Infos
Keywords im Titel
Video Beschreibung mit Keywords und ganz wichtig: Link einbetten
Tags
Kategorie

Monetarisierung
geht nur wenn man AdSense Partner ist
Anzeigen als Overlay-In-Video Anzeigen (im Video selbtst) oder TrueView In-Stream-Anzeigen (vor mein Video geschaltet). Hier kann ich auch angeben, ob das Video bezahlte Produkt Placements enthält.

Video Manager
hier kann ich das Video verbessern, mit (freier) Musik unterlegen oder Anmerkungen (kleine Texteinbindungen im Video) und Untertitel einfügen.
CC steht für creative comments und bestimmt, ob und wie der Videoinhalt weitergegeben und -verarbeitet werden darf.

Werbevideo schalten verlinkt zurück auf Adwords. Außerdem hat auch Youtube sein eigenes Partner Programm.

Erfolgsmessung 

KPI - key performance indicator (Leistungskennzahl), Rohdaten in Kombination mit einem zeitlichen Bezug und der Zielerreichung. KPIs werden in drei Ebenen gemessen
  • Netzwerkebene (Reichweite, Verlinkungen, Ranking)
  • Nutzerebene (Verweildauer, Aktivität, Wiederkehrrate, Affinität, Demographie)
  • Inhaltsebene (Tonalität, Autoren, Intensität, Themenspektrum, Kommunikationsvolumen)
Was sind meine KPIs? Hängt von meinen Zielen ab. Schöne Einleitung unter Onlinemarketing Praxis.
Jede Webseite/ Social Media Plattform bietet eigene Messwerte, verschiedene Web-Analytics und Social Media Tools können unterschiedlichste Messwerte erheben. KPIs helfen mir, genau DIE Zahlen und Reports im Auge zu behalten, die für mein Business entscheidend sind.

Google Analytics

Analytics Konto erstellen und mit meinen Seiten verbinden: neues Konto anlegen, für das Konto Properties festlegen und dann Profile/Tracking festlegen, dort die angegebene Tracking ID kopieren und in meinen Blog unter Einstellungen hinzufügen. Wenn ich ein eigenes Webprojekt aufsetze, muß ich den Tracking-Code auf jeder Seite in den Head einbinden.

Dienstag, 9. April 2013

Tag 16 weiterer Praxistest und Ad Sense

Wir testen mal die Seite www.marinavonwalderdorff.de


Domaine ist schwierig, eingängigere Domain mit Keywords und Weiterleitung.
Keywords schon leicht optimiert. Besser als "bestellen" ist aber "Accessoires bestellen"! Gut: sprechende URLs www..../kleider anstelle von Parametern www.../9m3p7.php
Check bei Google mit site:www.marinavonwalderdorff.de: liefert alle Seiten, das ist gut! Allerdings gibt es keine Meta Angabe Description, die als Beschreibungstext ausgelesen werden könnte.

Generell: HTML Fehler korrigieren, Meta Informationen einfügen auf jeder Seite!
Script Teil (Java) sollte ausgelagert werden
URL, Title, Meta Description und H1 Überschriften beachten, die sollten nach Möglichkeit die Keywords enthalten.

Erste Seite
ist nur Logo => Barriere, hier verlieren sich schon ein paar Besucher
Vorschlag A/B Test, mal mit, mal ohne Logo
Eventuell versteckten Div Container einbauen mit Text? Grey Hat!
Unbedingt auch Domainewww.marina-von-walderdorff.de sichern und weiterleiten, das kann die Suchmaschine auseinanderhalten und besser lesen (ist bei Bildbenennung ja auch schon passiert)
Achtung: auf Startseite sind schon Fehler, Doctype fehlt (4 oder 5), UTF8 und Mime Types fehlt
Auf der Startseite keine Keywords => verschenkt Suchmaschinenpunkte
Title ist mvwvouture, nicht aussagekräftig

Folgeseiten:
auch nur html geschrieben, kein Content Management System (php)
Jetzt schon eine Ebene tiefer, dabei ist das eigentlich die Startseite
Mit Validator testen und Spider Simulator: mit diesem Text kann die Suchmaschine nichts anfangen. Was ist das Ziel? Verkaufen! Der Text auf dieser Seite ist als Bild angelegt, man könnte das genauso als CSS und Layer bauen, dann kann die Suchmaschine das lesen. Besser: Menüpunkte als Bild, dann wird "Übersicht" z.B. vom Spider nicht ausgelesen (was eh nicht hilfreich ist). Oder Menüpunkte in HTML als letztes angeben und über CSS nach oben schieben.
Seite mit Div Containern ("Bilderrahmen", Wrapper) anlegen ist gut (anstelle von Tabellen)

Seitwert checken:
Wichtig: vorher alle Cookies und Verläufe löschen, dann kann ich das nochmal kostenlos testen!
bisher noch keine Backlinks - SEO ankurbeln!!!
Page Rank 2 ist gut, kommt von Berichten über Waldi
Seite ist bei Alexa noch nicht erfasst - großes Webseiten-Bewertungssystem, analog zu Page Rank von google
Technische Details: sofort ändern, robots.txt und Meta Angaben (Description!) fehlen, keine H1 überschriften, keine Doctype Deklaration, doppelter Content, da keine ht access Datei oder canonical

Beispiel: einfach-chic.com - Abendmoden-Verleih und Abendmoden-Verkauf

Google Ad Sense

 Google zeigt Werbung an, die passend ist zu meinem Suchverhalten (wonach habe ich in letzter Zeit gesucht?). Diesen Dienst bekommt nicht jeder, man muß sich erst mit der eigenen Webseite  bewerben, und die Seite muß mit relevantem Inhalt gefüllt sein.

Wo ich die Banner dann einbinde, entscheide ich selbst. Dazu definiere ich:
URL Channels: genaue URLs meiner Webseiten, auf denen ich Werbung einbetten möchte, sozusagen die "Wurzel"
Benutzerdefinierte Channels: z.B. den Kanal "onlinemarketingkurs1_footer" benennen, hier kann ich dann bis zu drei Anzeigenblöcke einbetten.
Anzeigenblöcke: genaue Formate festlegen und benennen, z..B. Square Banner im Footer-Bereich
Danach wird ein Anzeigencode erstellt, den ich dann auf meine Seite einbetten kann. Im Anzeigencode ist gleich auch der Ad client für das Tracking hinterlegt.

Außerdem kann ich festlegen, welche werbetreibenden Wettbewerber-URLs ich ausschließen/ blockieren möchte, und kann Werbetreibende Seiten und Netzwerke kategorisieren. Wichtig sind die Leistungsberichte und hier vor allem die Kennzahlen
CTR: click-through-rate
CPC: cost-per-click (AdSense und AdWords werden zum Großteil über CPC gebucht, ist aber auch per TKP möglich)
Seiten-RPM: revenue per thousand impressions (per Mille :-)) - wenn diese Anzeige 1.000 Mal angezeigt würde, wäre das mein Revenue

Ad Sense kann ich auch mit Youtube verknüpfen, aber nur in dem Sinne, daß ich ein eigenes Video erstelle, auf meiner Seite zeige und hier dann Werbung voranstelle.


Über Google Blogger kann ich mich auch direkt im Menüpunkt Einnahmen bei Ad Sense anmelden.

Kleines Rechenbeispiel: ich kenne mein Budget, der TKP wird von der Werbeplattform geliefert. So kann ich errechnen, für wieviele Adviews mein Budget reicht. Bei einem TKP von 10,- und angenommener CTR von 0,3%, Conversionrate von 3% und daraus resultierender Neukundenrate von 2% kann ich schnell feststellen, ob ich mehr Gewinn (Neukunde x Neukundenwert) mache als ich eingesetzt habe, ob eine Schaltung also sinnvoll ist. Buch S. 233!! für Klausur

Tool zur Erstellung der Banner, wenn ich nicht über ein großes Netzwerk wie SevenOneMedia gehen möchte: über Google Adwords - Imageanzeige - Tool zur Erstellung von Display-Anzeigen - empfohlen. Dann liest Google meine Webseite aus und macht Layoutvorschläge.

Video Content

Shareifyoulike: Content finden, in meinen Sozialen Netzwerken teilen oder auf meine Seite einbinden und dabei pro View Geld verdienen (je nach Kanal kann der Betrag unterschiedlich sein). Unternehmen lassen über Shareifyoulike ihren Content verteilen und zahlen dafür ein Werbebudget. Nach einer bestimmten Zeit ist das Budget des Werbenden aufgebraucht, danach gibt es kein Geld mehr für die Teilenden. Eigentlich müßte der geteilte Content aber mit "Anzeige" gekennzeichnet werden...
2 Affiliate Logiken:
1. ich kann Partner werden eines Video-Content-Anbieters und dabei Geld verdienen
2. ich kann Partner werden von Shareifyoulike und weitere Freunde zu Shareifyoulike einladen

ebuzzing.de macht es ähnlich, hier kann ich aus verschiedenen verfügbaren Kampagnen auswählen.

Achtung: das ist alles Werbung für Google und wird für die Seite nicht positiv bewertet. Bei eingeschalteten Adblockern sieht der Besucher eine leere Seite!

Montag, 8. April 2013

Tag 15 Praxistest Optimierung, Online PR, Produkt Communities

Wir analysieren Ralfs neue Seite empfehlungsmarketing-software.de

1. Onsite Optimierung
In Google testen mit Befehl site:empfehlungsmarketing-software.de: Seite ist (noch) nicht indexiert.
Mit SEO Quake testen: Keyword-Dichte der Zielwörter ist noch nicht hoch genug (sollte 3-6% sein).
Nicht sinnvoll: canonical tag verweist auf wenda-it-web.de, diese ist damit die Hauptseite. Sollte aber empfehlungsmarketing-software.de sein. Überprüfung der URL mit Anhang /.htaccess zeigt: htaccess Datei vorhanden um duplicate content zu vermeiden.

Ebenso checken ob Robots.txt und XML Sitemap vorhanden sind
Keywords dicht zusammen in den Headlines - gut für Crawler
Seite mit Spider Simulator testen: alle wichtigen Keywords direkt im Einstieg - perfekt.
Seite mit Seitwert.de testen - ist nicht verfügbar
Verlinkung mit Blog erhöht Freshness Faktor und Keyword-Dichte
Validator
pingback und track-back: typische Tools aus der Blogger Szene. Wenn jemand Content übernimmt und selbst posted, bekomme ich die Info wer das ist und ob er zurückverlinkt hat.

2. Offsite Optimierung:
Page rank ist noch bei 0 (Webmaster Tool: Crawler "anfordern"), vererbtes Vertrauen von Backlinks wirkt auch noch nicht? (andere Gründe: war die URL vorher schon vergeben und ist ausgelistet? Hat Google den Grey Hat Trick schlecht bewertet?)
Social Media Icons integriert - gut
RSS Feed schafft Backlinks

3. Greyhat
Suchmaschinen reagieren auf hervorgehobene (fette, kursive) Informationen. Im Quelltext sind die Keywords im Text "gefettet", mit einer separaten CSS Datei kann ich die Darstellung dann aber wieder auf "normal" umstellen - und profitiere trotzdem von der Hervorhebung. Achtung: ein zu starker Einsatz dieses Kniffs kann dazu führen, daß Google Mißbrauch unterstellt und schlecht bewertet.
CSS Dateien sind in Quelltext eingebunden, über den Link kann ich diese Dateien auch anschauen.

Checkliste:
  1. URL: Domainname sollte dem Suchbegriff entsprechen. Prüfen, ob die passende Domain  noch frei ist auf Checkdomain
  2. HTML Quelltext: sind die Keywords in Titel, Meta, H1 Überschriften verankert? Gibt es genau eine H1 Überschrift pro Seite? Bilder und Tabellen mit Keywords benannt? Bei Fragen: W3Schools hilft weiter
  3. W3C Validator: ist der HTML Code valide?
  4. Spider Simulator: wie wird die Seite von der Suchmaschine ausgelesen?
  5. Keyword Check z.B. über Adwords: was suchen die Suchenden?
  6. SEO Quake: Keyword-Dichte 3-6%? Page Rank? Backlinks?
  7. Dateien robots.txt, htaccess und sitemap.xml richtig konfiguriert?
  8.  Seitwert: kostenlose Schnell-Analyse des Webprojekts 

Online PR

Im Vergleich zu klassischer PR ist hier eine enorme Reichweitemöglich!! Presseportale, aber auch Sebstveröffentlichungen auf neuen Medien (Social Media wie z.B. Twitter, Google Drive, Slideshare, Diego, Facebook), und SEO, um in Suchmaschinen sichtbar zu sein.

Presse-Codex: W-Fragen beantworten (wer, was, wann, wo, warum), Nachrichten und Informationen statt Geschichten. Relevante Inhalte, griffige Überschrift (Suchmaschinen zeigen oft nur erste 63 Zeichen), spannender Teaser, strukturierter Meldungstext (1.500-3.000 Zeichen), Bilder & Videos, weiterführende Links, relevante Keywords, Abbinder und Kontaktdaten.

Online Presseportale:
openpr.de (kostenlos)
firmenpresse.de (kostenlos)
premiumpresse.de (kostenlos)
presseportal.de (kostenpflichtig, ab 250,-)
pressetext.de
Vergleichszahlen sind Besucher pro Monat und akkreditierte Journalisten.

Produkt Communities

In Zusammenhang mit meinem eigenen Content bieten Produkt Communities einen spannenden Mehrwert. Auf zu TRND, Produkte kennenlernen und kommentieren (vor Ort und auf meiner Seite, so schaffe ich Content). Und speziell für Mädels: Konsumgöttinnen!


Kleiner Exkurs

Tag-Cloud
Auf jeder einzelnen Seite finden Kategorisierungen der Beiträge statt, gleichzeitig erfüllt eine Tag Cloud auch sowas wie eine Suchfunktion. Zu jedem Blogbeitrag kann ich Schlagwörter (bei blogspot: Labels, bei Wordpress: tags) definieren. Je häufiger ein Artikel mit einem Schlagwort gelabelt wird, desto größer wird es in der Tag-Cloud dargestellt. Dahinter verbergen sich die Links, also ist das für die Suchmaschine auch wieder interessant. Dabei müssen die Kookkurrenzen stimmen, also die Wörter für die Suchmaschine in einem sinnvollen Zusammenhang mit meiner Seite stehen.

Permalinks
Jeder Beitrag hat einen definierten Permalink. Immer an die Suchmaschinenfreundlichkeit der URL denken, Permalink nach Möglichkeit kürzen auf maximal 3 Ebenen.


Online Werbung für morgen: Interactive Media. online Werbung erstellen lassen und buchen



Freitag, 5. April 2013

Tag 14 RSS und Hootsuite

RSS Feeds lesen

mit Programmen auf dem Desktop oder online. Ein Eintrag in ein RSS Verzeichnis poduziert einen hoch gerankten Backlink. Ob die einzelnen RSS Feeds, wenn sie online gelesen werden, Backlinks erzeugen, ist nicht sicher.
  • feedreader.com  (Programm auf meinem Desktop)
  • Google Feed (Online Feedreader, hier können Crawler auch Backlinks lesen)
  • Reeder (für MAC)
  • Vienareader (für MAC)

Hootsuite.com

Ein Beispiel von Social Media Monitoring Tools oder Social Media Dashboards. Kommt eigentlich aus dem Social Media Bereich, der Kern ist aber die Zusammenführung aller Profile und Feeds, die ich in allen Sozialen Netzwerken habe. Eine Nachricht wird dann für alle Profile aufbereitet und geschrieben. Genauso kann ich Statistiken von Mailchimp Kampagnen einbinden. Da legen wir uns doch mal einen Account an...
Virales Verbreiten und Backlink Aufbau automatisieren: Ich kann in der Hootsuite eine neue Nachricht schreiben, mit einem Link auf meine Seite versehen und mit einem Klick an alle meine Profile verteilen. Das ganze auch zeitlich automatisiert.
Ich kann meinen eigenen, aber auch fremde RSS Feeds in die Hootsuite integrieren und dem Programm (über Einstellungen/ RSS) sagen, daß jede neue Nachricht aus diesen Feed automatisch über meine Profile weiterverteilt werden soll. Der Clou dabei: automatisch jeder Nachricht Text voranstellen. Das sollte mein über bitly auf 6 Zeichen verkürzter Link sein, also http://bit.ly/"6Zeichen". So produziere ich automatisch viele neue Backlinks.

Linkverkürzung z.B. durch bitly.com (auch schnell Account anlegen), darüber kann ich auch Clickstatistiken zu diesen verkürzten Links fahren. Außerdem kann ich den verkürzten Link (oft Zahlen- und Buchstabenkombination) auch in einen aussagekräftigen umbenennen.

Außerdem kann ich mir über die Hootsuite auch wieder Berichte erstellen lassen, diese kosten allerdings. Ebenso kosten Erweiterungen und Downloads, über Hootlet Link Share könnte ich z.B.   eine interessante Seite direkt über Anlicken des Eule-Buttons in der Menüleiste meines Browsers an meine Netzwerke verteilen.

Und hier gibt's nochmal Tips zu 20 kostenlosen Social Media Management Tools. Und nochmal die Top Ten der Social Media & Analytics Tools.

TIP
Meine ganzen Passwörter kann ich z.B. bei 1Password oder Norton 360 Password save verwalten.

Linkaufbau über Blogs und Foren

Auch über Kommentare in Blogs und Foren kann ich Backlinks schaffen und Traffic holen. Macht aber nur Sinn bei hoch frequentierten Seiten.  Blog-Suche z.B. Google Blogs, Twingly.com, icerocket.com

Donnerstag, 4. April 2013

Tag 13 SEO Offsite Optimierung

Content is king - wie schaffe ich Content?

Dazu ist die inverse Pyramide hilfreich: am wichtigsten ist die Kerninformation, dann die Quelle, die Einzelheiten, und zuletzt der Hintergrund (mit jeweils abnehmender Relevanz). Bedeutet im Hinblick auf SEO: Titel und erster Abschnitt enthalten bereits alle Keywords.

Fremden, anderssprachigen Content übersetzen und umformuliert als eigenen Content nutzen (Achtung, geistiges Eigentum!). Dabei ist der Google Translator hilfreich (übersetze ganze Texte).
Youtube Videos einbetten hingegen bringen nicht viel, sie werden nur per i-frame eingebettet und nicht als Content gewertet.

weitere Tools


seitwert.de ist ein kostenloses Tool zur Webseiten-Überprüfung & Konkurrenzanalyse
oder auch woorank.com

ibusinesspromoter: Onsite- und Offsite-Optimierung und Konkurrenzanalyse, kostenlose Demovariante ausprobieren. Suchbegriffe finden und mit Webseite in Zusammenhang bringen, überprüfen und optimieren

seo-united.de ist eine weitere SEO Tool Sammlung, viele davon sind kostenlos (Keyword Analyse, Keyword-Datenbanken, Backlink Tools, ähnliche Begriffe, Keyword Dichte...)

Sistrix Toolbox ist sehr professionell, kostet aber pro Tool (SEO, Links, Optimizer, SEM und Universal Search)

weitere kostenpflichtige Anbieter: Xovi

Offsite Optimierung

Bei Offsite Optimierung geht es vor allem um Linkpopularität, also Backlinks von Seiten, die einen hohen Stellenwert und hohes Vertrauen haben, und deren Links nicht die Anweisung "nofollow" haben. Das muß in einem "natürlichen" Wachstum erfolgen, sonst wird Google das wahrscheinlich abstrafen.

  • Wikipedia Einträge sind z.B. ganz hoch gerankt, neu entwickelte Beiträge mit Backlink auf die eigene Seite "vererben" gleichzeitig das Vertrauen.
  • Social Media (Bildernetzwerke, Interessennetzwerke, Videonetzwerke, Social Networks, Social Bookmarking wie Mr.Wong, Delicious ("speichert Eure wichtigen Links/ Dokumente/ Webseiten bei uns und teilt die mit anderen") )
  • RSS Verzeichnisse (Really Simple Syndication): Backlinks automatisch in ein Verzeichis setzen
  • Artikelverzeichnisse (Artikel/Story schreiben und in Verzeichnisse ablegen - einziger Grund: Backlink)
  • PR Portale (Pressemeldungen, Agenturhinweise)
  • Universal Search (Places, Merchant Center etc. eintragen)
  • Email-Newsletter (wenn sie zusätzlich im Internet hinterlegt und abrufbar sind)
  • Kommentare auf Websites (Achtung: oft sind Kommentarfelder auf "nofollow" gesetzt)
  • Forenbeiträge mit Signet
  • Bewertungen
  • Links auf Partnerwebsites 
  • Anzeigen (in dem Moment, wenn die Anzeige bei Google angezeigt wird)
  • Webkataloge (dmoz open directory project)
  • Linkfarmen (Achtung: Google erkennt diese mittlerweile und entwertet sie)
Dazu brauche ich jeweils ein Account bei den Webseiten, deshalb ist der Backlink-Aufbau zeitintensiv. Eintragungsdienste wie powerbookmarking übernehmen das Social Bookmarking.

Artikelverzeichnisse

Hier gibt es 97 deutsche Artikelverzeichnisse, wichtig ist immer die Anweisung "dofollow", der Crawler folgt also dem Link und vererbt das Vertrauen (abzulesen am Page rank) auf meine Seite. Wie lange Google noch Artikelverzeichnisse mit hohem Vertrauen belohnt, ist aber unsicher.

Nicht einfach einen Link-Tausch machen! Dann vererbt sich das Vertrauen wieder zurück und ich habe nichts gewonnen (es sei denn, ich habe Links auf meiner Seite auf "nofollow" gesetzt). Besser ist ein Link-Kreis: verschiedene Seiten, die möglichst auf unterschiedlichen Servern liegen, linken auf jeweils eine Seite, aber nicht zurück sondern im Kreis. Und alle Seiten linken auf die eine wichtigste Hauptseite.

Page rank: Bewertung der Linkpopularität, von 0-10 (je höher desto besser). Einfach formuliert: das Vertrauen, was mir Google entgegenbringt und die Vererbung des Vertrauens. NICHT die Reihenfolge der Ergebnisse auf der SERP! Wenn für meine Suche relevanter, können Seiten mit PR1 vor Seiten mit PR4 stehen.
Weitere Plattformen, um Popularität/ Ranking von Webseiten zu überprüfen: Alexa, Compete, Quantcas, SimilarWeb

Über Creative commons kann ein Autor der Öffentlichkeit auf einfache Weise Nutzungsrechte an seinen Werken einräumen.

RSS Verzeichnisse

Das größte deutsche RSS Verzeichnis verarbeitet die reine Information und ist ansonsten Format-los.
Hier kann ich meinen RSS Feed eintragen - diesen muß ich vorher auf meiner Seite mithilfe eines Programms aufsetzen, füllt sich automatisch mit aktuellen Informationen von meiner Seite. Die URL dieses Feeds als Link schafft also automatisch Backlinks.

Mittwoch, 3. April 2013

Tag 12 SEO Onsite Optimierung mit robots.txt, htaccess und Sitemap, Webmaster Tools & Hosting

Servermeldungen

200er Meldung - alles gut
301 Meldung - rewrite
404 Fehler - Seite nicht verfügbar
500er Fehler - ganz gravierend

Webmaster Tools von Google

Hier kann ich alle meine verwalteten Websites zusammenführen, überprüfen und pflegen, und das ganze kostenlos. Z.B. kann ich zur Feinjustierung Sitelinks (wie interne Verlinkungen auf der Seite) meiner Seite abwerten, die Handhabung von Parametern in URLs bestimmen, weitere Nutzer für ein gemeinsames Verwalten aufnehmen, verschiedene Kanäle wie Youtube und Blogspot verlinken als Partner.

Unter Status finde ich Crawling Fehler und Crawling Statistiken. Diese zeigen an, wie oft der Crawler vorbeikommt und wie viel er ausliest, je nach Häufigkeit der Aktualisierung und der neuen Links nimmt die Crawler Aktivität ab oder bleibt optimalerweise auf hohem Niveau. Pro Tag heruntergeladene Kilobyte liegen durchschnittlich bei 100, wenn man vorrangig auf Text setzt. Dauer des Herunterladens zeigt, wie gut die Seite erreichbar ist. Dauert die Ladezeit zu lang, verliere ich Besucher, deshalb sollten hier keine Spitzen/ Ausreisser auftauchen. Am besten notiere ich alle Durchschnittszahlen monatlich. Unter Blockierte URLs kann ich prüfen, ob meine robots.txt Datei richtig funktioniert. Abrufe wie durch Google ermöglichen es mir, den Crawler über meine Seite gehen zu lassen und diese Seite dann an den Index senden. Über den Indexierungsstatus überprüfe ich meine Listung dann. Wenn Malware ein Ergebnis liefert, ist meine Seite gehackt/ mit Spam infiziert.

Zugriffe: Suchanfragen zeigt an, wie die Webseite gefunden worden ist. Außerdem bekomme ich hier einen Überblick über die Links zu meiner Webeite, genauso wie die internen Links auf meiner Seite.

Optimierungen:  User-Sitemap (baut nochmal Link-Juice auf) und Sitemap in XML Form (für Suchmaschinen interessant). XML kann wesentlich schneller ausgelesen werden, das ist vor allem für große Seiten wie umfangreiche Shopsysteme interessant. Es gibt viele Anbieter für die Erstellung von XML Sitemaps, die fertige Datei kann ich dann in den Webmaster Tools in das Root Verzeichnis der Seite eintragen. Außerdem kann ich hier URLs aus dem Index entfernen lassen, bevor ich dann Seiten lösche (sonst bleiben die URLs erhalten und geben Fehlermeldungen). Ich kann die Seite noch weiter optimieren durch HTML Verbesserungen, und überprüfen, wie Google die Content Keywords beurteilt. Mit strukturierten Daten (rich snippets) kann man der Suchmaschine sagen, welche Daten zu welcher Zeit besonders wichtig sind, z.B. für Events. Und unter anderen Ressourcen kann man Produkte im Google Merchant Center oder Seiten in Google Places anlegen.

Web Hosting Anbieter

Strato
1&1
host Europe
All-inkl

Unbedingt darauf achten, daß man FTP Zugänge (mehrere Personen pflegen Kontent), PHP Unterstützung und SQL Datenbanken im Hosting Tarif integriert hat.

FileZilla ist ein kleines FTP Programm, aufgebaut wie der Windows Explorer, mit dem ich meine Dateien ganz einfach auf den FTP Server hochladen und verwalten kann (leichter als die Programme der Web Hosting Anbieter). Nachdem die FTP Zugänge auf dem Hosting Server angelegt wurden, können die Nutzer in FileZilla eingetragen werden.

Kostenloses Webhosting auf tipido.com - gut zum ausprobieren.

Wordpress

Wordpress ist zwar kostenlos, aber die Plug-ins, die eine Seite erst interessant machen, muß ich extra zahlen. Alternativ gehe ich über einen Web Server, zahle dort eine Hosting Fee pro Monat und habe dann freie Gestaltungsmöglichkeiten. Dazu kann ich mir das Wordpress Content Management System kostenlos hier runterladen. Nachdem die Systemstruktur auf den FTP Server hochgeladen wurde, kann der Inhalt der Seite online im Backend erstellt werden (/wp-admin).

Webprojekt Struktur 

Einzelne Webprojekte werden in Ordnern angelegt.
Ordner "/" ist die Server Root Datei
Ordner "/projektname" ist die Root Datei der Webseite
Wenn ich ein Content Management System nutze, muß ich hinter jeder Webseite eine Datenbank anlegen mit den entsprechenden Wordpress Dateien in dem jeweiligen Ordner.
Unterschiedliche URLs können auf eine bestimmte Webseite weiterleiten. Damit es nicht zu Duplicate Content kommt, brauchen wir robots.txt, htaccess und eine XML Sitemap in dem jeweiligen Webprojekt.
Eine htaccess ist bereits vorkonfiguriert von Wordpress, diese einfach erweitern (nicht löschen!) um die gewünschten rewrites (z.B. um bestimmte Seiten mit Passwort zu schützen, suchmaschinenfreundliche URLs zu kreieren oder auch einfach nur eine Weiterleitung von einer Adresse ohne www zu einer mit www)
Eine Robots Datei müssen wir selbst erstellen als einfache Textdatei: z.B. user-agent:*,Disallow: /impressum/
Eine XML Sitemap müssen wir ebenfalls über einen Sitemap Generator erstellen.

Danach kann ich das Projekt beim Webmaster Tool erfolgreich anmelden. Dazu gibt Google mir eine Minidatei, die ich in den Projektordner hochlade, und kann so verifizieren, das ich berechtigt bin, diese Webseite mit Google Webmaster Tools zu bearbeiten.

Perma-Links als verkürzte, "sprechende" Links anlegen.

Nochmal eine Sammlung von Tips & Tricks für Suchmaschinenoptimierung

25 Gründe warum Google Seiten abstraft.



Dienstag, 2. April 2013

Tag 11 SEO Onsite Optimierung und HTML

Heute steigen wir in Search Engine Optimization ein mit

Onsite Optimierung


Wie komme ich bei Google auf den Index?
Der Crawler sendet einen Ping an die Seite und bekommt eine Server Meldung zurück, möglichst eine "200"er Meldung (Bestätigung, daß die Seite aktiv ist). Dann leitet er das an den Parser weiter, dieser überprüft die Seite. Danach kommt die Seite in den Cache, einen Vor-Index von Google. Nach Überprüfung der Seite auf Duplicate Content bzw. ähnliche Inhalte zu anderen Webseiten (negativ) wird die Seite dann in den Index aufgenommen und kann bei Google gefunden werden.
Das ganze kann eine Stunde bis zu mehreren Wochen dauern.

Eine gute und flache Hierarchie der Webseite ist wichtig, damit der Crawler möglichst schnell über die Seite gehen kann (möglichst maximal 3 Ebenen). Content Management Systeme, die auf Blogansichten beruhen, gehen oft viel zu tief (www...de/2013/März/14 - das ist schon die vierte Ebene)

Denic.de: zuständig für Deutsche Webseiten - wem gehört eine Seite/ eine Domaine?
Page rank: durch Algorithmen errechnete Bewertung einer Seite, wichtig hierfür ist die Verlinkung der Seite (Backlinks, Links, die auf diese Seite führen). Page rank 1-10 (beste Bewertung 10). Links, die von Seiten kommen, welche ganz hohe Page ranks haben, bekommen Vertrauen "vererbt" (trusted rank, trusted link). Es sei denn, diese gut bewerteten Seiten setzen den Link mit rel="nofollow", dann folgt der Crawler dem Link nicht und das Vertrauen wird nicht weitergegeben (z.B. MeineStadt.de, "vererbte" Links kosten Geld)
Linkjuice: je besser die Seite auch in sich verlinkt ist, desto besser kommt der Crawler durch und desto besser ist die Bewertung
Und hier ein Versuch, die 200 Faktoren zusammenzustellen, die das Google Ranking beeinflussen.


Schnell-Einstieg in HTML

w3schools.com: gute Seite mit allen wichtigen Bausteinen und Tips zur Erstellung einer eigenen Webseite
Validator: überprüft die Beschreibung (HTML) der Seite auf Fehler z.B. mit  dem W3C Validator - validate by file upload or html. Wichtig, weil Google invalide Codes als schlecht bewertet.

Meta Angaben
allgemein gültige Angaben für das Dokument. Hier finden sich die Definition der Tastatur-Zeichen (charset = Character Set), Keywords und - ganz wichtig - Description (ausschließlich diese ist für Google interessant).
meta name="robots" ist eine Anweisung für die Webcrawler, also z.B. content="noindex": Seite nicht indizieren, "nofollow": den hyperlinks auf der Seite nicht folgen, "noopd": eigene description verwenden und nicht Seitenbeschreibungen eines Open Directory Project wie dmoz.de.

Body
H1 Überschrift - nur eine pro Seite, sonst kann der Crawler die Seite nicht richtig auslesen. H2 Überschriften dagegen können mehrfach pro Seite eingesetzt werden.
Seiten untereinander verlinken mit dem Attribut <a href>.

Kommentar
Ganz am Anfang des Body-Bereichs können Kommentare gesetzt werden, diese sind auf der Seite nicht sichtbar, werden aber von den Robots gelesen.
<!-- hier kommt der Kommentar-->

Bilder
Ganz wichtig: Bilder mit einem Titel benennen, in dem auch wieder die Keywords vorkommen. <img title="..." /> und alt="..." als Alternative, wenn das Bild nicht angezeigt werden kann.

Tabellen
Hier können Parameter mitgegeben werden, die zu sehen sind, und die nicht zu sehen sind. Sichtbar: <legend>. Nicht sichtbar: der Zusatz <table summary>, hier kann ich weiter die Keyworddichte erhöhen!

robots.txt ist eine Textdatei, die ich auf meinem Webserver im Rootverzeichnis speichere und die direkt steuern kann, welche Dateien ein Robot einlesen darf und welche nicht, welche Seiten er also indizieren darf. Einfacher also als eine Angabe für Robots in den Meta Daten. Überprüfen, ob eine robots Datei vorhanden ist: einfach hinter die URL /robots.txt anfügen
Useragent: * (bedeutet ALLE Robots)
Disallow: /search (bedeutet, das Verzeichnis Search darf nicht ausgelesen o. gelistet werden)
Allow: / (alles andere darf ausgelesen werden)

Suchmaschinenfreundliche URLs
Wenn ich das entsprechende Plugin habe, kann ich unter Einstellungen bei Permalinks eine verkürzte URL angeben und so z.B. nur den Beitragnamen statt Verzeichnis/ Unterverzeichnis/ Beitrag nutzen. Möglichst wenig Ordner, auf jeden Fall nicht monats- und jahresbasierte Ordner.

Und immer wieder testen über SEO Quake. Keyword Density sollte bei 3-6% liegen, darüber ist es für den Crawler zu eng, zu werblich.

Weiterleitungen (mod rewrite)
Wenn ich mehrere Domains habe (mit und ohne www, .de und .com), muß ich eine Seite als Hauptseite definieren, sonst kommt es zu Duplicate Content und damit einer schlechteren Listung. Dazu brauche ich eine 301 Weiterleitung. Eine Ping Anfrage bekommt damit die Antwort 301 Weiterleitung anstatt z.B. eines 404 Fehlers, das Vertrauen bleibt so erhalten. Eine htaccess Datei enthält die rewrite Angaben und wird im Stammverzeichnis des Servers abgelegt. Um zu Überprüfen, ob eine htaccess Datei vorhanden ist: einfach hinter die URL /.htaccess anhängen.

Das canonical tag (in Kombination mit htaccess Weiterleitung, da noch nicht für alle Suchmaschinen gültig) sagt dem Crawler nochmal, welches meine Hauptdomain ist. <link rel="canonical" href="..." />

Wichtigste Voraussetzung: das Ziel! Was will ich erreichen, wie ist die Struktur der Seite, wie kann ich sie regelmäßig mit aktuellen Themen auffrischen, die wieder die Keywords enthalten?

Spider Simulator
Über einen Spider Simulator kann ich überprüfen, wie Crawler die Seite auslesen. Hier kann ich noch Optimierungspotential entdecken, z.B. sollten die allgemein gehaltenen Menüpunkte Home, Leistungen, Aktuelles etc. nicht am Anfang stehen, sondern viel eher die Keywords. Menüpunkte können als Bilder angelegt werden, dann werden sie von Robots nicht ausgelesen.

SEO kann man über White Hat, Grey Hat, Black Hat betreiben. Die letzten beiden sind aber außerhalb der Konvention und können dazu führen, daß man aus dem Index geworfen wird.