Schlagwortarchiv für: meta

Kurze Antwort: Nein. Nicht so, dass es für einen Website-Betreiber Sinn hat, sich extra dafür passende Begriffe einfallen zu lassen.

Lange Antwort, aus aktuellem Anlass: Nach wie vor hält sich die Legende, dass man durch passende Angabe von META-Keywords im Quelltext das Ranking der eigenen Website beeinflussen könnte. Diese für den Website-Besucher unsichtbaren Keywords stammen aus der Urzeit des WWW, als Suchmaschinen den tatsächlichen Inhalt von Websites noch nicht sinnerfassend auswerten konnten und daher auf Hilfe durch den Ersteller der Website angewiesen waren. Jedoch wurde damit (durch Angabe von falschen und unpassenden Keywords) viel Unfug getrieben, sodass die Suchmaschinenbetreiber die Unterstützung dieser Angaben der Reihe nach aufgegeben haben. Das schon vor langer Zeit, denn Google wertet die Keywords seit 2002(!) nimmer aus, Yahoo seit 2009 und Bing wertet sie zwar als eines von etwa 1000 Kriterien aus, bestraft aber Seitenbetreiber mit niedrigerem Ranking, die unpassende Keywords einsetzen.

Wer also 2014 tatsächlich noch an die Wirksamkeit von META-Keywords glaubt, der wurde schlecht beraten. Heutzutage ist gutes Ranking in Suchmaschinen mit ein bissl mehr Aufwand verbunden, als ein paar Keywords in die Quelltexte einzubauen ;-)

Wenn man den Link zu einer Website auf Facebook postet, so holt sich Facebook den aktuellen Inhalt und verschiedene Angaben im Seitenkopf, um Titel, Beschreibung und ein Vorschaubild anzeigen zu können. Diese Angaben werden bei Facebook zwischengespeichert, damit dieser Vorgang nicht jedesmal Traffic verursacht. Wenn aber genau zu diesem Zeitpunkt der Inhalt dieser Website nicht korrekt aufbereitet wurde (kein Seitentitel, kein Bild oder falsche Seitenbeschreibung), so merkt sich Facebook ziemlich lange irgendwelchen Blödsinn – und jeder, der die betreffende Seitenadresse teilt, verbreitet den Schas noch weiter.

Nachdem dieses Problem nun zwei Mal kurz hintereinander bei Kundenwebsites aufgetaucht ist, die ich Facebook-fit machen sollte, habe ich mich schlau gemacht, wie man Facebook dazu bringt, diese Informationen einfach neu von der betreffenden Website abzuholen.

Das geht ganz einfach – wenn man weiß, wie:

Facebook bietet ein Tool namens “Sharing Debugger” an (das hieß früher “URL Linter”) . Dort gibt man eine Seitenadresse ein und klickt auf “Fehlerbehebung” – dann zeigt Facebook die für diese Seite zwischengespeicherten Informationen an. Wenn man dann auf “Erneut scrapen” klickt, holt Facebook die Infos zur betreffenden Website frisch von deren Server ab und bietet eine Vorschau, wie die Website-Inhalte auf Facebook beim Teilen angezeigt werden.

Netterweise überschreiben die abgeholten Daten den Facebook-Zwischenspeicher – wenn also eine Seite zickt, kann man sie entsprechend umbauen, URL in den Debugger, Ergebnis prüfen – und auch alle anderen, die ab diesem Zeitpunkt die Website-Adresse teilen, kriegen die aktualisierten Daten geliefert. Die META-Description einer Website wird z.b. als Beschreibungstext verwendet, so kann man also gezielt bestimmen, was Facebook dort anzeigen soll. Wers ganz genau wissen (und gestalten) will, der kann anstatt META-Description & Co. auch die Facebook-OpenGraph-Metatags im Seitenkopf verwenden, die sich etwa mit Plugins wie All In One SEO in WordPress ziemlich einfach einbauen lassen.

Für LinkedIn gibts ein ähnliches Tool, das nennt sich dort “Post Inspector” und funktioniert sehr ähnlich: URL eingeben, “Inspect” klicken, die Informationen werden live von der URL abgeholt und der Link-Cache für LinkedIn wird dabei automatisch erneuert. Diese beiden nützlichen Werkzeuge (und noch viele mehr) finden sich stets aktuell auf meiner Linkliste “Online-Tools”.