https://www.egm.at/weblog/?p=4447Wenn man das Google API dazu verwendet, um QR-Codes zu erstellen, so können diese maximal 300.000 Pixel haben, das entspricht einer Kantenlänge von etwa 547 Pixel. Fürs Internet ist das zwar OK, für den Druck ist diese Größe jedoch völlig unzureichend. Das reicht bei 300 dpi Druckauflösung gerade mal, um den Code in 46 Millimetern Kantenlänge drucken zu können.

Da die Codes aber aus lauter scharf begrenzten Flächen bestehen, lassen sich die Grafiken in einwandfreier Qualität beliebig vergrößern(!) – etwas, das üblicherweise bei Pixelbildern überhaupt nicht zufriedenstellend funktioniert. So gehts (Update 18.10.2012!): Weiterlesen

Wenn man Websites mit WordPress und dem Genesis-Framework baut, dann spart das viel Arbeit. Durch den immer gleichen modularen Aufbau kann man auch umfangreichere Arbeiten relativ flott umsetzen. Hier eine englische Anleitung, wie man ein Genesis Theme in weniger als einer Stunde handytauglich macht.

Einziger Punkt, der mir noch dabei gefehlt hat: wenn man position:absolute; im Stylesheet verwendet, so muss man diese Angabe durch position:static; ersetzen.

Weil ichs letztens gesucht (und nicht gefunden) habe, als ich jemandem das Phänomen Twitter (und warum es mir so gefällt) erklären wollte: The 4 Stages Of Understanding Twitter:

Bild: Roobee

 

Wenn man den Link zu einer Website auf Facebook postet, so holt sich Facebook den aktuellen Inhalt und verschiedene Angaben im Seitenkopf, um Titel, Beschreibung und ein Vorschaubild anzeigen zu können. Diese Angaben werden bei Facebook zwischengespeichert, damit dieser Vorgang nicht jedesmal Traffic verursacht. Wenn aber genau zu diesem Zeitpunkt der Inhalt dieser Website nicht korrekt aufbereitet wurde (kein Seitentitel, kein Bild oder falsche Seitenbeschreibung), so merkt sich Facebook ziemlich lange irgendwelchen Blödsinn – und jeder, der die betreffende Seitenadresse teilt, verbreitet den Schas noch weiter.

Nachdem dieses Problem nun zwei Mal kurz hintereinander bei Kundenwebsites aufgetaucht ist, die ich Facebook-fit machen sollte, habe ich mich schlau gemacht, wie man Facebook dazu bringt, diese Informationen einfach neu von der betreffenden Website abzuholen.

Das geht ganz einfach – wenn man weiß, wie:

Facebook bietet ein Tool namens “Sharing Debugger” an (das hieß früher “URL Linter”) . Dort gibt man eine Seitenadresse ein und klickt auf “Fehlerbehebung” – dann zeigt Facebook die für diese Seite zwischengespeicherten Informationen an. Wenn man dann auf “Erneut scrapen” klickt, holt Facebook die Infos zur betreffenden Website frisch von deren Server ab und bietet eine Vorschau, wie die Website-Inhalte auf Facebook beim Teilen angezeigt werden.

Netterweise überschreiben die abgeholten Daten den Facebook-Zwischenspeicher – wenn also eine Seite zickt, kann man sie entsprechend umbauen, URL in den Debugger, Ergebnis prüfen – und auch alle anderen, die ab diesem Zeitpunkt die Website-Adresse teilen, kriegen die aktualisierten Daten geliefert. Die META-Description einer Website wird z.b. als Beschreibungstext verwendet, so kann man also gezielt bestimmen, was Facebook dort anzeigen soll. Wers ganz genau wissen (und gestalten) will, der kann anstatt META-Description & Co. auch die Facebook-OpenGraph-Metatags im Seitenkopf verwenden, die sich etwa mit Plugins wie All In One SEO in WordPress ziemlich einfach einbauen lassen.

Für LinkedIn gibts ein ähnliches Tool, das nennt sich dort “Post Inspector” und funktioniert sehr ähnlich: URL eingeben, “Inspect” klicken, die Informationen werden live von der URL abgeholt und der Link-Cache für LinkedIn wird dabei automatisch erneuert. Diese beiden nützlichen Werkzeuge (und noch viele mehr) finden sich stets aktuell auf meiner Linkliste “Online-Tools”.