Markus Baersch

Software · Beratung · Lösungen

Suche im Blog

Blogroll

[Feed] Suchmaschinenoptimierung
Kostenlose Tipps als Blog
[Feed] Google AdWords Agentur
gandke marketing & software gmbh
[Feed] Guerilla-Marketing Blog
Infos rund um Guerilla-Marketing
[Feed] Web-Usability Tipps
Hinweise für besucherfreundliche und conversionstarke Websites

Sign In

Saturday, June 21, 2014

50L100S: So irre; mir will nicht mal eine Headline einfallen!

Steak 1/50

Bin immer noch nicht fertig damit, meine schnell notierten Tipps von "50 Leute 100 Steaks" so in lesbarer Form zu konservieren, dass mir nichts verloren geht. Vor allem eben, weil es viel mehr zu notieren gibt, als 49 andere Tipps, die ich auf Karls unvergleichlicher... naja, irgendwie auch sowas wie eine "Unkonferenz"... mitgenommen habe. Und auch ohne irgendetwas von den Tipps zu verbloggen, die den kleinen Teilnehmerkreis freilich nicht auf diesem Weg verlassen soll(t)en, gibt es reichlich Anlass für einen Recap. Wow!

Danke, Danke, Pfui, Danke, Yay!

Den haben aber nun schon ein paar Leute gegeben und ich verlinke gern unten einige davon. Auch teile ich mit den anderen neben der Erinnerung an dieses irre Event nun den Besitz eines Notizbuchs voller Geheimnisse und eines personalisierten Bierglases, das mich hoffentlich gelegentlich wieder in genau die Stimmung versetzt, in der ich die letzten drei Tage verbracht habe. Trotz der wirklich miesen Unterkunft im Generator Berlin, die ich zum Zeichen meiner Dankbarkeit nur nur mit nofollow und über den Umweg des Google+ Prifils anlinken kann (nehmt das!). Da bedanke ich mich lieber noch mal explizit bei Uwe von weihnachtsgeschenke.org/ für das Bierglas mit einem unverfänglichen Link ohne bösen Ankertext, damit der Plan auch wirklich aufgeht ;) Und auch dafür noch mal Hut ab!, denn das war ja schon als "Guerilla-Geschenk-Aktion" genauso erfolgreich wie 50L100S selbst. So funktionieren Menschen eben. Und wenn auch ohne Ticketkosten nicht nur Teilnehmer, sondern auch Veranstalter als Gewinner aus einem Event wie diesem herauskommen, dann macht das eben allen Spaß.

Perspektivenwechsel

Da SEO für mich eher Passion als Kerngeschäft darstellt, hätten für mich ja streng genommen die "SEA-nahen" Tipps die beste Auslese ergeben müssen, soweit nicht schon bekannt. Am Ende kam es in meiner Bewertung aber ganz anders raus und so waren diejenigen, die ich als "Top" bewertet habe, oft aus ganz anderen Bereichen. Aber dazu gleich noch was... Ich habe am Ende wirklich allen Tipps "irgendwie" etwas abgewinnen können.

Da ich aus verschiedenen Gründen eben kein regelmäßiger Konferenzgänger bin, war mein persönliches Highlight, aus seit Jahren hartnäckig verfolgten Blogs und Podcasts echte Menschen machen zu können, mit denen man sich austauschen und die man kennen lernen kann. Natürlich ging das nicht bei allen 50 Teilnehmern nebst Veranstaltern, Fachbeirat und Rookies in der gleichen "Tiefe", wenn man dazu nur anderthalb Tage nutzen kann... aber gewünscht hätte ich es mir schon. Klar, auch bei den Tipps sind Dinge dabei gewesen, die ich umsetzen kann und will - aber das war für mich eben nicht der Hauptgrund, Roberto´s Rat zu folgen und mich mit einem eigenen Tipp zu bewerben. Da geht es auch schon los: Man kauft kein Ticket, sondern durchläuft ein m. E. in der Form einmaliges, wenngleich sicher nicht perfekt "filterndes" Anmeldeverfahren. Und so gab es (bestimmt nicht nur für mich, sondern viele andere Teilnehmer auch) z. T. einiges zu hören, was man schon in der einen oder anderen Form kannte und / oder nur bedingt für sich selbst "brauchen" kann... aber es finden sich auch bei solchen Tipps neue Perspektiven oder Denkanstöße, die schon "abgehakte" Ideen neu auf die Prioliste bringen. Außerdem gibt es eben auch - für jeden - ein paar völlig neue Ideen, die man praktischerweise direkt noch einmal mit dem Tippgeber vertiefen kann - das ist unbezahlbar.

Muss auch mal gesagt werden dürfen...

Daher kann ich auch gut verstehen, dass Teilnehmer aus dem letzten Jahr, die es dieses Jahr nicht durch das Auswahlverfahren geschafft haben, trotzdem gern dabei gewesen wären. Wird mir vermutlich nächstes Jahr genau so gehen :|

Allein schon die Tatsache, dass der Tipp, der am Ende der Veranstaltung von den Teilnehmern als bester gewertet wurde, im Auswahlverfahren eigentlich schon ausgesiebt und nur durch Absagen wieder reingerutscht war, zeigt ein wenig die Lücken auf, die entstehen, wenn man Tipps "umschreiben" muss, ohne sie konkret zu nennen. Ich habe aber leider auch trotz dieser... Naja: Kritik(?)... keine bessere Idee. Anonymität bei der Bewertung durch einen Fachbeirat ist da sicher kaum zu verbessern... außer vielleicht durch mehr Vergleichbarkeit der Beschreibungen (was aber durch weniger Freiheit oder mehr Detailtiefe bei der Beschreibung erkauft werden müsste). Wie gesagt: Ich habe keine bessere Idee, aber es darf dann auch nicht verwundern, wenn auch im kommenden Jahr vielleicht der eine oder andere nicht verstehen kann, warum A nicht dabei ist, aber B. Wie sehr jeder, der schon einmal dabei war, sich eine weitere Teilnahme wünscht, zeigen ja nicht nur ein paar Kommentare hier und da oder die Existenz von Parallelveranstaltungen der Plätze 51 bis x (fand ich übrigens auch eine sehr gute Idee!).

Vielleicht liegt aber noch Potential in den Bewertungsfragen, mit denen der Fachbeirat arbeitet? Zumindest die Bewertung, die ich als Teilnehmer geben konnte, war durch die Begrenzung / Auswahl der Kriterien und "Digitalität" zwar simpel, aber vermutlich nicht für alle Tipps fair... oder gar einfach. Auf der anderen Seite kommt es ja auch nicht wirklich darauf an, wer "gewinnt" oder nicht, denn schlussendlich fühlen sich 50+ Personen zurecht als Sieger, wenn 50L100S (leider) zu Ende geht (schnief!). Lassen wir das einfach mal so stehen...

Damit also noch mal "Danke" an Karl und alle anderen, mit denen ich endlich mal mehr als zwei Worte wechseln konnte, statt immer nur deren Blogbeiträge zu lesen. Und diejenigen, die ich leider nur sehr oberflächlich kennenlernen konnte, treffe ich hoffentlich bei anderer Gelegenheit wieder, um dies nachzuholen. Es wird mir wohl nix übrig bleiben, als doch noch die eine oder andere Konferenz zu besuchen :)

50L100S in Wort und Bild

# 
Monday, April 28, 2014

Virtual Box: XP in der VM offline weiter nutzen

Bei mir - wie vielen anderen Benutzern - lebt XP in einer virtuellen Maschine weiter. Schon zur Einführung von Windows Vista hatte ich aufgehört, mir immer und immer wieder die Arbeit der Neueinrichtung von Delphi- und .NET-Entwicklungsumgebung nebst allem sonstigen Schnickschnack anzutun. Die Idee war, eine VM aufzusetzen und alles, was bei System- oder Rechnerwechsel durch langwierige Einrichtung den Spaß versaut, nur noch in dieser VM zu nutzen. Das hat mir auch so manchen Wechsel des Host-Systems deutlich vereinfacht und inzwischen sind es nur noch wenige Dinge, die ich mir auf einem neuen Rechner installieren muss, sobald erst einmal Virtual Box eingerichtet und mit der virtuellen XP-Maschine versehen ist.

Mit dem "Aus" für XP stellt sich also nun die Frage, ob man sich wirklich die Mühe machen muss, die VM auf eine "neuere" Version wie Windows 7 zu heben. Einen wirklichen Grund gibt es dafür ja nicht - abgesehen von der steigenden Gefahr, sich mit einem ollen XP online "was einzufangen". Und da steckt auch schon der Knackpunkt: Online muss das Ding eigentlich nie sein. Die üblichen Tipps aus der Fachpresse, die sich derzeit auf die Virtualisierung alter XP-Systeme einzuschießen scheint, sind mir da aber zu drastisch: "Einfach den Netzwerkadapter aus der VM entfernen" liest man da gern mal. Ich möchte aber nicht ganz allein in der VM sitzen und keinen Zugriff mehr auf lokale Ressourcen haben und nicht mal mehr gemeinsame Ordner mit dem Host nutzen können... Unter XP soll nur nichts mehr das LAN verlassen dürfen und es soll nichts mehr von draußen rein.

Zum Glück gibt es bei Virtual Box dafür eine viel elegantere Lösung: den Netzwerk-Adapter nicht löschen, sondern nur den "Anschluss" von LAN auf Host-only umstellen.

Netzwerkadapter der VM anpassen

Diese Einstellung bewirkt genau das, was man sich für einen VM-Client wünscht, der besser nicht mehr online gehen sollte, aber dennoch nach wie vor am eigenen Netzwerk teilhaben soll. Und wer den Internetzugriff "nur selten" statt "nie" benötigt, kann entweder die Anschlussart des Netzwerkadapters vorher umstellen oder die VM einfach als "verknüpften Klon" duplizieren, dort auf Host-only umstellen und so zwei Fassungen seiner VM betreiben, die dann je nach Einsatzzweck mal mit und mal ohne Internetzugriff genutzt werden können (das geht übrigens nicht nur mit XP-Clients ;)).

# 
Monday, April 07, 2014

Haken dran: Der e-Marketingday Rheinland 2014

Nach Köln, Bonn und Mönchengladbach durfte Aachen am 2.4. als Standort des bereits vierten e-Marketingday Rheinland antreten. Mit dem Eurogress wurde dafür eine mehr als geeignete Location für eine m. E. durchweg professionelle Veranstaltung ausgewählt. Und obschon es in diesem Jahr vielleicht nicht ganz so viele Besucher wie im vergangenen Jahr versucht haben mögen (was z. T. sicher auch der Geografie geschuldet ist), waren bereits zur Begrüßung reichlich Besucher zugegen, die es erfreulicherweise - auch diesmal frei von Parkplatzsorgen (das war nicht immer so) oder lange Wartezeiten bei der Registrierung - zeitig in den Hauptsaal geschafft hatten.

Ob allerdings der Impulsvortrag von Richard Gutjahr wirklich das ursprünglich gesteckte Ziel erreichen konnte, möchte ich bezweifeln, denn dafür erschien mir alles nach dem ersten (und leider viel zu späten) Blick auf die Uhr deutlich zu "hopplahopp" vorgetragen. Vielleicht mag der eine oder andere dennoch verstanden haben, dass das Internet mehr als nur ein Medium ist. Ob meine Lieblingsübersetzung "Plattform" in der Auflösung vorkam, kann ich ehrlich gesagt nicht beurteilen, denn der Vortragende hatte mich persönlich an der Stelle verloren, als er den armen anwesenden Unternehmern mitteilte, dass deren Websites dank IPv6 nun mit 340 Dagobertduckilliarden Kaffeemaschinen konkurrieren müsse. So sindse halt, die Keynotespeaker ;) Trotzdem hat´s zum Start des Vortrags zumindest kurzzeitig gereicht, um es mit dem Hashtag #EMD14 bei Twitter ganz nach vorn zu bringen. Das mag als deutlicher Beweis dafür dienen, dass das Publikum durchaus weiß, wie man mit dem "Medium Internet" (Sorry, ich konnte nicht widerstehen) umzugehen hat. Begünstigt wurde das Futter auf der installierten Twitter-Wall jedenfalls durch die Tatsache, dass es einen eigens eingerichteten "Bloggertisch" gab, der faktisch über die ganze Dauer der Veranstaltung als Anlaufstelle (nicht nur zum Aufladen der Smartphones ;)) für eingeladene oder freiwillig erschienene "Micro- und Macro-Blogger" gedient hat. "Anlaufstelle" war nach meinem Eindruck auch wieder - mehr als im letzten Jahr - die Ausstellung; sicher zur Freude der dort präsenten Sponsoren. Allein schon durch die diesmal weniger "weitläufige" Aufteilung der verschiedenen Foren, die in 3 x 3 Themenschwerpunkten mit je 3 Vorträgen behandelt wurden, lag die Ausstellung diesmal einfach zentraler und schien daher m. E. auch mehr Aufmerksamkeit zu bekommen.

Was die Foren und die darin zusammengestellten Vorträge angeht, so kann ich vermutlich nicht objektiv genug beurteilen, ob "der typische Besucher" jeweils viel aus den jeweiligen Themengebieten herausziehen konnte oder nicht... auf jeden Fall aber erschienen mir die Vorträge, die ich mit selbst angesehen habe, durchaus als guter Einblick in das jeweilige Thema. Und mehr darf man bei weniger als 30 Minuten schließlich auch nicht erwarten. Der Professionalität und Erfahrung der Speaker war es zudem zu verdanken, dass es keine hoffnungslosen Versuche gab, möglichst viel an Infos in der kurzen Zeit unterzubringen, sondern es wurden zumeist bestimmte Aspekte der jeweiligen Disziplin ausgewählt und in der zur Verfügung stehenden Zeit beleuchtet. Das reicht sicher auch aus, um den teilnehmenden Unternehmern Impulse und / oder einen schnellen Einstieg zu geben und das ist schlussendlich neben dem "Netzwerken" i. d. R. eines der Hauptziele der Besucher.

Wobei... solche Impulse mögen im Einzelfall auch eher den "Mut zu Online" gebremst statt gefördert haben. Klassische Kandidaten dafür sind stets Vorträge rund um Internet und Recht und so hat es sich z. B. Dr. Hartleb bei seinem Vortrag zum neuen Verbraucherrecht auch nicht nehmen lassen, sich gleich selbst als "Spaßbremse" zu bezeichnen, bevor er das Publikum wissen ließ, warum das ganze Thema dank unsinniger Vorgaben und schwammigen Formulierungen vermutlich ein einziges Ärgernis für alle Beteiligten wird (freilich außer Anwälten). Ich habe den Vortrag jedenfalls einfach genossen, ohne selbst Anwalt zu sein ;)

Durch die parallele Durchführung der Foren kann und will ich auch gar nicht weiter auf einzelne Vorträge eingehen, aber zumindest hatte ich von allem, was ich selbst besucht habe, einen guten Eindruck erhalten. Bemerkenswert war allerdings, dass es trotz vorheriger Anmeldung aller Teilnehmer zu den einzelnen Foren offenbar dennoch leider nicht immer gelungen ist, die Raumgrößen an die Vorträge anzupassen. Meint: Im Hauptsaal mag sich der eine oder andere Referent ein wenig "unterbesucht" gefühlt haben, während andere Vorträge in kleineren Räumen mitunter so gut besucht waren, dass selbst Stehplätze Mangelware waren. Ich habe zumindest von jedem dieser beiden Extreme ein Beispiel gesehen und nehme an, dass die Ursache nicht nur in einigen zwangsweise sehr kurzfristig dank Referentenschwund umvergebenen Vortragsslots zu suchen ist, sondern einfach in der menschlichen Neigung, sich spontan anders zu entscheiden.

Organisatorisch kann man wohl kaum mehr tun, als im Vorfeld die Präferenzen abzufragen und dann auch noch auf den Konferenzpass zu drucken.... aber vielleicht hilft ja die (wie mir ungefragt vehement versichert wurde) anonyme Erfassung der realen Besucherzahlen je Raum per RFID-Zugangskontrolle dabei, die Puffer für das nächste Jahr noch genauer zu planen.

A propos meckern: beim Essen gab es m. E. auch dieses Jahr nix zu meckern. Wobei man es freilich gerade in diesem Punkt nie allen recht machen kann und es mag sein, dass jemand, der es noch unzeitiger als ich zu Tisch geschafft hat, tatsächlich nicht mehr allzu viel Auswahl hatte. War er dann aber auch selbst schuld ;) Generell habe ich in diesem Jahr nicht viel an Kritik gehört, die über niedrige Raumtemperaturen im Hauptsaal hinaus ging. Erfreulicherweise konnte man sich aber jederzeit draußen in der Sonne, die es stets gut mit dieser Veranstaltung zu meinen scheint, aufwärmen. Die Besucher (und auch einige Aussteller), mit denen ich mich unterhalten habe, fanden jedenfalls die eigenen Erwartungen entweder erfüllt oder gar übertroffen. Dass eine das Thema Online-Marketing so "global" und daher oft zwangsweise nur oberflächlich beleuchtende Veranstaltung auch jemanden wie Fabian Rossbacher überraschen kann, der seine kurze Zeit für einen Aufruf zur Etablierung sorgsam gepflegter Google + Local Profile genutzt hat, zeigt sein Tweet nach dem e-Marketingday:

Wie groß der Anteil des "Rahmenprogramms" wie der Ausstellung oder des gemütlichen Ausklangs mit Roulette und Gesprächen an der Gesamtzufriedenheit ist, kann die IHK als Veranstalter hoffentlich aus den Feedbackbögen ablesen, aber da Konferenzen am Ende des Tages dann doch an der (vom Besucher wahrgenommenen) Qualität der Vorträge gemessen werden, hoffe ich auch für das kommende Jahr auf die gezielte Beleuchtung von Trends und / oder Details der zahlreichen Facetten des Online-Marketings. Düsseldorf ist ja auch nicht soooo weit weg, also plane ich den EMD15 gern schon mal ein!

# 
Wednesday, March 05, 2014

HTML Slideshows ohne Ballast (AKA jQuery)

Ich mag eigentlich keine HTML-Slideshows auf Startseiten. Weil sie die typische "Wasch mich, aber mach mich nicht nass"-Patentlösung geworden sind. Wann immer jemand entscheidet, dass die Startseite aufgeräumt werden muss und daher Inhalte wegfallen sollen, kommt von irgendwo jemand mit der Idee, den ganzen Mist einfach weiter auf der Startseite zu lassen, aber eben als Teil einer "Slideshow", die durch wechselnde Inhalte eine übersichtliche Seite vorgaukelt, ohne dass man sich von altem Krempel trennen müßte. So, jetzt isses raus.

Das Ganze wird auch nicht dadurch besser, dass das Slider-Element dann noch zusätzliche Last für die Seite in Form von Script, Design, Bibliotheken und weiteren Mini-Grafiken bedeutet, die alle zusätzlich geladen werden müssen. Trotzdem: Man kommt ja nicht dran vorbei (redignierend). Daher habe ich mir eine Lösung gesucht, die für mich das "kleinste annehmbare Übel" bedeutet. Der "Small Image Slider" löst die eigentliche Aufgabe, ohne allzuviel zusätzlichen Ballast für die nutzende Seite zu bedeuten und verzichtet auch auf jQuery und andere Bibliotheken. Wer mag, kann sich gern bedienen und sich selbst ein Bild machen - hier geht´s lang: Beschreibung und Download "Small Image Slider".

# 
Monday, January 27, 2014

Website optimiert für Tablets und Smartphones(?)

Ich geb's ja zu. Das Layout meiner eigenen Website ist in die Jahre gekommen. Die feste Breite von 900px war nicht mehr wirklich nett anzusehen, denn auf dem Desktop ist das viel zu mickrig und auf dem Smartphone zoomt man sich den Wolf. Da auch mir die Zeit fehlt, sich ernsthaft mit einem Redesign der mehr oder weniger "privaten" Website zu befassen und weil auch noch Blog und Site auf unterschiedlichen Systemen basieren, habe ich mir nun zumindest die Mühe gemacht, das Standardlayout ein gutes Stück zu verbreitern und dynamisch für Auflösungen bis 1024 und in einer weiteren Stufe für alles darunter anzupassen, ohne dass ich dazu an die individuellen Inhalte einzelner Seiten muss, um die dort lauernden inline-Formatierungen zu eliminieren. "Responsive Light" will ich es mal nennen ;)

Wer hier denn überhaupt (im Zeitalter langsam aussterbender Blogs - und vor allem Blogbeiträge) gelegentlich noch mitliest, darf mir gern mitteilen, wenn es Probleme mit der Darstellung des Blogs oder der übrigen Site auf bestimmten Geräten, in bestimmten Browsern oder sonstwo geben sollte. Danke auch!

# 
Tuesday, November 12, 2013

SEO Karneval 2013 - Recap

Da es eine so schöne Tradition ist, will auch ich nun nach meinem Besuch beim SEO Karneval eine kurze Zusammenfassung meiner Eindrücke geben. So kurz, wie es in meinem Fall nur irgendwie geht ;) Denn ich war zum ersten Mal bei der Veranstaltung dabei, die schon seit ein paar Jahren regelmäßig am 11.11. in Köln stattfindet. Eigentlich auch nur, weil ich das Ticket bei seo-united.de im Blog gewonnen hatte. So muss eben manchmal der Zufall helfen, denn es hat sich auf jeden Fall gelohnt!

Nicht wissend, was mich wohl erwarten würde, hatte ich schon im morgentlichen Zug nach Köln so eine gewisse Ahnung, dass der 11.11. kein reines Zuckerschlecken werden würde. Mit jeder Station stieg der Anteil der mal offenkundig und mal etwas subtilieren "Jecken" stetig an. Zum Glück. Denn sonst hätte mich der Schlag ja vollkommen unvorbereitet getroffen, den der Bahnhof und das Umfeld des Doms für mich bereitgehalten hatten. Ja, ich bin hier in der Region geboren und Karneval ist mir nicht fremd. Dennoch war das mein erster Besuch an einem 11.11. in Köln und das kann ohne eine gewisse Vorbereitung schnell zum Kulturschock führen. In so einem Wetter dermaßen früh morgens schon vor allen Kneipen und Brauereien Schlangen zu bilden und kurz nach Sonnenaufgang derart stilsicher und souverän betrunken den Jecken zu geben, ist wohl nur dem Rheinländer gegeben. Hut ab! Dank der guten Vorbereitung und Wegbeschreibung von Yannick von Yagendoo Media waren die paar Schritte vom Bahnhof zum Austragungsort Früh auch mit offenem Mund und staunendem Blick erfreulicherweise schnell erledigt. Am Sammelpunkt gab es (eigenartigerweise die Umgebungstemperatur ignorierende) Linkbird-Energydrinks und Namensschilder, dann ging es (zum Glück jenseits der Schlange) zum Frühstück in den Keller. Für dessen Wahl als erneuten Standort vor allem die Tatsache spricht, dass man sich hier tatsächlich trotz des Trubels umher problemlos unterhalten konnte.

SEo Karneval

Dass der Kölner das Trinken sehr ernst nimmt, wurde aber schon beim als Grundlage für alles Kommende gut geeignete Frühstück klar, denn schnell wurde fast jede Kaffeetasse (habe ich schon erwähnt, dass es da einen thematisch passenden Sponsor der Veranstaltung gibt? ;)) von einem Kölsch flankiert. Zur weiteren Überbrückung sozialer Schranken gab es umherwerfbare Stressball-Gehine von AKM3 und eigenartige Kopfmassagen-Schneebesen-Dingsis von Domainers. "OK", dachte ich mir, "das wird also eine Konferenz ohne Vorträge. Stattdessen wird gleich so getan, als sei es Abends und man startet gleich mit der Party. Klingt sinnvoll". Und so funktionierte das Ganze dann auch. "Alkoholauflockern" im Eiltempo (was mit Kölsch nicht jedem gleich leicht fällt) und dann ein steter Wechsel aus Gesprächen, kurzen Ausflügen an die "frische Luft" (AKA Rauchen) oder auch mal (mit später steigender Schlagzahl) auf das WC. Speeddating-Marathon für SEOs so zu sagen. Aus meiner Sicht ein prima Konzept, das mich nicht nur von Halbneun bis Sieben gut unterhalten hat, sondern bei dem ich eine Menge interessanter Leute getroffen und gesprochen habe (von denen überdurchschnittlich viele Markus" hießen... und ich bin mir nach wie vor sicher, dass das nicht am Kölsch lag). Erstaunlicherweise konnte man selbst am Nachmittag ungeachtet der harten Rahmenbedingungen noch sinnvolle und längere Gespräche führen - wenn man denn wollte. Alles in allem also eine wirklich runde Sache! Nur schade, dass man mich nicht mit viel Trara und in allen Ehren als Alterspräsident der diesjährigen Session benannt hat, denn ältere Baujahre als das Meine habe ich nicht gefunden ;)

Und so werde ich wohl auch im nächsten Jahr gern wieder dabei sein, selbst wenn ich keine Karte gewinnen sollte. Dank der zahlreichen Sponsoren, deren Unterstützung zumindest bis zu meinem Absprung für eine störungsfreie Kölsch-Versorgung genügt hat, ist der ganze Spaß auch für zahlende Teilnehmer sehr günstig zu haben. Like! Daher noch mal ein expliziter Dank an alle, die ich nicht bereits genannt habe:

BTW: Gern hätte ich an dieser Stelle noch ein paar andere Recaps verlinkt, aber entweder feiern die anderen noch oder scheuen den potentiell zu frühen Versuch, ganze Sätze zu formulieren. Ich kann das gut nachvollziehen. Das wird sich sicher noch ändern und dann lege ich an dieser Stelle nach - auf ein paar Links mehr oder weniger kommt es ja nun auch nicht mehr an ;)

Update: Hier ein paar inzwischen erschienene weitere Recaps - mich reichlich Bildern ;) Das werden sicher noch mehr.

# 
Saturday, June 29, 2013

Störungen auf der Website nach PHP-Umstellung bei 1und1 behoben...

Es hat ein wenig gedauert, bis ich überhaupt darauf aufmerksam gemacht wurde, aber nach dem "Zwangsupdate" meines Hostingpakets bei 1&1 hatte ich (nach kurzen Problemen, die ich mir per .htaccess-Anweisung eingefangen hatte) eigentlich gedacht, dass alles funktioniert.

Falsch: Sowohl das Tool zur Bereinigung von Seitenquellcode als auch das Kontaktformular hat leider nicht immer funktioniert. Je nach Nachricht bzw. umzuwandelndem Text gab es Störungen, die ich nun mit einiger Mühe auf "verschwundene" Variablenwerte zurückgeführt habe. Die Ursache: wer wie ich von htmlentities() oder htmlspecialchars() Gebrauch macht, sollte wissen, dass nun ein anderer Zeichensatz (natürlich utf-8) als Voreinstellung gilt und so wird durch die anderen - ebenso nicht gesetzten und mit neuen Defaults versehenen Optionen - schnell aus einem String ein Nichts. Leerzeichen an der falschen Stelle oder Umlaute sind typische Auslöser. Das Problem ist - einmal gefunden - aber schnell zu beheben, indem alle Aufrufe angepasst werden, um das bisherige Verhalten wiederherzustellen.

Aus...

htmlentities($txt);

... wird dazu...

htmlentities($txt, ENT_COMPAT,'ISO-8859-1', true);

... und schon ist das Problem vermutlich behoben. Wer also ähnliche Probleme hat, findet hoffentlich diesen Beitrag ;)

# 
Wednesday, March 20, 2013

Mobile Websites testen mit Manymo: Realistisch oder Zeitverschwendung?

Wer sich schon einmal mit mir zum Thema "testen mobiler Websites" unterhalten musste (:)), der kennt meine sehr geringe Begeisterung für Emulatoren. Nach meiner Erfahrung schlägt (leider) nichts den Test auf einem echten Gerät und bei den meisten Emulatoren im Web habe ich bisher schon nach wenigen Testkandidaten deutliche Unterschiede zwischen Simulation und Wirklichkeit gefunden. So kann man sich freilich einen ersten Eindruck verschaffen und sich dabei zeigende Probleme sind auch i. d. R. "realer" als eine vorgeblich fehlerfreie Darstellung, aber Sicherheit erhält man auf diese Weise nicht.

Da sich bei der Vielzahl von Geräten, Auflösungen und Eigenschaften aber ein echter Test auf allen Varianten kaum noch umsetzen lässt, ist neben den wichtigsten echten Geräten zumindest als Backup - oder in der Entwicklungsphase - sowohl für Websites als auch Apps eine möglichst umfassende und zuverlässige Emulation verschiedener Geräte fast unabdingbar, wenn man sich keinen "Mut zur Lücke" erlauben kann. Oder will.

Zumindest die Forderung nach einem umfassenden Angebot mit einfachen Möglichkeiten zur Automatisierung von Tests und Unterstützung gängiger Entwicklungswerkzeuge wird bereits seit einiger Zeit bei Manymo angeboten und ist auch jetzt noch kostenlos nutzbar. Inzwischen sind es über 50 simulierte Geräte, die man für Tests verwenden kann. Und während die meisten anderen Kandidaten ihre Schwächen schnell offenbart haben, habe ich zumindest bisher hier noch keine erkennbaren Unterschiede zwischen Emulator(en) und echten Geräten festgestellt. Mit Einschränkungen wie z. B. bei der Auswahl der auf dem jeweiligen Gerät verwendbaren Browser muss man allerdings leben, so dass auch auf simulierten Geräten mit Android 4.2 nur mit dem ollen Android-Standardbrowser gearbeitet werden kann und hier z. B. kein Chrome verwendet wird. Aber wenn man bedenkt, dass der Schwerpunkt (vermutlich) auch eher auf Apps als bei Websites liegt, ist dieser "Fehler" vermutlich zu verzeihen... aber dennoch ein weiteres Argument gegen ausschließliche Tests auf diesem Weg.

Erstes Fazit: Zwar benötige ich dieses Werkzeug nicht für Apps, sondern "nur" gelegentlich für Websites und mobile Landingpages, aber dennoch erscheint es mir angebracht, zumindest für diesen Einsatzzweck entgegen meiner bisherigen Meinung eine Empfehlung auszusprechen. Hat jemand eigene Erfahrungen mit Manymo gemacht, die meinen Eindruck bestätigen oder widerlegen können? Dann würde mich ein Kommentar sehr freuen ;)

Update 28.01.2014: Speziell bei der Umstellung einer bestehenden Website auf ein neues und / oder responsives Design sind die angebotenen Emulatoren wirklich hilfreich. Wer einzelne Elemente in den verschiedenen Varianten testen will und gerade kein passendes Endgerät zur Hand hat, kann sich m. E. hiermit recht sicher fühlen. Wann immer ich parallel auf echten Geräten und diesen Emulatoren testen konnte, habe ich stets übereinstimmende Ergebnisse gesehen. Schönes Werkzeug - da gibt es doch sicher inzwischen schon mehr..?

# 
Monday, February 11, 2013

Webanalyse mit Yandex.Metrica

Nachdem in diesem Blog schon eine ganze Weile nichts mehr passiert ist und der letzte Beitrag das Aussterben von Yahoo! Webanalytics zum Thema hatte, finde ich als Wiedereinstieg den Überblick eines denkbaren Ersatzes als würdiges Thema.

Durch Zufall bin ich auf Yandex.Metrica gestoßen - dem "Google Analytics dieser anderen Suchmaschine". Und mein erster Eindruck lässt mich hoffen, dass hier eine echte Alternative zu Analytics lauert. Sicher nicht auf dem gleichen Stand - und leider auch nicht mit den gleichen Stärken und Besonderheiten von Yahoo! Webanalytics gesegnet -, aber dennoch ein interessanter Kandidat.

Datenschutz?

Datenschutz ist hier nicht das eigentliche Thema und ich bin weder Fachmann noch Jurist. Metrica ist halt wie viele andere ein Tool, dass Daten auf dem Server des Anbieters speichert. Genau wie Clicktale und tausend andere gängige Tags, die in Webseiten nisten. IP-Adressen werden nicht offenkundig verarbeitet und ob diese gespeichert werden, kann ich nicht beantworten. Die Nutzungsbedingungen sprechen von einer anonymen Aufzeichnung und Speicherung - mehr weiß ich zu diesem Zeitpunkt auch nicht. Die Cookies enthalten eine verschlüsselte ID, die keine direkten Rückschlüsse auf private Daten des Surfers zu geben scheint. Es sind keine "untergejubelten" FirstParty-Cookies, sondern Drittanbieterkekse. Das macht allein schon hinsichtlich der Browsereinstellungen einen Unterschied. Solange man aber keine persönlichen Daten in URLs o. Ä. an das System überträgt, besteht wohl kaum ein Nachteil ggü. vielen anderen Webanalysesystemen und so sollte es auch für Deutschland "reichen". Auch die in der Hilfe aufgezählten gesammelten Daten sind eine Auflistung der üblichen Kennzahlen. Der europäische, speziell der deutsche Markt wird für Yandex vermutlich noch nicht so schwierig erscheinen, wie er es vermutlich noch werden kann, sobald die Datenschützer bei wachsender Verbreitung hellhörig werden. Schließlich ist "Yandex das Google von vor 5 Jahren", wenngleich (noch) in einem anderen Markt und wer weiß schon, wie sich dieser noch entwickelt. Wenn es spezielle Anforderungen gibt, wird man diese bestimmt bald auch bei Yandex kennen...

Konfiguration und Einrichtung

Die Installation ist denkbar einfach und die Konfiguration erscheint durchdacht. Nach Anlage eines Yandex-Accounts (der wie bei Google Zugriff auf eine ganze Menge weiterer Dienste inkl. Mail etc. erlaubt) kann der "Counter", der ungeachtet des altmodisch klingenden Namens mehr als nur ein Besucherzähler ist, konfiguriert und der Code angerufen werden.

Konfiguration Y.M Counter

Dabei sind bereits eine ganze Menge an Optionen möglich und es können auch mehrere "Mirror"-Domains eingegeben werden, die die gleichen Inhalte ausliefern.

Optionen Y.M Trackingcode

Mehrere Sites in einem Profil scheinen aber nicht vorgesehen zu sein und obschon ich es nicht getestet habe, scheint die "Mirror"-Option eher darauf hinzudeuten, dass aller Traffic von hier nicht angegebenen Domains nicht im Profil ankommt. Auf der anderen Seite könnte genau diese Option auch ein Tracking mehrerer Domains dennoch ermöglichen... der ThirdParty-Cookie wäre dabei dann hilfreich. Wer es schon ausprobiert hat, dem bin ich für eine Nachricht oder einen Kommentar dankbar.

Als Besonderheit bietet Yandex die eigene Definition des Timeouts für Sessions, Infos über wichtige Probleme mit der Site per Mail und / oder SMS (also Webmaster Tools Light gleich eingebaut ;)), (gute, auch nicht-klickbare Bereiche umfassende) Clickmaps, Tracking von Downloads, externen Links und Shares, benutzerdefinierte Variablen und für zahlende (Werbe-) Kunden gibt es mit WebVisor sogar aufgezeichnete Einzelsessions zu sehen. Alles direkt aus der Dose und ohne viel Anpassungsarbeit.

Wer mehr braucht, findet in der Hilfe passende Hinweise eher mittels Suchfunktion, denn die in per Navigation erreichbaren Angaben kratzen wirklich nur an der Oberfläche. So gibt es eCommerce-Tracking, Zieltrichter (hier: "Multi Step Goals"), manuell aufgerufene "Zielerreichung", die als Ersatz für Events verwendet werden können, eine (offenbar nicht immer auf Anhieb funktionierende) Analyse von Formularabbrüchen, Steuerung und Reporting per API... und jede Menge weitere Optionen, mit denen sich vermutlich auch die meisten tieferen Implementierungen von Google Analytics weitestgehend ersetzen lassen.

Der so konfigurierte Code zum Einbau auf der eigenen Website funktioniert wahlweise klassisch (was für Tagmanagement Systeme hilfreich sein sollte) oder asynchron. Man kann bis zu 100 Ziele pro Site und unbegrenzt viele Filter definieren. Das ist im Zweifelsfall auch erforderlich, denn ausgefuchste Filter mittels Regex scheinen hier nicht möglich zu sein, so dass es auch schon mal ein paar mehr sein müssen als vielleicht bei Google Analytics. Auch einen Nutzermanager gibt es, mit dem man zusätzlichen Usern Zugriff auf die Daten eines Counters (oder aller Counter eines Kontos) gewähren kann.

Reports

Die Oberfläche ist etwas gewöhnungsbedürftig und sieht eher sparsam aus. Jeder Report kann in verschiedenen Darstellungsformen als Diagramm angezeigt; Daten können für weitere Analysen exportiert werden. Außerdem sind alle Reports in einem Editor anpass- und erweiterbar. Dabei sind die Freiheiten zwar zugegebenermaßen nicht so groß wie bei Google, aber Kennzahlauswahl und Filtermöglichkeiten reichen für sinnvolle vorsegmentierte eigene Reports locker aus. Avinash´s "ABO"-Reports kann man so mit etwas Mühe einmalig konfigurieren und schnell wieder finden. Nett ist es, dass alle Zahlen absolut und als Prozentwert dargestellt und zur optischen Unterstützung mit Balken hinterlegt sind.

Reports Y.M

Aufgeteilt in die üblichen Bereiche finden sich eigentlich alle Kennzahlen, die man von einer Webanalyse erwarten darf; auch mobiler Traffic hat hier seinen eigenen Platz in der Navigation. Gegen "not provided" ist man freilich auch hier nicht immun, aber zumindest wird der hier unter "Unknown" laufende Riesenanteil in nach Traffic sortierten Listen nicht oben angezeigt, sondern an das Ende gestellt, so dass man sich auf die Daten beschränken kann, die vorhanden und auswertbar sind. Zu den vorgefertigten Berichten gehören bei Yandex Schätze wie Ladezeiten und die Servererreichbarkeit. Die Auswertungsperiode und Auflösung ist leicht einzustellen; allerdings scheint es keine Vergleichszeiträume zu geben - das ist schon ein wenig eigenartig. Auch gewöhnungsbedürftig (aber praktisch) ist die Eigenart, dass eine "Segmentierung"; die man z. B. durch Drill Down auf einzelne Ziele o. Ä. vorgenommen hat, beim Wechsel eines Reports bestehen bleibt. Die Vielfalt der Reports kennt aber auch deutliche Grenzen.

Dashboard Y.M

Einschränkungen

Es gibt nur ein Dashboard und die Möglichkeiten zur Anpassung sind vergleichsweise begrenzt. Dafür gibt es hier aber zum Trost eine Vorschau auf den zu erwartenden Traffic für den nächsten Tag. Wird diese Prognose aber unter- oder überschritten, scheint es genau so wenig eine Möglichkeit zur Benachrichtigung zu geben, wie für andere Auffälligkeiten, die dem "Radar" in Google Analytics entsprechen würden. Auch so praktische Dinge wie AdHoc-Trichteranalysen aus Yahoo! oder andere echte "Knaller", die Alleinstellungsmerkmale oder zumindest echte "Premiumfunktionen" ausmachen können, scheint man hier vergeblich zu suchen. Sicher: Die Darstellung der Keywords als Wortwolke ist nett, aber das reicht 2013 bestimmt nicht mehr, um damit in die Zeitung zu kommen.

Auch nach Vergleichbarem zum Goal- oder Visitor-Flow, haarkleinen Segmentierungsmöglichkeiten oder vielen neueren Dingen (z. B. Multi-Channel Reports, definierbare Attributionsmodelle etc.), die in den letzten Monaten in Google Analytics Einzug gehalten haben, gibt es nicht (oder ich habe sie nicht gefunden). Auch keine RealTime - dafür werden die Daten aber mehrfach in der Stunde aktualisiert und unter den Reports findet sich stets die Angabe, wie alt die Datenbasis einer Tabelle oder eines Diagramms ist.

Ich habe den Eindruck, dass auch bei Yandex noch nicht das Ende der Fahnenstange erreicht ist und in den nächsten Monaten werde ich ja mitbekommen, wie schnell sich hier das Rad dreht und in welcher Schlagzahl Innovationen und nachgeholte Funktionen aus dem Wettbewerb hier Einzug halten. Oder eben nicht...

# 
Wednesday, June 13, 2012

Schade: Yahoo! Web Analytics geht von uns

Es gab viele Gründe für Yahoo! Web Analytics und ich habe es gern, wenn auch nicht sehr häufig, genutzt. Die Oberfläche mag nicht so sexy gewesen sein wie bei vielen Wettbewerbern, aber wenn man speziell man den Vergleich mit Google Analytics zieht, gibt es doch auch jetzt noch eine ganze Menge Punkte, die in Y!WA besser laufen. Simples Cross-Domain-Tracking, flexible und historiekompatible Trichter, Berichte und Dashboards und andere Vorteile, die Y!WA von den IndexTools geerbt hatte, werde ich sicher vermissen. Aber es war ja nach dem Aus für andere Yahoo-Zweige eigentlich schon zu erwarten, dass auch hier der Rotstift zuschlägt, zumal es in letzter Zeit nicht gerade vor Innovationen in Y!WA gewimmelt hat.

Und so endet das Datensammeln am 31. August - und pünktlich zu Halloween ist dann endgültig Feierabend und die Accounts machen für immer dicht. Wer (9 Minuten dauernde) 5 Minuten mit mir trauern mag, darf dazu gern statt schicksalsschwangerer Musik das folgende Video laufen lassen.

# 
Monday, June 04, 2012

Analytics Content Experiments: (noch) schlechter Ersatz für Google Website Optimizer

Mit großem Trara beerdigt Google zum 1. August den Google Website Optimizer und bietet als Ersatz neue "Content Experiments" in Google Analytics an. Wer sich nur die Ankündigungs-E-Mail von Google dazu durchliest könnte meinen, es handelt sich um alten Wein in neuen Schläuchen und das Tool sei nur "umgezogen". Die dort verwendete Formulierung "To elevate website optimization and provide one fully integrated tool for testing, content optimization will now have a new home within Google Analytics." klingt ja auch vollmundig und lässt auf Umsetzung vieler Wünsche hoffen, die man ggf. bisher im Einsatz des Website Optimizers entwickelt hat.

Zickige Validierung in GA

Mein erstes Fazit lautet aber leider: Pustekuchen. Es sind zwar ein paar erfreuliche Vereinfachungen mit dem Umzug gekommen, aber leider auch eine Menge Einschränkungen. Die überwiegend guten Nachrichten daher lieber zuerst.

Das mag (meistens) nett sein:

  • Ein separates Script für eine Conversion kann man sich nun i. d. R. sparen, denn es werden Analytics-Ziele als Grundlage für einen Test verwendet. Da dieser Punkt aber auch bedeutet, dass man für bisher per Script herbeigeführte Extrawürste wie Auslösen einer Conversion nach Erreichen einer Mindestanzahl von "Microconversions" o. Ä. nun ggf. (temporäre) "Hilfsziele" einrichten muss, muss das nicht zwingend ein Vorteil für jeden Anwendungsfall bedeuten. Zumindest aber geht dadurch keine Flexibilität verloren, macht bestimmte Szenarien nur ggf. etwas umständlicher oder erfordert (wenn alle Ziele "belegt sind") evtl. sogar ein neues Profil für Tests (zumal die Anzahl der Tests pro Profil in Analytics nun auf 12[wieso 12?] begrenzt ist)
  • Überhaupt werden weniger Scripts in Seiten benötigt, denn auch die Varianten müssen nicht mehr separat verwanzt werden, sondern nur noch die Originalseite. Klingt gut. Das "Aber" kommt dann nachher in der nächsten Liste...
  • Google steuert den Traffic auf die Varianten "schlau" selbst. Ziel ist es hier, die Seiten mit offenkundig schlechterer Konversionsrate nach einer gewissen Sicherheit mit weniger Traffic zu beschicken, um den Schaden für die Website zu minimieren. Klingt erst einmal gut, bedeutet aber durch die zwingende Nutzung dieser nicht-optionalen "Gutwillensautomatik" in gewisser Weise auch Kontrollverlust beim Experiment.
  • Wollte man bisher die Besucher einer bestimmten Variante separat in Analytics auswerten, musste man diese explizit mit einer benutzerdefinierten variable zu diesem Zweck markieren und konnte so Segmente bilden. Das ist jetzt durch die Integration einfacher, so dass das Verhalten jenseits der reinen Zielerreichung durch Segmentierung nach Varianten leichter beobachtet werden kann. Spart aber grundsätzlich erst einmal nur (geringen) Aufwand beim Aufsetzen es Experiments im Vergleich zur alten Lösung
  • Adieu Langzeittests: Tests in Analytics enden spätestens nach 3 Monaten. Das ist prinzipiell mal ein Vorteil, denn so ist man gezwungen, sich von der Idee zu verabschieden, einen Test nur lange genug laufen lassen zu müssen, um einen Gewinner zu finden, obschon die getesteten Variablen offenbar überhaupt keinen Einfluss auf die Ergebnisse des Tests haben ;). Das das im Einzelfall aber auch wieder ein Nachteil sein kann, ist ja fast schon klar...
  • Keine kollidierenden Tracker-Objekte mehr. Wer bisher GA und GWO parallel genutzt hat, musste ggf. die Scriptcodes anpassen, damit der Spaß überhaupt funktioniert. Außerdem wurde auf diese Weise auch mehr Code angezogen und ausgeführt, als das jetzt der Fall zu sein scheint, da keine zwei "Analytics-Codes" und unterschiedliche Profile mehr im Spiel sind. Die Content Experiments funktionieren sowohl mit dem neuen, als auch dem alten (synchronen) Trackingcode.

Das war es aber eigentlich auch schon. Ein wenig schöner mag das UI durch die Integration in Analytics ja geworden sein, aber wesentlich und / oder besonders bemerkenswert (weil nun einfacher oder besser oder sonstwas) finde ich das nicht. Mit Tools wie Optimizely hat man damit jedenfalls noch lange nicht aufgeschlossen. Vielmehr scheint es schon jetzt einige leicht zu identifizierende Nachteile zu geben... und es steht zu befürchten, dass mit steigender Erfahrung mit dieser Integration (noch ist kein einziger Test, der hier in Analytics gestartet wurde, bereits beendet) noch weitere Punkte dazu kommen werden.

Nicht so schön:

  • Der wichtigste Punkt zuerst: Die Flexibilität wird damit stark eingeschränkt. Denn sowohl (wie bisher dynamisch generierte) Multivariate Experimente als auch Experimente mit mehr als 5 Varianten sind mit den Content Experiments in Google Analytics nicht umsetzbar. Mehr muss man dazu auch eigentlich nicht schreiben, aber es ist eine wirklich fette Kröte, die man damit schlucken muss und ich würde mich nicht wundern, wenn das im ersten Schritt den Wettbewerb mehr stärkt, als dass es Analytics-Benutzer neu auf das Thema "Testing" bringt...
  • Ein Punkt, den viele sicher auch der Liste der Vorteile zuordnen würden: Es dauert mindestens 2 Wochen, bis ein Test "sichere" Ergebnisse liefert. Ob dies nun wirklich dazu dient, voreilige Schlüsse zu vermeiden oder nicht: Wer wirklich Traffic hat, konnte bisher nach Ablauf von mindestens 7 Tagen (um Schwankungen im Wochenverlauf nicht zu ignorieren) oftmals bereits fertig sein. Natürlich: Google zeigt wie früher stets den aktuellen Stand der Dinge an und verbietet auch nicht, einen Test "vorzeitig" zu beenden, aber es ist zu erwarten, dass eine Vielzahl von Benutzern erst dann Vertrauen in ein Ergebnis hat, wenn auch das Tool sagt, dass es "fertig" ist...
  • Folgetests auf der gleichen Seite erfordern offenbar stets einen neuen Code, denn jeder Test hat eine eigene ID
  • bei einer Implementierung in die Webanalyse naheliegende Wünsche wie die Beschränkung der Teilnahme an Tests nach verschiedenen Segmentierungskriterien o. Ä. sind (noch) nicht umgesetzt. Das bedeutet, dass die Integration in Analytics bis auf die Verwendung von dort bereits definierten Zielen noch keine der erwarteten funktionalen Verbesserungen mit sich gebracht hat. Auch die Berücksichtigung mehrerer Ziele o. Ä. (sei es gewichtet oder nicht) bleibt so folgerichtig noch offen
  • Die Validierung ist noch zickiger als bisher. Wenn man das Script in der Originalseite z. B. nun nicht direkt nach dem head-Tag einfügt, gibt es Gemecker.
    Zickige Validierung in GA
    Das bedeutet zwar nicht, dass man das Script nicht genau wie vorher zur Not (wenn es das CMS z. B. nicht anders zulässt) an anderer Stelle unterbringen, die Meldung ignorieren und trotzdem Ergebnisse erhalten kann, aber aus Sicht des typischen Analytics-Anwenders ist das vielleicht schon ein Grund, bereits nach dem ersten Einrichtungsversuch dauerhaft das Handtuch zu werfen
  • Die Integration wirkt teilweise noch fehlerbehaftet. Ob z. B. Vorschaubilder der beteiligten Seiten dargestellt werden oder nicht, scheint noch dem Zufall unterworfen zu sein. Das sind zwar Kleinigkeiten und zumindest bis jetzt scheinen Tests durchaus zu funktionieren, aber auch das fördert normalerweise nicht das Vertrauen der potentiell durch die Integration neu zu gewinnenden Benutzer für diese Funktion
  • Wer wirklich viel testet, wird sich vermutlich schnell über die Limitierung auf 12 Tests pro Profil ärgern. Damit sind übrigens aktive Tests gemeint. Wenn ein Test also abgelaufen oder pausiert ist, zählt er nicht für dieses Limit

Also: Luft nach oben ist noch reichlich vorhanden. Es bleibt zu wünschen, dass zumindest wesentliche Funktionen wie multivariate Tests möglichst schnell wieder einen Weg in das Tool finden, denn ansonsten ist es absehbar, dass es sich für eine ganze Menge typischer Testszenarien vorerst disqualifiziert. Warum der GWO zumindest in der Übergangsphase nicht weiterhin verfügbar bleibt, muss man Google fragen. Es sei denn, die größten Lücken werden noch vor dem 1. August geschlossen. Wer weiß..?

# 
Monday, May 07, 2012

Achtung Sicherheitsproblem: PHP Quellcode u. U. im Browser lesbar

Ein Albtraum wird wahr: Wie ich gerade beim Boesenseo gelesen habe, besteht bei PHP-Scripten unter gewissen Bedingungen (PHP im CGI-Modus) eine realistische Chance, dass durch das simple Anhängen des Kommandozeilenparameters "-s" der Quellcode jeder PHP-Seite sichtbar gemacht werden kann... weitere Schweinereien per Kommandozeile sind freilich mit ausreichender krimineller Energie auch denkbar.

Man könnte diese Chance jetzt nutzen, um (mal wieder) dazu aufzurufen, alle kritischen Inhalte wie Zugangsdaten etc. auch in Kleinstprojekten und einfachen Scripts zum Mailversand etc. aus den erreichbaren PHP-Dateien fern zu halten und per geschütztem Include vor Zugriffen zu schützen... aber wer würde es schon hören? Es muss also reichen, auf den o. a. Beitrag zu verweisen und jedem Betreiber einer eigenen Site zu raten, den Schnelltest zu machen, indem z. B. die Startseite (nennen wir sie mal ganz willkürlich "index.php") mit dem Parameter -s (also "index.php?-s") aufgerufen wird. Sieht man nun den Quellcode, ist es höchste Zeit, sich an den Admin des Servers, den Hoster - oder wer auch immer für das Schließen dieser Lücke verantwortlich ist - zu wenden.

# 
Monday, March 12, 2012

Nummerierte Google Suchergebnisse

Da ich gern 100 statt nur 10 Treffer bei Google erhalte, ist eine Nummerierung aus mehr als nur einem Grund sinnvoll - ob SEO oder nicht. Scripts und AddOns gibt es ja genug, die für Nummerierungen sorgen, aber die meisten machen auch noch eine ganze Menge anderen Kram, den ich eigentlich nicht will. Daher habe ich schon länger ein selbstgestricktes Script (in Firefox via Greasemonkey; in Chrome mit Tampermonkey) im Einsatz.

Suchergebnisse mit Nummern

Damit ich es nicht ständig suchen muss, habe ich (angesichts der riesigen Reichweite dieses Blogs also hauptsächlich für mich selbst ;)) die akt. Fassung online abgelegt. Wer es nutzen mag, kann also Greasemonkey für Firefox oder Tampermonkey für Chrome installieren und dann per Klick das Script nachinstallieren: Nummerierte Suchergebnisse bei Google.

# 
Monday, February 13, 2012

Google Datenschutzbestimmungen: Nichts Neues!

Ja, Google hat seine Datenschutzbestimmungen vereinfacht. Und ja: Dabei sind auch ein paar Kleinigkeiten geändert worden. Aber das große Gejammer über die Konsolidierung von Nutzerinformationen über Produktgrenzen hinweg, über die sich derzeit auch in meinem privaten Bekanntenkreis überraschenderweise die Gemüter erhitzen, kann ich nicht nachvollziehen, denn das ist nun wirklich keine Neuigkeit.

Google Datenschutzbedingungen

Auch die vorher für jedes Produkt einzeln existierenden Nutzungsbedingungen haben stets darauf hingeweisen, dass sich Google diese Option offen hält. Dass man es jetzt... naja: ehrlicher formuliert und durch die Zusammenfassung der vielen einzelnen Dokumente mehr in den Fokus rückt, ändert nichts daran, dass Google schon immer ein nahezu zu 100% datengetriebenes Untermnehmen ist und sich die vielen "kostenlosen" Angebote schon immer mit den Daten der Nutzer hat bezahlen lassen, aus denen laufend Erkenntnisse gewonnen und oft auch neue Produkte gefüttert werden.

Da ist eine kostenlose Telefonauskunft, deren zahlreiche US-Nutzer dafür gesorgt haben, dass Google nun lebendige Sprache besser verstehen kann als Siri & Co. nur ein Beispiel von vielen. Google ist nicht kostenlos. Und das Interesse am einzelnen Nutzer ist durchaus vorhanden, wenngleich dieses (noch) etwas anderer Natur ist, als bei anderen Plattformen. Es geht hauptsächlich darum, jeden (möglichst regelmäßigen) Nutzer optimal mit Werbung zu beballern, denn da kommt (mal von Android abgesehen) das Geld her Wer damit wirklich ein Problem hat, war auch schon vor den geänderten Datenschutzbestimmungen gut beraten, sich bewußt zu machen, wann wo und wie Google überall Daten über Nutzer und Nicht-Nutzer (z. B. via Google Analytics) sammelt... und ggf. aktiv etwas dagegen zu tun, wenn er damit nicht einverstanden ist.

Einige Hilfsmittel bietet Google dazu selbst an - wohlwissend, dass die Mehrheit sich überhaupt keine Gedanken macht und der Großteil des Rests zwar gerne meckert, aber trotzdem kaum jemand die Plugins zum Ausstieg aus dem Tracking installiert oder den privaten Modus auch beim "normalen" Surfen aktiviert. Wer sich einen Überblick verschaffen will, findet bei Google eine übersichtliche Auflistung aller Datenschutztools. Und ich habe mit diesem Blogpost nun eine einfache Antwort auf eine derzeit recht beliebte Frage ;)

# 
Monday, January 09, 2012

Scroll-Tracking in Google Analytics

Inspiriert durch die Ausgabe 23 von Web Analytics TV habe ich mich endlich aufgerafft, ein generelles Problem vieler Blog-Sites anzugehen: Hohe Absprungrate, geringe "Time On Site". Denn allzu oft landet ein Besucher mit einer sehr konkreten Anfrage auf einer Seite, die eine sehr konkrete Antwort gibt. Im Idealfall ist die Frage damit geklärt und der Besucher verlässt die Site... vermutlich durchaus zufrieden. Was er dabei aber in der Webanalyse hinterlässt, ist die gleiche Spur wie die eines "echten Bouncers", der kam, sah (dass er falsch war) und direkt wieder verschwand. Eine Seite, Null Sekunden, Weg.

Die Lösung kann in diesem Fall die Messung einer Interaktion sein, die man durchaus als "Engagement" betrachten darf: Scollen der Seite. Denn wird der Beitrag wirklich gelesen (und ist er länger als nur ein paar Sätze bzw. enthält Ressourcen wie Bilder, Tabellen o. Ä.), wird der komplette Inhalt kaum auf die erste Bildschirmseite passen. Es ist also im Sinne der Webanalyse, wenn man durch die Messung einer solchen Interaktion die Qualität der Daten verbessert. Gibt man GA die Möglichkeit durch virtuelle Pageviews (wer sich gern extra dick in die Tasche lügt) oder besser Events mitzubekommen, wenn weiter nach unten gescrollt wird, dann bedeutet dies sowohl eine bessere Messung der Verweildauer auf der Seite als auch eine gerechtere Bestimmung der Absprungrate. Denn sobald ein solches Event ausgelöst wird, gibt es ein Ereignis nach dem Betreten der Seite, so dass diese nicht mehr in den Übersichten der besuchten Seiten wie eine "Problemseite" erscheint, ohne es wirklich zu sein.

Ich habe bei der Suche nach bestehenden Lösungen zwei unterschiedliche Beispiele gefunden, an denen man sich bei der Umsetzung orientieren kann. Die erste, einfachere Variante fängt "nur" die Tatsache ein, dass gescrollt wurde und gibt sich damit zufrieden, die zweite Lösung ermittelt auch die "Scrolltiefe" und löst dazu ggf. mehr als ein Event aus, wenn weiter nach unten gescrollt wird. Und obschon die zweite Lösung eigentlich mehr Daten liefert und auch bei der Verweildauer auf einer einzelnen Seite genauere Werte liefert, habe ich mich mit einer leicht angepassten Variante nach dem ersten Vorbild entschieden. Erstens, weil es mir primär um eine bessere Betrachtung des Absprungverhaltens ging und weil ich (bei meinen meistens recht langen Beiträgen) eine "Eventüberschwemmung" befürchte, die mir die Auswertung anderer Events, die hier auch genutzt werden, nicht gerade vereinfachen würde.

Wie auch immer man sich entscheidet und wie "genau" man es wissen will: Schon nach kurzer Zeit sieht man den Erfolg der Anpassung in "realitätsnäheren" (und idealerweise an der richtigen Stelle gestiegenen bzw. gesunkenen) Kennzahlen. Hier am Beispiel dieses Blogs seit der Implementierung zum Jahreswechsel:

Statistik in Google Analytics

Das Diagramm zeigt schon nach wenigen Tagen den gewünschten Trend: Gesunkene Absprungrate, mehr Time On Site. Auch die absoluten Kennzahlen sind signifikant unterschiedlich für die Tage vor und nach der Implementierung:

Statistik in Google Analytics

Wer sich bei den o. A. Beispielen bedienen und eine eigene Implementierung vornehmen will, kann die dortigen Fassungen eigentlich unverändert übernehmen. Bitte aber daran denken, die Syntax des Eventtracking-Aufrufs für den jeweils verwendeten Google-Analytics-Trackingcode anpassen, also entweder nach der alten Variante mit dem pageTracker, wie es im ersten Beispiel der Fall ist oder asynchron wie im zweiten Beispiel mit der mehrfachen Messung.

# 
Tuesday, November 08, 2011

Willkommen zur SSL-Volksverdummung. Danke Google!

Ich wollte eigentlich kein Wort drüber verlieren und habe es auch fast zwei Wochen geschafft. Aber nachdem ich nun den oberflächlichsten Verdummungbeitrag seit langem in der Webmaster Zentrale dazu gelesen habe, müssen ein paar Dinge einfach mal raus - egal, ob es wirklich jemand liest oder nicht.

Was passiert denn?

Google stellt also seine Suche auf SSL um. Https statt http. Verschlüsselt suchen. Toll. Und wenn Google uns sagt, dass dies "im Rahmen unserer Verpflichtung, das Web noch sicherer zu machen" geschehe, dann muss man das wohl auch glauben. Selbst dann, wenn man sich zufällig gleichtzeitig dazu entschlossen hat, den Referer zusätzlich künstlich zu verstümmeln, so dass in der Webanalyse und den Webmaster Tools nichts mehr zu Impressions oder Klicks in Verbindung zu einem Suchbegriff erscheint. Jedenfalls dann, wenn nicht gerade zufällig jemand auf eine Anzeige geklickt hätte. Denn wer über Anzeigen auf eine Website kommt, bringt auf jeden Fall noch - ebenso künstlich - Angaben über den Suchbegriff mit. Der "normale" organische Besucher aber eben nicht mehr.

Was hat Google davon?

Der Sicherheitsvorwand (der sich in Deutschland dann auch gern gleich magisch erweitert in "Datenschutz" übersetzt) ist aus mehreren Gründen aber m. E. der totale Unsinn. Erstens hat das nichts mit Datenschutz zu tun, zweitens ist die ganze Angelegenheit - nicht zuletzt zur Aufrechterhaltung der CashCow "AdWords", die sich den Verlust der Keywordinfos zu ordentlichen Kampagnensteuerung einfach nicht erlauben kann - mehr oder minder "künstlich" geschaffen / verändert worden. Wäre "nur https passiert", müßte m. W. (ich bin da allerdings nicht 100% sicher und lasse mich gern vom Gegenteil überzeugen), der interessierte Webmaster, SEO, Affiliate seine Site ebenso komplett auf SSL umstellen und erhielte alle Infos, die er bisher auch bekommen hat. Hätte vielleicht also das Web sogar wirklich ein wenig besser gemacht, was sicher auch in der oben als Argument angeführten "Google Selbstverprflichtung" steht. Wer weiß. Das primäre Ziel der Aktion ist aber vermutlich an ganz anderer Stelle zu suchen. Im Satz "better protection against snooping from third parties" aus dem offiziellen Statement kann man sich zwar auf "protection" konzentrieren (und soll das sicher auch), viel interessanter ist aber "third parties" in diesem Zusammenhang. Es geht um Drittanbieter. Nur welche? Irgendwelche "Bösewichte"? Werbenetzwerke? Oder doch jeder einzelne Webmaster, Toolanbieter, SEO?

Was hat "König Kunde" davon?

Für den Nutzer der Suchmaschine ist damit jedenfalls kaum was gewonnen. Ausreichend schlaue Toolbars und Plugins werden vermutlich immer noch genug Daten über das Suchverhalten sammeln, wenn sie denn wollen. Und wenn ich Suchbegriffe verwende, für die ich mich schämen muss, kamen die früher ja auch nicht gleich mit meinem Namen und meiner Anschrift bei jedem an, dessen Site ich besucht habe. Naaaaihn (Diese Verbindung haben nur Google und besonders neugiereige Cookieplatzierer ;))! Man sieht aber möglicherweise weniger stumpfsinnige Einblendungen über Blogposts, die mir nochmal sagen, wonach ich vor einer Sekunde gesucht habe, falls ich mich nicht mehr daran erinnern sollte. Und nicht nur Webmaster, sondern auch Werbenetzwerke (besonders die, deren Geschäftsmodell auf Suchanfragen angewiesen sind. Ja die gibt es!) wissen nun weniger über meine Interessen (was aber Google bestimmt mehr Nutzen bringt als dem einzelnen User). Ansonsten sitzen nun aber jede Menge SEOs, Webmaster & Co. vor den Daten, die immer mehr hämisch (not provided)-grinsende Lücken enthalten.

Alles supi? Oder nicht so wild?

"Passiert ja nur bei google.com und nur, wenn man angemeldet ist". Ja klar. Das war bei Google Instant, Google Dingens und Google Sonstwas auch erst der Fall, wird aber ganz sicher mit der Zeit immer mehr Suchanfragen betreffen. Weniger wird´s jedenfalls nicht. Und je nachdem, wo der Hauptteil der Besucher her kommt, fehlen jetzt schon zweistellige Anteile der Keywords in der Webanalyse. Nicht nur in Google Analytics (wo der Kunde demnächst ja auch zahlender König werden kann - huch, habe ich das jetzt laut gedacht?), sondern in jedem Tool... außer vielleicht demnächst dann in Google Analytics Premium. Wie? Ich spinne? Naja: Nachdem Google in letzter Zeit nicht gerade zimperlich bei der Suche nach neuen Einnahmequellen vorgeht, der Charme der ersten 10 Jahre langsam aber sicher verblasst und sich Google mehr und mehr Bedrohungen ausgesetzt fühlt, traue ich Google inzwischen auch Schritte wie diesen zu. Jedenfalls manchmal. Und vor allem dann, wenn ich solchen Flachsinn wie im oben verlinkten Blogpost lese, der mit vielen Worten nichts sagt. Warum Nebelbomben werfen und dann nicht angreifen? Na gut: Ich kann mir zwar "Alle Keywords in der Premium-Version" auf einer Featureliste weder wirklich ernsthaft vorstellen, noch kommt man vermutlich einfach so damit durch, wenn man sich so ein Alleinstellungsmerkmal im Markt der Webanalyse-Tools schafft (und sei es - wie in diesem Fall - dann auf Basis von "eigenen" Daten), aber langsam sollte der letzte gemerkt haben, dass eine Menge Googler jeden Tag satt werden müssen und Geld nicht an Bäumen wächst. "SSL für Suchanfragen" gehört jedenfalls ganz bestimmt nicht zu den Dingen, die man sich mal wieder einfach so als "Oh toll, dann wird ja bestimmt alles noch sicherer und besser, oder?" unterjubeln lassen sollte. Echt nicht...

# 
Friday, October 21, 2011

Google Analytics in Echtzeit

Ich will mich gar nicht an der Diskussion beteiligen, wie sinnvoll nun Realtime Webanalyse nun ist oder nicht - jedenfalls nicht hier und jetzt.

Denn ich freue mich viel zu sehr über die Berichte, die erfreulich schnell nach der Anmeldung zur Teilnahme an der Beta zu Realtime in Google Analytics heute in meinem Konto verfügbar sind.

Realtime in GA

Was ich wirklich sinnvolles damit anfangen kann - und in welchem Profil - werde ich mir irgendwann später überlegen. Jetzt erst mal wieder zurück zur Betrachtung der Echtzeitanalyse ;)

# 
Thursday, October 06, 2011

Organische Impressions + Co. jetzt auch in Analytics

Und weiter geht´s mit der Verknüpfung von Analytics und den Google Webmaster Tools: Im neuen Bereich "Besucherquellen -> Suchmaschinenoptimierung" (nur in der neuen Oberfläche) finden sich nun nach Verknüpfung der Analytics-Web-Property mit dem passenden Eintrag aus den Webmaster Tools (ja genau: Gleiches Google - Konto erforderlich, logo!) zusätzliche Reports, die auch die Impressions, Seiten, Klickraten und geografische Angaben zu den Besuchern enthalten.

Suchanfragenbericht

Das ist zwar erst einmal nichts, was aus den Socken haut, aber man kann zumindest schon jetzt von den im Vergleich zu den WMT umfangreicheren Filteroptionen in Analytics profitieren, um sich die Impressions zu den Begriffen oder Seiten genauer anzusehen. Auch praktisch ist z. B. eine Sicht auf die Klickrate nach "Quelle" in Form unterschiedlicher Google-Dienste wie Suche, Bilder oder Mobile, in denen man durchaus signifikante Unterschiede feststellen kann ;). Ich hoffe doch, dass dieser Block noch ausgebaut wird. Gegen den m. E. nicht ganz so glücklich gewählten Namen "Suchmaschinenoptimierung" kann man ja vermutlich nun nichts mehr tun...

# 
Friday, September 30, 2011

Einfachere Verifikation: Google Analytics und Webmaster Tools wachsen weiter zusammen...

Das scheint wohl schon länger so zu funktionieren, aber mir ist es erst jetzt aufgefallen: Wenn in den Google Webmaster Tools eine neue Site hinzugefügt werden soll, kann dazu nun einfach der Analytics-Trackingcode verwendet werden. Meint: Wer als Administrator beim passenden Analytics-Konto zur Website eingetragen ist, muss sich künftig weder als Agentur noch Betreiber mit Uploads, Metadaten oder gar DNS-Konfiguration rumschlagen.

Webmaster Tools

Ich find´s praktisch. Die engere Verknüpfung beider Werkzeuge ist damit zwar nicht wirklich vorangetrieben, aber trotzdem eine große Hilfe. Wer weiß: Es mag ja auch was mit dem kommenden "Analytics Premium" zu tun haben;) Wenn man jetzt noch die neue "schöne" Startseite der WMT wieder auf eine übersichtlichere Listenansicht umstellen könnte. Aber ich habe ja immer was zu meckern...

# 
Friday, September 16, 2011

Schade: Google Page Speed Service kann nicht zaubern

Wenn es um Websites geht, ist schneller immer besser. Ich bin daher auch ein großer Freund von PageSpeed, YSlow und anderen Werkzeugen zur Messung und Optimierung der Performance von Internetseiten... ohne nun wirklich immer alles ausreizen zu müssen, was drin steckt. Also definitiv nicht wie Scotty ;)

Das ist aber vielleicht trotzdem schon das Problem: Wenn ich mir verschiedene von mir betriebene oder betreute Sites anschaue, bringt eine "Faulenzer-Optimierung", wie sie von Google mit dem Page Speed Service zur dynamischen Optimierung der eigenen HTML-Seiten und Ressourcen angeboten wird, leider nicht sehr viel, wenn man sich selbst ein wenig Mühe gegeben hat. Klar: Ich betreue keine spiegel.de, aber trotzdem scheint es mir kaum ein Modell, mit dem Google wirklich viel ausrichten wird, um das Web schneller zu machen.

Das typische Bild bei einigermaßen "speedbewussten" Sites scheint ein minimaler Gewinn im einstelligen Bereich für Erstaufrufe zu sein. Bei erneuten Aufrufen ist allzu oft die Ladezeit sogar (wegen des Umwegs und der Bearbeitung auf dem Weg zum anfordernden Browser ja auch erklärbar) höher als ohne den Service.

Hier ein Beispiel für meine eigene Website: Der Effekt ist nicht der Rede wert. Wenigstens ist die Seite aber noch intakt - das hat bei anderen Versuchen schon anders ausgesehen, so dass das Ergebnis nach der Optimierung mitunter deutliche Darstellungsprobleme hatte.

Klar, dass es bei anderen Sites besser aussieht und der Gewinn größer ausfällt. Aber ich kann mir eigentlich nicht denken, dass ein Unternehmen, welches eine vergleichsweise langsame Website betreibt, wirklich den später ja kommerziellen Service nutzen und dauerhaft dafür zahlen wird, wenn es meistens mit ein paar mehr oder weniger kleinen Handgriffen und einmaligem Aufwand machbar ist, selbst eine ganze Menge für bessere Antwortzeiten zu tun. Oder mache ich es mir da zu einfach?

# 
Monday, August 01, 2011

(Schnief): Yahoo stellt Suchergebnisse auf Bing um

Ab Mittwoch geht es los: Yahoo stellt die organischen Treffer vollständig auf Bing um. Keine unterschiedlichen Rankings mehr; ein Algo weniger. Bedeutet: Wer gute Rankings bei Yahoo, aber schlechte bei Bing für seine trafficbringenden Keywords hat, kann sich auf einen leichten Rückgang der Besucher von dort einstellen. Das ist je nach Einzelschicksal sicher nicht ganz irrelevant; dennoch sollte sich der "Schaden" angesichts der (derzeitigen) Marktanteile bei den meisten Sites deutlich in Grenzen halten. Und auf der anderen Seite gibt es dann auch ein paar Gewinner. Zudem kann es niemanden wirklich unvorbereitet treffen, der sich auch nur ansatzweise um Besucher durch organische Rankings schert. Dennoch ist die Endgültigkeit und - leider nicht ganz unwahre - Formulierung des knappen Abgesangs, der gerade von Yahoo in´s Postfach flatterte, irgendwie beklemmend:

"wir möchten Sie heute darüber informieren, dass die algorithmischen Suchergebnisse auf Yahoo! (also die Suchergebnisse im Hauptteil der Yahoo! Suche, auch Index oder organische Suchergebnisse genannt) in Kürze von Microsoft bereitgestellt werden. Dies ist ein bedeutender Schritt im Rahmen der Yahoo! und Microsoft Search Alliance und bringt uns unserem Ziel näher, die Relevanz der algorithmischen Suchergebnisse auf Yahoo! weltweit weiter zu verbessern.

Die Umstellung der algorithmischen Suchergebnisse von Yahoo! auf Bing wird am 3. August 2011 für die Yahoo! Suche in Deutschland, Großbritannien, Frankreich, Spanien und Italien beginnen.

Es ist keine Initiative Ihrerseits erforderlich – Sie sollten sich jedoch auf diese Änderung vorbereiten, wenn algorithmische Suchergebnisse Nutzer auf Ihre Website bringen:

  • Vergleichen Sie Ihr Ranking in den algorithmischen Suchergebnissen auf Yahoo! und Bing in bezug auf die Suchbegriffe, die für Ihr Unternehmen relevant sind, um potentielle Auswirkungen auf Ihren Traffic und Ihren Abverkauf zu erkennen.
  • Passen Sie Ihre kommerziellen Search Marketing-Kampagnen gegebenenfalls an, um gegebenenfalls Veränderungen in den algorithmischen Suchergebnissen zu kompensieren.
  • Überprüfen Sie die Bing Webmaster Tools und optimieren Sie Ihre Webseite für den Bing Crawler, um sicherzustellen, dass Ihre Website in den algorithmischen Suchergebnissen von Yahoo! und Bing gut platziert wird.

Beachten Sie bitte, dass Yahoo! die kommerziellen Suchergebnisse NOCH NICHT umstellt. Sie sollten weiterhin Ihr Yahoo! Search Marketing Konto wie üblich verwalten. Wir werden Sie rechtzeitig vor der Umstellung der kommerziellen Suchergebnisse in Ihrem Markt informieren, um einen reibungslosen Ablauf vorzubereiten."

Auf jeden Fall hat mein "Yahooooohuhooooo"-Klingelton, der mir schon so manch verwirrten Blick bei (Google-)Veranstaltungen eingebracht hat, ab sofort für meine Ohren einen nostalgischen Nachhall. Ein Grund mehr, ihn nicht zu wechseln... ;)

# 
Tuesday, May 24, 2011

Mehr Futter für den Feedreader: Offizieller Google Search Blog "Inside Search"

Wer sich - freiwillig oder aus beruflichem Druck - für die Google-Suche interessiert, sich bisher aber mit der Ausrede "das ist mir aber viel zu viel technisches Webmaster-Zeugs" oder ähnlich fadenscheinigen Aussagen davor gedrückt hat, die Google Webmaster Central oder den deutschen Ableger zu abonnieren, dem sind nun Argumente ausgegangen, denn Google betreibt jetzt unter Inside Search eine eigene Anlaufstelle für alles, was "direkt" mit der Suche zu tun hat. Das bedeutet nun aber ganz und gar nicht, dass man sich Webmaster Central nun sparen kann... sondern nur, dass man mit weiteren Kleinigkeiten versorgt wird, die hoffentlich nicht nur Anekdoten aus dem Leben des Search-Teams, sondern idealerweise auch Handfesteres zu bieten haben. Der vollmundige Eröffnungsbeitrag läßt da gleichermaßen hoffen und bangen... wir werden es ja erleben. Oder ertragen. Oder beides. ;)

# 
Friday, May 13, 2011

Social Media als Trafficquelle - nur ein Witz?

Wenngleich die Ergebnisse der frisch bei SEO-United durchgeführten Umfrage zum Social-Media-Traffic aus mehreren Gründen nicht als Messlatte für den gesamten deutschen Online-Markt genommen werden kann, ist es doch ein weiteres Beispiel für das, was viele Webmaster selbst in ihren Projekten feststellen: Social Media ist nur für sehr wenige, meist direkt an die sich auf Facebook tummelnde Masse gerichtete Angebote als direkter Trafficlieferant geeignet.

Trafficverteilung für 150 Websites

Facebook bringt schlappe 5%; Twitter keine 3%. Da ist Yahoo oder ASK für viele deutlich relevanter, wenn man nur den direkten (und direkt zuzuordnenden) Traffic zählt.

Klar, es gibt noch die 999 anderen Gründe, warum man an Social Media nicht vorbei kommt, aber wenn selbst in einer Umfrage, deren Zielgruppe schon viel IT-lastiger ist als der Rest der Republik, so ernüchternde Zahlen rauskommen, muss sich doch eigentlich niemand mehr ernsthaft die Frage stellen, ob man den Like-, Tweet- und +1-Button wirklich braucht oder nicht. Jedenfalls in den meisten Projekten. Deutlich mehr wird es natürlich, wenn man unter "Social Media Traffic" auch Besucher aus anderen Blogs versteht... entweder direkt oder über den Umweg "Google"... denn auch dieser Traffic kann ja durchaus "Social" sein. Wer das aber grundätzlich anders sieht, darf gern die Facebook-Kommentarfunktion nutzen und das kundtun ;)

# 
Thursday, May 12, 2011

Google Chrome: Spracheingabe in Webformularen

Erst heute bin ich durch die zweite Google IO-Keynote darauf aufmerksam gemacht worden, dass Google Chrome es denkbar simpel macht, Spracheingabe in Eingabefeldern von Webformularen aller Art zu ermöglichen - genau so, wie man es bereits z. B. aus der "googlelabsfunktionsbereicherten" US-Google-Suche kennt.

Dazu reicht es, dem Eingabeelement ein simples "x-webkit-speech" mit auf den Weg zu geben. In der simpelsten Variante also einfach so:

<input type="text" x-webkit-speech>

Anhand der Suchfunktion auf dieser Website (allerdings aus langweiligen Gründen nicht im Blog) gezeigt sieht das so aus: Wer mit Chrome auf die Seite kommt, sieht das Aufnahmesymbol, das sich auch auf Android-Geräten zur Sprachsteuerung immer mehr breit macht. Olle Firefoxe oder andere Browser können damit allerdings noch nichts anfangen. Nicht mal mobil unter Android 2.3.4.

Spracheingabesymbol

Ein Klick startet die Aufnahmefunktion, über die das Eingabefeld befüllt werden kann. Das klappt in Chrome genau so gut oder schlecht wie bei entsprechenden Funktionen auf dem Mobiltelefon: Die Spracherkennung selbst ist prima, allerdings eben leider (noch) nicht für längere Texte oder gar als Ersatz für "echte" Spracherkennungssoftware geeignet, weil z. B. keinerlei Großschreibung stattfindet (sicher übrigens ein Grund, warum sich Apple lieber - möglicherweise? - Nuance kauft bzw. schon gekauft hat, als das Thema nochmal selbst zu erfinden und dann gleich "perfekt" zu sein, wenn iOSxyz dann ebenso sprachbedienbar wird). Zur einfachen Texteingabe aber schon jetzt eine prima Sache. Wenngleich es hier bei der Suchfunktion zugegebenermaßen eher eine Spielerei ist.

Spracheingabe starten

Sobald sich die Funktion aber - mit verbesserter Erkennung und "lokalisierter" Schreibweise - auch in anderen Browsern breitmachen sollte (was sicher erst dann passiert, wenn genug Websites darauf setzen) und auch für große Textfelder (<textara>, nicht nur <input>) genutzt werden kann, kann vielleicht auch auf dem Desktop so manche Eingabe schneller per Stimme als mit der Tastatur erfolgen. Das wäre schon in gewisser Weise etwas Neues, denn bis jetzt muss man sich die Funktion, wenn gewünscht, per "Dragon Dictate" & Co. nachinstallieren.

# 
Tuesday, March 08, 2011

Aktive Sterbehilfe für alte Internet Explorer

Vorbemerkung: Der Internet Explorer 6 scheint unsterblich. Das liegt sicher daran, dass aus nachvollziehbaren Gründen noch eine Menge Rechner mit Windows XP arbeiten, der IE6 dort zuhause ist und es für viele Anwender keinen klar erkennbaren Grund gibt, warum man das ändern sollte. Es funktioniert ja auch (meistens) alles ganz ordentlich. Ich kann das zu 100% verstehen und mache auch bestimmt niemandem einen Vorwurf. Das hier ist nur ein Aufruf zur Aktualisierung.

Warum das Ganze?

Oft und ungern habe ich mich schon über die Extrawürste geärgert, die man für alte (und manchmal neue...) Internet-Explorer braten muss. Angeregt durch die beim IE6Countdown stets aktuellen Vergleichszahlen habe ich den überdurchschnittlich hohen Anteil von fast 10 Prozent(!) Besucher meiner eigenen Website (Stand: Januar / Februar 2011), die nach wie vor mit IE6 oder älter vorbeikommen, zum Anlass für eine aktivere Rolle bei der "Bekämpfung" des IE6 genommen. Es wird das Web nicht wesentlich besser machen. Und vielleicht sogar den einen oder anderen Besucher meines Blogs oder der Website verstimmen (was mir schon jetzt Leid tut). Aber wenn ich auch nur ein paar Besucher auf die Dringlichkeit aufmerksam machen kann, sich einen modernen, schnelleren und vor allem sichereren Browser zuzulegen, dann ist es das potentiell wert. Aus diesem Grund erscheint nun beim Besuch mit einem IE6 oder älter der folgende Hinweis, der auf diesen erklärenden Beitrag verweist (ja richtig: nur dazu dient dieser Blogbeitrag).

IE6 Hinweis

Was tun?

Aktueller Internet-Explorer: Ich kann und will ganz bestimmt niemanden zwingen, sich vom Internet Explorer zu trennen. Nicht jeder möchte sich an ein grundlegend neues Stück Software gewöhnen, nur um damit "auf das Internet zu schauen". Wer diesen Beitrag also über den oben dargestellten Hinweis erreicht hat, sollte sich zumindest bei Microsoft mit der aktuellen Fassung des Internet-Explorers versorgen.

Alternativen: Wer gern mal was Neues ausprobiert, findet mit Google Chrome einen i. d. R. deutlich schnelleren Browser... oder z. B. mit Firefox eine vielseitige Alternative. Oder eben Opera, Sea Monkey, Safari... oder alles auf einmal. Der persönliche Lieblingsbrowser muss jedenfalls nicht zwingend der Internet-Explorer sein. Und wenn er es doch ist, dann bitte in einer möglichst aktuellen Fassung. Zur eigenen Sicherheit - und für ein besseres Web ;)

Und dann: dranbleiben! Mit einer einmaligen Aktualisierung ist es aber nicht getan. Der IE6 wird so zwar irgendwann vielleicht verschwinden, aber der IE7 ist der IE6 von morgen (oder besser: schon heute Abend) und auch Version 9 ist irgendwann mal alt. Genauso wie Firefox Version y und alles andere, was heute aktuell ist. Irgendwelche Sicherheitslücken haben alle - die einen mehr, die anderen weniger. Sich das bewusst zu machen und regelmäßig selbst oder per automatischer Updatefunktion, die alle modernen Browser in der einen oder anderen Weise mitbringen, nach einer aktuellen Fassung zu suchen, sollte daher zur ungeliebten, aber trotzdem erfüllten Auflage für jeden werden, der gern online surft. Normalerweise wird das mit mehr Geschwindigkeit, hilfreichen Optionen (z. B. zum erhöhten Datenschutz im Web) oder manchmal auch nur einer schöneren Oberfläche belohnt.

 

# 
Friday, March 04, 2011

Man kann Google Webmastertools + Analytics verbinden... aber wozu?

Um die Frage gleich zu beantworten: Aktuell ist die Verknüpfung zwischen Webmastertools und Analytics eigentlich noch zu gar nichts gut. Aber das kann sich ja durchaus noch ändern... Speziell die Google Webmastertools haben sich in den letzten Monaten ja durch stetige kleinere und größere Verbesserungen hervorgetan. Da dort vor allem der Bereich der Analyse von Klicks und Impressions im Suchanfragenbericht immer hilfreicher wird, ist der Wunsch nach ähnlichen Reports direkt in Google Analytics nicht ungewöhnlich. Aktuell findet man aber nichts weiter als zwei sehr unspannende Links aus den WMT zu Google Analytics. Nichts in der anderen Richtung oder praktischere / engere Integration beider Produkte.

Ich glaube aber trotzdem, dass sich die "Mühe" der Verknüpfung lohnt und je nach Resonanz auch relativ schnell nicht nur weitere Brücken zwischen beiden Produkten geschlagen werden, sondern die wesentlichen Daten aus den Webmaster-Tools kurz oder lang deutlich näher an Google Analytics rücken als heute. Schön wäre es jedenfalls...

Wer heute schon mal reinsehen will und die Webmastertools mit dem gleichen Google-Konto wie Analytics betreibt (das ist Voraussetzung - zur Not also das Profil in Analytics für den richtigen Account freigeben), findet die Verknpüfung direkt im Dashboard der Webmastertools.

Verknüpfung herstellen

Je nach Anzahl der für dieses Konto freigeschalteten Analytics-Accounts kann die Auswahl des richtigen Kontos zur Aufgabe werden, die ohne Browser-Suchfunktion gar nicht gelöst werden kann (so sah das jedenfalls bei mir aus). In der Regel ist die Liste aber so übersichtlich wie hier dargestellt und die Auswahl des richtigen Profils kein Problem.

Profil wählen

Zum Dank erhält man dann erstens einen Link im Bericht "Links zu Ihrer Website", der direkt zum passenden Report des verbundenen Analytics-Profils führt.

Verlinkende Websites anzeigen

... und noch trivialer ist der Link oben in den Webmastertools, der stets zum Dashboard des passenden Analytics-Profils führt.

Dashboard anzeigen

Gähn. Ja sicher: Das mag praktisch sein, wenn man eine gewisse Anzahl von Sites verwaltet und daher ggf. schneller auf zwei selbst geöffneten Tabs mit beiden Informationsquellen durcheinanderkommt, wenn er diese Links in die stets passenden Profile nicht hat. Trotzdem für sich gesehen viel zu langweilig und nebensächlich, um überhaupt einen Blogbeitrag drüber zu schreiben. Wenn es denn nicht mit ein wenig Glück nur der Einstieg in eine tiefere Integration ist. Man darf ja mal träumen ;)

# 
Monday, February 28, 2011

Google CloudConnect: Google Docs als Backup + "Sharepoint Extralight"

Praktisch isses schon, wenngleich weder neu noch besonders "intergriert": Dank Google Cloud Connect (BTW: mal wieder ein suuuuuuper Name. Kann sich bestimmt jeder gleich was drunter vorstellen) kann man nun nicht nur den Office Live Workspace, sondern auch ein entsprechendes Google Pendant dazu nutzen, seine Dokumente direkt aus den beliebten Office-Programmen MS-Wurst, Echse & Bauernfreund mit der Wolke abzugleichen. Das sorgt dann nicht nur für ortsunabhängige Sicherheitskopien der Dokumente, sondern erlaubt auch die "Online-Zusammenarbeit" (im weitesten Sinne) mehrerer Autoren an einem Dokument.

Und obwohl ich gestehen muss, dass mir die Lösung von MS besser gefällt, gibt es naturgemäß in meinem beruflichen Umfeld deutlich mehr Personen mit einem Google-Konto als mit einem Hotmail/Passport/Live-ID/Wie-auch-immer-es-heute-heißt-Anmeldedingsda von MS, so dass ich diese Variante wahrscheinlich eher nutzen werde als Office Live. Jedenfalls ab dem Zeitpunkt, wo es wirklich vernünftig läuft. Denn aktuell scheint das Ganze noch nicht so toll zu klappen, wenn die Dokumente etwas größer sind - entweder bezogen auf den Umfang oder auch nur die Dateigröße, die auch bei wenigen Seiten mit einigen Grafiken ja beachtlich ausfallen kann (gerade bei Powerpoint Bauernfreund). In der Theorie ist das Ganze aber eine prima Angelegenheit: Einfach installieren, anmelden und automatisch oder manuell mit den Dokumenten online abgleichen. Wie? Hä? So:

Cloud Connect herunterladen und installieren. Beim nächsten Start von Office schafft sich Google unterhalb der Werkzeuge in einer eigenen Leiste Platz:

Cloud Connect in Office

Einmalig auf "Login" klicken, sich bei Google anmelden, den Zugriff auf die betreffenden Dienste freigeben und dann die sehr übersichtlichen Einstellungen zur Synchronisation vornehmen. Wer es nachträglich einmal suchen sollte: Die Links oben erlauben auch das Abmelden oder den Wechsel des Google-Kontos.

Einstellungen Cloud Connect

Für jedes Dokument kann dann noch einmal zusätzlich gewählt werden, ob die Synchronisation automatisch oder manuell erfolgen soll. gerade bei größeren Dokumenten sollte es wohl besser sein, den Abgleich manuell durchzuführen, weil die gute alte Wolke nur selten mit Festplattengeschwindigkeit angebunden ist.

Cloud Connect Synchronisation

Wer nun das Dokoment lokal speichert und danach der automatische oder manuelle Abgleich stattfindet, wird der Fortschritt des Vorgangs in der Leiste dargestellt.

Cloud Connect

Ist der Vorgang dann abgeschlossen, zeigt die Leiste einen Link zum Dokument im eigenen "Text & Tabellen"-Konto. Hier - oder auch direkt in Office über den "Share"-Schalter - kann das Dokument nun zur Ansicht oder Bearbeitung für andere Benutzer freigegeben werden... oder einfach als zusätzliche Sicherheitskopie online verweilen, die bei jeder Bearbeitung des lokalen Dokuments auf dem eigenen Rechner schnell abgeglichen ist. Auch die Versionsverwaltung von Google Docs mag hilfreich sein, wenn man einen dummen Fehler bei einer Überarbeitung erst nach einigen Wochen bemerkt...

So sieht die ganze Sache in der Praxis aus:

# 
Tuesday, December 14, 2010

USB Stick testen: Speicherplatz, Geschwindigkeit, Fehlerfreiheit

USB-Sticks sind überall ("Wir können hier nicht anhalten! Das ist USB-Stick-Land!"*). Aber ungeachtet von Größe, Speicherplatz - und leider auch Preis - ist die Geschwindigkeit für Schreiben und Lesen mitunter oft "gefühlt" sehr unterschiedlich. Es gibt offenbar reichlich Ausreißer nach oben und unten; selbst bei "gleichen" Exemplaren. Das kann je nach angedachtem Einsatzzweck schonmal so richtig nervig sein.

Daher gehört ein Test von Geschwindigkeit (und nebenbei auch Fehlerfreiheit) inzwischen schon fest zu meinem Auspackritual, bevor ich mir die Mühe der Bestückung mache. Mit einer "nicht installieren, einfach starten und glücklich sein"-Software, die auf den wohlkingenden Namen "H2testw" hört, ist das zum Glück nicht nur schnell, sondern auch so einfach zu erledigen, dass man eine Beschreibung zur Not in einen Tweet bekommen würde. Genau deshalb ist dieser Beitrag hier auch schon zu Ende und es bleibt nur noch ein Verweis auf eine Vergleichstabelle im Web, mit der man seine Ergebnisse mit anderen Herstellern und Geräten vergleichen kann. Ich find´s hilfreich.

*) Na, welcher Film? Wer spricht die Vorlage für den Satz? Keine Ahnung? Dann: http://youtu.be/HirmJAq7USA.

# 
Tuesday, November 02, 2010

HTML Seiten-Quelltext in mobilen Browsern ansehen

Zeitgleich mit den ersten Geräten, auf denen ich Internetseiten "unterwegs" betrachten konnte - mit sehr gewöhnungsbedürftigen Browsern auf Telefonen, die heute niemand mehr ungestraft "Smartphone" nennen kann -, kam bei mir der Wunsch auf, auch ohne PC schnell mal einen Blick auf den Seitenquellcode werfen zu können. Da es zwar für unterschiedliche Geräte durchaus verschiedene Möglichkeiten gibt und Browser ohnehin schon lange nicht mehr so doof sind wie früher, ich aber trotzdem bisher keine wirklich überall funktionierende Lösung finden konnte, habe ich mir bisher mit einem sehr einfachen Script auf der eigenen Site selbst geholfen, mit dem ich den Quelltext nach Eingabe der Adresse ansehen konnte... mehr oder weniger schön formatiert. Wer sich kein "eigenes" Script mit möglichst minimalistischer Darstellung und auf die eigenen Bedürfnisse zugeschnitteten Optionen gönnen will, findet entsprechende Webdienste wie den Code Viewer bei iWebTool, muss dann aber halt je nach Displaygröße auf dem mobilen Gerät ein wenig scrollen.  

Update 05/0211: Auf jeden Fall einen Besuch wert sind zudem die zwei folgenden Dienste, auf die ich dank des Vortrags "Use Page Speed to Optimize Your Web Site For Mobile" auf der Google I/O 2011 (nein, ich war nur via Youtube da) kennengelernt habe und die m. E. ganz besonders gut ihren Job machen:

  • jdrop.org: Sehr hilfreich bei der Analyse mobiler Seiten, ohne sich zwingend mit den Werten auf dem Telefon, sondern vorzugsweise in einem Browser am PC zu befassen. Warum das nun hier steht? Weil man auf diesem (Um)weg auch zum...
  •  MobilePerf Bookmarklet kommt. Und damit holt man sich eine Menge an mehr oder weniger sinnvoll auch mobil nutzbaren Bookmarklets auf den Rechner; auch für Firebug Lite, Page Resources, DOM Monster, SpriteMe, CSSess und Zoompf. Allesamt prima Tools, die nicht nur bei der Ansicht eines Seitenquellcodes auf dem Mobiltelefon, sondern bei sehr viel mehr hilfreich sein können.
  • Der Vollständigkeit halber soll hier auch blaze.io genannt werden, speziell blaze.io/mobile. Nicht, dass man hier wirklich sehen würde, wie der Quellcode aussieht, aber es ist nicht minder hilfreich bei der Analyse von Websites aus "mobiler Sicht".

Auch ausgerechnet eine Suchmaschine (die ausnahmsweise nicht Google ist!) löst das Problem - für eine große Zahl an Seiten - sehr elegant: Bei blekko.com kann man nicht nur einige Kennzahlen und Links etc. per Slashtag /seo abrufen (Beispiel: http://blekko.com/ws/gandke.de+/SEO), sondern auch mit dem Slashtag /source den Quelltext einer Seite abrufen. Dazu muss diese allerdings auch schon mal von blekko.com besucht worden sein - und das gilt natürlich noch lange nicht für alle Sites und meistens kann man so "nur" die Startseite betrachten. Weiteres Problem: Man sieht das, was blekko bei seinem letzten Besuch gesehen hat. Das muss aber nicht dem Sourcecode der aktuell wirklich gezeigten Seite entsprechen.

Blekko auf Opera 5
Quellcode auf einem "Dumbphone" mit Opera Mini

Auf dem iPad (und wohl auch dem iPhone; ich hab nur keins) kann man alternativ prima Snoopy benutzen oder spezielle Apps dazu installieren. Leider funktioniert dies bei Android auf´m Telefon so aber nicht. Auch entsprechende AddOns für Dolphin habe ich nicht gefunden (dafür aber für ein paar andere hilfreiche Angaben). Wer aber nicht nur (im Nutzen oft sehr eingeschränkte Informationen) rund um den "SEO-Status" einer Domain per App oder ein unschönes Script benutzen mag, muss wohl weiterhin den Browser verlassen und eine App benutzen. Zum Glück gibt es ja eine Menge davon und man muss auch kein Geld ausgeben. Eigentlich sogar zu viele Apps: Entweder ist die Formatierung gruselig oder die Eingabe der zu untersuchenden Adresse trotz Zwischenablage unnötig kompliziert. Mein Tipp ist daher entweder View Web Source oder View Page Source (fast gleich, nur kleinerer Font), da diese beiden wenigstens schnell mittels STRG+S direkt im Browser mit der Adresse der akt. Seite versorgt und aufgerufen werden können.  

# 
Monday, October 18, 2010

Spaß mit dem Internet Explorer 9?

MS ist wirklich unverbesserlich. Als ich mich gerade auch im Büro mit einem IE 9 beglücken wollte, um damit noch ein wenig mehr Zeit mit den Spielereien unter http://ie.microsoft.com/testdrive/ zu verplempern und einen ersten Blick auf meine vorsichtigen HTML5-Experimente auch in diesem Browser zu wagen, wurde meine Bibliothek an Gründen, warum man sich mit dem Thema "Browserstabilität" auseinandersetzen sollte, unversehens um ein aktuelles Fundstück bereichert:

No IE9 4 FF!

Ohne Worte ;)

Darstellungsfehler von MS-Inhalten in Firefox, Safari & Co, haben ja aber eine lange und ehrwürdige Geschichte. Also kein Grund zum Rückzug, obwohl ich schon finde, dass man mal jemanden mit einem anderen Browser drüber schauen lassen darf, bevor man Besucher bei Google per Anzeige dafür einkauft... naja, egal.

Ich habe es aber trotzdem nicht geschafft den IE9 hier zu installieren, denn hier arbeitet man mit dem Rechner auch hin und wieder. Und dazu braucht man XP, wenn es denn schon Windows sein muss. Blöd nur, dass man unter XP nur den guten Tipp bekommt, sein System zu aktualisieren, bevor man dem anspruchsvollen IE9 ein angemesseses Zuhause bieten kann. Das läßt a) vermuten, dass es ein sehr sehr sehr sehr großes Setuppaket zum Nachinstallieren von allerlei Krempel für alle geben wird, die einen finalen IE9 auf Ihrem alten System haben wollen... oder es gibt b) schon jetzt einen gewichtigen Grund mehr, warum sich IE6 & Co. so dauerhaft halten werden, dass man sich auch in 5 Jahren noch bei der Erstellung von Webseiten mit Graceful Degradation für die ewigen Extrawurstler rumschlagen muss. Vielen Dank auch!

# 


Page rendered at Thursday, July 24, 2014 4:17:46 AM (W. Europe Daylight Time, UTC+02:00)