35% falsche Suchergebnisse – Analyse mit Google Webmaster Tools

Seit einem Monat nutze ich die Google Webmaster Tools zur Analyse dieser Webseite. Ergebnis: 35% aller Einblendungen haben keinen Bezug zu meinen Artikeln.

Im WordPress Blog muss zunächst unter Werkzeuge -> Verifizierung des Webmaster Tools der Code für den Metatag „google-site-verification“ hinterlegt werden.

<meta name='google-site-verification' content='dBw5CvburAxi537Rp9qi5uG2174Vb6JwHwIRwPSLIK8'>

Google überprüft damit, ob man wirklich Eigentümer der Homepage ist. Danach biete Google dem Betreiber einer Webseite tiefe Einblicke in seine interen Suchstatistiken und wie die eigene Homepage gewertet wird.
Mehr von diesem Beitrag lesen

Datastore optimieren auf 50k Ops Google AppEngine Quota Limit

Maximal 50.000 Zugriffe auf die API des Datastore gestattet Google täglich in der Free-Version der AppEngine. Ab November 2011 wird mit Google Cloud Service ein neues Preismodell eingeführt, wodurch die Nutzung der Datenbank „BigTable“ durch das 50k-Limit sehr stark beschnitten bzw. verteuert wird.

„Datastore API quota per app per day … 50k free read/write/small“ [AppEngine Pricing

There are 3 categories of Datastore operations [Pricing FAQ]:

  • Write operations (Entity Put, Entity Delete, Index Write) Each of these operations will cost $0.10 per 100k operations.
  • Read operations (Query, Entity Fetch) Each of these operations will cost $0.07 per 100k operations.
  • Small operations (Key Fetch, Id Allocation) Each of these operations will cost $0.01 per 100k operations.

In der GAE-Betaphase waren noch CPU-Zeit, Trafic und Requests die limitierenden Faktoren. Künftig muss die Optimierung (insbesondere auch in der Payed-Version) auf ein Minimum an Datastorezugriffe abzielen, besonders bei Webseiten mit dynamischen Inhalten. Waren früher bis zu 5 Mio dynamische Request pro Monat möglich, sind es jetzt höchstens 1,5 Mio.

Bei den Operations / Zugriffen werden künftig „small ops“ künstiger berechnet. Small Operationen greifen nur auf / über Keys zu. Der Indexzugriff selbst wird extra zum Fetch der Entities abgerechnet. Werden Datensätze nicht gleichzeitig im Bulk eingelesen, dann zählt sogar jeder Fetch einzeln! Die Größe des Fetches ist nicht relevant.

Die 50k Ops sind u.U. schnell weg! Ein paar Cronjobs im Hintergrund erzeugen leicht tausende Zugriffe auf den Datastore pro Tag. Auch Tracking der User kostet ein paar Ops pro HTTP-Request. Teuer wird es für Seiten mit dynamischen Inhalten (z.B. Blogs) und fast unkalkulierbar für asyncrone Kommunikation für Realtime-Apps (z.B. Chats).

Dynamische Seite > 50.000 Hits / Tag?

Wenn die Limits für die anderen APIs bleiben, dann sind imho verschiedene Workarounds für das 50k-Problem denkbar.

Mehr von diesem Beitrag lesen