Sonntag, 23. Dezember 2012

Offline- oder Online-Shopping?

Gedanken zur "Pappkartonzeit" - früher bekannt als Weihnachten

Während sich die Online-Händler über Rekordumsätze freuen, gehen für manchen stationären Laden die Lichter aus. Das veränderte Kaufverhalten der Konsumenten wird Auswirkungen auf Städte, Leben und Kultur haben. 

Im Dezember ist Hochkonjunktur bei den Pickern, Packern und Paketfahrern - den geschundenen Arbeitssklaven der schönen neuen E-Commerce-Welt. Dann bringen sie uns, was wir über Kataloge, Tele-Shopping und das Internet bestellt haben, um die Augen unserer Lieben zum Glänzen zu bringen. Die Läden in den Innenstädten dagegen bleiben zunehmend leer. Oh du fröhliche Pappkartonzeit: Zu Weihnachten treffen wir uns nicht mehr in den geschmückten Innenstädten zu Glühwein und Plätzchen, sondern auf den Wertstoffhöfen zum Pappkartonabgeben - damit wir unter diesen nicht in unseren Wohnungen ersticken.

Tote Innenstädte als Folge des zunehmenden Online-Handels?

Als ich vor Jahren damit begann, online einzukaufen, dachte ich nicht daran, dass das, was ich nicht nutze - die vielfältigen Einkaufsmöglichkeiten der Innenstädte -, verschwinden könnte. Tat es ja auch nicht, solange wir Online-Käufer nur relativ wenige waren. Wenn uns danach war, dann konnten wir jederzeit in die Innenstädte gehen - die Einkaufsstraßen und ihre Geschäfte waren noch da, genauso wie die Cafés, Kinos und die Museen. Aber dass das noch lange so bleibt, muss man inzwischen bezweifeln.

Der Einkauf über das Internet nimmt rasant zu - der Umsatz steigerte sich von 1,3 Milliarden Euro 1999 auf 31 Milliarden Euro 2012. Die Tablet-PCs und Smartphones, die zu diesem Weihnachtsfest verschenkt werden, dürften diese Entwicklung vermutlich noch beschleunigen.

Der Buch- und Musikhandel ist aus den Innenstädten schon fast verschwunden, derzeit tobt ein Kampf um Marktanteile in den Sparten Schuhe und Textilien, den viele stationäre Läden verlieren werden. Die anderen Sparten des Einzelhandels werden wohl nach und nach folgen - die stationären Läden sind zunehmend nicht mehr konkurrenzfähig, denn der Wettbewerb geht zu einem großen Teil über den Preis und die Preise in den Läden der Innenstadt müssen - bedingt u. a. durch die immer höheren Mietpreise an diesen Standorten - anders kalkuliert werden. Dazu kommt, dass die Innenstadtläden nicht nur mit dem Versandhandel (Katalog-, Tele-Shopping- und Online-Handel) konkurrieren müssen, sondern auch mit den Einkaufszentren in den Randzonen der Städte.

Die Geschäfte kämpfen ums Überlegen, die Angestellten um ihre Jobs. Wenn sie verlieren, werden als Folge vermutlich auch der Großteil der Restaurants, Cafés, Kinos und Museen aus den Stadtzentren verschwinden. Die Straßenkünstler werden dann nach Mallorca oder Phuket auswandern müssen oder sonst irgendwohin fahren, wo noch Menschen in einer größeren Anzahl draußen flanieren und sie eine Chance auf Zuschauer und damit Einnahmen haben.

Kundenverhalten ist auch "Kommunikation"

Was Verbraucher tun, ist auch "Kommunikation" in dem Sinne, wie der Begriff im Marketing gebraucht wird. Wenn ich nicht mehr zum Einkaufen in die Läden meiner Stadt oder der nächsten Großstadt gehe, dann signalisiere ich - C2B (Consumer to Business) sozusagen - "Ich brauche euch nicht mehr." Natürlich denkt oder sagt das jeder mal, wenn er oder sie sich gerade über eine schnippische Bedienung geärgert hat. Aber will man deshalb auf die Innenstadt-Shopping- und Kulturinfrastruktur verzichten?

Bevor die Innenstädte wirklich sterben, sollten wir als Konsumenten uns dieses Prozesses bewusst werden und uns fragen, ob wir diese Veränderungen, die wir durch unser Verhalten in Gang setzen, wirklich dauerhaft wollen - denn "wenn weg, dann weg".

Innovation um jeden Preis?

Innovation ist (meistens) gut - sie eröffnet neue Möglichkeiten, hat aber auch etwas Destruktives - d. h.: Etwas, was vorher da war, wird von etwas Neuem verdrängt. Der Ökonom behauptet lapidar, der stationäre Handel sei nicht mehr zeitgemäß. Aber stimmt das? Ist er uns nicht mehr wichtig oder sind wir nur vorübergehend neugierig auf die neue Mode "Online-Shopping"?

Nicht alles, was verschwindet, ist es wert, dass man es betrauert: Wer vermisst schon Musikkassetten, die sich dauernd zu Bandsalat verhedderten, oder Minipli-Dauerwellen bei Männern, wie es in den 1980er Jahren modern war. Die Frage ist, ob wir für die Innovation "Online-Einkauf" (E-Commerce) unsere lebendigen Innenstädte als Preis aufgeben wollen. Die fehlenden Gewerbesteuereinnahmen aus dem stationären Handel werden die Haushalte der Städte und Gemeinden belasten - d. h., es wird weniger Geld für Kultur-, Architektur- und Infrastruktur-Projekte da sein. Ist es das wert? Oder wie könnte man das kompensieren?

Wenn Online-Kauf zum ethischen Armutszeugnis wird

Es ist eine Sache, wenn man gerne online einkauft, weil es bequem ist und man im Internet eine sehr große Auswahl hat. Viele kaufen auch deshalb online, weil sie hoffen, damit Zeit zu sparen - doch in Wahrheit verbrät man beim Online-Einkauf viel Zeit mit Recherche, auf Postämtern und in Paketshops sowie auf den Wertstoffhöfen, wenn man die enormen Mengen an Verpackungen entsorgen muss.

Unethisch wird es jedoch meiner Meinung nach, wenn man sich im Laden ausführlich beraten lässt, dann das empfohlene Produkt aber über einen Online-Händler billiger kauft - dafür gibt es bereits passende Apps. So "kommuniziert" man zwar nicht "Ich brauche euch nicht mehr", aber demonstriert dafür seine fehlende Solidarität (und seine soziale Inkompetenz).

Sollte sich der Trend ausweiten, werden wegen fehlender Einnahmen noch mehr Verkäufer entlassen als ohnehin schon, die restlichen werden mehr und mehr durch billige Auffüllkräfte ersetzt - dann kann man erst richtig über die Inkompetenz von Verkäufern und die Servicewüste im deutschen Einzelhandel meckern. Die Ausbildungsplätze fallen dann auch weg, bis es irgendwann den Gnadenstoß gibt: Insolvenz. Dann kann der Billig-um-jeden-Preis-Konsument seine App wieder löschen.

Sind die Stadtzentren noch zu retten?

Handel und Märkte sind in fast jeder Gesellschaft ein zentrales Element. Sicher - eine Gesellschaft und Kultur sollte sich nicht nur über den Konsum definieren. Und es gibt anderes, das Städte lebendig macht - beispielsweise sind die neuen, manchmal von Kommunen geförderten Urban-Gardening-Projekte neue Orte der Begegnung und Kommunikation - doch wird dieser Trend meiner Ansicht nach nicht die Stadtzentren ersetzen können (und auch nicht die Taschen der Städte und Gemeinden füllen).

Wenn die Gewerbesteuereinnahmen des stationären Einzelhandels in den Haushalten der Städte wegbrechen, dann wird das Geld für Restaurierungen fehlen und vermutlich auch viel an gewohnter Innenstadtkultur wegfallen oder teurer werden.

Ich kann am Horizont bis jetzt kein Rettungsschiff erkennen.

Online-Giganten schieben ihre Gewinne am deutschen Fiskus vorbei

Wenn Konsumenten statt in stationären Geschäften vor Ort wenigstens in deutschen Online-Shops einkaufen, haben immerhin deren "Standortgemeinden" was von der eingenommenen Gewerbesteuer. Denn, was ist mit der Steuerpflicht internationaler Großkonzerne wie dem Online-Händler Amazon? Laut taz organisiert Amazon zwar den Versand über Deutschlanddependancen, da die Zahlungen jedoch über die europäische Zentrale in der "Steueroase Luxemburg" abgewickelt werden, dürfte das Geld zum Großteil am deutschen Fiskus vorbeigeleitet werden - letztendlich zu unserer aller Nachteil. Laut Focus handelt es sich im Falle von Deutschland um zweistellige Milliardenbeträge, die dem Fiskus durch Gewinnverlagerungen jährlich verloren gehen - durch amerikanische Unternehmen, die gleichzeitig EU-Subventionen erhalten - mal ehrlich: Die müssen sich doch über uns totlachen! Inzwischen werden einige EU-Länder aktiv, um diesen "Steuertricks" ein Ende zu bereiten. Man wird sehen, ob sie sich durchsetzen können.

Innovationen schaffen neue Berufe?

Sicher - im Laufe der Geschichte verschwanden immer wieder Berufe - dafür entstanden neue. Mit dem Internet und dank E-Commerce stieg der Bedarf an Programmieren, Designern, Administratoren, Online-Marketing-Spezialisten etc. Durch seine innovative Kraft, einer perfekten Logistik und mit seinem Image der Zuverlässigkeit hat Amazon entscheidend zum Erfolg und Wachstum des Online-Handels beigetragen - der ja als solcher nichts Schlechtes ist, aber wie alles eben auch Nebenwirkungen bzw. seinen Preis hat. Doch, was wird aus denen, die jetzt Verkäufer sind? Müssen die alle in Zukunft als Picker und Packer bei den Online-Händlern arbeiten oder Paketfahrer bei Logistikunternehmen werden? In beiden Fällen dürften sie beruflich und finanziell demnächst noch weniger zum Lachen haben als jetzt schon, denn diese neuen Jobs gehören zu den prekären Erwerbsverhältnissen: unsicher, sehr schlecht bezahlt, machtlos als Arbeitnehmer und mit wenig Schutz durch Sozial- und Arbeitsrecht. Man kann nur hoffen, dass die Politik endlich gegen die Ausbeutung dieser Menschen vorgeht.

Offline- oder Online-Shopping?

Ich würde unsere lebendigen Stadtzentren vermissen - sowohl die großen Konsumtempel als auch die kleinen Boutiquen und Galerien, die Kinos und die kleinen Museen, die Maroni-Verkäufer und die Straßenmusiker. Sie sind doch Teil unserer Kultur. Dabei ist es mir nicht wichtig, ob ich mir jeden Luxus dort leisten kann oder will - ich kann gut damit leben, dass ich es nicht kann. Aber es ist schön, dass sie da sind, dass mich manches dort zum Träumen, anderes zum Kaufen und Schenken anregt.

Ich möchte ehrlich gesagt, beides: Online-Handel, wenn es mal schnell gehen muss und ich weiß, was ich will, und den stationären Handel in bunten lebendigen Innenstädten mit Weihnachtsdekoration oder was sonst gerade zur Jahreszeit passt und Verkäufer/Verkäuferinnen, mit denen man mal lachen, aber auch mal streiten kann.

Ich weiß nicht, ob wir beides haben können. Ich werde jedenfalls meinen Beitrag für die Innenstädte leisten, indem ich wieder viel öfter in die Stadt zum ganz altmodischen Einkaufen gehen werde - Retro sozusagen.

Quellen:

Sonntag, 11. November 2012

Neues von der SEO-Front: WDF*P*IDF und Relevanz

"Content is King" lässt der Quasi-Suchmaschinenmonopolist Google immer wieder verkünden. Aber das wussten wir Autoren, Journalisten und Blogger auch vorher bzw. wir schreiben, weil wir was zu sagen haben. Allerdings: Seit wir für das Internet schreiben, wissen wir auch, dass Schlüsselwörter (Keywords) richtig gewählt und eingearbeitet werden müssen, dass Verlinkung eine Rolle spielt und Ähnliches mehr, damit die Suchmaschine mit ihrem beschränkten Algorithmus unseren schönen Online-Artikel nicht auf Platz 5.345.789 ihrer Ergebnisliste aufführt - quasi unsichtbar für alle, die über Suchmaschinen nach Inhalten suchen (siehe auch: Blogs bekannt machen). Nun gibt es neben Keyword-Optimierung und Backlink-Aufbau wieder neue Buzzwords in der Suchmaschinenoptimierungs- (SEO) Welt - und die heißen WDF*P*IDF (Gewichtungsformel) und Relevanz. 

Ich schreibe und veröffentliche auf meinen Webseiten und in meinen Blogs über Themen, die mir am Herzen liegen und/oder zu denen ich selbst jahrelang Erfahrungen gesammelt habe. Ähnlich der philosophischen Frage um den Baum, der im Wald umfällt, ohne dass es jemand hört: Bin ich ein Autor/Journalist dadurch, dass ich schreibe? Oder werde ich erst dazu, wenn jemand meine Artikel oder Bücher liest?

Ich jedenfalls möchte, dass die Ergebnisse meiner Schreibarbeit, die ich liebe, die aber oft auch mühselig ist, gelesen werden. Deshalb befasse ich mich mit Suchmaschinenoptimierung (SEO). Um von meiner Online-Schreiberei (vielleicht irgendwann) einmal leben zu können, platziere ich zudem Werbung auf meine Webseiten.

Es gibt aber auch eine andere Herangehensweise: Menschen, die nicht selbst das Bedürfnis zu schreiben haben (außer über SEO), aber Geld im Internet verdienen möchten, prüfen mit verschiedenen Tools (beispielsweise mit dem Google Keyword Tool), mit welchen Themen man prinzipiell hohe Werbeeinnahmen via Google Adsense o. a. erzielen kann. Dann lassen sie zu dem Thema bzw. zu einem bestimmten Keyword oder einer Keyword-Kombinationen möglichst preisgünstig und suchmaschinenoptimiert einen Text schreiben und veröffentlichen diesen auf einer Webseite. Sie platzieren Werbung auf der Seite, sorgen für Verlinkung und ergreifen weitere SEO-Maßnahmen, damit sie mit dem eingekauften Text Geld verdienen können.

Man mag von dieser Vorgehensweise halten, was man will - es gibt nicht nur Schwarz und Weiß -, man kann von diesen SEO- und Online-Marketing-Profis einiges lernen. Ich habe damit zuerst aus Verzweiflung begonnen, als ich feststellte, dass ich durch deren Webangebote zunehmend von meinen guten Positionen im Internet verdrängt wurde, die ich hatte, weil meine Seiten schon sehr alt aus Zeiten ohne Konkurrenz waren (und zugegebenermaßen auch eine Überarbeitung nötig hatten). Inzwischen befasse ich mich unregelmäßig mit dem Thema SEO, auch wenn ich SEO nur in Maßen anwende, weil ich mich nicht von einer Suchmaschine und ihren Algorithmus-Updates (Panda, Penguin und wie sie alle heißen) gängeln lassen möchte.

Relevanz - was ist das?

Die Relevanz eines Textes ist der Mehrwert, den er einem Leser zu einem bestimmten Suchwort bietet. Das hört sich zunächst gut und leserfreundlich an. Doch die Relevanz von Texten im Internet wird von einem Suchmaschinenalgorithmus berechnet, der simple Eckdaten miteinander verrechnet, die Ergebnisse miteinander vergleicht und dementsprechend die Suchergebnisse sortiert. Hier hat sich insofern etwas getan, dass es nicht mehr nur auf das Haupt-Keyword ankommt, sondern auch auf verwandte ("relevante") Keywords im gleichen Artikel.

Aus SEO-Sicht heißt das: Statt wie bisher ein Keyword zu bestimmen und dieses in einer bestimmten "Keyword-Dichte" im Text und außerdem im Seitentitel, in Meta-Descriptions, Überschriften, Bildunterschriften, Bild-Title-Tags etc. unterzubringen, müssen nun zusätzlich Relevanzwerte berechnet werden. Die Relevanzwerte des eigenen Artikels müssen besser oder in einem besseren Verhältnis zueinander sein, als die in Artikeln von den Mitbewerbern, sonst reicht es nicht in die Sichtbarkeitszone der Suchmachinenergebnisse. Ein Aspekt der neu entdeckten Relevanz ist, dass nicht nur das Haupt-Keyword ausreichend oft im Text vorkommen muss (wie oft "oft genug" oder "zu viel" ist, weiß man nicht wirklich), sondern auch andere Keywords, die einen Bezug zu diesem Keyword haben - allerdings dürfen sie dem Haupt-Keyword auch nicht zu viel Konkurrenz machen, wie man weiter unten sieht.

Statt Keyword-Dichte lieber Gewichtungsformel?

Mit einem Keyword und der Keyword-Dichte kommt man nach Aussagen einiger SEO-Profis, so z. B. Karl Kratz (Links siehe unten) heutzutage nicht mehr weit. Mehr Aussagekraft habe die Gewichtungsformel oder WDF*P*IDF.

Die Gewichtungsformel WDF*P*IDF ist das Produkt von
WDF, IDF und einem Korrekturfaktor P

WDF und IDF sind Begriffe aus der Textstatistik:
  • WDF steht für Within-document Frequency (Dokumentspezifische Gewichtung).
    Die WDF beschreibt die Häufigkeit eines Wortes i im Verhältnis zur Gesamtzahl aller Worte L in einem Dokument j - bzw. in unserem Fall: die Häufigkeit eines Keywords bzw. einer Keyword-Kombination im Verhältnis zu allen Keywords/Keyword-Kombinationen im Text. Je öfter ein Keyword bzw. eine Keyword-Kombination in einem Text vorkommt, desto größer ist der WDF-Wert. Das ist im Prinzip nichts Neues. Im Gegensatz zur Keyword-Dichte wird der WDF mit Logarithmen berechnet. Mehr Details z. B. bei Wikipedia. 
  • IDF steht für Inverse Document Frequency (Inverse Dokumenthäufigkeit).
    Der IDF setzt die gesamte Anzahl ND von Dokumenten einer Datenbank zur Anzahl f der Dokumente, die ein bestimmtes Keyword/Keyword-Kombination t enthalten. Je größer der IDF, desto weniger Dokumente gibt es in der Datenbank, die das Keyword/Keyword-Kombination enthalten. 
Das Produkt WDF*IDF für ein Keyword ist also rein rechnerisch am besten, wenn das Keyword-/Keyword-Kombination oft im Text vorkommt, es aber gleichzeitig noch wenig andere Dokumente mit diesem Keyword/Keyword-Kombination gibt.

P ist nur ein Gewichtungswert (Korrekturfaktor).

Kratz hat festgestellt, dass es eine Relation zwischen WDF*IDF und der Position in den Suchmaschinenergebnissen (Search Engine Results Position, SERP) gibt. Je höher WDF*IDF, desto besser i. d. R. die Position in den SERPs. Das ist jetzt eigentlich nicht überraschend oder neu, sondern wird nun eben mathematisch ausgedrückt. Kratz hat außerdem bemerkt, dass viele zu einem Keyword gut positionierte Seiten eines gemeinsam haben: dass der WDF*IDF für dieses Keyword deutlich höher ist, als für andere Keywords/Keyword-Kombinationen in dem Text. Eindeutigkeit ist also Trumpf.

Grundlegend neu sind diese Erkenntnisse nicht, man kann jetzt nur alles genauer berechnen. Man sollte bei aller Rechnerei nicht vergessen, dass man ein Keyword auch zu oft einsetzen kann und der Text dann möglicherweise von Google als Spam gewertet wird. Und wie Kratz auch sagt, gibt es ja auch noch andere Faktoren, die die Position in den Suchergebnissen beeinflussen können.

Beim Wettbewerber abgucken

Die neue Onpage-Optimierung mit dem Ziel der Verbesserung der Relevanz führt vor allem über die Mitbewerberbeobachtung - wie das geht, führen Karl Kratz und Philipp Helminger vor (Links unten). Sie analysieren die Mitbewerber-Webseiten und berechnen die WDF*IDF-Werte für die wichtigsten Keywords/Keyword-Kombinationen für die Seiten, an denen sie vorbeiziehen oder zumindest mithalten wollen. Aus den Ergebnissen der Mitbewerberbeobachtung erstellt beispielsweise Kratz die Vorgaben für seine Internettexte. Dann noch die restlichen SEO-Maßnahmen umgesetzt und fertig ist Platz 1 in den SERPs. Schön wäre es - oder auch nicht. Also wird noch weiter gefeilt: Keyword-Abstand, Keyword-Verteilung, partielle Keyword-Häufung, gezielter Einsatz artverwandter Keywords ... Ich frage mich, wo da bei all den Vorgaben noch Raum und Zeit für Inhalte und Sprachliches bleibt.

Noch interessant zu wissen: Helminger hat in seinen Untersuchungen festgestellt, dass bei manchen Keywords bzw. Keyword-Kombinationen die vorderen Plätze inzwischen mit sehr langen Texten belegt sind. Bei seinem Beispiel "HochgeschwindigkeitsSEO" liegen auf den ersten fünf Plätzen Texte mit 3.000 bis 8.000 Wörtern! Seine Empfehlung außerdem: Die Häufigkeitsverteilung relevanter Keywords sollte man an die der Top-Positionen für sein Haupt-Keyword anpassen.

Den Google-Algorithmus füttern - will man das?

Als Autorin, Journalistin und Bloggerin, die ich schon lange auch für das Internet schreibe, gefällt mir diese Entwicklung nicht und ich hoffe, dass sie nur vorübergehend ist. Es kann doch nicht sein, dass das gesamte "Schreibhandwerk" immer mehr, statt endlich weniger dem Algorithmus einer Suchmaschine untergeordnet werden muss, wenn man sichtbar bleiben möchte. Was ist mit der Verwendung von Synonymen, sprachlichen Bildern, etc.? So wichtig eine simplifizierte Sprache in der Technikdokumentation ist, wenn sie zur Alltagssprache wird, dann führt das zu einer Verarmung - nicht nur der Sprache, sondern auch des Denkens.

Ich möchte doch Wissen weitergeben, Diskussionen anregen, unterhalten, mich auf Recherche und das Schreiben konzentrieren, kreativ sein und mich, wenn überhaupt, dann nur am Rande mit SEO beschäftigen müssen.
Zum Glück gibt es noch einige gute Medien, für die es Spaß macht, zu schreiben, und die es aufgrund ihres Markennamens oder eben weil sie Printmedien sind, nicht nötig haben, mit Algorithmen-Fütterei zu buhlen und dafür Sprachvielfalt und -kreativität zu opfern. Doch für uns kleine Blogger und Webseiten-Publisher sind das gerade sehr schwere Zeiten - und sich als SEO-Texter ausbeuten zu lassen, kann auch nicht die Alternative sein. Dann doch lieber sich weiter selbst ausbeuten und Spaß haben.

Ansonsten bin ich der Meinung: Suchmaschinen müssen besser werden und Google braucht stärkere Konkurrenz, damit da mal was vorwärts geht.

Quellen und weiterführende Informationen

Donnerstag, 30. August 2012

Wie viele Seitenbesucher kommen durch Facebook, Google+ und Twitter?

"Vergebliche Mühe" titelt internet WORLD BUSINESS heute und meint damit die Jagd nach möglichst vielen Facebook-Fans. Das machte mich neugierig und ich konsultierte die Quelle und meine eigene Statistik des vergangenen Monats.

Der Online-Artikel von internet WORLD BUSINESS bezog sich auf eine Untersuchung von BuzzFeeD (alle Quellen unten), die nach einer Korrelation zwischen der Anzahl von Facebook-Fans von Verlagen und dem Traffic suchten, den diese Verlage über Verweise in Facebook auf ihre "Sites". BuzzFeeD kam zu dem Schluss, dass es keine bis wenig Korrelation gibt: Viele Fans bedeuten nicht unbedingt viele Besucher (= mehr "traffic"). Dabei dürfte es keine Rolle spielen, ob diese "Sites", die verlinkt wurden, als statische Webseiten oder als Blog realisiert sind.

Nach der Lektüre dieses Artikels schaute ich mir meine eigene Statistik vom vergangenen Monat für tinto.de und andere eigene Domains hinsichtlich Besucher-Quellen an. Meine Inhalte befinden sich vorwiegend auf statischen Seiten, die ich seit 1998 betreibe, aber es ist auch ein auf eigener Domain integrierter Blog dabei.

Das Ergebnis für diese selbstgehosteten Inhalte:
  • < 2 % der Besuche kommen über Facebook 
  • ~ 0,5 % der Besuche über Google+ 
  • ~ 0,2 % der Besuche über Twitter 
Zum Vergleich:
  • ~ 72 % der Besuche kommen über die Google-Suche 
  • ~ 7,5 % der Besuche waren direkt
  • ~ 2 % der Besuche kamen über die Bing-Suche 
  • ~ 1 % der Besuche über Blogger (Blog-Plattform)
Traffic-Quellen Social Media
Herkunft der Webseiten-/Blogartikel-Besuche in Prozent
(Ausgesuchte Traffic-Quellen: Social Media u. a.)


Zähle ich die Besuche über Facebook, Google+ und Twitter zusammen, dann kommen ca. 2,2 % meiner Domain-Besuche über diese drei Social Media-Plattformen zustande. (Ich stelle in Social Media allerdings auch Artikel vor, die sich auf Blogger-Blogs (als nicht auf einer eigenen Domain) befinden - diese Verweise sind in dieser Statistik nicht enthalten, da sie extern gehostet sind.)

Jedenfalls kommen knapp 2 % der Seitenbesuche auf meinen eigenen Domains von Facebook - und da hauptsächlich von meiner Gartensaison-Facebook-Page, wo die "Fans" und ich eine rege kleine Austauschgruppe von Garten- und Pflanzenfreunden bilden, die sich gegenseitig unterstützen.

Der Traffic von Social-Media-Plattformen ist nur ein Kriterium von vielen

Die Zahl der Besucher, die über Facebook kommen, ist nicht wirklich beeindruckend. Es wäre noch interessant zu wissen, wie sich die Fan-Zahlen und die Interaktionen mit den Fans auf den Google-Algorithmus (und damit die Sichtbarkeit in den Sucherergebnissen der Google-Suche) auswirken. Doch leider werden solche Algorithmen nicht offengelegt.

Überrascht bin ich, wie wenig Seitenbesuche über Google+ und Twitter zustande kommen, obwohl dort meine Follower-Zahlen ein Vielfaches betragen - das bestätigt allerdings die Ergebnisse von BuzzFeeD, auch wenn die sich nur auf Facebook bezogen: Mehr Fans, Einkreiser oder Follower bedeuten nicht unbedingt mehr Traffic.

Circa 1 % der Besucher auf meinen Domains finden über Blogs bei Blogger zu mir. Blogger ist eine kostenlose Blog-Plattform für Anfänger aus dem Hause Google. Auch in diesem Fall sind es hauptsächlich Garten-Interessierte und teilweise an Geldthemen interessierte Besucher, die über die Links von dort zu meinen Webseiten kommen. Die Verweise stammen zum Teil von eigenen Blogger-Blogs, die ich als Ergänzung zu den Websites auf meinen Domains führe. Inzwischen habe ich allerdings auch einen Wordpress-Blog auf der eigenen Domain (weshalb der nicht als externe Quelle geführt wird).

Wenn ich nur den Zeitaufwand für meine Social-Media-Aktivitäten und die dadurch generierten Besuchszahlen ("traffic") gegenüberstellen würde, dann würde ich diese wohl einschränken und meinen Fokus noch stärker auf Seiten-/Artikel-Erstellung und Suchmaschinen-Optimierung legen müssen. Doch möchte ich zum einen die Abhängigkeit von der Google-Suche (-> Machtkonzentration) verringern und zum anderen die Inspiration (einschließlich der täglichen Aufreger) und die Kommunikation mit den Menschen aus aller Welt nicht missen.

Quellen

Montag, 27. August 2012

Klout Score oder wer hat den größten ...

... Einfluss in Social Media

All das Vernetzen, Teilen, Diskutieren und oft genug Geschwafel in Social Media und am Ende des Tages hat man dem Chef oder potenziellen Auftraggebern nichts vorzuweisen? Von wegen. Da werden die Twitter-Follower, Facebook-Freunde bzw. -Fans und Google+-Einkreiser rausgekramt und mit dem vorherigen Stand sowie denen von anderen verglichen. Da wird geguckt, wie oft retweetet, geliked und geteilt wurde und über wen und was in Social Media gesprochen wird.

Das ist viel zu mühlselig für den schnellen Überblick, wie einflussreich jemand in Social Media ist, sagten sich die Gründer der Klout Inc. aus Kalifornien: Wir rühren all diese Informationen zusammen, setzen einen Algorithmus dran und der spuckt dann den Klout-Wert (Klout Score) aus. Am Ende des Tages kann sich der Klout-Nutzer sagen: Wow, er ist wieder gewachsen - ich muss toll sein. Auf der anderen Seite wird denen, die nach Influencern - Leuten, deren Äußerungen von vielen beachtet werden - suchen, die Suche erleichtert.

Eva Schumann bei Klout
Den größten hat übrigens Barack Obama (Klout Score 99 von maximal 100) und auch Justin Bieber ist Klout-mäßig gut bestückt mit 92.

Doch das ist nur die eine Seite der Medaille. Die andere ist: Dadurch, dass allen Social-Media-Nutzern ein immer wieder neu berechneter Klout-Wert zugeordnet wird und sie kategorisiert werden (Klout Style - siehe weiter unten), sind sie von Unternehmen bzw. deren Marketing-Abteilungen/-Agenturen für ihr Marketing prima nutzbar.

Klout Inc. ist also ein weiteres US-amerikanisches Internet-Unternehmen, das mit einem intransparenten Algorithmus arbeitet und sich über das Internet ausbreitet wie ein ansteckender Ausschlag. Das Unternehmen wurde 2007 von Joe Fernandez (CEO) und Binh Tran gegründet. Eigenen Angaben zufolge wurden bereits über 100 Millionen Profile erstellt (Quelle Wikipedia English) - nicht nur von freiwillig registrierten Klout-Mitgliedern, sondern auch von Menschen in deren Netzwerken.

Kritik an Klout

Gerade dieses Daten-Staubsaugen und Klout-Score-Generieren von Nicht-Mitgliedern ist den Kritikern ein Dorn im Auge. Des Weiteren wird die tatsächliche Aussagekraft des Klout Scores hinsichtlich Einfluss und damit Reputation bezweifelt - nicht zuletzt wegen seiner Manipulierbarkeit (Stichworte: Twitter-Spam, gekaufte Facebook-Freunde etc.) und der fehlenden Berücksichtigung von Qualitätskriterien (Motto: "Masse statt Klasse"). Dazu kommt, dass der Klout Score das Leben und den Einfluss außerhalb von Social Media bzw. außerhalb der Main-Stream-Social-Media-Plattformen nicht berücksichtigt (was ist mit den Foren, die im IT-/Mobilbereich immer noch eine Bedeutung haben u. ä.). Noch ein weiterer Kritikpunkt ist der, dass die Reputation von Social-Media-Teilnehmern von einem kommerziellen Unternehmen bewertet wird - eine ähnliche Konstellation bereitet ja bereits genug Diskussionsstoff bei den Ratingagenturen und der SCHUFA. Seine Mitbewerber in der Reputationsmessung wie beispielsweise den PeerIndex hat der Klout Score schon weitgehend ausgestochen.

Guter Klout Score wird belohnt

Der Klout Score weckt andererseits Spieltrieb und Ehrgeiz und den erfolgreichsten winken Goodies (genannt "Klout Perks") - das sind mal Gutscheine, mal Kosmetika, mal eine Testfahrt mit einem neuen Automodell oder Freiflüge für eine neue Flugverbindung etc. Viele der bekannten Social-Media-Hengste (Top-Influencer - ja, ich bin nur neidisch) lieben den Klout Score.

Und wie kommt Klout an all die Daten?

Die Plattform verbindet sich mit Einwilligung des Klout-Nutzers mit seinen verschiedenen Social-Media-Acounts und liest da offensichtlich aus, was er braucht - und ich fürchte, am Ende des Tages weiß Klout so viel über uns, wie all die einzelnen Social-Media-Plattformen zusammen. Clever. Beängstigend!

Was der Klout Score berücksichtigt

Facebook: Mitteilungen, Erwähnungen, Likes, Kommentare, Freunde etc.
Twitter: Retweets, Erwähnungen, Listen-Mitgliedschaft, Follower, Antworten
Google+: Kommentare, +1s, Teilen ("Reshares")
Klout: +K, die man von anderen erhält.

Weitere Social-Media-Plattformen, die für die Klout-Score-Berechnung berücksichtigt werden: LinkedIn (da sieht man, dass der Klout-Wert auf den amerikanischen Markt zugeschnitten ist, denn bei uns hätte wohl XING die größere Bedeutung), foursquare, Wikipedia - alles nachzulesen bei Klout.com.

Klout Style

Klout Style ist kein neues Modemagazin, sondern kategorisiert die Klout-Nutzer. Da gibt es die Kategorien Celebrity, Broadcaster, Observer, Explorer, Networker, Specialist, Socializer und viele andere mehr. Google ist beispielsweise mit einem Klout von 94 bewertet und wird als Celebrity eingestuft. Zur Celebrity-Kategorie heißt es (frei übersetzt): "Sie haben die maximale Einfluss-Stufe erreicht. Die Menschen lauschen jedem Ihrer Worte und teilen Ihre Inhalte wie keine anderen. Wahrscheinlich sind sie im wirklichen Leben berühmt und Ihre Fans können von Ihnen einfach nicht genug bekommen." Na, wenn das nicht wahr ist. (Aber übrigens, es gibt da das kleine Dorf in Gallien, die finden das nicht gut ... -> Google's Quasimonopolstellung).

Nachtrag:
Und kaum hatte man sich dran gewöhnt, wurde der Klout Style und ein paar andere Einblicke leider - als "Networker" kategorisiert zu werden, hatte mir gefallen - wieder abgeschafft. Statt dessen werden einem "Klout Moments" gezeigt. Klout Moments sind die letzten Interaktionen mit anderen auf ausgewählten Social-Media-Plattformen.

Klout Score als Eintrittskarte

Laut einem Artikel in WIRED vom April 2012 kann der Klout Score - je nach Beruf und angestrebter Position - durchaus ausschlaggebend sein, wer von mehreren Bewerbern den Zuschlag für den Job bekommt und wer nicht. Außerdem hätten Personen mit einem höheren Klout Score bessere Dienstleistungen oder Hotelzimmer bekommen - wohl in der Hoffnung, dass diese Influencer dann später über positive Erfahrungen in Social Media berichten. Laut den Frequently Asked Questions (FAQ) auf der Klout-Site, nutzen 3.000 Anwendungen und Partner Klout-Daten, um Klout-Werte darzustellen und Influencer mit einem bestimmten Klout-Wert zu einem bestimmten Thema, Lokalität o. ä. zu finden.

Klout Geschäftsmodell

Wenn ich das Geschäftsmodell von Klout richtig verstehe - denn mit irgendetwas müssen sie ja schließlich Geld verdienen - dann ermöglicht Klout Unternehmen "Klout-Perks-Aktionen" durchzuführen, bei denen eine Marke und die optimalen Influencer zusammengebracht werden. Diese optimalen Influencer erhalten dann Klout Perks und können über ihre Erfahrungen mit dem jeweiligen Produkt berichten - müssen aber nicht. Andererseits sagt Klout, dass sie die Identitäten der Influencer gegenüber Werbetreibenden nicht offenlegen und auch keine Daten verkaufen würden. Also fungiert Klout als Mittelsmann zwischen Unternehmen/Marke und Influencer bei der Klout-Perks-Vermittlung.

Führt ein Weg an Klout vorbei?

Ich habe lange Zeit versucht, mich aus dem Klout-Gedönse rauszuhalten. Aber es kamen ständig E-Mail-Einladungen, bis ich es aufgegeben habe. Ich oute mich: Ich bin dabei - aber ohne mich groß zu engagieren. Und ja: Ich hab nichts dagegen, wenn mir jemand ein +K gibt. Ich will auch einen großen haben - ist wohl dieser Neid, von dem schon Sigmund Freud sprach ;-). http://klout.com/#/eva4tinto

Freitag, 13. Juli 2012

Blog bekannt machen - Fortsetzung

Was sich durch die Google Algorithmus Updates Panda und Penguin verändert hat.

Dies ist eine Ergänzung zu den Blog-Posts vom vergangenen Jahr:
Blog bekannt machen Fortsetzung
Im ersten Blogbeitrag werden die Möglichkeiten beschrieben, wie man seinen Blog bekannt machen kann - denn wer schreibt, der will in der Regel auch gelesen werden. Im zweiten Blog-Post geht es speziell um die Suchmaschinenoptimierung (Search Engine Optimization, SEO) mit seriösen Mitteln - denn wer in den Suchergebnissen nicht vorne gelistet ist, ist im Internet praktisch unsichtbar. Wegen ihrer Quasi-Monopolstellung wird besonders auf die SEO für die Google-Suche eingegangen, denn wer keine gute Position in den Sucherergebnissen (Search Engine Results Positions - SERPs) von Google hat, dem fehlt eine wichtige Möglichkeit, Leser für seine Blogbeiträge zu finden.

Die Möglichkeiten, wie man einen Blog bekannt machen kann, sind zwar im Wesentlichen die gleichen geblieben und die wichtigste Voraussetzung für den Erfolg eines Blogs oder eines anderen Webangebotes ist immer noch Content, der einzigartig ist und dem Nutzer einen Mehrwert bietet - also informative und gut geschriebene Texte, Bilder, Videos, Anwendungen etc. Trotzdem sollte man ein paar Fallen kennen, die sich durch die Veränderungen des Google-Algorithmus aufgetan haben, damit man nicht von Google abgestraft wird (Google Penalty). Denn es kann auch Unschuldige treffen.

Blog bekannt machen
Achtung: Google Algorithmus Updates

Google möchte mit den Updates seines Suchalgorithmus die Suchergebnisse verbessern. Zum einen wurden das Suchverhalten und Bewertungen der User in den Algorithmus integriert. Zum anderen sollen Manipulatoren, die mit unlauteren Methoden (Black Hat SEO) arbeiten, von den vorderen Plätzen vertrieben oder ganz ausgeschlossen werden.

Die wichtigsten Google-Algorithmus-Updates heißen

Google Panda (begann im Februar 2011)
Durch die verschiedenen Google Panda Updates soll die Qualität der Blogs oder der Webseiten (Onsite-Kriterien) gecheckt und in den Algorithmus integriert werden: Ist der Content gut und einzigartig? Bietet er einen Mehrwert? Bleiben die Besucher auf der Seite oder fliehen sie gleich wieder?

Google Penguin (bekannt gegeben am 24. April 2012)
Durch Google Penguin wird neben Onsite-Kriterien wie Keyword-Stuffing (unnatürliche Wiederholung des Keywords im Text oder in den Meta-Tags) die Verlinkung (Offsite-Kriterien) gecheckt. Massenhaft Links von minderwertigen Domains/Seiten (z. B. von Linkschleudern - das sind Verzeichnisse, wo jeder Links eintragen kann, ohne dass es eine Qualitätsprüfung gibt) können sich negativ auswirken. Google bestraft auch, wenn Inhalte mehrmals im Netz vorhanden sind - ein Problem, wenn ein Unternehmen mit örtlichen Filialen die gleichen Texte (bis auf Anfahrtsinformationen o. ä.) auf alle lokalen Seiten stellt - was sachlich völlig logisch wäre. Aber auch für den normalen Blogger kann "duplicate Content" zum Problem werden, wenn die gleichen Inhalte über verschiedene URLs zu erreichen sind oder auch wenn Inhalte unberechtigt wiederverwendet wurden (Content-Klau) - wegen letzterem sollte man regelmäßig überprüfen, ob Inhalte des Blogs oder der Webseite kopiert und woanders noch einmal ins Netz gestellt werden (dafür gibt es Werkzeuge, z. B. Copyscape).

Leider zeigen Google's Maßnahmen zur Verbesserung der Suchergebnisse bisher nur mäßigen Erfolg, denn bei manchen Suchbegriffen (Keywords) sind immer noch einige nahezu inhaltslose Seiten voller Werbung auf den vorderen Plätzen vertreten. Andererseits wurden schon "unschuldige" Webseiten und Blogs abgestraft und flogen aus dem Index. Auf jeden Fall bibbern auch ganz normale Webseitenbetreiber und Blogger vor Angst wegen der Google Algorithmus Updates, denn Sichtbarkeit oder Unsichtbarkeit kann über die Existenz entscheiden - und am Drücker sitzt das Mega-Unternehmen Google mit seiner Quasi-Monopolstellung.

Manche Google Maßnahmen haben außerdem böswilligen Wettbewerbern, die Möglichkeit eröffnet, Blogs und Webseiten aus dem Index zu katapultieren, die sie loshaben wollen - z. B. indem sie massenweise Links von minderwertigen Linkschleudern zu einer konkurrierenden Seite setzen (was dann durch das Google Penguin Update geahndet wird) oder indem sie den Mitbewerber bei Google denunzieren - wozu Google aufgerufen hat.

Ergänzungen und Meinungen können gerne über die Kommentarfunktion hinzugefügt werden.

Quellen und weiterführende Informationen


Sonntag, 3. Juni 2012

Monopolstellung + Richtlinien = Macht

Monopolstellungen und Richtlinien von Mega-Unternehmen sollten unter die Lupe genommen werden, denn Quasi-Monopolisten wie Google (mit einem Marktanteil von 96 %) können ihre Richtlinien wie Gesetze durchdrücken und behindern damit den freien Wettbewerb.

Google's Monopolstellung verleiht zu viel MachtUm es gleich vorwegzunehmen:
Ich führe keinen Feldzug gegen Google. Google ist eine tolle Firma, die sich durch innovative Ideen, geschicktes Vorgehen und gute Produkte einen Platz als Marktführer in der Suche erobert hat. Die, die schneller auf Veränderungen in der Welt reagieren müssten, sind Politiker, Gesetzgeber, Kartellwächter und ähnliche. Sie müssen die gesetzlichen Rahmenbedingungen setzen, damit nicht am Ende die Welt den Megaunternehmen gehört und diese ihre eigenen Richtlinien zu Gesetzen machen können. Ach, ich vergass: Das ist doch, was bereits passiert!

Anzeige


Die meisten Internetnutzer wollen Geld sparen und Informationen ohne monetäre Bezahlung nutzen und es ist ja auch toll, dass das Internet Informations- und Kommunikationsmöglichkeiten unabhängig vom Einkommen bietet. Aber irgendwie müssen auch Publisher ("Veröffentlicher im Internet" - also Betreiber von Informations-, Schulungs-, und Themen-Webseiten/-Blogs) überleben. Also finanzieren sie ihre Webseiten und Blogs über Werbung auf ihren Seiten - oder zumindest versuchen sie es. Dazu setzen sie Werbung ihrer Werbepartner auf die Webseite. Dies sind überwiegend keine herkömmlichen Werbebanner oder Werbetexte mit einem Link zum Angebot des Werbenden, wie man dies direkt mit einem Werbekunden vereinbaren könnte, sondern der Publisher platziert einen Code in den Quellcode seines Blogs oder seiner Homepage, den er von den Werbepartnerprogrammen (Google Adsense, Amazon Partnerprogramm, Affiliate-Plattformen etc.) erhält.

Doch dieser Code ist eben nicht nur ein einfacher Link, sondern ermöglicht es diesen Unternehmen, die Seiten des Publishers und seine Besucher zu tracken - also Daten zu sammeln, Profile zu erstellen und so z. B. personalisierte Werbung (z. B. über Google Adwords) seinen werbetreibenden Kunden anzubieten und (z. B. über Google Adsense) einzublenden. Wer einmal sehen möchte, wer alles mitliest, wenn er/sie eine Webseite besucht, sollte Ghostery (alle Quellen unten) ausprobieren. Denn da sind ja auch noch Twitter, Facebook, Google+ und Co., deren Knöpfe über ähnliche Codes in Webseiten und Blogs eingebaut werden und die genauso tracken.

Die Richtlinien von Google verbieten das Setzen von Links aus bezahlter Werbung auf die Webseite des Werbenden, wenn diese Links nicht im Code mit "nofollow" gekennzeichnet werden - doch das möchten die direkten Werbekunden nicht: Sie wollen den Werbeeffekt plus die Backlinkwirkung von einer guten Seite, dafür sind sie bereit zu zahlen. Google aber droht Publishern und Werbern bei Zuwiderhandlung gegen ihre Richtlinien mit Abstrafung und Unsichtbarkeit in der Google Suche (also im äußersten Fall mit Existenzvernichtung, denn wer in der Google-Suche fehlt, ist praktisch nicht existent). Und nun ruft Google auch noch zur gegenseitigen Denunziation auf.

Als Grund für diese Paid-Links-Richtlinie von Google wird die Verhinderung von Spamming angegeben (in diesem Zusammenhang meint Spamming das Nachvornedrücken von Webseiten in den Trefferlisten der Suchmaschine durch viele gekaufte Links oder Links von eigens dazu generierten Linkschleudern). Ehrlich gesagt, glaube ich diesen Grund nicht mehr, denn Google sollte längst in der Lage sein, schlechte Links von unbrauchbaren Seiten ("Linkfarmen") herauszufiltern und diese entsprechend nicht als "Linkjuice" zu werten (das lernt man doch schon im Internet bei Udacity und Coursera).

Ich habe den Verdacht, Google will seine Monopolstellung ausnutzen, um selbst das Eingangstor zu Werbevereinbarungen zu bleiben/werden und Publisher zur Nutzung von Google Adsense zu manipulieren - denn wenn Publisher mit Google Adsense zusammenarbeiten, anstatt direkt mit Werbekunden Vereinbarungen zu treffen, macht Google dabei seinen Schnitt.

Dabei würde ein verantwortungsvoller Publisher doch nur Werbekunden akzeptieren, die er selbst gut und zu seinen Inhalten passend findet (was den Dofollow-Link rechtfertigt), während er bei Google Adsense weniger bzw. nur komplizierte oder nachträgliche Kontrollmöglichkeiten hat und sich oft genug über die eingeblendete Werbung die Haare rauft. Und natürlich würde ein verantwortungsbewusster Publisher Werbung aus Verbraucherschutz- und Transparenzgründen als solche kennzeichnen - wie es in Deutschland ja auch gesetzlich vorgeschrieben ist.

Durch den Druck jedoch, den Google durch seine Monopolstellung und seine Richtlinien auf Publisher ausübt, treibt das Unternehmen vermutlich etliche Publisher dazu, Werbetexte mit Do-Followlinks nicht als solche zu deklarieren - zum Nachteil des Verbrauchers, der einen Anspruch auf Transparenz hat.

Witzigerweise fand t3n Anfang des Jahres Hinweise, dass Google selbst seine Richtlinien bei Werbung für seinen Chrome Browser missachtete und Werbelinks nicht als Nofollow-Links ausgewiesen wurden. Doch ich finde das eigentlich irrelevant, denn meiner Meinung nach gehört diese Richtlinie grundsätzlich verboten.

Google's Quasimonopolstellung und seine Richtlinien sollten endlich rechtlich unter die Lupe genommen werden und Gegenmaßnahmen ergriffen werden. Denn solche Richtlinien und Strafandrohungen eines Unternehmens mit einer dominanten Marktstellung behindern den freien Wettbewerb und schwächen Publisher.

Anzeige


Quellen und weiterführende Informationen


Freitag, 25. Mai 2012

Google's quasi-totalitäre Herrschaft

Matt Cutts ("I am the head of the webspam team at Google") fordert dazu auf, Webspam von Mitbewerbern zu melden. Da frage ich mich schon: Ist das ein Aufruf eines (welt-)marktbeherrschenden Megakonzerns an seine "Bürger" zur Denunziation anderer "Bürger"? Und an was erinnert mich das? Jedenfalls nicht an Demokratie!

Google hat eine Vormachtstellung im Suchmarkt: Laut W&V hat die Google-Suchmaschine in Deutschland einen Marktanteil von 96 %. Die Google-Suche bestimmt im Grunde, wer sichtbar ist im Internet - zumindest für die Internetnutzer, die mit einer Suchmaschine recherchieren.

Was in den Suchergebnissen gezeigt wird, hängt vom Google-eigenen Suchalgorithmus ab, den Google ständig zu verbessern sucht - angeblich nur im Sinne des Nutzers, aber die seit neuestem beobachtete Bevorzugung großer Marken könnte auch andere Interessen vermuten lassen. Jedenfalls: Auch nach gefühlten 1.000 Panda- und seit neuestem auch Penguin-Updates des Google-Algorithmus ist Google mit den Suchergebnissen auf den vorderen Plätzen nicht zufrieden. Und als Publisher und Nutzer muss ich sagen: Ja, ich auch nicht - es sind bei manchen Suchbegriffen immer noch Seiten mit kaum brauchbarem Content auf den vorderen Plätzen.

Google unterstellt nun, dass daran unlautere Suchmaschinen-Optimierungs-Methoden ("Black Hat SEO") Schuld seien, mit denen der Google-Algorithmus ausgetrickst würde. Matt Cutts, der Kopf der Google-Spam-Brigade, ruft jetzt dazu auf, Mitbewerber, die unlautere Webspam-Techniken nutzen, an Google zu melden und öffnet damit meiner Meinung nach Denunziantentum Tür und Tor. Denn was unter unlauteren Webspam-Techniken zu verstehen ist, definiert natürlich Google selbst und nicht etwa Verbraucherschutzgesetze irgendeines Landes.

Google - die ungeteilte Macht

In unserer Demokratie gibt es aus guten Gründen eine Gewaltenteilung, die die Staatsgewalt auf verschiedene Staatsorgane - Gesetzgebung (Legislative), Vollziehung (Exekutive) und Rechtsprechung (Judikative) - verteilt, um die Macht zu begrenzen (von der vierten Gewalt, der Presse, ganz zu schweigen). Doch im Internet liegt die Macht ganz allein beim Quasi-Monopolisten. Was den Suchmarkt anbetrifft, ist das Google (zu dem übrigens auch YouTube gehört), was Social Media anbetrifft, vor allem Facebook - wobei Google ja über sein Suchmaschinen-Monopol und durch die Verknüpfung der Suche mit anderen Google-Diensten Publisher faktisch zu Google+ zwingt. In ihren Bereichen herrschen die Internetgiganten quasi totalitär - sie machen die Gesetze, verfolgen (bzw. lassen denunzieren) und bestrafen. Bei Zuwiderhandlung bzw. einer Denunziation ist die Existenz, sofern sie auf der Sichtbarkeit im Internet basierte, dahin.

Ach ja - kleine persönliche Anmerkung: Und da wundert sich Google, dass ich als tinto-Publisher nicht ausschließlich Google Adsense Werbung auf meine werbefinanzierten Webseiten und Blogs platziere und nicht noch weitere Google-Tools nutze (solche die offenlegen, wo ich wie viel verdiene), und mich noch abhängiger von Google bzw. mich vollkommen transparent mache? (Dass sie sich wundern, schließe ich aus den E-Mails, die ich immer wieder bekomme: Dass ich mein Adsense-Potenzial nicht ausschöpfe und dass ich doch dieses tolle neue Vergleichstool nutzen könnte - hab vergessen, wie es heißt).

Die Abhängigheit von Google sieht man in dieser Grafik (statistische Auswertung der Besucherquellen für tinto.de und -Projekte (Verbraucherthemen-Mix: Garten, Geld, Gesundheit, Job, Selbstverwirklichung etc.) von Ende April bis Ende Mai 2012).


Die Grafik wurde erstellt mit infogr.am

Macht Google das Internet kaputt?

Ich mag Google und ich mag Facebook - da stecken tolle Ideen und Programmierer dahinter. Ich wünschte, ich hätte solche Visionen. Aber beide Unternehmen wurden zu groß und mächtig - was man eigentlich nicht den Unternehmen vorwerfen kann, denn warum sollten sie nicht wachsen wollen? "The sky is the limit" hatte vor 15 Jahren jeder zweite als Motto in seinen Profilen bei Foren, in Messengern, Chatrooms und bei AOL stehen.

Aber speziell im Falle des Aufrufs von Google zur Denunziation fürchte ich, dass Google Unternehmen und User aus dem nicht-proprietären Internet vertreibt - direkt in die Hände des anderen Datenkraken Facebook (der natürlich nicht weniger totalitär in seinem geschlossenen Reich herrscht)!

Die einzige Möglichkeit für uns Publisher (aber auch Nutzer), eine gewisse Freiheit zu bewahren, sehe ich darin, dass sich Blog- und Webseitenbetreiber gegenseitig stärken. Ideen dazu, Meinungen und Visionen dürfen gerne in den Kommentaren gepostet werden, genauso auch Ideen, ob und wie nationale und internationale Politik die Macht der Megakonzerne einschränken sollte.

Quellen und weitere Informationen
Danke an Eric Kubitz für seine SEO-Woche: News aus der Content Marketing-Maschine, die mich auf diesen Aufruf von Google's Webspam-Chef Matt Cutts aufmerksam gemacht hat.

Dienstag, 15. Mai 2012

Ist die Zeit reif für HTML 5?

Interview mit Stefan Münz, Initiator von SELFHTML, Technischer Redakteur, Programmierer und Autor

Fragt man einen Nichtprogrammierer, woraus eine Internetseite besteht, dann wird er wohl antworten: aus Textblöcken, Links und Bildern. Denn das ist das, was uns der Browser zeigt, wenn wir eine Webseite aufrufen.

Doch unter der Haube enthält eine Webseite zusätzlich Meta-Informationen in Form von HTML-Code, mit dem die Seiteninhalte strukturiert werden - so dass der Browser sie überhaupt wie gewünscht darstellen kann.

Diese Auszeichnungssprache HTML (Hypertext Markup Language) wird derzeit von einer Arbeitsgruppe namens WHATWG (whatwg.org) weiterentwickelt und mit dem für die Standardisierung von Webtechnologien zuständigen World Wide Web Consortium (W3C - w3.org) abgestimmt. Die offizielle aktuelle Version ist zwar HTML4.01, doch HTML5 mit vielen neuen Funktionen steht längst in den Startlöchern.

HTML5 soll HTML endlich von SGML (Standard Generalized Markup Language) mit ihren DTDs (Dokumenttypdefinitionen) loslösen, aber trotzdem rückwärtskompatibel sein.

Zu den Vorteilen von HTML5 gehören neue Elemente wie z. B. section, nav und article, die eine bessere Strukturierung bei gleichzeitiger Auszeichnung ermöglichen. Auch soll HTML5 Plugins wie Adobe Flash überflüssig machen.

HTML5 Strukturbeispiel


Stefan Münz, Technischer Redakteur, Programmierer und Autor hat diese ganze Entwicklung von HTML mitgemacht. Sein Name ist jedem Webdesigner ein Begriff, denn er hat in den 1990ern SELFHTML initiiert und aufgebaut - das HTML-Online-Nachschlagewerk, das seit vielen Jahren fast jeder nutzt, der Internetseiten professionell oder als Hobby erstellt. 2007 ist Stefan Münz zwar aus dem Projekt ausgestiegen, doch HTML gehört weiterhin zu seinen Themen. So erschien von ihm und Clemens Gull Ende 2010 das HTML 5 Handbuch.

Ich durfte Stefan Münz ein paar Fragen stellen:

Wie verbreitet ist HTML5 inzwischen im Netz? Welche großen Marken nutzen schon HTML5?

Die Frage nach der Verbreitung lässt sich sehr unterschiedlich beantworten, je nachdem, mit welchem Maß man misst. Man kann zum Beispiel versuchen herauszufinden, wie viel Prozent aller Webseiten den post-SGML-typischen HTML-Doctype verwenden. Namics Weblog hat das neulich getan und kam zu einem eher nüchternen Ergebnis: 5,4% aller schweizer Webseiten nutzen den neuen Doctype (Quelle). Man kann aber auch mal einen Blick in die Quellcodes der meist besuchtesten Sites werfen: die Google-Suche verwendet den neuen Doctype, Facebook verwendet ihn, YouTube verwendet ihn, Yahoo verwendet ihn, und Baidu verwendet ihn - also die fünf meistbesuchtesten Webangebote weltweit (Quelle). Erst Platz sechs, die Wikipedia, setzt noch auf XHTML1.0 transitional. Auch die Mehrzahl neuerer Wordpress-Themes ist HTML5-basiert. Man ist also in guter Gesellschaft, wenn man sich für HTML5 entscheidet.

Kann man kleinen Website-Betreibern schon HTML5 empfehlen - sprich: wird HTML5 schon von den wichtigsten Browsern unterstützt?

Ich würde nichts anderes mehr empfehlen, wenn nicht besondere, eher seltene Gründe dagegen sprechen. Ein solcher Grund könnte sein, dass ein Anbieter Webseiten-Code im Rahmen einer existierenden XML-Infrastruktur verarbeiten möchte und deswegen "echtes" XHTML benötigt. Aber Browser sind kein Argument mehr gegen HTML5, nachdem ja mittlerweile Konsens ist, dass der IE6 kein geeignetes Mittel mehr ist, um im Web unterwegs zu sein. Für alle übrigen Browser wird man je nachdem, welche Features von HTML5 man überhaupt verwenden möchte, mehr oder weniger viele Workarounds benötigen. Da heute aber auch weitgehend Konsens ist, dass man JavaScript für einen normalen Website-Betrieb als aktiviert voraussetzen darf, wird einem diesbezüglich mittlerweile viel Arbeit abgenommen, vor allem durch Lösungen wie JQuery und seine zahlreichen Plugins. Wenn man vor der Aufgabe steht, ein völlig neues Webprojekt ground up neu zu gestalten, würde ich als Framework die HTML5-Boilerplate empfehlen - eine robuste Basis für zeitgemäße Webseiten, mit allem, was man heute so benötigt - von JQuery über Modernizr für HTML5/CSS3-Workarounds, CSS-Reset bis hin zu Vorlagen für eine robots.txt oder die XML-Datei für Adobe-Cross-Domain-Policy.

Funktioniert HTML5 auch mit Web Application Engines, falls jemand große Projekte aufziehen will?

Da kann ich nur für FastCGI sprechen (für andere Application Engines entwickele ich selber nicht). Die meisten heute genutzten HTML5-Features haben für Web Application Engines gar keine Relevanz, weil sie rein client-seitig verarbeitet werden. Anders ist das bei Technologien wie den Web Sockets, einem wichtigen neuen Verbindungsprotokolltyp im Dunstkreis von HTML5, der HTTP ergänzt und Präsenzserverfunktionalität für Chats, Multi-User-Spiele und dergleichen ermöglicht. Web Sockets erfordern sowohl client-seitig (Browser) als auch webserver-seitig entsprechende Unterstützung. Mittlerweile gibt es serverseitige Plugin- oder Modul-Lösungen für Apache, Tomcat, LightHTTP und andere.

Muss oder sollte man alte Websites auf HTML5 umstellen? Schon jetzt oder später bzw. ab welcher Version?

"Historische" Seiten sollte man, finde ich, ruhig mal lassen, wie sie sind, und Feedback abwarten. Sicherlich werden viele alte Seiten im Laufe der Zeit immer fehlerhafter - besonders wenn sie proprietäre HTML-Elemente enthalten, beim CSS auf das veraltete Microsoft-Box-Modell setzen oder seinerzeit coole, heute aber nicht mehr unterstützte oder verpönte Technologien wie etwa ActiveX-Controls nutzen. Leiden alte Projekte zunehmend unter solchen Erosionserscheinungen, muss ein sinnvoller Kompromiss gefunden werden zwischen heutiger Bedeutung/Reichweite und Änderungsaufwand.

Bei allen Websites dagegen, die noch aktiv gepflegt werden, und die hin und wieder ohnehin einen kräftigen Relaunch spendiert bekommen, sollte die HTML5-Umstellung auf der Todo-Liste stehen. Da gilt eigentlich das Gleiche wie bei Neuprojekten. Da die meisten Webseiten heute dynamisch generiert und die Inhalte via CMS gepflegt werden, genügt es in vielen Fällen, Templates zu ändern. Natürlich kann es in der Praxis darüber hinaus zu Problemen kommen wie Konflikten zwischen HTML5-typischem JQuery und bestehenden JavaScripts. Solche Probleme zu lösen, erfordert mitunter einigen Aufwand. Doch insgesamt sind die Probleme bei der Umstellung auf HTML5, glaube ich, kleiner als befürchtet. Der Teufel steckt da eher im Detail, und den Teufel im Detail wird man so oder so niemals los.

Vielen Dank für die Informationen und Tipps und weiterhin alles Gute!


Buchtipp

HTML5 Handbuch*
Die neuen Features von HTML5
Stefan Münz, Clemens Gull
Franzis Verlag GmbH
744 Seiten
ISBN-13: 978-3-6456-0284-6

* Werbepartnerlink


Mehr von Stefan Münz und HTML5


Freitag, 13. April 2012

Hört auf, von der Netzgemeinde zu reden

Immer wieder lese ich von dieser "Netzgemeinde". Als es noch vorwiegend um technische Belange ging und netzunerfahreneren Politikern erklärt wurde, wie bestimmte Dinge im Internet oder auf Social-Media-Plattformen ablaufen, fand ich das noch in Ordnung. Da ich selbst seit 1996 online bin und seit 1997 im Internet veröffentliche, fühle ich mich auch hier zuhause - bin im unpolitischen Sinne also ein Bestandteil dieser "Netzgemeinde".

Netzgemeinde? Vernetzte Menschen sind nicht unbedingt einer Meinung
Netzgemeinde? Vernetzte Menschen sind nicht
unbedingtin allem einer Meinung!
Zu Anfang gab mir das Wort "Netzgemeinde" noch so eine Art heimeliges Gefühl – schließlich waren wir die Eroberer (zweiter Generation) einer neuen Welt gewesen, der virtuellen Welt. Wir waren cool, wir waren Vorreiter. Aus Begeisterung für Computer und Internet habe ich sogar meinen Beruf gewechselt.

Doch in letzter Zeit wird der Begriff ständig in politischen Zusammenhängen gebraucht – meiner Meinung nach missbraucht – auf der einen Seite von selbst ernannten, politisch motivierten Netzgemeinden-Fürsprechern, deren Ansichten ich überwiegend nicht teile. Ich habe euch nicht gewählt, also redet nicht für mich! Aber auch von denen, die sich eben gegen diese artikulieren und sie als "Netzgemeinde" adressieren, wenn sie ihre Gegenargumente vorbringen. Hört auf damit - es gibt keine Netzgemeinde, jedenfalls nicht als einheitliche politische Fraktion!

Ich will weder, dass jemand, den ich nicht gewählt habe, für mich spricht, noch will ich mit ihnen von der anderen Seite in einen Topf geworfen werden - seid nicht so dumm, nicht zu differenzieren, wenn Ihr euch eure Feinde nicht selbst züchten wollt!

Ich bin sicher, so wie mir, geht es auch vielen anderen. Nur weil wir das Internet und seine neuen Möglichkeiten (auch hinsichtlich Bürgerbeteiligung) schätzen, wollen viele/die meisten (?) von uns nicht, dass sich unsere Gesellschaft/Demokratie als solche grundsätzlich verändert. Aber wir sind eben nicht die, die laut schreien, sondern einfach die, die das Internet tagtäglich nutzen.

Ich bin Bestandteil der Netzgemeinde im unpolitischen Sinne. Auch ich liebe das Internet als Informationsquelle, Kommunikationsmöglichkeit und Ort der Freiheit: Freiheit, mich auszudrücken, selbst zu publizieren, kreativ zu sein. Ich will weder das Urheberrecht verkürzen (Urheberrecht aus Sicht eines Urhebers (Autor), Lobbyismus in Social Media) und ich will keine Digitale Demokratie (Digitale Demokratie ist Bullshit). Obwohl ich pro-kapitalistisch eingestellt (im Sinne einer sozialen Marktwirtschaft) und Hobbybörsianerin bin, will ich nicht, dass unsere Gesetze sich nach den Geschäftsmodellen amerikanischer Großkonzerne richten.

Hört endlich auf, von der Netzgemeinde zu reden - zumindest in politischen Diskussionen! 

Und wer wissen will, was die Netznutzer denken, der soll ordentliche Wahlen oder zumindest seriöse Umfragen durchführen, bei denen neben der Repräsentativität sichergestellt ist, dass jeder Nutzer nur für sich (und nicht beauftragt im Sinne von Unternehmens- oder politischer Kommunikation) und auch nur einmal abstimmen kann.


Donnerstag, 5. April 2012

Social Media -
wie fängt eine Firma damit an?

Dieser Artikel stammt vom 11.05.2011 und wurde aktualisiert. Er gibt einen Einblick für Neueinsteiger. Eine ausführlichere Fassung finden Sie bei akademie.de: Social Media für Unternehmen: Einsteigen nach Plan
---------------------------------------------------------------------------------------------------

Social Media - VG-Wort-Pixel
Kommunikation pflegen wie einen Garten
Text und Kommunikation - evaschumann.biz
Mit dem Thema Social Media muss sich heutzutage jede Firma auseinandersetzen - selbst wenn sie nicht mit eigenen Profilen (Accounts)/Markenseiten (Fan-Pages) aktiv werden möchte. In jedem Fall sollte man wissen, was in Social Media über das Unternehmen geschrieben wird, und es muss festgelegt werden, wie die eigenen Mitarbeiter in Social Media über die Firma kommunizieren dürfen (Social-Media-Richtlinie).


Social Media - wie geht man vor?

Zunächst wird ein Social-Media-Beauftragter bestimmt bzw. ein Social-Media-Team zusammengestellt. Diese Personen(en) sollte(n)
  • bereits über Erfahrung mit Social Media verfügen oder
  • diese während eines definierten Zeitraums sammeln -  unterstützt von entsprechenden Schulungen, Fachbüchern/Fachpublikationen und Fachleuten.
  • Alternativ stellen Sie einen Social-Media-Manager ein oder 
  • vergeben die Aktivitäten komplett als Auftrag an externe Dienstleister/Freiberufler - in diesen Fällen müssen die entsprechenden Schnittstellen ins Unternehmen festgelegt werden, denn schließlich geht es bei Social Media um Kommunikation zwischen dem Unternehmen und der Zielgruppe der jeweiligen Aktivität.

Social-Media-Richtlinie

Jedes Unternehmen benötigt eine Social-Media-Richtlinie (Social Media Policy). Der Social-Media-Verantwortliche bzw. das Team sollten die Richtlinie ausarbeiten. Sie muss u. a. auch mit der Corporate Identity abgeglichen und vom Firmeninhaber/Geschäftsführer abgesegnet werden. 

In der Social-Media-Richtlinie wird zum Beispiel festgelegt:


  • Bezug zur Unternehmensidentität (Corporate Identity) - die eventuell sogar überarbeitet werden muss, 
  • wer unter einem Firmen-Account schreiben darf (falls entsprechende Accounts eingerichtet werden sollen, um ein aktives Konzept umzusetzen) und worauf bei der Kommunikation Wert gelegt werden soll (Ziele, Authentizität, Verantwortung etc.),
  • ob und wie sich Mitarbeiter, die nicht Social-Media-Beauftragte sind, in Social Media über die Firma äußern dürfen bzw. wie sie sich abgrenzen müssen (Themen: Geschäftsgeheimnisse, Social-Media-Nutzung während der Arbeitszeit, persönliche Meinung vs. offizielle Firmen-Statements etc.).

Aktiv werden in Social Media

Wer als Unternehmen in Social Media aktiv werden will - z. B. mittels Twitter-Account, XING-Firmenprofil, XING-Gruppen-Moderation, Facebook-User-Account, Facebook-Firmenpage, Google+ Personenprofil (Profilierung als Experte, Google+ Markenseiten/Unternehmensseiten, Wikipedia-Profil etc. -, muss zuerst eine Strategie entwickeln. Das kann das Social-Media-Team je nach Erfahrung alleine anstoßen und mit Vertretern der einzelnen Abteilungen ausarbeiten oder man nimmt einen externen Social-Media-Berater hinzu. Die Strategie sollte darauf abzielen, dem Kunden einen Mehrwert zu bieten und muss daher tief im Unternehmen und seinen Prozessen wurzeln (z. B. Informationen über neue Produkte - in Zusammenarbeit mit Produktentwicklung, Marketing, Vertrieb; Beratungsdienstleistungen direkt in Social Media -  in Zusammenarbeit mit Support, Projekt-Consulting und/oder Sales). Die Strategie muss vom Marketingleiter oder der Geschäftsleitung abgesegnet und vom Social-Media-Team mit dem ganzen Unternehmen umgesetzt werden. 

Fragen, die zur Konzept-/Strategieentwicklung gestellt werden sollten, sind BEISPIELSWEISE:
  • Was wird bisher über die Firma/das Unternehmen in Social Media verbreitet?
    Äußern sich Kunden über Produkte, den Service etc.? Auch wenn Sie als Unternehmen bisher nicht aktiv waren, so waren es aber möglicherweise Ihre Kunden oder Geschäftspartner. Vor der Konzeptentwicklung sollte man den Status Quo kennen.
  • Warum will man überhaupt in Social Media aktiv werden?
    Passt das zur bisherigen Corporate Identity - oder muss man auch die neu überdenken? Sucht man Kunden-Feedback, will man neue Kunden gewinnen, intensiveren Kontakt zu Geschäftspartnern, Informationen verbreiten, die Marke stärken, mit anderen im gleichen Interessenverband netzwerken, direkt in Social Media Dienstleistungen anbieten, Personal finden? 
  • Welches soziale Netzwerk (Twitter, XING, LinkedIn, Facebook, Google+,  Yahoo-Social-Media-Anwendungen, Foren, Blogs, Frage-Antwort-Portale, Social Bookmarks etc.) eignet sich für welche dieser Absichten? Wer ist im jeweiligen sozialen Netzwerk meine Zielgruppe, was will ich von ihr und wie/über was spreche ich mit ihr? 
  • Welchen Mehrwert bieten meine geplanten Social-Media-Aktivitäten gegenüber anderen Kanälen?
  • Wie werden die Social-Media-Aktivitäten ins Marketing-Konzept eingebunden und z. B. an die Firmenwebsite gekoppelt (Gefällt-mir-Knöpfe, +1-Symbole etc. müssen umgekehrt auch in den Datenschutzrichtlinien berücksichtigt werden, Kosten für den Website-Relaunch etc.). Wie werden ansonsten Freunde, Fans, Followers etc. geworben? Budget für entsprechende Werbemaßnahmen?
  • Wer soll wofür zuständig sein (Kompetenzen, Kapazitäten), welche Abläufe braucht man und wo sind die Schnittstellen?
    Zum Beispiel: Wer informiert den Social-Media-Beauftragten über Neuigkeiten, die kommuniziert werden sollen bzw. mit wem entwickelt er eine Strategie zur "Verbreitung gesprächswürdiger Themen"? Wo findet er/sie Unterstützung bei komplexen fachlichen Fragen etc. Wenn beispielsweise über Twitter vorwiegend News (neue Produkte, Nachrichten aus der Firma, Sonderaktionen etc.) verbreitet werden sollen, dann muss geklärt werden, wer dem/den Twitter-Verantwortlichen den Input liefert (Marketing?) bzw. wo sie ihn recherchieren können, um dann selbst zu entscheiden, ob sie ein Thema übernehmen und wie sie das formulieren. Prozesse müssen evaluiert und festgelegt werden.
  • Wie will man sich in problematischen Situationen verhalten, z. B. wenn ein neues Produkt von Kunden massiv kritisiert wird oder wenn Mitbewerber Gerüchte streuen etc. Gerade in solchen Situationen ist Professionalität gefragt - und das schafft man am besten mit Vorbereitung.
  • Was machen die Mitbewerber oder Firmen mit ähnlichen Geschäftsfeldern? Hier kann man sich Anregungen holen.
  • Wie und wann will man die Social-Media-Aktivitäten bewerten?
    Zum Beispiel: Welche Benchmarks legt man für Erfolg/Misserfolg fest? Wie oft und wie überprüft man Erfolg/Misserfolg bzw. passt die Benchmarks wegen gewonnener Erfahrungen an?
Der Social-Media-Beauftragte bzw. das Team setzen das Konzept/die Strategie mit den entsprechenden Abteilungen um und kommunizieren ihr Vorgehen und ihre Erfolge im gesamten Unternehmen (z. B. über das Intranet oder eine Mitarbeiterzeitschrift) und eventuell auch nach außen.

Fazit

Man muss sich als Firmeninhaber, Geschäftsführer oder Marketingleiter von vorneherein klar sein, dass aktiver Social-Media-Einsatz 

  • zum Unternehmen passen muss und in ihm und seinen Prozessen wurzeln sollte,
  • anspruchsvoll und gleichzeitig zeitaufwändig ist,
  • man ein ausgereiftes Konzept braucht, um mit planbaren Ressourcen angestrebte Ziele zu erreichen.
  • Social-Media-Kommunikation i. d. R. Kontakt mit Kunden und Geschäftspartnern bedeutet und dass für diese Tätigkeiten Mitarbeiter/Teams eingesetzt werden sollten, die sehr gut schriftlich kommunizieren können und gleichzeitig fachlich einigermaßen kompetent sind - zumindest wissen, wann sie fachliche Kompetenz hinzuholen müssen.
  • Wer sich auf Social Media einlässt, sollte wissen, dass es um Kommunikation geht und Kommunikation hat viel mit Zuhören und Vertrauen zu tun. Es sollte, wo immer möglich (z. B. bei Facebook-, Google+ Seiten), offengelegt werden, wer die Personen sind, die unter dem Unternehmens-Account posten.
Unternehmenskommunikation muss - in Social Media und anderswo - wie ein Garten geplant, gehegt und gepflegt werden. Nur so gedeiht sie und beschenkt Sie mit Erfolgen, z. B. mit einer Steigerung Ihres Bekanntheitsgrades, Vertrauen von potenziellen Kunden in Ihr Unternehmen und seine Produkte und vieles andere. 
Sie suchen Unterstützung? Kontaktieren Sie mich!


Eva Schumann (Personenprofile)

XING-Account
Google+ Profil
Twitter-Account
Facebook-Account
LinkedIn-Account
Wikipedia-Eintrag


Eva Schumann Text & Kommunikation 

Blog "Text & Kommunikation"
Facebook-Account (Personenprofil), Facebook-Firmenpage ("Fanpage")
Google+ Firmenseite
XING-Firmenprofil


Eva Schumann Online Publikationen (tinto)

Blog "Rund um Geld und Börse"
Blog "Beste Geldanlage"
Facebook-Gartensaison, Facebook-Geldthemen, Facebook-Golfen, Facebook-Diäten
XING-Firmenprofil




Sonntag, 18. März 2012

Der Weg zum ersten eigenen Buch - Interview mit Pia Ziefle (Suna)

Pia Ziefles Roman "Suna" ist gerade pünktlich zur Leipziger Buchmesse bei Ullstein erschienen und hat in diesen wenigen Tagen bereits sehr viel positives Echo erhalten. Ich konnte Frau Ziefle nach ihrer Rückkehr aus Leipzig interviewen.

Eva Schumann: Frau Ziefle, zuerst einmal herzlichen Glückwunsch zu Ihrem wunderschönen Erstlingsroman "Suna" (-> Rezension). Schriftsteller haben ja ganz unterschiedliche Vorgehensweisen beim Schreiben. Wie gingen Sie vor (bei der Erstfassung): Sprudelte die Geschichte aus Ihnen heraus und wollte erzählt werden oder entwickelten Sie zuerst ein Konzept und schrieben dann?

Pia Ziefle: Die Geschichte kam mehr oder weniger von selbst zu mir - das Schwierige war aber, die verschiedenen Zeitebenen im Griff zu behalten. Und die geschichtlichen Daten. Und die vielen Figuren. Dafür habe ich ein riesiges White-Board im Büro und eine Menge verschiedenfarbiger Stifte. Außerdem arbeite ich gerne mit DIN A4 Blättern, die ich im Raum auslegen kann. Jedes Blatt hat nur ein Thema, beispielsweise eine Figur oder einen der Handlungsstränge. Ich habe früher non-lineare Drehbücher geschrieben, aus dieser Zeit habe ich die Zettelmethode übernommen.

Eva Schumann: Viele Menschen träumen davon, einen Roman oder überhaupt ein Buch zu schreiben, doch nur wenige schaffen es - weil es mühseliger ist, als sie erwartet haben. Wie schafften Sie es, durchzuhalten? Haben Sie ein paar Tricks parat - feste Schreibzeiten, Durchhalten mit Schokolade und Kaffee o. ä.?

Pia Ziefle: Viele sagen "ich würde auch einen Roman schreiben, wenn ich die Zeit dazu hätte". Da ist mehr dran, als man so denkt. Es dauert immer viel viel länger, als man denkt. Obwohl ich sehr viel Schreib- und Konzeptionserfahrung hatte, konnte ich in der zuerst geplanten Zeit keinen zufriedenstellenden Stand erreichen. Das Manuskript war zwar irgendwie gut, aber man hat doch deutlich sehen können, dass da mehr drinstecken könnte - als würde man hinter dem zuerst angepeilten Gipfel einen weiteren entdecken, der in keiner Karte verzeichnet ist und den man vom Tal aus nicht sieht. Dann steht man vor der Entscheidung, ob das genügt, was man erreicht hat, oder ob man noch genügend Kräfte hat, weiterzugehen. Feste Schreibzeiten wären sicher toll gewesen, aber mit der Familie ist das nicht drin. Ich habe vorwiegend abends und nachts geschrieben, mit Hilfe von Kaffee und Chips. Und Schokolade.

Eva Schumann: Davon, gleich für den ersten Roman einen Verlag wie Ullstein zu finden, träumen viele. Wie haben Sie das geschafft?

Pia Ziefle: Das war tatsächlich ziemlich überraschend. Das Manuskript war in seiner ersten Fassung nämlich überall durchgefallen. Daraufhin habe ich mich hingesetzt und alles nochmal ganz neu geschrieben, inklusive einer neuen Erzählperspektive. Das Wichtigste aber: Ich habe eine wunderbare Agentin, Christine Koschmieder von partner+propaganda. Sie hat von der allerersten Minute an mich geglaubt und begleitet mich seit über zwei Jahren. Auf mich allein gestellt hätte ich sicher nicht genügend Mut gehabt, die großen Verlage anzusprechen.

Eva Schumann: Ihr Roman "Suna" ist teilweise autobiografisch – auch Sie wurden als kleines Kind adoptiert und haben sich später auf die Suche nach Ihren leiblichen Eltern gemacht. Sich dieser Angst, was da bei der Suche wohl ans Licht kommen wird, zu stellen, ist eine Sache. Aber ich könnte mir vorstellen, dass auch die Veröffentlichung – Offenlegung der eigenen Geschichte - Angst macht. Was oder wer hat sie motiviert, es dennoch zu tun?

Pia Ziefle: Ich glaube, die eigene Geschichte ist viel weniger individuell, als man denkt. So ging es jedenfalls mir, als ich anfing zu recherchieren. Ich bin zum Beispiel auf die Bücher von Sabine Bode gestoßen, die sich ganz ausführlich mit der "vergessenen Generation" der Kriegskinder in Deutschland befasst, und in den Lebensgeschichten adoptierter Menschen finden sich immer wieder dieselben Fragen nach der Identität. Und wenn man noch einen Schritt weiter weggeht, stellt man fest, dass jeder sich irgendwann fragt, wer er ist und was ihn und sein Handeln bestimmt. Es sind also universelle Fragen und ich habe versucht, die Antworten in den Roman zu schreiben, die ich gefunden habe.

Eva Schumann: Die Zusammenarbeit mit einem Verlag ist eine Möglichkeit, zu veröffentlichen. Daneben gibt es die Veröffentlichung im Selbstverlag (z. B. zusammen mit Print-On-Demand-Anbietern oder als E-Book). Warum haben Sie den Weg mit Ullstein gewählt?

Pia Ziefle: Ich möchte nicht alleine arbeiten. Ich brauche den Austausch mit einem Team und den Verlag betrachte ich als Partner auf Augenhöhe. Außerdem will ich mich nicht um alles kümmern, ich will Aufgaben abgeben. Dafür teile ich gerne die Erträge mit einem Verlag. Auf der anderen Seite schaue ich natürlich sehr aufmerksam hin, ob und was der Verlag denn so macht, um das Buch tatsächlich zum Kunden zu bringen.

Eva Schumann: Planen Sie weitere Romane?

Pia Ziefle: Ich habe mal gesagt, man hat als Schriftsteller immer irgendwo 80 Seiten rumliegen, das stimmt tatsächlich. Aber jetzt, wo ich weiß, wie viele Kräfte nötig sind, wie intensiv die Arbeit mit Stoff und Text ist (ganz anders als bei meinen Blogtexten beispielsweise), wie hoch meine eigenen Ansprüche an das Ergebnis geworden sind - da warte ich lieber noch eine Weile, bevor ich mich wieder an den Schreibtisch setze.

Eva Schumann: Ich wünsche Ihnen weiterhin viel Erfolg mit "Suna" und hoffe, Sie vergessen die Schmerzen dieser ersten Geburt bald und schreiben einen weiteren Roman. Bis es soweit ist, werden wir Fans mit Spannung Ihre Geschichten in Ihrem Blog Denkding verfolgen.

Das Buch:
Suna*
Pia Ziefle
Ullstein
ISBN 978-3-550-08892-6


*Werbepartnerlink zu Amazon.de