MetaDaten, Informationsverbreitung und Social Media Marketing [#NeuesLesen]

Wir betreiben für uns und unsere Kunden [darunter auch Verlage und Autoren] bereits seit 2007 eine Reihe von Blogs, die wir jeweils mit Twitter, Facebook und einer Reihe von sonstigen Social Media Plattformen und Bookmarking Sites verknüpft und über URL Shortening mit Autoposting-Funktionen ausgestattet haben. Das bedeutet, dass ein Blog-Artikel unmittelbar nach seiner Publikation die Reise durch das Web antritt und seine Reise mit Hilfe der über die URL Shortener erhältlichen Auswertung real-time verfolgt werden kann. Natürlich haben wir die Blogs in unsere Google Statistikumgebung eingebunden und verfolgen systematisch deren Entwicklung [letztlich wollen wir ja wissen was wie ankommt oder nicht]. Hinzufügen möchten wir, dass viele Blogbeiträge die Beschreibung von Büchern und Produkten zum Inhalt hatten, also ein Teil einer Marketingkampagne waren und auch entsprechend mit Facebook Werbung und Google Adwords beworben wurden. Soweit die Ausgangsposition.

 

Wir wollten jetzt wissen, wie sich die Informationsverbreitung innerhalb des Webs bzw. des Social Media Universums für uns tatsächlich darstellt. Daher haben wir uns in den letzten Tagen die Mühe gemacht, rund 600 Blogbeiträge, die in den letzten 18 Monaten verfasst wurden, statistisch auszuwerten und haben unsere Überraschung erlebt.

 

Wir leben mit Twitter und Facebook in einer real-time Welt, d.h. dass wir Postings bzw. Updates unserer Freunde und Followers sofort sehen und reagieren können. Vor unseren Augen fließen die vielen Updates über den Bildschirm und verlieren ihre Aktualität sobald sie am unteren Rand des Bildschirms verschwinden. Eine schnelle Instant- und Fastfood-Welt in der wir leben. Insofern haben wir angenommen, dass die Zugriffe auf  Blogbeiträge sich ähnlich verhalten würden: die meisten Zugriffe zu Beginn und danach abflachend. So ist es aber nicht.

 

Über [fast] alle Artikel unserer Analyse konnten wir das Phänomen feststellen, dass lediglich 20% der statistisch erfassten Zugriffe auf den Blogbeitrag in den ersten 10 Tagen nach Einstellung erfolgten. Das galt grundsätzlich auch für jene Artikel, wo wir begleitend Werbung geschalten hatten wobei sich hier der Anteil der Zugriffe in den ersten 10 Tagen um die 30% einpendelte. Die restlichen 70% bzw. 80% der Zugriffe bzw. Leser sind in der Folge erst über die Monate nach ihrer Veröffentlichung hinzugekommen wobei hier fast ein linearer Zuwachs beobachtet werden kann. Ähnliches gilt auch für Bücher, die wir mittels Blogbeiträgen beworben haben. Die wenigsten Kauftransaktionen finden unmittelbar nach Aussendung des Beitrages statt, sondern eher langsam. Der Höhepunkt der Zugriffe und Käufe liegt irgendwo zwischen 8-12 Wochen nach Erscheinen des Artikels. Wir stellen die Bücher, die wir für unsere Verlags- und Autorenkunden verkaufen auch auf die Online-Bibliothek issuu ein und konnten dort ein fast identisches Lese- und Zugriffsverhalten ausmachen. Die meisten Leser hatten wir regelmäßig nach 8 Wochen wobei sich dann zwar der Zuwachs abflachte aber meist auf relativ hohem Niveau verblieb.

 

Eine erste Interpretation: nur ein Bruchteil der Leser und Zugriffe kommt in real-time [Echtzeit] direkt von Twitter und Facebook, denn dort verschwindet der Beitrag ja nach wenigen Sekunden wieder. Die Leser müssen also über Suchmaschinen bzw. über die Verlinkung mit anderen Blogs und Artikeln kommen. Nicht zuletzt verlinken wir unsere Artikel untereinander, was wohl den kaskadenartigen Netzwerkeffekt unterstützt. Die Blogbeiträge werden über deren MetaDaten gefunden, sie sich in zwei Kategorien einteilen lassen. Da wären zunächst die Meta-Stammdaten wie Titel, Beschlagwortung [tags], Kategorisierung und Links [als Unique Resource Identifier URI]. Hinzu kommen auch noch die Meta-Bewegungsdaten, die durch die Verkürzung der Links über die URL Shortening Services wie bit.ly hinzugefügt werden. Die MetaDaten sind DNA und Lebensnerv der Beiträge. Das war uns schon klar [siehe unsere Beiträge über MetaDaten und URL Shortening] aber trotzdem ist das Ergebnis unserer Auswertung überraschend. Die MetaDaten sorgen offensichtlich für den viralen Effekt indem sie sich mit MetaDaten anderer Artikel und Beiträge verknüpfen und so eine Spur zu unserem Beitrag legen bzw. diesen in einen Informationsteppich einknüpfen. Der oft zitierte Netzwerkeffekt eben.

 

Wir stellen uns angesichts dieser Ergebnisse die Frage ob das Social Media Marketing wie z.B. über Facebook Werbung daher nicht völlig überschätzt wird? Es scheint sich der viel beschriebene Virale Effekt auf eine Art natürliche Weise aufzubauen und dürfte auch über bezahlte Werbung zu Beginn der Informationsaussendung nicht zu beschleunigen sein. Es bedeutet jedenfalls auch, dass Autoren und Verlage bei der Vermarktung ihrer Bücher keine kurzfristige Perspektive einnehmen dürfen, sondern sich die Zeit geben müssen, um ihren Blogs aufzubauen. Jede Schlussfolgerung, die nach wenigen Wochen und Monaten gemacht wird ist daher mit hoher Wahrscheinlichkeit falsch. Die Welt da draußen ist – real-time hin oder her – noch immer nicht so schnell wie wir angesichts der über den Bildschirm fließenden Updates verführt sind zu glauben. Praktisches Fazit: über einen Blogbeitrag des öfteren Updates und Tweets versenden.

 

Wir analysieren und brainstormen natürlich noch weiter über die für uns überraschende Erkenntnis und scheinbare Dichotomie: hier das real-time Web mit dem Fastfood-artigen Informationskonsums und dort der langfristige Lebenszyklus bzw. die langsame Proliferation der Artikel durch das Web. Jeder Diskussionsbeitrag sowie eure Erfahrungswerte werden begrüßt.

Posted via email from Notizen aus der MedienFabrik

Barnes & Noble: Ein Requiem des Buchhandels

Knalleffekt: Gestern hat sich Barnes & Noble quasi selber zum Verkauf gestellt und das nachdem es so tapfer am neuen eBook-Markt gekämpft hatte. Wir haben die schaurige Botschaft über Buchreport erfahren. Die größte US-Buchhandelskette weiß offensichtlich keine strategische Antwort auf die Herausforderungen des neuen Buch- und Mediengeschäfts. Mit seinen 777 Filialen hat das 1917 gegründete Barnes & Noble 2009 rund US-$ 5,12 Milliarden Umsatz gemacht und dabei lediglich einen Gewinn [Net Profit] von US-$ 76 Millionen erzielt, was einer Umsatzrendite von knapp 1,4 Prozent ergibt [Tendenz: fallend]. Im Vergleich dazu hat  das 1994 gegründete Amazon 2009 knapp US-$ 25 Milliarden an Umsatz erzielt und damit US-$ 902 Millionen Gewinn [Net Profit] erzielt. Das entspricht einer Umsatzrendite von 3,6% [Tendenz: eher steigend]. Der Unterschied in der Profitabilität erklärt sich sicher auch teilweise dadurch, dass der Barnes & Noble fast doppelt so viele Mitarbeiter beschäftigt wie Amazon. Die Mitarbeiterproduktion ist bei Amazon rund 8 mal so hoch wie die bei Barnes & Noble. Während rund 40.000 Mitarbeiter bei Barnes & Noble in den USA und Nachbarschaft etwas mehr als 5 Milliarden Umsatz machten, schafften rund 24.000 Mitarbeiter von Amazon eben US-$ 25 Milliarden auf globaler Ebene.

 

Ist der Erfolg von Amazon ungerecht, unfair oder unverdient? Nein, hinter dieser Erfolgsgeschichte von Amazon liegen ein langer, steiniger Weg und enorm hohe Investitionen.  Bis 2002 schrieb Amazon Verluste und erst 2009 überstiegen die seit 2003 kumulierten Gewinne des Unternehmens die davor angehäuften Verluste. Amazon hat sich seine Spitzenposition im Bereich eCommerce teuer erkauft und trotzdem ist sie nicht abgesichert. Seit Jahren hat Amazon das Terrain für eBooks aufgebaut und massiv investiert. Letztes Jahr war dem eBook Reader Kindle endlich der Durchbruch gelungen und er entwickelte sich zum umsatzstärksten Produkt des Weihnachtsgeschäftes 2009. Kaum hatte sich Amazon als Marktführer in diesem neuen Markt positioniert sieht es sich schon durch Apple mit iPad und iBookStore und durch Google mit seiner [soon-to-be-opened] eBook-Shop Google Edition konfrontiert. Das wird sicher kein Heimspiel für Amazon werden. Zu viel passiert hier noch in dieser chaotischen Wettbewerbssuppe des eBook-Marktes. In den USA machen die eBooks geschätzte 10 Prozent des gesamten Buchmarktes aus und wachsen rasant im 3stelligen Prozentbereich weiter. Derzeit verfügt Amazon bei den gekauften eBooks in den USA über einen Marktanteil von 60% und weit dahinter mit knapp 20% ist das „alte“ Barnes & Noble [siehe auch unseren Bericht]. Ob das angesichts der neuen Spieler Apple und Google so bleibt darf bezweifelt werden. Amazon, der Erfinder des Online-Buchhandels und Promotor des eBooks läuft Gefahr Marktanteile an die neuen Mitspieler zu verlieren.

 

Der eBook-Markt steht nicht nur für sich, sondern auch als Gradmesser für Veränderungen in der Gesellschaft. Die zunehmende Akzeptanz der eBooks zeigt, dass wir über die letzten 15 Jahre seit dem Aufkommen des Webs die Virtualität als Teil unseres Lebens akzeptiert haben. Über 500 Jahre haben wir gedruckte Bücher gelesen und das Wissen auf diese Art weitergegeben. Der Wechsel zum elektronischen Papier vollzieht sich für uns beobachtende Zeitgenossen zwar [scheinbar] langsam aber aus einer Meta-Perspektive heraus betrachtet passiert das alles in einer unglaublichen Geschwindigkeit. Die „kreative Zerstörung“ [Schumpeter] mittels neuer digitaler Technologien vollzieht sich in der Verlags- und Druckbranche mit einer Dynamik, die dazu führt, dass Traditionshäuser wie Barnes & Noble offensichtlich aufgeben. Das Gutenberg-Zeitalter der letzten 500 Jahre wird in nur wenigen Jahren hinweg gefegt. Wie soll es dann erst den kleinen Buchhändlern gehen, die weder über einen Zugang zum Kapitalmarkt noch über die Größenvorteile von Barnes & Noble verfügen?

 

Die Welt verändert sich nach 500 Jahren Papierwissen hyperdynamisch und verliert sich nun noch weiter in die Bits & Bytes. Und damit verschwinden auch große Teile des Buchhandels im Web. Das hat viel Gutes für die Verbreitung des Wissens und bietet auf globaler Ebene betrachtet Möglichkeiten zur Schließung der Informations- und Wissensnachteile der Entwicklungsländer. In den industrialisierten Ländern hingegen wird auf die Buchhändler und Verlage eine schwere Zeit der Verdrängung und Veränderung zukommen. Eine mögliche Gegenstrategie liegt in der Spezialisierung auf ein Publikum, das weiterhin gedruckte Bücher haben will, in der Erweiterung des Portfolios um eBook Hardware & Zubehör, in Service & Beratung und in Events. Kurz, in der bewussten Verankerung in der realen Welt. Jeder Versuch mit dem Web, mit Amazon, Apple, Google & Co beim Verkauf von eBooks in Konkurrenz zu treten muss gnadenlos scheitern. Die bewusste Positionierung in der realen Welt als Gegenstück zu Facebook, Twitter und Amazon scheint mir die einzige Perspektive über die nächsten Jahre.

 

Ob man davon leben kann? Keine Ahnung aber auch Amazon plagen die Probleme des Hyperwettbewerbs!

Posted via email from Notizen aus der MedienFabrik

eBooks: Geschichten aus Amerika [#FollowReader]

Wer wissen will wohin sich der eBook-Markt [und damit die gesamte Wissens- und Informationsgesellschaft] entwickelt muss trotz aller kulturellen Unterschiede in die USA blicken und dort die Marktentwicklung beobachten. Wie immer, wenn es um Technologie und Informationsgüter geht ist die USA halt ein paar Jahre voraus. Entwicklungen kommen dann mit 12 bis 24 Monaten Verzögerung und in unsere kulturelle Umgebung transformiert zu uns auf den europäischen Kontinent. Das war mit den Computern so, in der Musikindustrie mit Apple’s iTunes, iPods und iPhones und das wird auch jetzt bei den eBooks so sein.

 

Während der eBook-Markt in den USA förmlich explodiert, dümpelt er in Europa und speziell im deutschsprachigen Raum noch vor sich hin. Das hat weniger mit der Technologie der eBook-Reader zu tun, wie mancherorts argumentiert wird, sondern viel mehr mit fehlenden Inhalten. Das wiederum ist das Resultat des zögerlichen und visionsbefreiten Verhaltens der Verlage hierzulande. Diese haben die Entwicklungen schlicht verschlafen und unterschätzt. Als nach langem aber kontinuierlichem Anlauf der eBook-Markt mit dem Erscheinen von Amazon’s Kindle 2009 endlich abzuheben begann waren die meisten US-amerikanischen Verlage schon bereit dazu. Amazon hatte gemeinsam mit Barnes & Noble und Pionierverlagen wie der Mediengruppe O’Reilly seit 2005 den Boden aufbereitet. Daher verfügt alleine Amazon über knapp 630.000 eBooks in seinem Portfolio [leider sind davon lediglich knapp mehr als 3.000 (also lediglich 0,5%) deutschsprachig]. Und daher gibt es neue Geschäftsmodelle für „alte“ Verlage wie den Safari eBook-Verleih von O’Reilly. Und letztlich wurde damit ein Klima für StartUps wie z.B. Smashwords geschaffen, die den Markt nochmals beschleunigt und mit neuen Ideen und Ansätzen bereichert haben. Damit entwickelt sich der Markt aus der Lern- und Einführungs- jetzt allmählich in die Wachstumsphase. Bei uns fehlt vor allem das positive Klima für eBooks. Die allgemeine Technologiephobie in unseren Kulturkreisen kombiniert sich mit dem innovationsfeindlichen Beharrungsvermögen zu einem lethargischen Marktumfeld. Während beispielsweise XML in den USA längst dir technisch-organisatorische Grundlage für neue Geschäftsmodelle und WorkFlow ist wird bei den klein- und mittelständischen Verlagen noch immer sehr Verhalten damit gearbeitet.

 

Aber noch ist nichts zu spät. Wir können den späten Markteinstieg zu unserem Vorteil nutzen und insofern davon profitieren als wir hier in Europa die Lern- und Einführungsphase durch intensives Hinsehen auf den US-Markt und intelligentes Abkupfern der funktionierenden Modelle verkürzen. Dann können wir die zeitliche Verzögerung nach dem Modell „Japan“ zumindest mit reduzierten Forschungs- und Entwicklungskosten/zeiten kompensieren.

 

Ein Fall zum Hinsehen ist z.B. die derzeit laufende Studie „Consumer attitudes Toward E-Book Reading" von der Book Industry Study Group über welche sich ein intensive und hoch interessante Diskussion über Twitter [Hashtag #FollowReader] entwickelt hat. Wie hier rund um die laufende und offen durchgeführte Studie real-time diskutiert wird ist alleine schon ein beeindruckender Beweis für die Lernfähigkeit und Neugier der US-Amerikaner, die uns zögerlichen Europäern leider zu oft abgeht. Hier nun einige für uns interessante Ergebnisse der Studie, die Details bitte an der Quelle bzw. bei O’Reilly’s TOC nachlesen:

 

  • Der Markanteil von eBooks steigt bei den Trade Books von 2,8% für 2009 auf 8,3% im laufenden Jahr und wächst weiterhin mit 3stelligen Wachstumsraten.
  • An der Spitze der eBook-Lesegeräte liegt noch immer der Amazon Kindle mit einem Anteil von rund 40% (er wird auch bei uns kommen)
  • Für die intensiven Leser ist der iPad kein geeigneter Ersatz als Lesegerät, von dieser Zielgruppe werden die spezialisierten Lesegeräte wie Amazon Kindle den Multimedia-Geräten wie iPad vorgezogen.
  • Am populärsten ist Fiction mit 75% gefolgt von den HowTo Führern mit 17% (rückläufig!)
  • Bezogen werden die meisten eBooks über Amazon (61%) und den bei uns kaum bekannten Barnes & Noble (20%). Dahinter kommen viele kleine Anbieter mit einstelligen Prozentsätzen Marktanteil.
  • Primäre Quelle für interessante eBook-Titel sind die klassischen Buchhändler (man geht rein uns sieht sich um, kauft aber online) gefolgt von den Social Media Plattformen wie Twitter und Facebook.

 

Wir sollten aufhören, die Entwicklungen Richtung eBook als negative Entwicklung zu empfinden. Vielmehr sollten wir die eBooks als Chance begreifen, den Buchmarkt auszuweiten und neue Lesergruppen anzusprechen bzw. aus Nicht- und Weniglesern neue Vielleser zu entwickeln. Das haben die US-Amis längst erkannt und werden daher den Markt bis in alle Ewigkeit dominieren, wenn wir nicht die Perspektive verändern. Amazon Kindle, Apple iBooks sind keine Bedrohungen, sondern Chancen für die Entwicklung neuer Marktpotenziale.

 

Es sollte damit begonnen werden, neue Ansätze und Geschäftsmodelle zu entwickeln und zu fördern. Initiativen wie Autorenportale nach dem Vorbild von Suite101 oder neue format- und anbieterübergreifende Distributionsplattformen nach dem Vorbild von Smashwords werden dringend benötigt. Neue Verlagsunternehmen wie EPIDU oder Leserplattformen wie lovelybooks geben Anlass zur Hoffnung, sind aber zu wenig.

 

Und weil wir leben wollen worüber wir schreiben werden wir uns dem Vorbild von #FollowReader anschließen und versuchen, eine ähnliche real-time Diskussionsrunde zu über Twitter zu organisieren, davon später mehr ….

Posted via email from Notizen aus der MedienFabrik

Flipboard: real-time Magazin (Testbericht II)

Wir haben vor gut einer Woche über das neue (vielleicht sogar erste) real-time Magazin Flipboard berichtet. Damals hatten die Burschen aus Palo Alto gerade erst ihren Start gehabt und waren mit allen Startproblemen, die technische Projekte halt so haben konfrontiert. Daher funktionierte z.B. damals die Twitter- und Facebook-Registrierung nicht. Seit kurzem funktioniert auch das und daher dürfen wir unseren Testbericht fortsetzen.

Die publizistische Idee von Flipboard ist es offensichtlich, Blogbeiträge und Artikel, die über mein Twitter- und Facebook-Netzwerk mittels Links verschickt und diskutiert werden in ein dynamisches Magazinformat zu gießen. Zusätzlich zu diesen, durch mein Netzwerk verteilten Artikeln kann ich aus einer Reihe von Blogs wählen, die ich im Magazin lesen will. Ein spannender Ansatz, weil er zumindest meine Bedürfnisse trifft. Ich muss mich nicht erst von einem Twitter- oder Facebook-Link auf den Beitrag klicken und durch das Web surfen, sondern sehe diese vor mir im Magazin. Dabei werden sowohl Artikel, wie Bilder oder Videos dargestellt. Optisch hinkt das ganze noch, was aber angesichts der dahinter liegenden Komplexität verständlich ist. Flipboard ist ein dynamisches Format und muss Inhalte unterschiedlicher Herkunft, Formate, Längen und Größen darstellen. Das lösen die Kollegen aus Palo Alto schon in dieser Anfangsphase ganz gut aber wie gesagt gibt es hier viel Raum für Optimierung.

Flipboard ist unseres Erachtens nach ein ideales Format für das iPad und nutzt dessen multimedialen Möglichkeiten deutlich besser als vergleichbare Formate wie WIRED oder SPIEGEL. Flipboard ist ein Kind, das erkennbar aus Twitter heraus geboren wurde, der Plattform für Blogger, Journalisten und Informationsjunkies. Dass daneben noch Celebrities und Celebrity News ihr Unwesen über Twitter treiben ist systeminhärente Dichotomie. Damit kann ich Twitter zu einem Informationsmedium oder zu einem Gossip-Magazin gestalten - ganz wie ich es mir halt zusammenstelle.

Twitter wirkt daher sehr natürlich im Flipboard-Format wohingegen man die aus Facebook kommenden Updates und Beiträge eher als "hineingezwängt" erlebt. Vor allem: wen interessieren denn die meist oberflächlichen Updates in einem Magazinformat?

Wie bereits mehrfach in diesem Blog dargelegt sind wir unbedingte Verfechter von real-time ePaper und glauben, dass das die Zukunft für viele Magazine und Zeitungen sein wird. Und diesbezüglich sollten die Medienunternehmen und Berater Flipboard auf ihre Watchlist setzen. Wir jedenfalls werden uns die eine oder andere Idee für unsere Projekte abkupfern. Damit wir und unsere Kunden auch etwas von Geldern der hinter Flipboard stehenden Risikokapitalgebern haben und uns vielleicht etwas Forschungs- und Entwicklungsarbeit ersparen;).

Posted via email from Notizen aus der MedienFabrik

Verlage: Kosten- und Ertragsrechnung des digitalen Publizierens

In unserer wochenendlichen Aufarbeitung der besten letztwöchigen Blogartikel haben wir noch einen hervorragenden Beitrag über die Realität des digitalen Publizierens bei der Society for Scholarly Publishing gefunden.

Der Autor Kent Anderson spricht sich dafür aus, dass die traditionelle Verlagsindustrie ihre Kostenrechnungs- und Kalkulationsmodelle an die neuen Gegebenheiten anpasst und sich dabei eher dem Kalkulations der Softwareindustrie zuwendet. Als erfolgreiche Beispiele führt er die Musikindustrie und Apple iTunes an. Kent zeigt, dass digital nicht gratis bedeuten muss und rechnet vor, dass Apple seine Preise pro Song in den letzten Jahren im Schnitt um 30% erhöht hat.

Als weiteren Beweis für den Umstand, dass digital auch etwas kosten darf führt er Condé Nast (WIRED) an, die ebenfalls mit ihren Preisen für digitale Magazinabos in Richtung Norden gehen. Lesenswert.

Posted via email from Notizen aus der MedienFabrik

Meta-Daten können Lese- und Verlagswelt retten

Wir haben in Verbindung mit Medienmarketing und URL Shortening schon einen Artikel über die Bedeutung der Meta-Daten publiziert. Ausgehend davon, dass die, über Meta-Daten erlangbare Kenntnis der Verhaltens- und Interessenslagen der anvisierten Zielgruppen über deren Click-Through-Verhalten bei versandten Links [Facebook, Twitter, Blogs] wesentlich ist für den Verkauf von Büchern, haben wir die Bedeutung von URL Shortening Services wie Bit.ly im Rahmen eines effizienten Online-Marketings dargelegt. Für uns sind Meta-Daten die DNA des neuen Webs, deren Entschlüsselung den Weg zu neuen Lesern öffnen kann.

Daran anschließend möchten wir auf einen interessanten Artikel auf dem O'Reilly Blog verweisen, wo der Autor Nick Ruffilo die Behauptung aufstellt, dass es NUR die Meta-Daten sind, welche die Verlagsindustrie retten können. Warum? Nun, ähnlich wie wir sieht Nick die Aufgabe von Meta-Daten darin, dem Leser die für ihn geeigneten und interessanten Werke online zuzuführen. Um das zu erreichen müssten wir die heute in der Verlagsindustrie verwendeten Meta-Daten signifikant ausweiten. Die vorhandenen Meta-Daten wären laut Nick bei weitem nicht ausreichend, um den Leser effektiv und effizient durch den schier unübersichtlichen Buchdschungel zu führen. Er schlägt als Erweiterung zB vor, die Seitenzahlen, Zeitperiode des Werkes, neue Kategorien, Schreibstil und Serienzugehörigkeit in branchenweite Meta-Daten zu gießen.

Die von Nick dargebrachte Hypothese ist, dass es mittels geeigneter Beschlagwortung (Meta-Daten) gelingen kann einen Teil der fallweisen Leser oder Nichtleser zu regelmäßigen eBook-Lesern zu machen. Das wäre für den US-Markt ein Potenzial von knapp 166 Millionen Menschen von den insgesamt 240 Millionen erwachsenen Amerikanern. Derzeit wären nur knapp 64 Millionen US-Amerikaner Vielleser.

Wie man systematisch Meta-Daten auswerten kann zeigt die neue Facebook App von Amazon. Über das Open Graph API von Facebook holt sich Amazon die Meta-Daten über das Facebook Mitglied ab und baut darauf seine Buchempfehlungen auf. Ein guter Bericht über dieses neue Amazon Projekt haben wir von Marcel Weiß auf buchreport.de gefunden. Letztlich zielt Amazon mit seiner App ebenfalls auf noch genauere Buchempfehlungen ab und hofft offensichtlich, damit noch mehr Bücher verkaufen zukönnen.

Meta-Daten sind letztlich auch die Quintessenz der gesamten XML-Philosophie und damit schließt sich der Kreis zwischen Marketing, Content und Produkt schließen. Letzlich kann ein entsprechend mit Meta-Daten gekennzeichnetes XML-Dokument wesentlich leichter von den potenziellen Lesern und Käufern gefunden werden als ein unintelligentes Werk ohne Meta-Daten. Damit schließen wir für heute das Thema ab und freuen uns auf euer Feedback.

Posted via email from Notizen aus der MedienFabrik

URL Shortening: Marketingtool für Verlage und Autoren

Kurz ist die Nachricht

Mit Facebook, Twitter, Microblogging und real-time Kommunikation rückte das Thema der URL Verkürzer in die breite Aufmerksamkeit. Die Technologie ist bereits seit 2002 eingeführt als tinyURL von Kevin Gilbertson für den Eigengebrauch entwickelt wurde. Die Zeichenbegrenzung von Twitter bzw. die Netiquette erfordern kurze Nachrichten. Verweise und weiterführende Nachrichten werden mittels Links hinzugefügt, die uns als Wegweiser durch das chaotische Informationsuniversum des Webs führen. Durch das intelligente Verlinken und das Anklicken der Links entstehen wiederum neue und wertvolle Meta-Daten für die Versender. Das Wissen wo und wann ein Link angeklickt wurde, welcher Link oft angeklickt wurde und welcher weniger oft ist von hoher Relevanz für die Feinadjustierung der zukünftigen Informationsverteilung. Intelligentes Verlinken erfordert den Einsatz von URL Verkürzern oder URL Shortening Services wie bit.ly.

Meta-Daten – die DNA des real-time Webs

Die Meta-Daten der Updates [Autor, Links, #Hashtags, @name, Social Graph, Profil-, Geo- & Bewegungsdaten] haben sich längst zur DNA eines neuen real-time Webs entwickelt. Darauf basiert die real-time Suche ebenso wie Trendanalyse oder Statistiken. Die Short URL Service Provider wie bit.ly erhalten Zuge des Verkürzungs- und Trackingprozesses einen Großteil dieser Meta-Daten, speichern diese samt anschließender Bewegungsdaten in ihren Repositories und stellen sie zur Nutzung zur Verfügung. Aus dieser Verknüpfung von Benutzer- und Bewegungsdaten mit der Information entsteht enormer Mehrwert. Die meisten Blogs bzw. Blogplattformen wie Wordpress, Blogger, Posterous & Co verwenden die URL Shortener längst als Standardservice. Sowohl für das private Anzapfen der Schwarmintelligenz vulgo Crowdsourcing als auch für kommerzielle Zwecke können die Meta-Daten aus der Linkstatistik hervorragend eingesetzt werden.

Building Intelligence mit Links

Viele Leute sind der Meinung, dass sich mit den Social Media Plattformen und insbesondere mit Twitter ein Web 3.0 – ein intelligentes und lernendes System – bauen lässt. Voraussetzung ist ein über die Meta-Daten herstellbarer Kontext zwischen den Informationen und Personen (interessanter Artikel dazu: The Future is all about Context – The Pragmatic Web) Es sind die interessanten, „intelligence building“ Updates und Tweets, die Links enthalten. Knapp 60% aller ReTweets enthalten verkürzte Links. Insofern enthalten die Repositories der URL Shortener wie bit.ly die Verzeichnisse des kollektiven, kontextuellen Wissens – das Genom des real-time Webs.

Effizientes Marketing für Autoren und Verlage

Die Meta-Daten aus der URL-Verkürzung sind natürlich auch und gerade für Verlage und Autoren von hohem Interesse. Diese produzieren reine Informationsgüter, die sich über Links und Downloads so einfach verkaufen lassen, wie sonst kein anderes Produkt. Gerade für Verlage und Autoren liegt in der Entschlüsselung der Zielgruppen-DNA der Weg zum Erfolg. Liegt doch hinter der Linkstatistik nichts weniger als das kodierte Verhaltens- und Interessensmuster. Über die Verfolgung der Linkstatistik auf Bit.ly und Co [in Verbindung mit der traditionellen Google Statistics Analyse der eigenen Homepage]  kann effizientes Marketing entwickelt betrieben werden. Was interessiert welche Leser auf welcher Plattform? Welche Themen kommen gut an und welche weniger gut? Welches Update, welcher Tweet war ist gut angekommen und welcher nicht? Alles Fragen, deren Beantwortung hilft, die eigene Position zu analysieren und sich zu verbessern. Das angenehme an Web 2.0 ist eben, dass so gut wie alles bewertet und gemessen werden kann. Von der Bewertung der Bücher und Beiträge über Bewertungssysteme, Favoriten- und „Gefällt mir“-Systeme bis hin zu Link- und Homepagestatistiken. Je intensiver mit der Auswertung dieser Bewertungssysteme gearbeitet wird, desto besser und schneller wird sich ein Verlag oder Autor in seiner Zielgruppe bewegen.

Für Verlage bietet Bit.ly und professionelle Autoren bietet Bit.ly zB auch eine Profiversion an, die es ermöglicht, eigene Kurz-URLs zu erstellen und die auch ein erweiterte Dashboard mit umfangreicher Statistik enthält. Also: beginnt mit der Entschlüsselung der DNA eurer Zielgruppe! Das ersetzt zwar noch immer nicht die Anforderung an die Qualität der Texte und Inhalte hilft aber enorm in deren Verwertung.

Posted via email from Notizen aus der MedienFabrik