Lade Inhalt...

Von Backlinks zu sozialen Signalen: Wie Social Media das Online-Marketing verändert

©2012 Bachelorarbeit 51 Seiten

Zusammenfassung

Mit der Entstehung sozialer Netzwerke hat sich auch die Funktionsweise von Suchmaschinen geändert. Die Daten, die User generieren, werden von Suchmaschinen ausgelesen und zur Bestimmung der Relevanz von Web-Inhalten genutzt. So bringt das Web 2.0 neben der Entstehung völlig neuer Kommunikations- und Vermarktungskanäle auch Entwicklungen mit sich, welche die Instrumente des klassischen Online-Marketings und somit auch die der Suchmaschinenoptimierung beeinträchtigen. In dieser Arbeit wird untersucht, welchen Veränderungen das Suchmaschinenmarketing aufgrund der Umwälzungen im Bereich der Online-Kommunikation ausgesetzt ist und welche Konsequenzen sich in der Folge ergeben.
Ausgehend von der Funktionsweise von Suchmaschinen sollen Maßnahmen der klassischen Suchmaschinenoptimierung aufgezeigt werden. Darauf folgt eine Betrachtung wichtiger sozialer Netzwerke und der wachsenden Bedeutung sozialer Signale für die Relevanz-Bewertung durch Suchmaschinen. Anschließend werden die Folgen, die sich für das Online-Marketing aus dem Erfolg von Social Media-Angeboten ergeben, analysiert. Im Besonderen wird dabei auf strategische und organisatorische Herausforderungen eingegangen.

Leseprobe

Inhaltsverzeichnis


2 Fokusverschiebung im Online-Marketing

Aus Sicht des Users hat sich der Vorgang der Informationsbeschaffung im Internet in den vergangenen 10 Jahren kaum verändert. Die Suche nach bestimmten Inhalten und Informationen beginnt üblicherweise mit der Eingabe eines Suchbegriffs in die Suchmaske eines Suchmaschinenanbieters wie Google und führt den User über die entsprechenden Ergebnislisten auf eine Seite, die von der Suchmaschine als relevant angezeigt wird. Welche Kriterien für die Beurteilung der Relevanz dabei entscheidend sind, ist den meisten Usern nicht bekannt.

Aus Sicht des Marketings war das Verständnis des Prozesses, der Internet-Nutzer mit Hilfe von Suchmaschinen zu bestimmten Websites führt, stets von großer Bedeutung. Das Internet wird als Handelsplattform sowie als Kommunikations- und Informationsquelle zu Unternehmen, Produkten und Dienstleistungen genutzt. Eine Vielzahl von Unternehmen verfolgt das Ziel, Interessenten, die Suchmaschinen nutzen, auf ihre Seiten zu führen, um daraus letztlich wirtschaftliche Vorteile zu ziehen. Dazu müssen sie ihre Web-Angebote an die Relevanzkriterien Googles anpassen.

Diese Kriterien stellen den Versuch dar, das schier endlose Angebot von Websites im Hinblick auf ihren Nutzen für den User zu untersuchen. Dazu nutzte Google stets eine Vielzahl von Informationen, die sich aus den jeweiligen Seiten selbst sowie Verlinkungen und Erwähnungen der Seite auf Drittseiten ergaben. Eine Rückmeldung seitens der User bezüglich der Qualität der Suchergebnisse gab es üblicherweise nicht, obwohl es für Menschen ein Leichtes wäre, die Relevanz einer Seite zuverlässig zu beurteilen (Ebersbach, Glaser, & Heigl, 2011, 138).

Doch lange Zeit stellte sich die Frage nach der Zufriedenheit der User mit den Suchergebnissen kaum. Angebote, die es Usern ermöglichten, unkompliziert selbst Inhalte zu schaffen und virtuell zu teilen, wurden kaum genutzt. Die Suchmaschinen mussten sich primär auf die technische Auswertung von Websites und ihrer Codes sowie die Verknüpfung der Seiten untereinander verlassen. Dies änderte sich mit dem Erfolg sozialer Netzwerke und dem Aufkommen neuer Interaktionsformen im Zuge des Web 2.0. Internet-Nutzer nutzen das Internet heute völlig anders als noch vor wenigen Jahren. Informationen werden nicht mehr nur abgerufen, sondern selbst erstellt, geteilt und kommentiert. Für Suchmaschinen ergab sich die Herausforderung, die User-generierte Informationsflut in eine Form zu übersetzen, die sie für die Relevanz-Bewertung von Web-Inhalten nutzbar machte.

Die Benutzeroberfläche von Google, der bedeutendsten Suchmaschine, hat sich in den vergangenen Jahren kaum gewandelt. Doch hinter den Kulissen haben sich die Prinzipien des Suchvorgangs gravierend verändert und wurden stetig an die aktuellen Entwicklungen der Informationsgesellschaft angepasst. Jede solche Anpassung zieht Konsequenzen für das Marketing nach sich. Die Art und Weise, wie Unternehmen Suchmaschinen vermitteln, dass sie relevante Informationen für die User bereithalten, muss analog an die Relevanzkriterien der Suchmaschinen – und somit letztlich die der User – angepasst werden.

Während Website-Betreiber einst weitgehende Kontrolle über die Gestaltung der Inhalte, die für die Beurteilung von Relevanz durch die Suchmaschinen herangezogen wurden, hatten, bedeutet die wachsende Einbeziehung von Usern und ihrer Einstellungen einen Verlust der Kontrolle über den Erfolg der eigenen Website. Der schwindende Einfluss, der von Unternehmen direkt auf die Gestaltung der Suchmaschinen genommen werden kann, birgt Chancen und Herausforderungen. Website-Betreiber müssen ihr Augenmerk von der Erfüllung klassischer Suchmaschinen-Anforderungen, etwa an den Code der Website, auf die Überzeugung des Users lenken und diesen ermutigen, die Website des Unternehmens oder seine Angebote in sozialen Netzwerken zu teilen.

2.1. Grundlagen der Suchmaschinenoptimierung

Der Begriff „Suchmaschinenoptimierung“ beschreibt eine Vielzahl von Maßnahmen, die „auf die Positionierung einer Website in den Suchergebnissen von Suchmaschinen“ abzielen, wobei „technische und inhaltliche Änderungen an der Website selbst (und darüber hinaus) vorgenommen [werden], um eine gute Position (möglichst auf der ersten Suchergebnisseite) zu erlangen“ (Bischopinck & Ceyp, 2009, 8).

Zusammen mit der bezahlten Platzierung in den Suchmaschinen stellt die Suchmaschinenoptimierung das Herzstück des Suchmaschinenmarketings dar, das wiederum Teil des Online- und Gesamtmarketings eines Unternehmens ist.

Die zielführende Optimierung einer Website im Hinblick auf Suchmaschinen wie Google erfordert ein grundsätzliches Nachvollziehen von deren Funktionsweise. Suchmaschinen durchforsten zunächst mithilfe von Programmen, genannt „spider“ oder auch „crawler“, kontinuierlich das Internet nach Websites, Bildern, PDF-Dateien und anderen Inhalten. Wie auch menschliche Internet-Nutzer folgen die Crawler dabei stets den auf Websites gesetzten Links auf andere Inhalte. Die Suchmaschinen sammeln die gefundenen Informationen, wobei neben den sichtbaren Daten auch im Seitencode abgelegte Meta-Daten und andere im Browser nicht dargestellte Informationen hinzugezogen werden. Die gefundenen Websites werden einer Stichwortanalyse unterzogen und nach den jeweils hervorstechenden Keywords sortiert und indexiert. So können die Inhalte rasch bestimmten Suchanfragen zugeteilt werden. Entscheidend für die Generierung der Ergebnislisten ist die Bewertung der Relevanz eines Dokuments, die mithilfe eines komplizierten Algorithmus berechnet wird. Eine ausführliche Darstellung der technischen Grundlagen von Suchmaschinen kann im Rahmen dieser Arbeit nicht geleistet werden. Empfohlen sei daher zum tieferen Verständnis der Artikel „Searching the Web“ von Arasu, et al.

2.1.1. Relevanz und Zielsetzung

Noch vor 20 Jahren spielte das Internet für den Großteil der Deutschen keine Rolle. Heute hingegen nutzen nach Angaben der aktuellen ARD/ZDF-Onlinestudie 2012 mehr als 75 Prozent der Deutschen das Internet. Weltweit gibt es laut Internet World Stats über 2 Milliarden Internetnutzer. Nicht zuletzt dank der wachsenden Verbreitung neuer Endgeräte, wie etwa Smartphones und Tablet-PCs, wird die Zahl der Internet-Nutzer auch in den kommenden Jahren weiter zunehmen. Die wichtigste Anlaufstelle im Internet sind Suchmaschinen, die sowohl für die private wie auch für die geschäftliche Informationsbeschaffung intensiv genutzt werden. Suchmaschinen sind dabei „Web-Angebote, deren zentrale Funktion die Suche nach externen Internet-Inhalten ist" (Machill, Neuberger und Schweiger, 52, zitiert nach Bischopinck & Ceyp, 2009, 17). Der Suchalgorithmus der Suchmaschinenanbieter soll dabei helfen, die jeweils zur Nutzer-Anfrage passende Information zur Verfügung zu stellen, indem möglichst viele Web-Inhalte erfasst, analysiert und bewertet werden (Bischopinck & Ceyp, 2009, 34).

Im Jahr 2009 konnten mehr als 100 Milliarden monatliche Anfragen bei Suchmaschinen gezählt werden (3), wobei der Suchanbieter Google mit einem Marktanteil von 86 % vor Yahoo (7 %) und Bing (4 %) mit Abstand Marktführer ist (Netmarketshare, 2012).

Die rasante Entwicklung des Internets und die sich daraus ergebenden Folgen für die Wirtschaft führten zu einem neuen Katalog von Online-Marketing-Maßnahmen. Laut einer traditionellen Definition des Ökonomen Wolfgang Fritz aus dem Jahr 2004 umfasst Online-Marketing dabei „die Gesamtheit aller Marketing-Maß­nahmen, die mit dem Internet und/oder den kommerziellen Online-Diensten, die über eigene Netze verfügen (z. B. AOL, T-Online), geplant und realisiert werden" (2004, 26, zitiert nach Kemper, 2007, 8).

Aktuelle Zahlen untermauern die Bedeutung des Internets für wirtschaftliche Fragestellungen. Der Marktforschungsanbieter Forrester Research schätzte das weltweite E-Commerce-Volumen bereits 2009 auf 235 Milliarden Dollar (Fox, 2010, 9). Mehr als 86 % aller Online-Käufe beginnen mit einer Suche bei einer der bedeutenden Suchmaschinen (Fox, 2007). Für die Entscheidung, welche Seiten von Konsumenten aufgerufen werden, spielt die Positionierung des Angebots in den Suchergebnissen eine große Rolle. 90 % der Google-Nutzer klicken auf einen Link unter den ersten drei Ergebnisseiten, 62 % auf ein Ergebnis auf der ersten Seite (Fox, 2010, 76). Laut einer aktuellen Studie des Suchmaschinenoptimierungsdienstleisters Optify entfallen mehr als ein Drittel der Klicks in den Google-Ergebnissen auf das erste Suchergebnis (Goodwin, 2011).

Das Internet wird jedoch nicht nur zur Realisierung von Käufen genutzt; online abgerufene Informationen beeinflussen auch das Offline-Verhalten von Konsumenten. So gaben laut einer amerikanischen Marktstudie 82 % der Befragten an, Online-Angebote genutzt zu haben, um lokale Händler zu finden (Fox, 2010, 10). Demnach verwundert es nicht, dass unter den verschiedenen Online-Aktivitäten, die fester Bestandteil des Marketing-Mix eines jeden größeren Unternehmens sind, insbesondere das Suchmaschinenmarketing eine führende Rolle einnimmt (Bischopinck & Ceyp, 2009, 88).

2.1.2. Bedeutung von Google

Da ich mich im Folgenden – allein schon aufgrund der beherrschenden Rolle des Unternehmens auf dem Suchmaschinenmarkt – auf Google konzentrieren möchte, soll zunächst verdeutlicht werden, welche Bedeutung dem Unternehmen, dessen Suchdienst 1998 online ging, und das heute, 14 Jahre nach seiner Einführung, laut Forbes Platz 12 unter den wertvollsten Unternehmen weltweit einnimmt, zukommt (DeCarlo, 2011).

Als Google erstmalig online ging, existierte bereits eine Vielzahl von Meta-Suchmaschinen, Web-Verzeichnissen und Suchmaschinen, die Anwendern dabei helfen sollten, aus den unübersichtlichen Weiten des Internets die passenden Informationen abzurufen (Bischopinck & Ceyp, 2009, 17). Doch gerade nicht redaktionell betreuten Verzeichnissen gelang es selten, zuverlässig relevante Inhalte auszugeben und einen umfassenden Überblick über die im Internet abgelegten Informationen zu bieten. Stattdessen setzten die Anbieter auf Quantität und überboten sich bei der Anzahl der durchsuchten Seiten (ebd. 22). Die Entwickler von Google hingegen schufen eine weitreichende Indexierung der im Internet abgelegten Websites und formulierten einen Algorithmus, der eine Vielzahl verschiedener Faktoren für die Bewertung der Relevanz einer Website nutzte, mit großer Zuverlässigkeit passende Ergebnisse fand und diese optisch ansprechend und übersichtlich präsentierte.

2.1.2.1. Rolle als Branchenmotor

Google ist seit 2001 weltweiter Marktführer im Suchmaschinensegment und konnte über die Jahre hinweg seine Marktposition weiter ausbauen (Weigel, 2011). Googles marktbeherrschende Position erlaubt dem Konzern, die Rahmenbedingungen für die Informationsbeschaffung im Internet zu setzen.

Eine der Grundlagen des Erfolges von Google ist die kontinuierliche Anpassung des Suchalgorithmus, der laut „Google Algorithm Change History“ bis zu 600 Mal pro Jahr verändert wird. Trotz der prinzipiellen Geheimhaltung über die Details der Relevanzkriterien gibt Google mittlerweile regelmäßig Auskunft über Veränderungen und eine Vielzahl von Suchmaschinen-Experten versucht, durch Experimente und empirische Analysen Anpassungen in Googles Suchalgorithmus nachzuvollziehen (Pasquale, 2006, 17).

Die von Google vollzogenen Änderungen sind von großer Bedeutung für das Suchmaschinenmarketing. Ein Update kann bedeuten, dass eine Website von einer Top-Platzierung für die Suche nach einem bestimmten Suchwort auf die zweite Ergebnisseite abrutscht – was gerade für eine E-Commerce-Website katastrophale Folgen haben kann. Während diese häufigen Änderungen für Website-Betreiber eine stetige Beschäftigung mit aktuellen Entscheidungen seitens Googles erfordern, bergen die Anpassungen für Endnutzer oftmals Vorteile. Zum einen können aktuelle Entwicklungen gerade im Bereich Social Media die Relevanzbewertung Googles verbessern, zum anderen können so Methoden, mit deren Hilfe Website-Betreiber versuchen, ihrer Website auf unredliche Art und Weise zu einem höheren Ranking zu verhelfen, zügig gebannt werden.

2.1.2.2. Ethische Regeln

Besagte unlautere Methoden, die auch als „Spamming“ oder auch „Black Hat Search Engine Optimization“ bezeichnet werden, gaukeln der Suchmaschine, etwa durch die exzessive Verlinkung unternehmenseigener Websites, vor, eine faktisch nicht gegebene Relevanz zu besitzen. Während solche Methoden kurzfristig sehr erfolgreich sein können, bergen sie stets das Risiko, von Google erkannt zu werden, was zu Strafen – sogenannten „penalties“ – oder zur Löschung der betroffenen Seite aus dem Suchkatalog von Google führen kann, was im Jahr 2006 laut Stern Online dem Autokonzern BMW widerfuhr.

2.1.2.3. Googles Geschäftsmodell

Google und andere Suchmaschinenbetreiber wie Microsoft und Yahoo sind börsennotierte, gewinnstrebende Unternehmen. Dennoch ist die Nutzung der Suchmaschinen kostenlos und erfordert – zumindest zur Nutzung des Basisangebots – keine Registrierung. Gewinn erzielt Google (Gewinn im ersten Quartal 2012: 2,89 Milliarden US-Dollar) laut Netzwelt zu 96 % durch Werbung. Google selbst beschreibt sein Geschäftsmodell folgendermaßen: „Die Firma erzielt Umsätze, indem sie anderen Unternehmen Suchtechnologien anbietet und Anzeigen verkauft, die auf der Website von Google und anderen Websites im Internet geschaltet werden“ (Google Unternehmensprofil).

Die Schaltung von bezahlten Anzeigen wie auch die Bearbeitung der organischen Suchergebnisse sind Gegenstand des Online-Marketings. Nur Letztere sind jedoch Gegenstand der Suchmaschinenoptimierung und sollen ausführlicher betrachtet werden.

2.1.2.3.1. Paid Search

Bezahlte Suchergebnisse erscheinen rechts neben und über den eigentlichen, den organischen Suchergebnissen. Sie können von den Werbekunden anhand verschiedener Kriterien angepasst werden. Das Auslesen der Nutzerdaten ermöglicht Google, Suchvorgänge mit spezifischen Personen und ihren Interessen und Eigenschaften in Verbindung zu bringen. Anhand dieser Informationen können Werbekunden mit Hilfe von Google gezielte Kampagnen buchen, die nur bei bestimmten Nutzern angezeigt werden.

2.1.2.3.2. Organic Search

Zwar werden 88 % des Geldes, das im Suchmaschinenmarketing investiert wird, für solche bezahlten Anzeigen ausgegeben, doch spielen diese im Vergleich zu den eigentlichen, organischen Suchergebnissen, die von 85 % der Suchenden angeklickt werden, eine nachrangige Rolle (Fox, 2010, 2). Dazu kommt, dass immer mehr Internet-Nutzer Software auf ihren Rechnern installiert hat, welche die Anzeige von Werbeanzeigen blockt (Scott, 2011). Diese Tatsache und die deutlich höheren Klick-Zahlen von organischen Suchergebnissen lassen den Schluss zu, dass langfristig eine organische Optimierungsstrategie, die den Fokus auf die tatsächliche Popularität der eigenen Website legt und somit die Nutzung von sozialen Daten empfiehlt, zielführender ist als die Nutzung der Bezahlangebote Googles.

2.1.3. Vorgehensweise

Das grundsätzliche Ziel von Suchmaschinenoptimierungsmaßnahmen ist es, „Kunden und Interessenten auf die eigene bzw. eine ganz bestimmte Internetpräsenz zu locken“ (Bischopinck & Ceyp, 2009, 111). Dennoch wäre es verkürzt, Suchmaschinenoptimierung auf dieses Anliegen zu reduzieren. Die Steigerung der Besucherzahlen ist nur ein mögliches Ergebnis einer Bestimmung der Zieldefinitionen des Suchmaschinenmarketings. Je nach Unternehmensstrategie kann auch – im Kontrast zu quantitativen Zielgrößen – ein qualitativer Kundenkontakt (Lead) angestrebt werden, der unter anderem die Gewinnung und Bindung von Kunden sowie die Generierung von Kundendaten zum Ziel hat (Priebe).

Auf die prinzipielle strategische Ausrichtung des Suchmaschinenoptimierungsprozesses folgt die Keyword-Auswahl, die einen bedeutenden Teil der konzeptionellen Vorarbeit einnimmt. Diese Schlüsselbegriffe sollen das Angebot eines Website-Betreibers „bestmöglich beschreiben und optimal auf das Suchverhalten ihrer Zielgruppe abgestimmt sein“ (Greifeneder, 2010, 53). Seiten können nur auf eine beschränkte Anzahl von Keywords hin optimiert werden. Daher ist es wichtig, dass Seitenbetreiber detailliert nachvollziehen, welche Zielbegriffe von Kunden sowie Interessenten an der angebotenen Dienstleistung oder dem angebotenen Produkt in die Suchmasken der Suchmaschinen eingegeben werden. Dabei ist es ratsam, unter Einbeziehung von Markt- und Kundenanalysen einzelne Begriffe, idealerweise in verschiedenen Schreibweisen, auszuwählen, die für die Optimierung geeignet sind. Neben der Produkt- oder Dienstleistungsbezeichnung sind diese üblicherweise der Firmenname, der Markenname sowie der Unternehmensgegenstand (ebd. 55).

Google stellt Webmastern mit „Google Analytics“ ein Programm zur Verfügung, das sie bei der Keyword-Suche unterstützt. Daneben bieten viele weitere Anbieter Verfahren an, etwa Verfahren zur Kombination von Keywords mittels der KEI-Methode (Keyword Efectiveness Index) (ebd. 58).

2.1.3.1. On-Page-Optimierung

Sobald die Suchmaschinenoptimierungsstrategie und die Auswahl der Keywords erfolgt sind, beginnt die konkrete Umsetzung auf der On-Page-Ebene, die sich mit „den Änderungen an den Inhalten und der Struktur der einzelnen Dokumente der Website“ beschäftigt (Bischopinck & Ceyp, 2009, 190). „Neben der inhaltlichen und strukturellen Veränderung einer Seite [umfasst sie] auch die interne Verlinkung sowie die Programmierung und das Design des Webangebots“ (ebd.).

Die On-Page-Optimierung einer Website erforderte lange Zeit weitreichende Programmierkenntnisse und Kompetenzen in Programmiersprachen wie HTML und PHP. Und auch wenn heute viele (oftmals kommerzielle) Website-Baukasten­systeme den Nutzern keine Beschäftigung mit dem Code der eigenen Seite mehr abverlangen, lohnt es sich auch heute, den Einfluss der einzelnen Programmierbefehle und ihrer Ausprägungen auf die Arbeit der Google-Crawler und letztlich der Bewertung der Seite seitens Googles zu kennen. Eine detaillierte Beschreibung aller On-Page-Maßnahmen würde den Rahmen dieser Arbeit sprengen. Daher sei hier nur auf einige zentrale Ansatzpunkte verwiesen. Zunächst betrachten die Suchmaschinen die Meta-Tags einer Website, also Bausteine, die im Header des HTML-Codes eingesetzt werden und – für den Nutzer unsichtbare – Informationen über die Eigenschaften des Dokumentes beinhalten (ebd. 200). Diese Tags werden von einigen Suchmaschinen für die Generierung der Seitenbeschreibung in den Suchergebnissen genutzt. Meta-Tags werden bei der Relevanz-Bewertung gar nicht oder sehr niedrig gewichtet (ebd.). Dennoch stellen sie ein nützliches Werkzeug dar, um mit den Suchmaschinen-Crawlern zu kommunizieren und zum Beispiel mithilfe des „nofollow“-Tags den Robotern die Verfolgung der in die Seite integrierten Links zu verbieten, um das Ranking der verlinkten Seiten nicht zu verbessern (Erlhofer, 2011, 467).

Bedeutender für die Suchmaschinenoptimierung ist das Verwenden der jeweils ausgesuchten Keywords im Seitentext und insbesondere in Überschriften und hervorgehobenen Textbausteinen. Dabei ist es zwar möglich, einen sinnfreien Text, der ausschließlich aus relevanten Keywords besteht, zu schreiben. Experten raten hiervon jedoch ab und empfehlen, Texte zu schreiben, die tatsächlich themenrelevante Informationen enthalten (ebd. 414ff.). So wird dem User und seinem Informationsbedürfnis Rechnung getragen, ohne dass auf eine hohe Keyword-Dichte verzichtet werden müsste.

Darüber hinaus ziehen Suchmaschinen die Seitenarchitektur, Verzeichnisstrukturen, Dateien, Bilder, Linkeigenschaften und andere Seiteninhalten in die Indexierung einer Seite mit ein. Die Einhaltung von Webdesign-Standards dient nicht nur der Lesbarkeit durch Suchmaschinen, sondern erleichtert auch die Interaktion und Vernetzung der Seite mit fremden Webinhalten.

2.1.3.2. Off-Page-Optimierung

Die Off-Page-Optimierung einer Website bezieht sich auf Ranking-Faktoren, die sich auf seitenexterne Kriterien stützen und vor allem aus Verlinkungen ergeben (Bischopinck & Ceyp, 2009, 215). Ziel ist es, die „Link Popularity“, die von Suchmaschinen zur Gewichtung der Relevanz eines Web-Inhaltes herangezogen wird, zu steigern (ebd. 217). Diese ergibt sich aus der Menge und Qualität von externen Quellen, die Links auf einen Website-Inhalt setzen. Solche Links werden auch als „Backlinks“ bezeichnet, ein Begriff, aus dem sich laut Google Unternehmensprofil auch der ursprüngliche Name Googles, „BackRub“, ableitete. Der Grundgedanke hinter der Link Popularity ist, dass Seiten, auf die häufig verwiesen wird, eine höhere Relevanz haben als Seiten, die keine Erwähnung in externen Quellen finden. Doch nicht nur die Zahl der Verlinkungen, sondern auch ihre Qualität beeinflusst die Popularität einer Seite aus Sicht der Suchmaschinen. Suchmaschinen weisen einzelnen Seiten eine spezifische Autorität zu, das heißt, sie kategorisieren Websites anhand der Wahrscheinlichkeit, dass sie für den User wesentliche Inhalte anbieten (Erlhofer, 2011, 657). Seiten, die von thematisch verwandten Seiten verlinkt werden, werden für den entsprechenden Themenbereich als relevanter eingestuft, was wiederum die Gewichtung ihrer externen Verlinkungen steigert (Bischopinck & Ceyp, 2009, 218). Dabei gibt eine Seite mit steigender Anzahl gesetzter Verlinkungen auf andere Seiten immer weniger Popularität an die jeweiligen Zielseiten weiter.

Gerade die Off-Page-Optimierung stellt für die Betreiber neuer Webangebote oftmals eine große Herausforderung dar. Seiten, die über keinerlei Bekanntheit verfügen, werden nur schwerlich in Linklisten und Artikeln auf externen Seiten Erwähnung finden. Zwar gibt es Möglichkeiten, Seiten in Link-Verzeichnisse und Link-Tauschprogrammen einzutragen; langfristig können jedoch nur inhaltliche Relevanz und ein Angebot, das für die Betreiber anderer Seiten lohnenswert wirkt, die Popularität einer Seite sicherstellen (Bauer, 2010).

2.2. Zunehmende Relevanz sozialer Online-Dienste

Für die bisher beschriebene, klassische Suchmaschinenoptimierung spielten moderne Social Media-Angebote lange eine nachrangige Rolle. Ausgehend von einem kurzen Abriss bezüglich der Begriffe „Web 2.0“ und „Social Media“ möchte ich nachfolgend die wachsende Bedeutung sozialer Netzwerke für das Suchmaschinenmarketing darlegen.

Der Begriff „Web 2.0“ bezieht sich in vielen Fällen auf den technologischen Fortschritt, der es Internetnutzern erlaubt, Informationen nicht nur abzurufen und zu konsumieren, sondern selbst Inhalte, sogenannten „User-Generated-Content“, zu erstellen und über das Internet zu teilen (Erlhofer, 2011, 480). Die sozialen, politischen und medialen Auswirkungen dieser Entwicklung werden mittlerweile wissenschaftlich breit diskutiert, wobei angesichts der Vielfalt der Beziehungen, die das Internet berührt, vielfach betont wird, dass die Komplexität der Thematik einen interdisziplinären Ansatz erfordert (Ebersbach, Glaser, & Heigl, 2011, 15).

Web-Angebote, „die auf den technologischen und ideologischen Grundlagen des Web 2.0 aufbauen und die Herstellung und den Austausch von User-Generated-Content ermöglichen“, bezeichnet man als Social Media-Angebote (Kaplan & Haenlein, 2010, 61). Auch wenn der Begriff „Social Media“ erst in den vergangenen Jahren größere mediale Verbreitung gefunden hat, ist das bezeichnete Konzept, Medien zum zwischenmenschlichen Informationsaustausch zu nutzen, altbekannt. Dennoch ist es bemerkenswert, welchen Stellenwert der soziale Nutzen von Medien heute auf gesamtgesellschaftlicher Ebene einnimmt und wie die Thematik aktuelle Diskurse und die Internetlandschaft beherrscht.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1 (ARD/ZDF-Onlinestudie, 2012)

Der Zweck sozialer Netzwerke ist das Ermöglichen von virtueller Kommunikation und die Gestaltung zwischenmenschlicher Beziehungen. Noch vor 10 Jahren war der Informationsaustausch zwischen Nutzern im Internet weitestgehend anonymisiert und auf Text beschränkt. Mittlerweile bieten Soziale Netzwerke die Möglichkeit, multimediale Inhalte auszutauschen und persönliche Beziehungen online zu pflegen (Ebersbach, Glaser, & Heigl, 2011, 117ff.).

2.2.1. Facebook

Das bedeutendste soziale Web-Angebot ist Facebook. Ursprünglich war die Seite als internes Kommunikationsnetzwerk für amerikanische College-Studenten konzipiert (Fox, 2010, 186). Mittlerweile ermöglicht Facebook Nutzern aus aller Welt, sich mitzuteilen und auszutauschen. Es wird von über 800 Millionen Menschen genutzt (Protalinski, 2012). Daneben gibt es eine Vielzahl weiterer sozialer Netzwerke, die sich spezifisch an Nutzer mit bestimmten Hobbys, Interessen und Hintergründen richten.

Facebook erlaubt jedoch nicht nur Privatpersonen das Anlegen von Profilen, sondern bietet auch spezielle Profile, unter anderem für Unternehmen, Organisationen, Vereine und Personen des öffentlichen Lebens. Diese Seiten sind im Gegensatz zu den meisten privaten Profilen öffentlich einsehbar und können somit auch von Suchmaschinen indexiert werden. User, die sich mit dem jeweiligen Profil-Eigentümer identifizieren, können dies mittels der „Like“-Funktion ihren Facebook-Freunden gegenüber kundtun und Inhalte aus den jeweiligen Profilen mithilfe der „Share“-Funktion in ihrem Netzwerk teilen (Erlhofer, 2011, 485).

Im September 2012 gab der Facebook-Gründer Mark Zuckerberg in einem Interview mit TechCrunch bekannt, dass das Unternehmen an einer eigenen Suchmaschine arbeite, die auf den sozialen Daten des Netzwerks beruhen soll.

2.2.2. Google Plus

Seit 2011 versucht der Google-Konzern, ein soziales Netzwerk zu etablieren. Das Angebot „Google Plus“ wird von vielen als Angriff auf Facebook betrachtet (Heuzeroth, 2011). Die Seite verfügt über mehr als 250 Millionen Nutzer (Haak, 2012). Der Erfolg der Seite wird jedoch angezweifelt (Lindner, 2012). Dennoch lohnt eine Betrachtung des Google Plus-Angebots im Hinblick auf die Möglichkeiten, welche sich aus der Bündelung einer Suchmaschine mit einem sozialen Netzwerk ergeben. Die möglichen Konsequenzen werden kontrovers diskutiert (Kuhn, 2012).

2.2.3. Blogs

„Blog“ ist die Wortkreuzung aus den Begriffen „Web“ und „Log“ und kann somit frei mit „Internet-Logbuch“ übersetzt werden. Bei Blogs handelt es sich um öffentliche „Tagebücher von Internet-Nutzern [...], in denen alle möglichen Themen behandelt und von anderen Nutzern kommentiert werden können“ (Bischopinck & Ceyp, 2009, 300). Anders als bei Facebook und Twitter werden auf Blogs meist ausführlichere und inhaltlich anspruchsvollere Artikel und Kommentare veröffentlicht. Allein mithilfe der Blog-Software WordPress wurden nach Unternehmensangaben schon mehr als 50 Millionen Blogs angelegt.

2.2.4. Twitter

Bei Twitter handelt es sich um einen „Microblogging“-Dienst. Registrierte Nutzer können Kurznachrichten, die auf 140 Zeichen beschränkt sind, abschicken. Diese können von sämtlichen Nutzern, die den Nachrichten des jeweiligen Nutzers folgen, gelesen, kommentiert und weiterverbreitet werden. Täglich werden so laut des Twitter-Blogs mehr als 140 Millionen Statusnachrichten verschickt. Inhaltlich reichen die Nachrichten von PR- und Werbe-Botschaften über politische Kommentare bis hin zu persönlichen Inhalten.

2.3. Anpassung der Suchalgorithmen

Die in Kapitel 2.1.3. beschriebenen Methoden, Websites zu einer bestimmten Relevanz für spezifische Suchanfragen zu verhelfen, sind tückisch, da sie aus User-Sicht keine zuverlässige Qualitätskontrolle beinhalten. Nicht jede Seite, auf die viele Links gesetzt werden, bietet dem User tatsächlich einen Mehrwert. Doch da die computergestützten Google-Algorithmen nicht über das inhaltliche Verständnis, das eine inhaltliche Beurteilung erlauben könnte, verfügen, ist die Suchmaschine häufig auf Umwege angewiesen und bestimmt die Relevanz eines Web-Angebots beispielsweise über die Anzahl der Verlinkungen.

Mit dem Erfolg des Web 2.0 deutet sich eine weitere Möglichkeit an. Nicht mehr nur Website-Betreiber können durch eine Verlinkung einer anderen Website zu einer gesteigerten Bedeutung verhelfen. Jeder User kann über eine Vielzahl von Angeboten, seien es Twitter-Nachrichten, Facebook-„Shares“ oder Einträge in Weblogs, unmittelbare oder indirekte Signale an die Suchmaschinen und andere Nutzer senden, die zur Relevanzbewertung herangezogen werden können. Auf diese Weise könnten die User – wie bei Erlhofer überspitzt dargestellt – „selbst zumindest den Bereich der Off-Page-Optimierung übernehmen“ (489).

2.3.1. Defizite klassischer Suchmaschinenoptimierung

Klassische Suchmaschinenoptimierung richtete den Fokus stets auf die Gestaltung von Websites anhand der Bewertungsmaßstäbe von Google und anhand des technischen Vorgangs der Suche im Internet. So bearbeitete und passte man aufwendig die eigene Website an und versuchte, auf anderen Erwähnung zu finden. Webmaster folgten dem Diktat Googles, um – dessen Kriterien entsprechend – gegenüber Usern ihre Relevanz zu dokumentieren. Dabei blieb aber außer Acht, dass mit vielen Social Media-Angeboten eine Fülle von (zumeist) authentischen Bewertungen von Web-Angeboten durch User entstanden war, die unabhängig von Googles Link-fokussierten Relevanzmaßstäben eine unmittelbare Beurteilung erlaubten. Und gerade diesen User-generierten Bewertungen wird auch von Internet-Usern im Allgemeinen und Online-Kunden im Speziellen große Relevanz zugemessen (Fox, 2010, 187).

2.3.2. Einbeziehung sozialer Daten

Google ist sich – das zeigt nicht zuletzt das Projekt Google + – der Bedeutung und Möglichkeiten des Web 2.0 bewusst. So stellt der Informationswissenschaftler Dirk Lewandowski fest: „In recent years, a lot of interest has been generated by the rise of social media, which also led to search engines exploiting social data to improve rankings for individual users“ (6).

Im Jahr 2010 gab Google erstmals an, soziale Signale bei der Ausgabe von Suchergebnissen miteinzubeziehen (Fishkin, 2011). Seither sind viele weitere Updates des Google-Algorithmus mit Bezug zu Social Media-Diensten erfolgt (Sterling, 2011). Besagte soziale Signale sind Nennungen einer Web-Adresse in sozialen Netzwerken, die von Google gemessen und ausgelesen werden (Schiff, 2012, 201). Auf Fragen des Web-Magazins „Search Engine Land“ gaben die Google-Verantwortlichen im Jahr 2010 an, sozialen Signalen nicht nur die übliche Autorität eines Links aus dem jeweiligen Netzwerk zuzuordnen, sondern darüber hinaus einen spezifisch gewichteten Relevanzmaßstab aus der sozialen Verbreitung einer Information in sozialen Netzwerken abzulesen und dabei sogar einzelnen Usern und ihren Wortmeldungen spezifische Relevanz zuzuordnen (Sullivan, 2010).

Wie die exakte Gewichtung dieser Signale aussieht, kann aufgrund der Geheimhaltung seitens der Suchmaschinenbetreiber nicht angegeben werden. Experimente deuten jedoch darauf hin, dass soziale Faktoren eng mit höheren Google-Rankings korrelieren (Fishkin, 2011). Im Kapitel 3.2.2. dieser Arbeit soll jedoch auch die Möglichkeit, dass soziale Signale einen geringen oder gar keinen ursächlichen Einfluss auf die Google-Rankings haben, erwogen werden.

Dass Google zunehmend Daten aus sozialen Netzwerken verarbeitet, kann als logischer Schritt hin zu einer User-orientierten Relevanz-Bewertung gesehen werden. Das Ausmaß sozialer Einflüsse auf die Ergebnisse Googles wird voraussichtlich weiter zunehmen. Doch auch jetzt schon erfordert die Neugestaltung der Grundrechenarten der Suchmaschinentechnologie ein Umdenken bei den Website-Betreibern, die eine Optimierung ihrer Angebote forcieren.

[...]

Details

Seiten
Erscheinungsform
Erstausgabe
Erscheinungsjahr
2012
ISBN (PDF)
9783955499570
ISBN (Paperback)
9783955494575
Dateigröße
1.3 MB
Sprache
Deutsch
Institution / Hochschule
Universität Duisburg-Essen
Erscheinungsdatum
2015 (Februar)
Note
1
Schlagworte
Social Media Suchmaschinenoptimierung Social Signals SMO Backlink
Produktsicherheit
BACHELOR + MASTER Publishing

Autor

Tilman Hjuler wurde 1987 in Augsburg geboren. Nach Abschluss seines Kulturwirtstudiums, Arbeitsstationen im Online-Marketing und zahlreichen Veröffentlichungen zu Themen aus dem Bereich des Online-Marketing entschloss er sich, in München einen Master-Studiengang im Bereich International Business mit dem Schwerpunkt Marketing zu studieren, um im Anschluss einen MBA in den USA zu erwerben und dort seine Kompetenzen in den Bereichen Relationship Marketing, Online Reputation und PR weiter zu vertiefen.
Zurück

Titel: Von Backlinks zu sozialen Signalen: Wie Social Media das Online-Marketing verändert
book preview page numper 1
book preview page numper 2
book preview page numper 3
book preview page numper 4
book preview page numper 5
book preview page numper 6
book preview page numper 7
book preview page numper 8
book preview page numper 9
book preview page numper 10
51 Seiten
Cookie-Einstellungen