BDZV Schnellsuche  
HomeImpressumKontaktSitemapFeedsNewsletter
 
Erweiterte Suche
 
 
EnglishLogin


Seite teilen




send


Bundesverband Deutscher Zeitungsverleger e.V.

Markgrafenstraße 15
10969 Berlin
Telefon: +49 (0) 30/72 62 98-0
Telefax: +49 (0) 30/72 62 98-299
E-Mail: bdzv@bdzv.de



Anfahrt zum BDZV



Zeitungsverlage und Start-ups - PDF

 

Marc Del Din, Meinolf Ellers, Barbara Geier, Ulrike Langer, Prof. Dr. Katja Nettesheim

zu bestellen über

www.zv-online.de



Online – Offline – Anytime

 

Johannes Freytag, Barbara Geier, Holger Kansky, Stefan Plöchinger, Katja Riefler

zu bestellen über

www.zv-online.de


ZV Edition:

Auf neuen Wegen

 

Meinolf Ellers, Holger Kansky, Ulrike Langer, Thomas Schwenke, Gregor Waller

zu bestellen über

www.zv-online.de





Was Nutzer wollen

Ergebnisse der BDZV-Tabletstudie

 

Til Fischer, Daniel Bochow

zu bestellen über

www.zv-online.de



Social Media als Herausforderung für Zeitungsverlage

 

Christian Hoffmeister

zu bestellen über

www.zv-online.de

Leistungsschutzrecht und Robots.txt

Ein Gastbeitrag von Rechtsanwalt Dr. Thomas Höppner

In einem Beitrag für die Zeitschrift „Kommunikation und Recht“ widerspricht Rechtsanwalt Dr. Thomas Höppner zentralen Behauptungen der Google-Kampagne gegen das geplante Leistungsschutzrecht für Presseverleger. Der Berliner Anwalt ist mit dem Unternehmen Google und seinem Geschäftsmodell vertraut, da er Verfahren vor der Europäischen Kommission zum Missbrauch der marktbeherrschenden Stellung durch Google führt.

 

 

Zur Behauptung, Aggregatoren würden nur den Traffic zu Verlagsseiten erhöhen

Aggregatoren erhöhen die Nachfrage nicht. Sie verteilen lediglich die Nachfrager, die ihren Bedarf online decken, auf die einzelnen Onlineanbieter. Die meisten Aggregatoren leiten heute nicht mehr 100 Prozent der Gesamt(online)nachfrage an die Anbieter weiter, sondern befriedigen einen Teil der Nachfrage selbst.

Gute journalistische Beiträge geben das Wesentliche bereits durch eine aussagekräftige Überschrift und wenige Sätze wieder. Übernimmt ein Aggregator nun diese Schlüsselsätze, kommuniziert er bereits das für den User Wesentliche.

Nach einer Studie von 2010 klickten knapp die Hälfte der Nutzer von Google News nicht auf eine Originalseite weiter: „Google’s effect on the newspaper industry is particularly striking. Though Google is driving some traffic to newspapers, it’s also taking a significant share away [.] A full 44 percent of visitors to Google News scan headlines without accessing newspaper’s individual sites.“

Andere gehen von einem noch höheren Anteil an Lesern aus, denen das Überfliegen der Zusammenfassungen auf Google News für die Befriedigung ihres Informationsbedürfnisses „nichts zu verpassen“ genügt.

Schon das Belgische Berufungsgericht hatte im grundlegenden und nun rechtskräftigen Urteil Copiepresse (v. 5. 5. 2011 – R.G. 2007/AR/1730) festgestellt: „[…] Google News beschränkt sich nicht auf die Platzierung von Hyperlinks, sondern reproduziert signifikante Abschnitte der Artikel der Verlage. [.] Es wählt die Informationen aus, klassifiziert sie in einer Reihenfolge und entsprechend seiner eigenen Methode, insbesondere indem Google einen Artikel zugunsten eines anderen auswählt, in Fett druckt, einen Abschnitt vervielfältigt und, manchmal, sogar seinen Inhalt verändert. Google ist daher kein ‚passiver Vermittler? [.] Es wurde demonstriert, dass Internetnutzer, die ‚Google News’ konsultieren, perfekt über das Wesentliche informiert werden, was in der Presse veröffentlicht wird und dass sie nicht länger die Artikel selbst aufsuchen müssen. Also ist das Ziel von ‚Google News’, in gewissen Umfang, die Seiten der Verlage zu ersetzen.“

Bei dieser Würdigung ist der E-Mail-Versanddienst Google Alert noch nicht einmal berücksichtigt. Bei anderen Aggregatoren mit längeren Textauszügen ist der Anteil der durchklickenden Leser noch kleiner.

Durch diese zeitnahe eigene Darstellung berauben die Aggregatoren Verlagsportale ihrer Möglichkeit, selbst diese Ereignisse an ihre Leser zu kommunizieren und die so gewonnene Aufmerksamkeit durch Werbung zu amortisieren.

Träfe die Behauptung zu, die Anzeige von Inhalten durch Aggregatoren erhöhe lediglich den Traffic zu den Quellseiten, müsste man Google (und anderen Aggregatoren) im Übrigen unwirtschaftliches Verhalten unterstellen. Dann wäre nämlich nicht erklärbar, warum Google’s robots.txt anderen Aggregatoren den Zugriff auf viele Inhalte verwehrt.

Zum Argument, Google vermittele deutschen Verlagsseiten rund die Hälfte der Leser

Es geht ökonomisch nicht darum, wie viele Leser Aggregatoren auf Verlagsseiten verweisen, sondern wie viele Leser sie nicht zu ihnen durchlassen. Wie viel Zeit Leser auf google.de oder newsgoogle.de auf der Suche nach Nachrichten verbringen, aber dann nicht auf einer Verlagsseite landen, teilt Google nicht mit.

Wenn die Hälfte der Leser so bekannte Webseiten von Zeitungen wie der „Welt“ und Zeitschriften wie des „Focus“ über Google aufsuchen, statt die Portale direkt anzusteuern, zeigt dies eher die Schutzwürdigkeit der Verleger. Der hohe Anteil verdeutlicht, wie infolge von Googles Omnipräsenz immer weniger User selbst bekannte Websites über den Browser aufrufen.

Zur Behauptung, Suchmaschinen dürften „Snippets“ völlig legal anzeigen

Richtig ist, dass der BGH in dem Setzen eines Hyperlinks auf eine fremde Webseite keine urheberrechtliche Nutzungshandlung gesehen hat. Der BGH befasste sich aber nicht mit der Zulässigkeit der Anzeige von Textausschnitten, sondern allein mit der Zulässigkeit des Setzens von Links. Das bloße Verlinken hielt der BGH für zulässig, da ein Link „lediglich auf das Werk in einer Weise verweist, die Usern den bereits eröffneten Zugang erleichtert“ und die Benutzung der verlinkten Werke „nicht ersetzt, sondern allenfalls anregt“. Damit hatte der BGH vor zehn Jahren über einen Sachverhalt zu entscheiden, der mit der heutigen Nutzung von Presseartikeln durch Aggregatoren nicht mehr viel gemein hat.

Zum Argument, Suchmaschinen würden eine eigene Leistung erbringen

Die Aussagen zu den getätigten Investitionen überzeugen nur für horizontale Suchmaschinen, die die „Informationsfülle“ des gesamten Internets über einen Index systematisieren. Von denen gibt es heute real noch genau zwei: Google und Bing/Yahoo!. Die Investitionen in diese Suchdienste und ihre – zumindest für Google – hochprofitable Refinanzierung durch Werbung werden durch das Leistungsschutzrecht nicht in Frage gestellt.

Die Leistungen für die allgemeine Websuche sind nicht mit den Investitionen für News-Aggregatoren gleichzusetzen.


Manche schaffen durch ihre Bündelung von Informationen einen echten Mehrwert für User. Das ändert allerdings nichts daran, dass sie keinen eigenen Beitrag zur zugrunde liegenden Recherche, Analyse und Zusammenstellung von Inhalten leisten. Diese Leistungen machen aber eine gute Presse und den Wert von Nachrichten aus; sie gilt es zu schützen.

Zum Argument, Google News schalte keine Werbung


Was Google verschweigt: Auch ohne Werbung hat Google News dem Unternehmen nach eigenen Angaben bereits im Jahr 2008 über 100 Mio. US-Dollar eingespielt: „Google News is free and has zero ads. So what’s it worth to Google? About $100 million. That’s the figure Google vice president Marissa Mayer, who heads search products and user experience, threw out during a [.] conference in Half Moon Bay, Calif. How does she put a value on a product that doesn’t directly make money? The online giant figures that Google News funnels readers over to the main Google search engine, where they do searches that do produce ads. And that’s a nice business. Think of Google News as a $100 million search referral machine.“

Ökonomisch überrascht das Ergebnis wenig: Suchmaschinen sind mehrseitige Märkte mit Netzwerkeffekten. Mehr Informationen – wie News – locken mehr User an; mehr User bringen mehr Werbekunden.

Im Übrigen liegt es schon im Ansatz neben der Sache, ob und wo Aggregatoren Anzeigen schalten. Auch der Verzicht auf eine Verwertung kopierter Werke macht das Kopieren noch nicht rechtmäßig.

Es geht beim Leistungsschutzrecht nicht um eine Sozialisierung der Gewinne erfolgreicher Unternehmen. Es sollen besondere Leistungen vor einer kommerziellen Fremdverwertung geschützt werden – wie auch immer diese gestaltet ist.

Zur Behauptung, Verlage könnten sich problemlos mittels robots.txt abmelden

Erstens:

Sperroptionen wurden von Aggregatoren vorgegeben und hängen von deren Gnade ab. Beide Optionen, robots.txt und Robot Meta-Tags, machen den Zugriff auf eine Website nicht unmöglich, sondern dienen als Hinweisschilder „bitte nicht kopieren“. Ihre Wirkung hängt von der freiwilligen Kooperation der Robots ab. Dass die Hinweise beachtet werden sollten, geht auf das sog. Robot Exclusion-Protokoll (REP) zurück, das 1994 durch etablierte Suchroboter-Programmierer festgelegt wurde.

Viele kleinere Robots ignorieren das REP hingegen vollständig. Die Inhalteanbieter selbst konnten die Gestaltung des REP nicht maßgeblich beeinflussen. Das Protokoll stellt damit eine freiwillige, kartellähnliche private Vereinbarung zwischen gerade den Akteuren (Suchdiensten) dar, die das größte wirtschaftliche Interesse daran haben, Befugnisse von Website-Betreibern – als ihren Inhaltelieferanten – durch nicht praktikable oder unwirtschaftliche Sperroptionen so weit wie möglich zu begrenzen. Das prägt noch heute den einseitigen Charakter des REP.

Im Zusammenhang mit dem Leistungsschutzrecht ist der Verweis auf das REP so, als würden Hotelbewerter Hotels die Schutzwürdigkeit ihrer Zimmereinrichtungen vor einer Mitnahme absprechen, wenn die Hotels ihre Einrichtungen nicht mit einem „Bitte nicht bewerten“-Schild versehen, das der Hotelbewerter mehr oder weniger transparent zur Verfügung gestellt haben, ohne die Folgen solcher Schilder für die Bewertung eines Hotels offenzulegen.

Zweitens:

Dem Sperrenden droht ein schlechteres Ranking nicht gesperrter Inhalte
Die bestehenden Optionen, um sich gegen die Verwertung von Leistungen durch Aggregatoren im intermodalen Wettbewerb mit diesen um User-Aufmerksamkeit zu wehren, haben einen zentralen Schwachpunkt: Derjenige, der eine Option wahrnimmt und einzelne besonders hochwertige Webseiten (HTML-Dokumente) „abmeldet“, riskiert, vom ausgesperrten Aggregator mit einem schlechteren Ranking seiner übrigen Webseiten bestraft zu werden. SEO-Experten warnen daher vor den Auswirkungen jeder noch so ausgefeilten Sperrung bestimmter Inhalte über das REP. Es sei zu befürchten, dass dann auch nicht gesperrte Inhalte von den adressierten Aggregatoren schlechter gerankt, Webseiten seltener gecrawlt werden und ggf. PageRank verlieren.

Damit drohen einem Verlag bei jeder Sperrung von Artikeln aber erhebliche Nachteile im intramedialen Wettbewerb mit anderen Verlagen, der wirtschaftlich bedeutsamer ist als der intermediale Wettbewerb mit Aggregatoren. Zugleich haben es Aggregatoren über diese Wechselwirkungen in der Hand, mittels ihres Ranking-Mechanismus Presseverlage untereinander auszuspielen, um an möglichst viele kostenlose Inhalte zu gelangen. Durch den beschriebenen Qualitätsfaktor geben Aggregatoren ein klares Signal: Wir ranken Portale am besten, die uns die meisten und qualitativ hochwertigsten Inhalte kostenlos auswerten und anzeigen lassen.

Um nicht im intermedialen Wettbewerb um jeden einzelnen Klick unterzugehen, sehen einzelne Verlage oft keine andere Möglichkeit, als im Verhältnis zum Aggregator klein beizugeben und dessen Zugriff zu dulden. Dies gilt insbesondere, wenn Aggregatoren betonen, Artikel allein nach Qualität und Relevanz zu ranken. Denn dann werden User denjenigen Verlagen, die nur auf hinteren Suchergebnissen erscheinen, diese Attribute absprechen. Das kann einen Imageschaden verursachen, der über den Onlinebereich hinausgeht und sich nur schwer durch mehr Traffic kompensieren lässt.

Drittens:

Die bestehenden Sperroptionen sind praxisuntauglich:

a) Begrenzte Funktion des REP

Das REP liefert Website-Betreibern nur holzschnittartige Werkzeuge mit breiten und für sie völlig unkontrollierbaren Streuverlusten.

Verleger stört aber die über die Anzeige einer URL hinausgehende Nutzung indexierter Inhalte. Sie möchten die Anzeige von Textauszügen stärker kontrollieren können. Zum Beispiel möchten Verleger speziellen News-Diensten, wie Google News oder Yahoo! News, die Anzeige von Textauszügen untersagen können, ohne dass dies negative Auswirkungen auf das Ranking ihrer Webseiten auf anderen Plattformen hat, z. B. in der allgemeinen Websuche von Google und Yahoo!. Für solche Differenzierungen gibt es ein berechtigtes ökonomisches Interesse.

Untersagt man aber mit dem REP bereits das Crawlen und Indexieren (wofür es geschaffen ist), so hat dies schwerwiegende Konsequenzen, die eigentlich nicht beabsichtigt sind. Wie Google an anderer Stelle selbst zu bedenken gab: „If content isn’t indexed it can’t be searched. And if it can’t be searched, how can it be found?“ „If you are not found, the rest cannot follow“. Für die von Verlegern grundsätzlich befürwortete Suchfunktion ist die Anzeige von Textauszügen auch nicht erforderlich. Dafür würde die Anzeige reiner URL-Links genügen.

Viele Differenzierungen, die für Verleger wichtig wären, lässt das REP nicht zu:

b) Keine Differenzierung innerhalb einer Webseite

Das kleinste Objekt, das nach dem REP „abgemeldet“ werden kann, ist eine ganze Webseite (web page). Es ist nicht möglich, einen Artikel zu sperren, aber einen anderen auf derselben Webseite nicht.

Eine Differenzierung nach Inhalten (statt Webseiten) ist aber gerade für Presseportale elementar, auf deren Seiten – nicht nur der Homepage – täglich zahlreiche Artikel auch neben- oder untereinander eingeblendet werden. [..] Von Verlegern kann auch nicht erwartet werden, ihren tradierten und von Usern geschätzten Aufbau nach Rubriken aufzugeben und stattdessen leserunfreundlich für jeden Artikel eine eigene Webseite zu errichten, nur um das REP nutzen zu können.

c) Keine Differenzierung zwischen Diensten, die ein Robot speist

Der kleinste Adressat, der über das REP angesprochen und dessen Nutzung einer Webseite beschränkt werden kann, sind die Robots der einzelnen Aggregatoren.

Will man nur bestimmten Aggregatoren den Zugriff verbieten, z. B. weil sie Konkurrenzportale betreiben, muss man diese einzeln in seine robots.txt aufnehmen und die Liste ständig aktualisieren. Bei vielen Webseiten und ständig hinzukommenden Robots ist dies mit einem erheblichen Marktüberwachungsaufwand verbunden. Erschwerend kommt hinzu, dass SEO-Experten davor warnen, bei der robots.txt-Programmierung zwischen Robots zu variieren, da das Ranking hierunter leiden könnte.

Noch problematischer ist, dass derselbe Robot eines Aggregators häufig verschiedene Dienste speist, die die Interessen der Presseverleger unterschiedlich stark berühren. Website-Betreiber können jedoch über das REP nur einen Robot insgesamt steuern, nicht welche Dienste dieser mit den von ihm indexierten Informationen „füttert“. Es ist also z. B. nicht möglich, einem bestimmten Dienst, der von einem Robot gespeist wird, die Einblendung von Snippets zu untersagen, aber gleichzeitig Snippets in anderen Diensten desselben Aggregators zu gestatten. Wenn der eine Dienst direkte Konkurrenz macht, der andere aber nicht, kann es aber ein berechtigtes Interesse hierfür geben.

Einige Beispiele:

Bing nutzt seinen Robot (Bingbot) für so unterschiedliche Dienste wie die allgemeine Bing Web Search, Bing News und Bing Bilder. Mangels eines separaten Robots kann Bing News derzeit nicht isoliert aber das REP blockiert werden. Nach der Kooperation von Bing mit Yahoo! ist auch unklar, wann der Yahoo!-Crawler Slurp und wann der Bingbot crawlt, z. B. für Yahoo! News.

Der Googlebot-News füttert auch die speziellen „News zu“-Ergebnisblöcke in der allgemeinen Websuche, mit der Folge: Wer den Googlebot-News sperrt (mittels in der robots.txt oder im HTML-Header), erscheint auch nicht mehr in News-Universals. Dies kann sich jedoch kein Presseportal erlauben.

Denn nicht mehr in News-Universals auf Google.de zu erscheinen würde einen Verlag im intramedialen Wettbewerb mit anderen Presseportalen bedeutend stärker schädigen, als es der Wettbewerb mit Google News tut. Im Ergebnis „bestraft“ Google die isolierte Sperre des Googlebot-News mit einer schlechteren Darstellung der gesperrten Webseite auch auf Google.de.

Neben den News-Universals speist – soweit bekannt – der Googlebot-News auch den Google Alert-Dienst und den Google News-Ticker auf der Startseitenversion iGoogle. Damit können auch diese Dienste nicht isoliert blockiert werden.

d) Keine Differenzierung zwischen Aggregatoren, die ein Robot speist

Das REP ermöglicht auch keine Differenzierung zwischen den eigenen Diensten einer Suchmaschine und denen von Partnern, die auf den Index der Maschine zurückgreifen. Google und Bing/Yahoo! liefern Suchergebnisse für zahlreiche in Browsern und Websites anderer Portale eingebettete Suchfunktionen mit unterschiedlichsten Geschäftsmodellen.

e) Keine Differenzierung zwischen verschiedenen Nutzungshandlungen

Über Robot Meta-Tags kann man Suchmaschinen bestimmte Aktionen verbieten. „Jedes System [= jeder Suchdienst] verarbeitet nur die [ihm] jeweils bekannten Meta-Tags und ignoriert die unbekannten Tags.“

Seit 2008 lesen Google, Bing und Yahoo! folgende Vorgaben: noindex, nofollow, nosnippet, noodp, noarchive, unavailable_after, noimageindex. Viele andere Aktionen können jedoch nicht separat untersagt werden.

Im Ergebnis reflektiert das REP nicht die Komplexität, in der Aggregatoren heute Inhalte kopieren und in verschiedensten Diensten nutzen. Ein Microsoft-Manager fasste dies einmal treffend zusammen: „[W]eb sites currently are forced to communicate with search engines using robots.txt, a technical protocol developed 15 years ago without any understanding of how the business needs of newspapers and other web publishers would develop. Using that 1993-era technology to run today’s websites is like putting a Fiat engine in a Ferrari.“

Viertens:

Technische Lösungen jenseits des Robot Exclusion-Protokolls

Es kursieren zahlreiche kreative Vorschläge, wie sich die Differenzierungsinteressen der Verleger angeblich auch auf Basis des REP oder jenseits von robots.txt und Robot Meta-Tags befriedigen ließen.

a) … werden nicht anerkannt

Die meisten dieser Lösungen scheitern bereits daran, dass Aggregatoren nur das lesen, was sie lesen wollen. Google liest z. B. keine Metadaten maschinenlesbarer Standards zur Kommunikation gewerblicher Nutzungsrechte wie die des Automated Content Access Protocol (ACAP) und des neueren Standards RightsML.

b) … sind noch aufwändiger

Selbst wenn Aggregatoren an sie gerichtete Befehle über das REP hinaus beachten würden, bliebe das Problem der Komplexität. Schon die derzeitige Kommunikation über die robots.txt und Robot Meta-Tags ist fehleranfällig. Bis auf die Aggregatoren selbst weiß niemand genau, welche Folgen eine Sperre auf das eigene Ranking und die Entwicklung des Traffic hat

Jeder zusätzliche Kommunikationsweg (z. B. über class=„robots-nocontent“-Attribute) würde das Risiko weiter erhöhen. Dies liegt auch daran, dass strategische Entscheidungen über Nutzungsrechte typischerweise nicht bei den Webmastern liegen, die diese Entscheidungen technisch umsetzen müssen.

Weder offline noch online überzeugt es, die Gewährung eines Schutzrechts für eine besondere Leistung zu versagen, nur weil es der Berechtigte versäumt hat, alle theoretisch zur Verfügung stehenden und mehr oder weniger aufwändigen Maßnahmen gegen die Ausbeutung seiner Leistung durch Dritte getroffen zu haben (so auch La cour d’appel de Bruxelles, 5. 5. 2011, R.G. 2007 AR 1730, Rn. 50 – Google/Copiepresse)

c) … und lösen das Problem nicht

Selbst eine ausgefeiltere maschinenlesbare Kommunikation von Nutzungsrechten könnte nicht die zugrunde liegenden Rechte ersetzen. Mit dem Leistungsschutzrecht geht es Presseverlegern nicht darum, technisch den zulässigen Umfang der Nutzung ihrer Werke ausdrücken zu können. Das Gesetz soll überhaupt erst ein eigenes, von den Urhebern der Werke weitgehend unabhängig durchsetzbares Verfügungsrecht schaffen.

Zudem verbliebe auch bei feinstufigeren Systemen zur Sperrung von Inhalten das unter 2. beschriebene Risiko einer Abstrafung im von den Aggregatoren gesteuerten intramedialen Wettbewerb, indem Sperrungen mit einem schlechteren Ranking bestraft werden. Solange diese Sanktion droht, werden Verlage keine Sperre riskieren.

Zur Behauptung, Google unterstütze Presseverlage bei der Vermarktung

Die Fakten sprechen eine andere Sprache. Mit redaktionsähnlich präsentierten Diensten, wie Google News, iGoogle, Google Currents, Google Alerts oder Google Reader, macht Google Verlagswebseiten direkte Konkurrenz.

Eine Option, sich zumindest theoretisch gegen Google News zu wehren, ohne automatisch auch aus der Websuche zu fallen, hat Google erst 2009 angesichts drohender Kartellrechtssanktionen eingeräumt. Maschinenlesbare Standards für die Einräumung von Rechten, wie z. B. ACAP, die es Verlegern ermöglichen würden, detailliertere Bedingungen für die Nutzung ihrer Inhalte zu kommunizieren und so – wie es in der Offline-Welt gang und gäbe ist – einen Markt für digitale Inhalte zu schaffen, lehnt Google im Gegensatz zu Bing ab. Angeblich reiche die robots.txt für die Interessen der Verleger aus.

Und als belgische Verleger eine Urheberrechtsklage gegen Google News gewannen, nahm Google einfach alle Kläger aus dem Index – und zwar auch aus dem der Google Websuche, obwohl das Gericht klar zwischen beiden unterschied (s. La cour d’appel de Bruxelles, 5. 5. 2011, R.G. 2007 AR 1730, Rn. 60 – Google/Copiepresse) Eine „Unterstützung“ auf der ganzen Welt sieht anders aus.

Zur Behauptung, es werde schwieriger, Informationen zu finden

Aggregatoren können auch nach Erlass des Leistungsschutzrechtes auf Verlagsseiten verlinken. […] Eine Nichtauffindbarkeit von Presseprodukten würde demgegenüber die vom Gesetz nicht geforderte Entscheidung einer Suchmaschine voraussetzen, keine Links mehr zu Presseportalen in Suchergebnisse aufzunehmen. Dies wäre aber eine freie Entscheidung der Suchmaschine und nicht den Presseverlegern anzulasten.

Wenn es eine Nachfrage nach journalistischen Beiträgen gibt, was Googles Einwand unterstellt, wird es auch Anbieter geben, die diesen Markt durch eine Kooperation mit Verlegern für sich erschließen. Im Übrigen wird jeder User stets Verlegerseiten direkt aufrufen und über die dortigen Suchfunktionen Inhalte auffinden können. Das Interesse der User, Informationen nicht nur auf den Seiten der Presseverlage, sondern auch auf allen Plattformen kostenlos zu finden, die diese Inhalte schlicht kopieren, ist nicht schutzwürdig; jedenfalls nicht, wenn dadurch der wirtschaftliche Anreiz für die Verleger entfällt, solche Inhalte überhaupt erst ins Netz zu stellen.
Alle derzeit diskutierten Alternativen zum Leistungsschutzrecht würden das Interesse der User stärker beeinträchtigen.

Google instrumentalisiert hier das verständliche Interesse der User an einem für sie kostenlosen Zugang zu im Netz verfügbaren Inhalten. Es wäre aber ein Fehler, dieses Interesse mit dem der Allgemeinheit gleichzusetzen.

Zur Behauptung, das Gesetz gefährde die Informationsvielfalt

Die Aussage unterstellt, dass Aggregatoren nach Erlass des Gesetzes nachrichtenbezogene Suchanfragen nicht mehr mit Links zu deutschen Verlagsseiten beantworten, sondern nur noch Links zu ausländischen Portalen einblenden. Das würde aber bedeuten, dass der Aggregator seinen Usern bewusst die für sie relevantesten Inhalte vorenthält und ihnen stattdessen für seine Anfrage weniger relevante Ergebnisse anzeigt, nur um eine gesetzliche Verpflichtung zu umgehen, die – bezogen auf weiterhin zulässige Verlinkungen – noch nicht einmal besteht. Damit ist nicht zu rechnen.

Usern, denen ein Aggregator weniger deutsche Presseverleger anzeigt, steht es frei, mit einem Klick einen anderen Aggregator zu wählen, bei dem die Userinteressen an erster Stelle stehen.

Zur Behauptung, nur große Verlagsangebote würden profitieren

Träfe dies zu, bestünde ein unauflösbarer Widerspruch zu Googles Aussage an anderer Stelle, „ ‚Klicks? sind die Währung des Internets“ (s. unter II.). Sind Klicks die Währung des Internets, müssen doch die „klickstarken Verlagsangebote“ am meisten vom Status Quo profitieren, während kleine Verleger am wenigsten von der Währung abbekommen. Wenn dem so ist, kann das Leistungsschutzrecht die Position kleiner Verleger lediglich verbessern. Dafür sprechen auch verhandlungsökonomische Grundsätze.

Eine Verwertungsgesellschaft unterstellt, schützt das Gesetz Verleger insbesondere davor, von Aggregatoren untereinander ausgespielt zu werden, nach dem Motto: Wir ranken den am besten, der uns die meisten Inhalte schenkt (s. unter VII.2.). Dadurch wird die Neutralität von Suchergebnissen gewahrt und die Presse- und Meinungsvielfalt insgesamt gestärkt.

Zur Behauptung, ein Leistungsschutzrecht schade den Urhebern

Tatsächlich scheint das Gegenteil der Fall: Der Schutz der Presseverleger vor einer Ausbeutung ihrer Leistungen ist eine wesentliche Voraussetzung für die Finanzierbarkeit von Presse und damit auch von Journalisten/innen.

Ergebnis

Mangels jeder Regulierung ist die genaue Funktionsweise vieler Aggregatoren intransparent.

Aggregatoren haben ein ökonomisches Interesse, diese Informationsasymmetrie zur Beeinflussung von Entscheidungsträgern einzusetzen.

Es wäre zu bedauern, wenn weitere Rechtsakte durch diese Informationsasymmetrie zum Nachteil der Allgemeinheit beeinflusst würden. Unabhängig vom diskutierten Leistungsschutzrecht verbleibt daher ein Appell: Verteidige Dein Netz! – gegen weitere Irreführungen durch Monopolisten.

Der Autor ist Rechtsanwalt bei Olswang Germany LLP. Er vertritt Mandanten, darunter die Verlegerverbände BDZV und VDZ, in Beschwerden wegen Missbrauchs von Marktmacht gegen Google vor der Europäischen Kommission. Der Beitrag gibt seine persönliche Meinung wieder.

Den vollständigen Beitrag finden Sie hier: Kommunikation und Recht

Das könnte Sie ebenfalls interessieren:

Berlin, 
30. Januar 2013
   





   
ZV Zeitungs-Verlag Service GmbH Theodor Wolff-Preis Zeitungs Marketing Gesellschaft (ZMG) Akademie Berufliche Bildung der deutschen Zeitungsverlage e.V. Bürgerpreis der Deutschen Zeitungen Wan-ifra World Association of Newspapers and News Publishers Inma. Sharing ideas. Inspiring change
© Bundesverband Deutscher Zeitungsverleger e.V.