Frage an Stephan Thomae von Jan N. bezüglich Wirtschaft
Sehr geehrter Herr Thomae,
mit großem Interesse habe ich Ihren Artikel auf telepolis zum Thema Leistungsschutzrecht für Verlage gelesen.
Diesbezüglich tun sich für mich einige Fragen auf, für deren Beantwortung ich Ihnen sehr dankbar wäre.
1. Ist Ihnen bekannt, dass die von Ihnen in Ihrem Artikel festgestellte "Schutzlücke" nur mit Billigung der Verlage zustande kommen kann? Jeder Verlag kann sein Internetangebot detailliert und standardisiert (nach dem Robots Exclusion Standard) über einen den Verlagen geläufigen Mechanismus (siehe http://www.focus.de/robots.txt für intensive Nutzung) von der Aggregation ausschließen.
2. Deswegen interessiert mich, wo genau die Schutzlücke ist, die von den Verlagen behauptet wird?
3. Welche Aggregatoren greifen unerlaubterweise (also gesperrt durch die bekannten Mechanismen) auf Verlagsinhalte zu und veröffentlichen "Snippets" ohne Genehmigung der Verlage und ohne, dass sie mit Hilfe geltenden Rechts belangt werden können?
4. In welcher Höhe verursachen diese illegal und unerlaubt auf Verlagsinhalte zugreifenden Aggregatoren Vermögensschäden auf Verlagsseite?
Über eine Beantwortung dieser Fragen wäre ich Ihnen sehr dankbar.
Mit freundlichen Grüßen,
Jan Nebendahl
Sehr geehrter Herr Nebendahl,
vielen Dank für Ihre Anfrage vom 13. August 2010.
Mir ist bekannt, dass Verlage Internetsuchmaschinen den Zugriff auf ihre Internetangebote durch robots.txt verwehren können. Allerdings muss hier differenziert werden: Unternehmen, die im Internet tätig sind, wollen selbstverständlich gefunden werden. Aus diesem Grund soll das bloße Verlinken auch künftig zulässig sein. Ob die Inhalte der Unternehmen aber kostenfrei genutzt werden sollen, ist eine ganz andere Frage. Dies liegt nicht ohne weiteres im Interesse der Unternehmen, insbesondere dann nicht, wenn Dritte mit den Inhalten der Unternehmen in Konkurrenz zu ihnen treten.
Man muss sich die Frage stellen, ob man großen Suchmaschinen wie Google nur wegen ihrer Marktmacht ermöglichen soll, fremde Inhalte kostenfrei zu nutzen. Wenn die Verlage diese Suchmaschinen durch robots.txt ausschließen, werden sie gar nicht mehr gefunden, was für sie einen erheblichen wettbewerblichen Nachteil bedeutet.
Das Urheberrecht basiert auf dem Grundsatz „erst fragen, dann nutzen“. Es ist eine Tendenz zu beobachten, dass vor allem marktstarke Akteure, wie z.B. Google, versuchen, diesen Grundsatz im Internet in sein Gegenteil zu verkehren und ein Opt-out Prinzip zu etablieren: Wer mit der Nutzung seiner Leistungen nicht einverstanden ist, soll das erklären. Den technischen Ausschlussmöglichkeiten liegt derselbe Gedanke zugrunde. Ich meine, das ist nicht richtig.
Mit freundlichen Grüßen
Stephan Thomae, MdB