Relativ kurzfristig gab es im Bundestag heute eine zweite Anhörung, um offene Fragen zum geplanten Leistungsschutzrecht für Presseverlage zu erörtern. Nach der Sitzung im Rechtsausschuss ging es im Unterausschuss Neue Medien um Nachhilfe in technischen Fragen: Wie indizieren Suchmaschinen? Ist das Gesetz technisch umsetzbar?
Auch ein Vertreter von Google war dieses Mal unter den Sachverständigen – dem inoffiziellen Hauptadressaten des Gesetzes. Geladen war eigentlich Arnd Haller, Leiter der deutschen Rechtsabteilung. Er wurde gebeten, in der zweiten Reihe Platz zu nehmen, es sollte um technische, nicht um juristische Fragen gehen. Wieland Holfelder, Entwicklungsleiter bei Google Deutschland, saß dann vorne. Dass neben ihm mit Thomas Höppner ein praktizierender Rechtswalt saß, der den Bundesverband Deutscher Zeitungsverleger (BDZV) vertrat, störte offensichtlich weniger.
Holfelder erklärte, dass man über die kleine Datei robots.txt „granular“ einstellen könne, welcher Inhalt von welcher Suchmaschine indiziert und wie er dargestellt werden soll. Da alle großen Suchmaschinenanbieter sich an diesen Standard hielten, gebe es auch keinen Grund, gesetzlich einzugreifen. Michael Steidl, Geschäftsführer des IPTC-Konsortiums, stellte fest, dass es bei robots.txt keinen Ansprechpartner gebe. Es beruhe auf dem Best-Practice-Prinzip – das bei Internet-Standards allgemein verbreitet ist, wie Jimmy Schulz (FDP) bemerkte.
Die Verlage hätten trotzdem gerne ihren eigenen Standard gegenüber Suchmaschinen. Gemeint ist ACAP, das „Automated Content Access Protocol”. Damit wollen sie auch festlegen können, für wie viel Geld oder für welchen Zeitraum ein bestimmter Inhalt durch Suchmaschinen genutzt werden darf. Im Gegensatz zu robots.txt, das auf Freiwilligkeit basiert, soll ACAP verbindlich sein. Google-Ingenieur Holfelder erwiderte, dass Google mit diesem Ansatz über den wahren Inhalt der Seite getäuscht werden könne. Google wisse dann nicht, ob sich vielleicht eine Spam- oder Pornoseite hinter einem solchen Snippet verberge. Dirk Lewandowski, Informationsforscher und Professor in Hamburg, widersprach: Google könne trotzdem feststellen, welchen Inhalt eine Seite hat.
BDZV-Vertreter Höppner bemühte sich, den „Taxi-Vergleich“ zu widerlegen und sprach von einem aufgedrängten Wettbewerb durch Google. Laut eigenen Studien würden sich mehr als die Hälfte der Leser von Google News mit der dortigen Nachrichtenübersicht zufriedengeben. Da sie sich aber nicht zu den Seiten der Verlage durchklickten, nehme Google ihnen Traffic weg. Google hingegen habe immer 100 Prozent des Nutzeraufkommens und profitiere von den Inhalten anderer. Nach Ansicht von Lewandowski kann der Gesetzentwurf das lösen.
Google-Rechtschef Haller wies darauf hin, dass eine Suchmaschine nicht unterscheiden könne, ob es sich bei Inhalten im Web um ein Verlagsprodukt im Sinne des Gesetzes handele. Es bestehe große Unsicherheit: Nicht nur für Google & Co., sondern auch für den Gesetzgebungsprozess insgesamt.
Vergangenen Freitag war noch Unruhe in der Koalition zu vernehmen – nicht wegen technischer, sondern wegen europa- und verfassungsrechtlicher Fragen. Nun soll der Gesetzentwurf doch noch am 1. März in zweiter und dritter Lesung durch den Bundestag.
Update, 26.02.2013: Der Mitschnitt ist jetzt in der Bundestags-Mediathek verfügbar: