Bundesgericht vs. Google und andere Suchmaschinen

Rechtsanwalt Martin Steiger

3 Kommentare

  1. Danilo sagt:

    Soviel ich weiss könnte man in den Google Webmastertools auch einfach die Crawl-Frequenz reduzieren…

    Zudem sind bestimmt nicht jene Crawler das Problem welche sich an robots.txt halten, sondern die, die das nicht tun.

    1. @Danilo:

      «Soviel ich weiss könnte man in den Google Webmastertools auch einfach die Crawl-Frequenz reduzieren…»

      Richtig … aber gibt es wirklich Websites, die halbwegs kompetent gehostet werden und durch die Zugriffe des Google Crawlers überfordert sind?

      «Zudem sind bestimmt nicht jene Crawler das Problem welche sich an robots.txt halten, sondern die, die das nicht tun.»

      Genau … das Bundesgericht ermöglicht Suchmaschinen wie Google keinen vollständigen Zugriff auf die Rechtsprechung und fördert damit Dritte, die diese Rechtsprechung anbieten können, weil sie sich nicht an die «Spielregeln» halten. Auch aus diesem Grund ist die Publikationspolitik des Bundesgerichts für mich nicht nachvollziehbar und ich hoffe deshalb, dass das Bundesgericht zu einem späteren Zeitpunkt zu einer anderen Beurteilung gelangt.

  2. Urs Jakob Mühlematter sagt:

    Sehr geehrter Herr Steiger. Vielen Dank für ihre oben stehende, ausführliche Zusammenfassung. Wie sieht diese Problematik aktuell aus? Existiert mittlerweile eine API?

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht.