Suchroboter erlaubt?

  • Allgemein

  • Zerd
  • 1245 Aufrufe 3 Antworten

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • Suchroboter erlaubt?

    Hallo zusammen,

    ich war nicht sicher in welchem Forum ich das Thema am besten erstellen soll, deshalb habe ich es hier gemacht, weil es zummindest für mich ein Coding thema ist.

    Ich habe mir bereits kleine suchroboter geschrieben, die mir gewisse informationen von seiten auslesen und nach bedarf verarbeiten. Mich würde allerdings mal interessieren bis zu welchem grad dies legal ist. Meine bisherigen programme haben nur kleinigkeiten gemacht, wie z.B. eine tabelle auslesen und analysieren (durchschnittswerte berechnen, statistik erstellen etc.). Das ganze wurde auch nie zu irgend einem anderen zweck gemacht, außer für mich informationen verständlicher darzustellen.

    Weiß jemand ob es prinzipiell Regelungen gibt, die roboter verbieten? Ein Beispiel was mir einfällt wäre z.b. verschiedene Game-sites nach Spielen zu durchsuchen und deren Bewertung auszulesen. Oder ein roboter der informationen von anderen Seiten zusammenträgt um eine eigene Datenbank zu füllen (und ich meine dabei kein geistiges Eigentum, sondern tatsächliche daten oder Fakten, die keiner speziellen person zugeordnet werden können)

    Viele Grüße
    Zerd
    [SIZE="1"]i'm a signature virus. copy me into your signature to help me spread. - smart questions[/SIZE]
  • Eine Regelung diesbezüglich kenne ich nicht, aber solange du die Informationen nur zum privaten Zwecke verarbeitest und nicht der Öffentlichkeit zugänglich machst wüsste ich nicht, mit welchem Argument irgendjemand etwas dagegen haben könnte. Es macht ja schließlich keinen Unterschied, ob die Seiten von einem Menschen oder einem Roboter abgerufen werden, je nach Auslegung deines Crawlers verursachst du schlimmstenfalls eine höhere Serverlast. Deswegen wirst du kaum Ärger bekommen können, schließlich liegt es in der Verantwortung des Anbieters mithilfe von Captchas o.ä. eine automatisierte Verarbeitung zu verhindern, wenn er das denn wünscht...
  • Hi,
    solange du im Rahmen bleibst und den Betrieb der Seite damit nicht störst, kannst du meiner Meinung nach machen, was du willst (Habe jedenfalls nichts Relevantes gefunden)

    Ein Praxis-Beispiel: Habe mal an einer Homepage gearbeitet, die viele Seiten immer wieder abgegrast hat, um diese Vielen in einer zu vereinigen. Dies war zum Anfang nicht mit den betreffenden Seiten abgesprochen, so kam es, dass einige Webmaster die IP vom Server gesperrt hatten. Es kam allerdings nicht mal eine E-mail (auch wenn Kontaktdaten in der whois-Abfrage zu finden waren) mit Wunsch auf Unterlassung oder ähnliches. Das Happy End: Nach Anfrage/Kontakt bekamen wir sogar Zugriff zur internen API.
    Ergo, Fragen lohnt sich bei so etwas immer ;)

    Gruß
    Broken Sword
    Auf dem Abstellgleis sah man ihn liegen,
    Auf dem Abstellgleis zwischen Schwelle und Gestein,
    Auf dem Abstellgleis im strömenden Regen,
    Auf dem Abstellgleis allein.