Ich baue eine Wordpress-Site für ein Elternteil eines 11-Jährigen, das an die sportlichen, akademischen und persönlichen Erfolge seiner Töchter erinnert. Die Website enthält Fotos und Videos von ihr und Freunden, biografische Informationen und Blog-Beiträge. Die Domain ist privat auf den Namen meines Unternehmens registriert. Ich füge sie nicht zur Google-Konsole hinzu und halte andere Suchmaschinenoptimierungen auf ein Minimum. Es gibt keine Nachnamen oder physischen Adressen. Ich möchte so viel Web-Sicherheit wie möglich haben, um zu verhindern, dass Kratzer ihre Fotos usw. greifen, neugierige Blicke usw. Ich bin wahrscheinlich paranoid und denke wie alle meine Websites, dass es mehr Verkehr geben könnte, als es tatsächlich der Fall ist, aber ich denke, es ist die Untersuchung wert und es lohnt sich, meine ichs zu dotieren. Die Website des Kindes ist sehr geschmackvoll und die Eltern sind sehr bodenständig,
Gibt es verlässliche Methoden, mit denen ich die Websicherheit für diese 11-jährige und ihre Website erhöhen kann?
quelle
robots.txt
Datei mit dem richtigen Inhalt kann alle legitimen Bots fernhalten. Der schwierige Teil ist der Rest. Viele von ihnen können ferngehalten werden, wenn die Adresse der Site schwer zu finden ist.Antworten:
Vielleicht bin ich paranoid, aber das klingt so, als ob es ein ganz privater Blog / eine Website sein sollte. dh passwortgeschützt. Wer genau ist die Zielgruppe?
Abgesehen vom Sicherheitsaspekt (Verhindern, dass skrupellose Personen den Inhalt finden und verwenden), klingt diese Art von Inhalt so, als ob er reif wäre, von anderen "Schulfreunden" gemobbt zu werden. Inhalte, die für einen 11-Jährigen zunächst in Ordnung sein könnten, werden in einigen Jahren möglicherweise peinlich.
Das scheint rückständig zu sein? Die Art und Weise, wie Sie Inhalte vor Google verbergen (z. B. einen "guten" Bot), ist die Verwendung des
robots
Meta-Tags (oder derX-Robots-Tag
Überschrift) und möglicherweiserobots.txt
. Das Weglassen von Google Search Console hilft in dieser Hinsicht nicht weiter.Zumindest wenn Sie es zu Google Search Console hinzufügen, können Sie Dinge wie Backlinks überwachen, robots.txt überprüfen usw. Wenn Sie tatsächlich an die Öffentlichkeit gehen.
quelle
Die einzig angemessene Antwort ist, das Ganze mit einem Passwort zu schützen. HTTP BASIC_AUTH ist wahrscheinlich am einfachsten einzurichten, da es in keiner Weise mit WordPress interagiert. Das allein reicht aus, um alle Abstreifer abzuschrecken. Wenn Sie jedoch die richtige Sicherheit wünschen, sollten Sie auch HTTPS verwenden.
(Anmerkung: Bei vielen Systemen wird eine HTTP-Seite zu HTTPS umgeleitet. Bei HTTP BASIC_AUTH kann diese Umleitung jedoch nach der Aufforderung zur Eingabe Ihres Kennworts erfolgen. Auf der HTTPS-Seite wird dann erneut zur Eingabe des Kennworts aufgefordert. Dies bedeutet, dass Ihr Kennwort eingegeben wurde zweimal, einmal im Klartext und einmal über einen sicheren Kanal Grundsätzlich ist es möglich, unterschiedliche Passwörter für die HTTP- und HTTPS-Version oder kein Passwort für die HTTP-Version zu haben Sie werden nach Ihrem Passwort gefragt. Wie einfach dies einzurichten ist, hängt davon ab, welche Tools Sie zum Verwalten Ihrer Website-Hosting-Einstellungen verwenden. Alternativ können Sie auch einfach sicherstellen, dass Sie immer direkt navigierenauf der HTTPS-Seite unter Umgehung der unsicheren Version. Wenn Sie ein anderes Kennwortsystem als HTTP BASIC_AUTH verwenden, trifft wahrscheinlich keine dieser Randnotizen zu.)
quelle
Options -Indexes
).Zunächst möchte ich mich bei allen professionellen Webmastern entschuldigen, aber für dieses OP habe ich einen goldenen Vorschlag:
Verstoßen Sie gegen die Richtlinien für Suchmaschinen
Und ich meine, tun Sie es bis zu dem Punkt, an dem der wichtige Inhalt in komplexem Javascript enthalten ist und der Inhalt, den die Roboter crawlen können, nicht in richtigem HTML enthalten ist. Dies schließt ein schlechtes Beschreibungs-Tag, ein schlechtes Titel-Tag usw. ein. Vielleicht können Sie den gesamten Inhalt in ein in Flash erstelltes Video verwandeln oder den gesamten Inhalt als nur ein Bild anzeigen. Das würde den Suchmaschinen-Crawler wirklich zusammenzucken lassen.
Ich zeige durch Beispiel im Code:
Hier ist ein Weg, um etwas zu indizieren:
Ok, ich gebe zu, der Text ist nicht perfekt, aber Sie verstehen, was ich meine.
Wenn Sie es nun vor Crawlern verstecken und auf einfache Weise ausführen möchten, können Sie Folgendes versuchen:
Erstellen Sie dann ein Bild mit dem Namen mywebsite.jpg und fügen Sie den gesamten Text darin ein, nicht in dem oben gezeigten HTML-Code. Dann müssen Sie mywebsite.jpg schützen, indem Sie eine mit Wasserzeichen versehene Version für die Benutzer erstellen, die nicht autorisiert sind, das Original zu sehen. Vergleichen Sie einfach die Zeichenfolgen oder IP-Adressen von Benutzeragenten mit denen, die Sie für das Bild zulassen / nicht zulassen. Diese Art von Dingen kann in .htaccess mit einigen Umschreiberegeln durchgeführt werden.
Um zum Beispiel zu erzwingen, dass Googlebot das Bild mit dem Wasserzeichen anstelle des Originals sieht, verwenden Sie die folgenden Regeln:
Ich gehe hier davon aus, dass mywebsite.jpg Ihre echte Website als Bild ist und specialrobotimage.jpg das Wasserzeichen oder das Bild als Nachricht, die besagt, dass nur echte Benutzer die Informationen sehen dürfen. Außerdem gehen die Regeln davon aus, dass sich alles im selben Ordner befindet.
quelle
Zunächst ist dies wirklich eine WP-Frage. Ich habe über 20 Websites geschrieben, die genau das tun, was Sie brauchen. Das ist also ziemlich einfach.
1 Sie legen fest, dass sich alle Benutzer anmelden, um alle Seiten anzuzeigen.
2 Sie sperren den Upload-Ordner über Skript und .htaccess. Es gibt Skripte, die nach Benutzeranmeldungen suchen, bevor sie Medien anzeigen können.
Wenn Sie irgendetwas dazwischen machen möchten und Ihre Site weit geöffnet haben möchten, ist das eine Menge Arbeit. Am einfachsten ist es, zwei Upload-Ordner zu haben - einen mit Sicherheit und einen für alles andere, wenn Sie möchten, dass einige Seiten für die Öffentlichkeit zugänglich sind und andere nicht.
Was andere über Inhalte sagen - kann es nicht finden, wenn Ihre Seiten gesperrt sind ... das ist nicht wirklich wahr. Ich habe Roboterskripte, die den Mist aus einem Ordner nach Dateinamen durchsuchen.
Alles, was über Google und Roboter geredet wird, ist Unsinn. Das Zeug ist nur wichtig, wenn Sie es halbherzig machen wollen. Wenn ja, dann lassen Sie sich von einigen der oben gestellten Fragen beraten.
quelle