Wie soll ich eine Website auf tote Links überprüfen? [geschlossen]

7

Wie soll ich meine Website auf tote Links überprüfen? Ich habe einige webbasierte Dienstprogramme verwendet, die in Ordnung waren, z.

Ich habe in der Vergangenheit einige Freeware-Apps wie Xenu verwendet .

Ich hätte wirklich gerne etwas, das Berichte in einem Format exportieren könnte, mit dem ich etwas anfangen könnte, wie CSV oder XML. Was benutzt du?

Jon Galloway
quelle

Antworten:

4

Das IIS SEO Toolkit ist dafür großartig. Es ist viel mehr als nur die Suche nach defekten Links. http://www.iis.net/extensions/SEOToolkit

Sie können Berichte mit den Daten ausführen und Berichte im Laufe der Zeit verfolgen.

Gehackt
quelle
1
Doh! Ich wusste, dass ich etwas Offensichtliches vergaß! Vielen Dank.
Jon Galloway
13

Ich habe einen Linux-Computer mit einem Cron-Job, auf dem Linkchecker ausgeführt wird, um mir einen Bericht zu senden.

http://wummel.github.io/linkchecker/

Wenn Sie Ubuntu ausführen, befindet es sich im Paketmanager.

sudo aptitude install linkchecker
man linkchecker

Viele Möglichkeiten. Funktioniert gut für mich. Kann den Bericht in verschiedenen Formaten speichern.

J. Zimmerman
quelle
5

Ich werde für Xenu stimmen . Blendend schnell und bietet Ihnen alle möglichen anderen Funktionen.

IDisposable
quelle
2

Ich habe das nicht ausprobiert, aber ich bin gestern Abend darauf gestoßen, als ich versucht habe, wget dazu zu bringen, etwas anderes zu tun. Kann in Ihrem Fall hilfreich sein oder auch nicht.

   --spider
       When invoked with this option, Wget will behave as a Web spider,
       which means that it will not download the pages, just check that
       they are there.  For example, you can use Wget to check your book‐
       marks:  

               wget --spider --force-html -i bookmarks.html

       This feature needs much more work for Wget to get close to the
       functionality of real web spiders.
theotherreceive
quelle
Unter createdbypete.com/articles/… können Sie mithilfe der folgenden Optionen rekursiv fehlerhafte Links für eine Site abrufen . Der Link erklärt, was jede Option tut: wget --spider -o wget.log -e robots = off -w 1 -r -p example.com
Peach
1

Ich persönlich würde mich für einige serverseitige Protokollanalysatoren entscheiden, um tote Verbindungen kontinuierlich zu überwachen. Webalizer / Awstats und wahrscheinlich andere Tools können Ihnen einen Bericht über alle 404 Not Found-Fehler geben, indem Sie Ihr Webserver-Protokoll analysieren.

Vorteil dieses Ansatzes: Sie finden auch falsche Links zu Ihrer Site, die möglicherweise auf einer anderen Site veröffentlicht wurden, Benutzertipps usw. Und es ist eine kontinuierliche Überwachung, nicht nur einmal, wenn Sie einen Dead Link Checker ausführen.

Sie können dies mit einer Website-Spiegelungssoftware wie httrack kombinieren. Lassen Sie es einfach Ihre Site crawlen und dann den Bericht von einem der Protokollanalyse-Tools abrufen.

Es gibt auch einige Desktop-Apps, die Apache-Protokolldateien analysieren und Ihnen 404-Fehler in einem schönen Bericht anzeigen können.

Cristian Vat
quelle