robot.txt, .htaccess und sidemap.xml der zweite ganz harte html Tag für mich. Gestern die erste web-Seite meines Lebens gebaut und so gar folgen können.
Ich komme mir vor wie beim Führerschein. Ich bekomme die Erlaubnis fahren zu lernen. Im Kurs bekomme ich die Erlaubnis richtige und wichtige Web-Seiten und Strategien an zu wenden.
Und das sagt Lammenett:
robots.txt - Nach der Übereinkunft des "Robots Exclusion Standard"- Protokolls liest ein Webcrawler bzw. eine Suchmaschine (robot) beim Auffinden einer Webseite zuerst die Datei robots.txt im Stammverzeichnis(roo) einer Domain. In dieser Datei kann fetsgelegt weden, ob und wenn ja wie die Webseite von einem Robot durchsucht und indiziert werden darf. (vgl. Lammenett Praxiswissen Online-Marketing)
.htaccess ("Hypertext Zugriff") ist der Name einer Konfigurationsdatei, mit der der Zugriff auf Webserver kontrolliert und beschränkt werden kann.
zu sidemap.xml sagt Herr Lammenet im Glossar nichts, daher hier wikipedia:
Die Idee einer maschinenlesbaren Sitemap (z. B. für Suchmaschinen) führt zu dem Sitemaps-Protokoll, das URLs von Webseiten einschließlich einiger Metadaten (letzte Aktualisierung, Änderungshäufigkeit, Relevanz, Relation zu anderen URLs des Webauftritts, …) enthält. Solche Sitemaps ermöglichen Suchmaschinen beispielsweise eine leichtere Durchsuchbarkeit von Webauftritten.
Und heute habe ich auch endlich festgestellt, dass ich nicht Seiten neu anlegen muß sondern Posts. Aber so ist das stetig lernen.
Keine Kommentare:
Kommentar veröffentlichen