Hallo,
ich habe eine Frage die nicht AutoIt betrifft, hoffe das mir trotzdem jemand helfen kann und ich hier im richtigen Forenabteil bin.
Ich habe eine Homepage die in Google und den anderen Suchmaschinen gelistet wird. Jedoch ist mir nun aufgefallen, dass jede Unterseite einzeln als Eintrag erscheint, wenn ich nach dieser Suche, jedoch möchte ich, dass ausschließlich die Indexseite gelistet wird. Ich habe nun begonnen nach einer Möglichkeit zu suchen, dies zu ändern und bin dabei auf die robots.txt gestoßen. Über diese soll man definieren können, welche Seiten gelistet werden dürfen und welche nicht.
Da ich eine solche Datei zuvor noch nie erstellt habe, hat sich mir die Frage gestellt, ob ich diese so richtig aufgebaut habe:
Spoiler anzeigen
Dateiname: robots.txt
User-agent: *
Disallow: /Start.html
Disallow: /Kontakt.html
Disallow: /Impressum.html
.
.
.
Die Html-Dateien liegen direkt im Stammverzeichnis, der Link sieht also wie folgend aus:
http://www.beispiel.de/Start.html
Danke im Voraus über jegliche Art von Hilfe.