Blokowanie plików za pomocą pliku robots.txt

Napisany przez: Dares 2012-07-17 13:32:03 • Data edycji: 2012-09-06 12:12:22 • Kategoria: praca inżynierska

Często przypadłością witryn internetowych w narzędziach dla webmastera udostępnianych przez firmę Google jest problem z podwójnymi tagami tytułowymi. Ponieważ nasza witryna jest dostępna pod dwoma postaciami linków należy zablokować możliwość przeglądania robotom tych zbędnych powtarzających się stron docelowych pod różnymi postaciami adresów URL. Do tego celu można wykrzysać plik robots.txt zamieszczająć odpowiednie polecenia:

 

User-agent: *

Disallow: /forum/viewtopic.php

Disallow: /forum/viewforum.php

Disallow: /forum/index.php?

Disallow: /forum/posting.php

Disallow: /forum/search.php?

Disallow: /forum/ucp.php

Disallow: /forum/mcp.php
Disallow: /forum/topic
Disallow: /forum/post

Disallow: /forum/member

Disallow: /forum/memberlist.php

Disallow: /forum/faq.php


Copyright (c) 2012-2013 by Michał Demut. All rights reserved.

Valid XHTML 1.0 Strict