W wielu miejscach i przez wiele osób poruszana jest kwestia bezpieczeństwa WordPressa, ale bardzo mało uwagi poświęcone jest niepozornemu zaganieniu, jakim jest plik robots.txt, który sam z siebie nie poprawia bezpieczeństwa, ale wpływa na to co z naszego serwisu skopiują sobie wyszukiwarki.
Zdaję sobie sprawę, że wyszukiwarki tak naprawdę i tak chodzą po tych miejscach, ale przynajmniej nie prezentują na cały świat zawartości. Zaprezentowany kawałek kodu dodaje do pliku robots.txt wpisy, informujące roboty, której treści serwisu nie publikować.
add_filter( 'robots_txt', 'iworks_filter_robots_txt' );
if ( !function_exists( 'iworks_filter_robots_txt' ) ) {
function iworks_filter_robots_txt( $robots )
{
$entries = array(
'/.htaccess',
'/license.txt',
'/readme.html',
'*/trackback/',
'/wp-admin/',
'/wp-content/languages/',
'/wp-content/mu-plugins/',
'/wp-content/plugins/',
'/wp-content/themes/',
'/wp-includes/',
'/wp-*.php',
'/xmlrpc.php',
);
$robots .= "\n";
foreach ( $entries as $one ) {
$robots .= sprintf( 'Disallow: %s%s', $one, "\n" );
}
return $robots;
}
}
pobierz plik: iworks_add_to_robots_txt.php
Jak użyć podany kod?
Masz 3 rozwiązania:
wrzuć załączony plik do folderu wp-content/plugins, a potem włącz wtyczkę
wrzuć załączony plik do folderu wp-content/mu-plugins
dołącz kod do pliku functions.php aktualnie używanego motywu
Comments