top of page

WordPress: blokowanie w robots.txt kilku rzeczy

Zdjęcie autora: Piotr BartczakPiotr Bartczak

W wielu miejscach i przez wiele osób poruszana jest kwestia bezpieczeństwa WordPressa, ale bardzo mało uwagi poświęcone jest niepozornemu zaganieniu, jakim jest plik robots.txt, który sam z siebie nie poprawia bezpieczeństwa, ale wpływa na to co z naszego serwisu skopiują sobie wyszukiwarki.

Zdaję sobie sprawę, że wyszukiwarki tak naprawdę i tak chodzą po tych miejscach, ale przynajmniej nie prezentują na cały świat zawartości. Zaprezentowany kawałek kodu dodaje do pliku robots.txt wpisy, informujące roboty, której treści serwisu nie publikować.

add_filter( 'robots_txt', 'iworks_filter_robots_txt' );
if ( !function_exists( 'iworks_filter_robots_txt' ) ) {
    function iworks_filter_robots_txt( $robots )
    {
        $entries = array(
            '/.htaccess',
            '/license.txt',
            '/readme.html',
            '*/trackback/',
            '/wp-admin/',
            '/wp-content/languages/',
            '/wp-content/mu-plugins/',
            '/wp-content/plugins/',
            '/wp-content/themes/',
            '/wp-includes/',
            '/wp-*.php',
            '/xmlrpc.php',
        );
        $robots .= "\n";
        foreach ( $entries as $one ) {
            $robots .= sprintf( 'Disallow: %s%s', $one, "\n" );
        }
        return $robots;
    }
}

Jak użyć podany kod?

Masz 3 rozwiązania:

  1. wrzuć załączony plik do folderu wp-content/plugins, a potem włącz wtyczkę

  2. wrzuć załączony plik do folderu wp-content/mu-plugins

  3. dołącz kod do pliku functions.php aktualnie używanego motywu

0 wyświetleń0 komentarzy

Ostatnie posty

Zobacz wszystkie

Comments


bottom of page