Difference between revisions of "Archive:Robot Configuration"

m (Mlink-rodrigue moved page Robot Configuration to Archive:Robot Configuration without leaving a redirect: not part of v3)
 
Um eigene Seiten im Internet vor Webcrawlern (Dursuchen von Suchmaschinen) zu schützen, wurde die

Extension: Robot Configuration


Overview
Description: In order to protect own pages on the Internet from web crawlers, the "robots.txt"
eingeführt. Diese Datei befindet sich im Rootverzeichnis des Servers und ist eine Steuerungsdatei für Webcrawler, die Bereiche verbieten oder auch erlauben kann. Sie kommt oft zum Einsatz um den Datentraffic, der durch die Vielzahl von Webcrawlern verursacht wird, zu reduzieren oder auch um gewisse Bereiche für die Webcrawler zu sperren. Further information about the structure of
was introduced.
State: stable Dependency:
Developer: Martijn Koster License: -
Type: MediaWiki Category: -
Edition: BlueSpice free
For more info, visit Mediawiki.

Features[edit source]

In order to protect own pages on the Internet from web crawlers, the "robots.txt" was introduced.

This file is located in the root directory of the server and is a web crawler control file that can ban.

It is often used to reduce the data traffic caused by the large number of web crawlers or to block certain areas for the web crawlers.


For further information about  this file, please refer to the Wikipedia.

Um eigene Seiten im Internet vor Webcrawlern (Dursuchen von Suchmaschinen) zu schützen, wurde die "robots.txt" eingeführt. Diese Datei befindet sich im Rootverzeichnis des Servers und ist eine Steuerungsdatei für Webcrawler, die Bereiche verbieten oder auch erlauben kann. Sie kommt oft zum Einsatz um den Datentraffic, der durch die Vielzahl von Webcrawlern verursacht wird, zu reduzieren oder auch um gewisse Bereiche für die Webcrawler zu sperren.
            
            
            
            
            <br data-attributes="%20/" data-mce-fragment="1" />Further information about the structure of {{BSExtensionInfobox
            
            |desc=In order to protect own pages on the Internet from web crawlers, the "robots.txt" was introduced.
            
            |status=stable
            
            |developer=Martijn Koster
            
            |type=MediaWiki
            
            |edition=BlueSpice free
            
            |docu=https://en.wikipedia.org/wiki/Robots_exclusion_standard
            
            }}
            
            In order to protect own pages on the Internet from web crawlers, the "robots.txt" was introduced.
            
            
            
            This file is located in the root directory of the server and is a web crawler control file that can ban.
            
            
            
            It is often used to reduce the data traffic caused by the large number of web crawlers or to block certain areas for the web crawlers.
            
            
            
            
            <br data-attributes="%20/" data-mce-fragment="1" />For further information about  this file, please refer to the [http://dehttps://en.wikipedia.org/wiki/Robots_Exclusion_Standardexclusion_standard Wikipedia]..]
        
        
        
        
        
        
        
        
        
        
        
        
        
        [[de:Robotskonfiguration]][[en:{{FULLPAGENAME}}]]
        
        [[Category:Extension]]
        
        [[Category:Spam]]
(5 intermediate revisions by 3 users not shown)
Line 1: Line 1:
Um eigene Seiten im Internet vor Webcrawlern (Dursuchen von Suchmaschinen) zu schützen, wurde die "robots.txt" eingeführt. Diese Datei befindet sich im Rootverzeichnis des Servers und ist eine Steuerungsdatei für Webcrawler, die Bereiche verbieten oder auch erlauben kann. Sie kommt oft zum Einsatz um den Datentraffic, der durch die Vielzahl von Webcrawlern verursacht wird, zu reduzieren oder auch um gewisse Bereiche für die Webcrawler zu sperren.
+
{{BSExtensionInfobox
 +
|desc=In order to protect own pages on the Internet from web crawlers, the "robots.txt" was introduced.
 +
|status=stable
 +
|developer=Martijn Koster
 +
|type=MediaWiki
 +
|edition=BlueSpice free
 +
|docu=https://en.wikipedia.org/wiki/Robots_exclusion_standard
 +
}}
 +
In order to protect own pages on the Internet from web crawlers, the "robots.txt" was introduced.
  
<br data-attributes="%20/" data-mce-fragment="1" />Further information about the structure of this file, please refer to the [http://de.wikipedia.org/wiki/Robots_Exclusion_Standard Wikipedia].
+
This file is located in the root directory of the server and is a web crawler control file that can ban.
 +
 
 +
It is often used to reduce the data traffic caused by the large number of web crawlers or to block certain areas for the web crawlers.
 +
 
 +
<br data-attributes="%20/" data-mce-fragment="1" />For further information about  this file, please refer to the [https://en.wikipedia.org/wiki/Robots_exclusion_standard Wikipedia.]
  
  

Attachments

Discussions