2013-01-02 35 views
5

इससे पहले कि आप मुझे बताएं कि आपने क्या किया है, और 'इसे स्वयं जांचें', मैं यह ध्यान रखना चाहूंगा कि robots.txt मेरी साइट खोज इंजन पर किसी भी साइट के लिए बहुत धीमी गति से अपडेट करता है, इसलिए यदि आप सैद्धांतिक अनुभव प्रदान कर सकते हैं, सराहनीय होगा। मैं बहुत यकीन नहीं हैक्या मैं कुछ यूआरएल पैरामीटर को ब्लॉक करने के लिए robots.txt का उपयोग कर सकता हूं?

http://www.example.com/?foo=foo 

:

उदाहरण के लिए, यह अनुमति देने के लिए संभव है:

http://www.example.com 

और ब्लॉक।

सहायता?

+1

आप एक रोबोट एमुलेटर उपयोग करने के लिए कोशिश कर सकते हैं, लेकिन का उपयोग कर ** robots.txt में इनकार ** सभी रोबोट मतलब यह नहीं है यह पालन करेंगे! –

उत्तर

6

Wikipedia के अनुसार, "robots.txt पैटर्न सरल-स्ट्रिंग तुलना द्वारा मिलान किया जाता है" और के रूप में प्राप्त स्ट्रिंग एक यूआरएल है तुम बस को जोड़ने के लिए सक्षम होना चाहिए:

Disallow: /?foo=foo 

या कुछ और अधिक फैंसी

की तरह
Disallow: /*?* 

सभी प्राप्त तारों को अक्षम करने के लिए। तारांकन एक वाइल्डकार्ड प्रतीक है, इसलिए यह किसी भी चीज़ के एक या कई पात्रों से मेल खाता है।

Example of a robots.txt with dynamic urls.

+0

बस सोच रहा है, क्या सभी यूआरएल को '? Foo = foo'' से अवरुद्ध करना संभव है, केवल आधार निर्देशिका नहीं? – think123

+0

निश्चित रूप से यदि आप आगे स्लैश को हटाते हैं तो यह URL में कहीं भी स्ट्रिंग से मेल खाएगा। –

+1

ध्यान दें कि '*' वाइल्डकार्ड मूल robots.txt विनिर्देश का हिस्सा नहीं है। – unor