आप Request.UserAgent
के खिलाफ (regex) देख सकते हैं।
पीटर ब्रॉमबर्ग ने एएसपी.नेट में ASP.NET Request Logger and Crawler Killer लिखने के बारे में एक अच्छा लेख लिखा।
public static bool IsCrawler(HttpRequest request)
{
// set next line to "bool isCrawler = false; to use this to deny certain bots
bool isCrawler = request.Browser.Crawler;
// Microsoft doesn't properly detect several crawlers
if (!isCrawler)
{
// put any additional known crawlers in the Regex below
// you can also use this list to deny certain bots instead, if desired:
// just set bool isCrawler = false; for first line in method
// and only have the ones you want to deny in the following Regex list
Regex regEx = new Regex("Slurp|slurp|ask|Ask|Teoma|teoma");
isCrawler = regEx.Match(request.UserAgent).Success;
}
return isCrawler;
}
अच्छा! मैं इसकी जांच करूंगा। –
महासागर की ओर इशारा करते हुए धन्यवाद - मैं कुछ समय के लिए हमारी 1.1 साइटों पर ब्राउज़रकैप्स के बहुत पुराने सेट के साथ फंस गया हूं। –