संभव डुप्लिकेट में:
How can I speed up fetching pages with urllib2 in python?एक ही बार में एकाधिक यूआरएल को पुनः प्राप्त/समानांतर
मैं एक अजगर स्क्रिप्ट जो वेब पेज डाउनलोड है, यह पार्स और पृष्ठ से कुछ मान। अंतिम परिणाम प्राप्त करने के लिए मुझे ऐसे कुछ पृष्ठों को स्क्रैप करने की आवश्यकता है। प्रत्येक पृष्ठ पुनर्प्राप्त करने में लंबा समय लगता है (5-10s) और मैं प्रतीक्षा समय को कम करने के समानांतर में अनुरोध करना पसंद करूंगा।
सवाल यह है कि - कौन सा तंत्र इसे त्वरित, सही ढंग से और न्यूनतम CPU/मेमोरी अपशिष्ट के साथ करेगा? मुड़, एसिंककोर, थ्रेडिंग, कुछ और? क्या आप उदाहरणों के साथ कुछ लिंक प्रदान कर सकते हैं?
धन्यवाद
यूपीडी: समस्या के लिए कुछ समाधान हैं, मैं गति और संसाधनों के बीच समझौता की तलाश में हूं। यदि आप कुछ अनुभव विवरण बता सकते हैं - यह आपके विचार से लोड के तहत तेज़ कैसे है, आदि - यह बहुत उपयोगी होगा।
मेरा जवाब यहां देखें http://stackoverflow.com/questions/3491455 –