आप जल्दी से स्केल करने के लिए एडब्ल्यूएस ऑटोस्कलिंग को कैसे कॉन्फ़िगर करते हैं? मैंने एक ईएलबी के साथ एक एडब्ल्यूएस ऑटोस्कलिंग समूह स्थापित किया है। सभी अच्छी तरह से काम कर रहे हैं, सिवाय इसके कि नए उदाहरण जोड़े जाने से पहले कई मिनट लगते हैं और ऑनलाइन हैं। मैं कठपुतली और autoscaling बारे में एक पोस्ट में निम्नलिखित में आए:रैपिड एडब्लूएस ऑटोस्केलिंग
समय पैमाने पर करने के कई मिनट से कुछ ही सेकंड के लिए कम किया जा सकता है, तो एएमआई आप नोड्स के एक समूह के लिए उपयोग तारीख तक पहले से ही है।
http://puppetlabs.com/blog/rapid-scaling-with-auto-generated-amis-using-puppet/
यह सच है? स्केल करने के लिए समय कुछ सेकंड तक कम किया जा सकता है? कठपुतली का उपयोग किसी प्रदर्शन प्रदर्शन को जोड़ना होगा?
मैं भी पढ़ा है कि छोटे उदाहरणों बड़ों की तुलना में तेज शुरू:
छोटे उदाहरण 1.7 स्मृति के जीबी, 1 EC2 कंप्यूट इकाई (1 EC2 कंप्यूट यूनिट के साथ 1 आभासी कोर), उदाहरण के भंडारण के 160 जीबी, एक आधार के साथ 32-बिट मंच 5.3 CentOS के एएमआई उपलब्धता के उदाहरण के शुभारंभ से समय की
राशि स्थापित: 5 के बीच और 6 मिनट हमें पूर्व-1c
बड़े उदाहरण 7.5 स्मृति के जीबी, 4 EC2 गणना इकाइयों (2 ईसी 2 गणना के साथ 2 आभासी कोर इकाइयों प्रत्येक), उदाहरण के भंडारण के 850 जीबी, एक आधार के साथ 64-बिट मंच 5.3 CentOS के एएमआई समय की
राशि उदाहरण के शुभारंभ से उपलब्धता के स्थापित:
के बीच 11 और 18 मिनट हमें पूर्व-1cदोनों अमेज़ॅन टूल का उपयोग करके कमांड लाइन के माध्यम से शुरू किए गए थे।
http://www.philchen.com/2009/04/21/how-long-does-it-take-to-launch-an-amazon-ec2-instance
मैं ध्यान दें कि लेख पुरानी है और मेरी c1.xlarge उदाहरणों निश्चित रूप से शुरू करने के लिए 18min नहीं ले रहे हैं। फिर भी, 50 सूक्ष्म उदाहरणों के साथ एक ऑटोस्केल समूह को कॉन्फ़िगर करना (100% क्षमता वृद्धि की अप स्केल पॉलिसी के साथ) 20 बड़े उदाहरणों के साथ एक से अधिक कुशल हो सकता है? या संभावित रूप से दो ऑटोस्केल समूह बनाना, त्वरित लॉन्च समय के लिए माइक्रोस्कोस में से एक और कुछ मिनट बाद सीपीयू ग्रंट जोड़ने के लिए बड़े उदाहरणों में से एक? अन्य सभी बराबर हैं, एक t1.micro c1.xlarge से ऑनलाइन कितना तेज़ होता है?