पर eigenvalues और eigenvectors की गणना के लिए खराब प्रदर्शन कुछ कोड में हमें समेकित वास्तविक matrices (एक्स = लांबा बीएक्स) के साथ सामान्यीकृत eigenvalue समस्या के लिए ऑटो वैक्टर और ऑटो मान प्राप्त करने की आवश्यकता है। यह कोड LACPACK से डीएसपीजीवीएक्स का उपयोग करता है। हम एक Magma समारोह का उपयोग कर जीपीयू पर इसे गति देना चाहते थे। हम इस मंच पर पूछा और के बारे में इसGPU
http://icl.cs.utk.edu/magma/docs/zhegvx_8cpp.html
हमारे मैट्रिक्स की (एन) आकार चला जाता है 100 से 50000 और भी अधिक करने के लिए, एक अणु में परमाणुओं की संख्या से संबंधित जवाब मिला है। हम देखते हैं:
ए) 2500 (लगभग) से बड़ा एन के लिए, मैग्मा बस काम नहीं करता है; सेगमेंटेशन गलती बी) मैग्मा हमेशा LAPACK अनुक्रमिक से धीमी गति से चलती है, लगभग 10 गुना धीमी
क्या यह व्यवहार सामान्य है और क्या हम इसे दूर कर सकते हैं? क्या कोई भी किसी भी संदर्भ की रिपोर्ट कर सकता है जहां इस तरह की समस्याओं पर काम करने वाले किसी भी व्यक्ति को सभ्य गति मिलती है?
धन्यवाद
आपका क्या मतलब है "काम नहीं करता" ... क्या यह नहीं चलता है? क्या यह गलत परिणाम उत्पन्न करता है, क्या यह रनटाइम पर दुर्घटनाग्रस्त हो जाता है? – prelic
आप किस GPU पर इसे चला रहे हैं? – talonmies
4 जीबी रैम – flow