6

का कोई उदाहरण उदाहरण ईएम एल्गोरिदम का एक सरल संख्यात्मक उदाहरण प्रदान कर सकता है क्योंकि मुझे दिए गए सूत्रों के बारे में निश्चित नहीं है? 4 या 5 कार्टेशियन निर्देशांक के साथ वास्तव में सरल एक पूरी तरह से करना होगा।अपेक्षाकृत अधिकतमकरण एल्गोरिदम

+0

** ईएम वेरिएंट की जो ** आप क्या मतलब है? आम मिश्रित-का-गॉसियन क्लस्टरिंग एल्गोरिदम? क्या समझा है तुमने? क्या महालानोबिस अभी तक पूरी तरह से स्पष्ट है? –

+0

ठीक है, मुझे गाऊसी मिश्रण मॉडल की आवश्यकता है। खैर, मुझे लगता है कि मुझे अंतर्ज्ञान (उच्च स्तर) मिलता है लेकिन मैं सूत्रों को एक साधारण उदाहरण पर लागू नहीं कर सकता हूं। – Michael

+0

इसे आजमाएं [ट्यूटोरियल] (http://www.dbs.ifi.lmu.de/Lehre/KDD/SS12/uebung/Tutorial05ClusteringEM.pdf)। यह सिर्फ एक कदम है (और यह matrices recompute नहीं है!) लेकिन मुझे लगता है कि यह आपके कुछ सवालों का जवाब देगा और काफी दृश्य है। –

उत्तर

5

क्या इस बारे में: http://en.wikibooks.org/wiki/Data_Mining_Algorithms_In_R/Clustering/Expectation_Maximization_(EM)#A_simple_example

मैं भी (संपादित) में एक साधारण उदाहरण लिखा था एक साल पहले आर, दुर्भाग्य से मैं यह पता लगाने में असमर्थ हूँ। मैं इसे बाद में खोजने के लिए फिर कोशिश करूंगा।

संपादित करें: यह यहाँ है -

 
EM <- function() 
{ 
    ### Read file, get necessary cols 
    dataFile <- read.csv("wine.csv", head = FALSE, sep = ",") 
    sl <- dataFile[, 2] 
    #sw <- dataFile[, 3] 
    #pl <- dataFile[, 3] 
    #pw <- dataFile[, 4] 
    class <- dataFile[, 5] 
    N <- length(sl) 
    pi1 <- 0.5 
     ### Init ### 
    rand1 <- floor(runif(1) * N) 
    rand2 <- floor(runif(1) * N) 
    mu1 <- sl[rand1] 
    mu2 <- sl[rand2] 
    mean1 <- sum(sl)/N 
    sigma1 <- sum( (sl - mean1) ** 2) /N 
    sigma2 <- sigma1 
    print(mu1) 
    print(mu2) 
    print(sigma1) 
    print(sigma2) 
    COUNTLIM <- 10 
    count <- 1 
    prevmu1 <- 0.0; 
    prevmu2 <- 0.0; 
    prevsigma1 <- 0.0; 
    prevsigma2 <- 0.0; 
    gamma <- array(0, length(sl)) 
    while (count <= COUNTLIM) 
    { 
     gamma <- pi1 * dnorm(sl, mu2, sigma2)/ ((1 - pi1) * dnorm(sl, mu1, sigma1) + pi1 * dnorm(sl, mu2, sigma2)) 
     mu1 <- sum((1 - gamma) * sl)/sum(1 - gamma)
mu2 <- sum((gamma) * sl)/sum(gamma)
sigma1 <- sum((1 - gamma) * (sl - mu1) ** 2)/sum(1 - gamma) sigma2 <- sum((gamma) * (sl - mu2) ** 2)/sum(gamma) pi1 <- sum(gamma)/N print(c(mu1, mu2, sigma1, sigma2, pi1)) if (count == 1) { prevmu1 <- mu1; prevmu2 <- mu2; prevsigma1 <- sigma1; prevsigma2 <- sigma2; } else { val <- ((prevmu1 - mu1)*2 + (prevmu2 - mu2)*2 + (prevsigma1 - sigma1)*2 + (prevsigma2 - sigma2)*2) ** 0.5; print(c("val: " , val)) if (val <= 1) { break; } } count <- count + 1 } print(mu1) print(mu2) print(sigma1) print(sigma2) }

+0

क्या आप wine.csv डेटा को लिंक (या | और वर्णन) कर सकते हैं? मुझे लगता है, कि मैंने इसे पाया। यह है: http://archive.ics.uci.edu/ml/machine-learning-databases/wine/wine.data? – andi

+0

हाँ, क्षमा करें, वह वही है। –