मुझे आईओएस ऐप्स बनाने के साथ अनुभव मिला है लेकिन वीडियो के साथ अनुभव नहीं है। मैं एक आईफोन ऐप बनाना चाहता हूं जो सर्वर पर वास्तविक समय वीडियो स्ट्रीम करता है। एक बार सर्वर पर मैं उस वीडियो को वास्तविक समय में उपभोक्ताओं को पहुंचा दूंगा।कैप्चर करें, फिर एक आईफोन से सर्वर पर स्ट्रीम करें,
मैंने काफी सामग्री पढ़ी है। क्या कोई मुझे बता सकता है कि निम्नलिखित सही है और मेरे लिए रिक्त स्थान भरें।
- आईफोन पर वीडियो रिकॉर्ड करने के लिए मुझे AVFoundation कक्षाओं का उपयोग करना चाहिए। AVCaptureSession का उपयोग करते समय प्रतिनिधि विधि कैप्चरऑटपुट: didOutputSampleBuffer :: कनेक्शन से मैं वीडियो के प्रत्येक फ्रेम तक पहुंच प्राप्त कर सकता हूं। अब जब मेरे पास वीडियो फ्रेम है तो मुझे फ्रेम
- पता है कि फाउंडेशन क्लासेस केवल AVAssetWriter के माध्यम से H264 एन्कोडिंग की पेशकश करते हैं और ऐसी कक्षा के माध्यम से नहीं जो आसानी से वेब सर्वर पर स्ट्रीमिंग का समर्थन करता है। इसलिए, मुझे एक फ़ाइल में वीडियो लिखने के साथ छोड़ दिया गया है।
- मैंने अन्य पोस्ट पढ़ी हैं जो कहते हैं कि वे 10 एसेट ब्लॉक लिखने के लिए दो एसेटवेटर्स का उपयोग कर सकते हैं, फिर सर्वर पर उन 10 सेकंड ब्लॉक को एनएसएसटी स्ट्रीम करें। क्या कोई यह समझाने के लिए एक साथ काम कर रहे दो AVAssetWriters के उपयोग को कोड करने के तरीके को समझा सकता है। अगर किसी के पास कोड है तो कृपया साझा करें।
क्या आप कृपया जो कुछ भी समाप्त कर रहे हैं उसे साझा कर सकते हैं? –