सवाल मैं पूरी वेबसाइट कैसे डाउनलोड कर सकता हूं?


मैं वेबसाइट से सभी पेज कैसे डाउनलोड कर सकता हूं?

कोई मंच ठीक है।


319


मूल


चेक आउट serverfault.com/questions/45096/website-backup-and-download सर्वर फॉल्ट पर। - Marko Carter
@tnorthcutt, मैं भी हैरान हूँ। अगर मुझे बहुत गलत याद नहीं है, तो मेरा Wget जवाब स्वीकार्य होता था, और यह एक व्यवस्थित चीज़ की तरह दिखता था। हालांकि मैं शिकायत नहीं कर रहा हूं - अचानक अचानक नए ध्यान ने मुझे बक्षीस के प्रतिनिधि के लायक से ज्यादा दिया। : पी - Jonik
क्या आपने IDM की कोशिश की? superuser.com/questions/14403/... मेरी पोस्ट दफनाया गया है। IDM में आपको क्या याद आ रही है? - Lazer
@ जो: अगर आप लापता सुविधाओं के बारे में विवरण देंगे तो मदद कर सकते हैं ... - Ilari Kajaste
browse-offline.com वेब साइट के पूरे पेड़ को डाउनलोड कर सकते हैं ताकि आप इसे ऑफ़लाइन ब्राउज़ कर सकें - Menelaos Vergis


जवाब:


HTTRACK एक पूरी साइट की सामग्री की प्रतिलिपि बनाने के लिए एक चैंप की तरह काम करता है। यह टूल सक्रिय कोड सामग्री ऑफ़लाइन काम करने वाली वेबसाइट बनाने के लिए आवश्यक टुकड़ों को भी पकड़ सकता है। मैं उन चीज़ों पर आश्चर्यचकित हूं जो ऑफ़लाइन प्रतिकृति कर सकते हैं।

यह कार्यक्रम आपको इसकी आवश्यकता होगी।

हैप्पी हंटिंग!


310



वर्षों से इसका इस्तेमाल कर रहे हैं - अत्यधिक अनुशंसित। - Umber Ferrule
आप डाउनलोड की गति को भी सीमित कर सकते हैं ताकि आप हर किसी के नुकसान के लिए बहुत अधिक बैंडविड्थ का उपयोग न करें। - Umber Ferrule
क्या यह वास्तविक एएसपी कोड की प्रतिलिपि करेगा जो सर्वर पर चलता है? - Taptronic
@ वैकल्पिक समाधान: नहीं, यह संभव नहीं है। इसके लिए आपको सर्वर या स्रोत कोड तक पहुंच की आवश्यकता होगी। - Sasha Chedygov
प्राधिकरण के साथ साइटों के लिए प्रेरणा और wget दोनों कोशिश करने के बाद, मुझे wget के पक्ष में दुबला होना है। उन मामलों में काम करने के लिए प्रेरणा प्राप्त नहीं कर सका। - Leo


wget इस तरह के कार्य के लिए एक क्लासिक कमांड लाइन उपकरण है। यह अधिकांश यूनिक्स / लिनक्स सिस्टम के साथ आता है, और आप इसे प्राप्त कर सकते हैं विंडोज के लिए भी। एक मैक पर, homebrew इसे स्थापित करने का सबसे आसान तरीका है (brew install wget)।

आप कुछ ऐसा करेंगे:

wget -r --no-parent http://site.com/songs/

अधिक जानकारी के लिए, देखें Wget मैनुअल और उसका उदाहरण, या उदा। इन:


243



इससे कोई बेहतर जवाब नहीं है - wget कुछ भी कर सकते हैं: 3 - Phoshi
--No-parent सहित +1। निश्चित रूप से -rr के बजाय --mirror का उपयोग करें। और आप अन्य सर्वरों के लिंक का पालन न करने के सापेक्ष -एल / ​​- शामिल करना चाहेंगे। - quack quixote
जैसा कि मैंने fansrack.com के लिए भी पूछा - क्या यह सीएमडी लाइन उपकरण एएसपी प्राप्त करेगा कोड या यह सिर्फ HTML की प्रतिपादन प्राप्त करेगा? मुझे इसे आज़माना ही है। डेवलपर्स के लिए यह थोड़ा चिंताजनक हो सकता है अगर यह करता है ... - Taptronic
@optimal, पाठ्यक्रम का एचटीएमएल आउटपुट - यह केवल तभी प्राप्त होगा जब सर्वर बुरी तरह गलत कॉन्फ़िगर किया गया हो - Jonik
दुर्भाग्यवश यह मेरे लिए काम नहीं करता है - सीएसएस फ़ाइलों के लिंक के साथ एक समस्या है, वे रिश्तेदार में परिवर्तित नहीं हैं यानी, आप फ़ाइलों में ऐसा कुछ देख सकते हैं: <link rel = "स्टाइलशीट" टाइप = "टेक्स्ट / सीएसएस" href = "/ static / css / reset.css" media = "screen" /> जो स्थानीय रूप से अच्छी तरह से काम नहीं करता है, जब तक कि यह सोचने के लिए फ़ायरफ़ॉक्स को चालने के लिए कोई Waz नहीं है कि कुछ डीआईआर रूट है। - gorn


Wget का प्रयोग करें:

wget -m -p -E -k www.example.com

विकल्प समझाया गया:

-m, --mirror            Turns on recursion and time-stamping, sets infinite 
                          recursion depth, and keeps FTP directory listings.
-p, --page-requisites   Get all images, etc. needed to display HTML page.
-E, --adjust-extension  Save HTML/CSS files with .html/.css extensions.
-k, --convert-links     Make links in downloaded HTML point to local files.

126



सुझाए गए विकल्पों के लिए स्पष्टीकरण प्रदान करने के लिए +1। (हालांकि मुझे नहीं लगता --mirror बहुत आत्म-व्याख्यात्मक है। यहां मैन पेज से है: "यह विकल्प रिकर्सन और टाइम-स्टैम्पिंग पर बदल जाता है, अनंत रिकर्सन गहराई सेट करता है और एफ़टीपी निर्देशिका सूची रखता है। यह वर्तमान में -r -N -l inf -no-remove-listings के बराबर है") - Ilari Kajaste
यदि आप उस डोमेन के नाम से फ़ोल्डर में सबकुछ डाउनलोड नहीं करना चाहते हैं, जिसे आप मिरर करना चाहते हैं, तो अपना खुद का फ़ोल्डर बनाएं और -एनएच विकल्प का उपयोग करें (जो मेजबान भाग को छोड़ देता है)। - Rafael Bugajewski
अगर एथ की आवश्यकता है तो क्या होगा? - Val
मैंने तुम्हारा उपयोग करने की कोशिश की wget --mirror -p --html-extension --convert-links www.example.com और यह सिर्फ सूचकांक डाउनलोड किया। मुझे लगता है कि आपको इसकी ज़रूरत है -r पूरी साइट डाउनलोड करने के लिए। - Eric Brotto
यातायात / बहुत से अनुरोधों के कारण साइट को मारने के बारे में चिंतित लोगों के लिए, इसका उपयोग करें -w seconds(अनुरोधों के बीच कई secconds इंतजार करने के लिए, या --limit-rate=amountडाउनलोड करने के दौरान उपयोग करने के लिए अधिकतम बैंडविड्थ निर्दिष्ट करने के लिए - vlad-ardelean


आपको एक नज़र रखना चाहिए स्क्रैपबुकफ़ायरफ़ॉक्स एक्सटेंशन। इसमें एक है गहराई से कैप्चर मोड

enter image description here


8



वर्जन 57 (क्वांटम) के बाद फ़ायरफ़ॉक्स के साथ अब संगत नहीं है। - Yay295


इंटरनेट डाउनलोड प्रबंधक कई विकल्पों के साथ एक साइट ग्रैबर उपयोगिता है - जो आपको इच्छित वेबसाइट को पूरी तरह डाउनलोड करने देती है, जिस तरह से आप इसे चाहते हैं।

  1. आप डाउनलोड करने के लिए पृष्ठों / फ़ाइलों के आकार पर सीमा निर्धारित कर सकते हैं

  2. आप शाखा साइटों की संख्या को देखने के लिए सेट कर सकते हैं

  3. आप स्क्रिप्ट / पॉपअप / डुप्लिकेट व्यवहार के तरीके को बदल सकते हैं

  4. आप एक डोमेन निर्दिष्ट कर सकते हैं, केवल उस डोमेन के अंतर्गत आवश्यक सेटिंग्स को पूरा करने वाले सभी पेज / फाइलें डाउनलोड की जाएंगी

  5. लिंक ब्राउज़िंग के लिए ऑफ़लाइन लिंक में परिवर्तित किया जा सकता है

  6. आपके पास टेम्पलेट्स हैं जो आपको अपने लिए उपरोक्त सेटिंग्स चुनने देते हैं

enter image description here

हालांकि सॉफ्टवेयर मुफ्त नहीं है - देखें कि क्या यह आपकी आवश्यकताओं के अनुरूप है, मूल्यांकन संस्करण का उपयोग करें।


8





itsucks - यह कार्यक्रम का नाम है!


7





मैं उन ऑनलाइन बफरिंग को संबोधित करूंगा जो ब्राउज़र का उपयोग करते हैं ...

आम तौर पर अधिकतर ब्राउज़र एक वेबसाइट से डाउनलोड की जाने वाली फ़ाइलों को रखने के लिए एक ब्राउज़िंग कैश का उपयोग करते हैं ताकि आपको स्थिर छवियों और सामग्री को बार-बार डाउनलोड न करना पड़े। यह कुछ परिस्थितियों में चीजों को थोड़ा सा बढ़ा सकता है। आम तौर पर, अधिकांश ब्राउज़र कैश एक निश्चित आकार तक सीमित होते हैं और जब यह उस सीमा को हिट करता है, तो यह कैश में सबसे पुरानी फाइलों को हटा देगा।

आईएसपी में कैशिंग सर्वर होते हैं जो ईएसपीएन और सीएनएन जैसी आम तौर पर एक्सेस की गई वेबसाइटों की प्रतियां रखते हैं। यह उन्हें हर बार अपने नेटवर्क पर जाने पर इन साइटों को मारने की परेशानी बचाता है। यह आईएसपी को बाहरी साइटों पर डुप्लीकेट अनुरोधों की राशि में एक महत्वपूर्ण बचत की राशि हो सकती है।


5





मुझे पसंद है ऑफ़लाइन एक्सप्लोरर
यह एक शेयरवेयर है, लेकिन यह बहुत अच्छा और उपयोग करने में आसान है।


5





मैंने कई सालों में ऐसा नहीं किया है, लेकिन वहां अभी भी कुछ उपयोगिताएं हैं। आप कोशिश कर सकते हैं वेब सांप। मेरा मानना ​​है कि मैंने इसे कई साल पहले इस्तेमाल किया था। जब मैंने आपका प्रश्न पढ़ा तो मुझे तुरंत नाम याद आया।

मैं स्टेसी से सहमत हूं। कृपया उनकी साइट को हथियार न दें। बहुत बुरा।


5