انجمن‌های فارسی اوبونتو

لطفاً به انجمن‌ها وارد شده و یا جهت ورود ثبت‌نام نمائید

لطفاً جهت ورود نام کاربری و رمز عبورتان را وارد نمائید




نویسنده موضوع: دانلود کل محتویات سایت[حل شد]  (دفعات بازدید: 2792 بار)

0 کاربر و 1 مهمان درحال مشاهده موضوع.

آفلاین milad.fashi

  • Hero Member
  • *
  • ارسال: 843
  • جنسیت : پسر
  • میلاد فشی
دانلود کل محتویات سایت[حل شد]
« : 08 دی 1393، 03:23 ب‌ظ »
برای دانلود کل محتویات یک سایت در ویندوز از offline explorer استفاده میکردم.
آموزش لینوکس LPIC رو میخواستم از سایت edx دانلود کنم.
آدرس آموزش در این لینک است :
https://courses.edx.org/accounts/login?next=/course_modes/choose/LinuxFoundationX/LFS101x/2T2014/
به نظر شما از چه نرم افزاری استفاده کنم تا بتونم عکس ها و نوشته ها و فیلم های این آموزش رو دانلود کنم و به صورت آفلاین ازشون استفاده کنم؟
شنیدم برای این کار از HTTrack استفاده میشه.
اما میشه با استفاده از command-line و به صورت دستوری و با aria2c این کار رو انجام داد و به نرم افزار دیگری وابسته نبود؟
« آخرین ویرایش: 12 دی 1393، 04:20 ب‌ظ توسط میلاد فشی »
کیفیت زندگی شما را دو چیز تعیین می کند: کتابهایی که می‌خوانید و انسانهایی که ملاقات می‌کنید. (مک لوهان)
To love GNU/Linux, you don't need to hate Microsoft

آفلاین امیرحسین گودرزی

  • ناظر انجمن
  • *
  • ارسال: 743
  • جنسیت : پسر
  • Devops engineer and AI enthusiastic
پاسخ : دانلود کل محتویات سایت
« پاسخ #1 : 08 دی 1393، 04:36 ب‌ظ »
سلام
هم می‌تونی از httrack استفاده کنی
یا از wget بدین صورت که wget --recursive --no-clobber --page-requisites --html-extension --convert-links --restrict-file-names=windows --domains edx.org --no-parent http://courses.edx.org/courseX


آفلاین milad.fashi

  • Hero Member
  • *
  • ارسال: 843
  • جنسیت : پسر
  • میلاد فشی
پاسخ : دانلود کل محتویات سایت
« پاسخ #2 : 08 دی 1393، 06:43 ب‌ظ »
سلام
هم می‌تونی از httrack استفاده کنی
یا از wget بدین صورت که wget --recursive --no-clobber --page-requisites --html-extension --convert-links --restrict-file-names=windows --domains edx.org --no-parent http://courses.edx.org/courseX
ممنون دوست عزیز
از کد شما استفاده کردم و البته خودم هم تغییراتی در آن ایجاد کردم.ولی کار نکرد.چون برای دانلود نیاز به وارد شدن به سایت هست.
برای اینکه بتونه login کنه.username و password خودم رو وارد کردم
wget -c --http-user=milad.fashi --http-password=******** --tries=75 --mirror --recursive --page-requisites --html-extension --convert-links --restrict-file-names=windows -P /media/sda9/NewNetwork -o download.log --domains=edx.org --no-parent https://courses.edx.org/courses/LinuxFoundationX/LFS101x/2T2014/infoباز هم برای تلاش مجدد از ماسک زدن به wget با استفاده از wget -–user-agent استفاده کردم:
wget -c --user-agent="Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.3) Gecko/2008092416 Firefox/3.0.3" --http-user=milad.fashi --http-password=******* --tries=75 --mirror --recursive --page-requisites --html-extension --convert-links --restrict-file-names=windows -P /media/sda9/NewNetwork -o download.log --domains=edx.org --no-parent https://courses.edx.org/courses/LinuxFoundationX/LFS101x/2T2014/info
ولی بازم کار نکرد که نکرد!

در مورد ذخیره کوکی ها خوندم. و کد زیر رو اجرا کردم.ولی بازم خطای "ERROR 403: FORBIDDEN" رو نوشت!
wget --save-cookies cookies.txt --post-data "email=milad.fashi&password=******&rememberMe=1" -O- "https://courses.edx.org/login" > /dev/null
به غیر از این مشکلات
در مورد wget خوندم.
بدی wget اینه که قابلیت چند تکه کردن فایلها رو نداره! یه توجیح اش اینه که فایل رو یک تکه میگیره تا بعدا بشه فایل های ناقص دانلود شده رو با هر DM دیگری دانلود کرد.
درمورد نرم افزار lftp هم شنیدم.اون کار منو راه میندازه؟ یا مثل این بدبختی داره  ](*,) یا سراغ offline explorer برم؟ :oops:
« آخرین ویرایش: 09 دی 1393، 01:20 ق‌ظ توسط میلاد فشی »
کیفیت زندگی شما را دو چیز تعیین می کند: کتابهایی که می‌خوانید و انسانهایی که ملاقات می‌کنید. (مک لوهان)
To love GNU/Linux, you don't need to hate Microsoft

آفلاین milad.fashi

  • Hero Member
  • *
  • ارسال: 843
  • جنسیت : پسر
  • میلاد فشی
پاسخ : دانلود کل محتویات سایت
« پاسخ #3 : 09 دی 1393، 01:41 ق‌ظ »
از قدیم گفتند جوینده یابنده است همینه :
با استفاده از افزونه Export cookies 1.2 در FireFox تونستم که Cookie مربوط به این سایت رو در فایلی به اسم cookies.txt ذخیره کنم.(بدون خطای Forbidden)
بعدش به راحتی با دستور زیر تونستم از سد رمز عبور و login عبور کنم و سایت رو grab کنم:
wget -c --load-cookies /home/milad/cookies.txt --user-agent="Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.3) Gecko/2008092416 Firefox/3.0.3" --tries=75 --mirror --recursive --page-requisites --html-extension --convert-links --restrict-file-names=windows -P /media/sda9/NewNetwork --domains=edx.org --no-parent https://courses.edx.org/courses/LinuxFoundationX/LFS101x/2T2014/info
کیفیت زندگی شما را دو چیز تعیین می کند: کتابهایی که می‌خوانید و انسانهایی که ملاقات می‌کنید. (مک لوهان)
To love GNU/Linux, you don't need to hate Microsoft

آفلاین milad.fashi

  • Hero Member
  • *
  • ارسال: 843
  • جنسیت : پسر
  • میلاد فشی
پاسخ : دانلود کل محتویات سایت
« پاسخ #4 : 11 دی 1393، 10:02 ق‌ظ »
فقط مشکلی که هست اینه که عکس ها و فیلم هایی که Domain اون سایت دیگریه رو دانلود نکرد.
مثلا فیلم ها در YouTube آپلود شده.علاوه بر ف-ی-ل-ت-ر بودن.حتی اگر هم مسدود نباشه.این دستور از Domain های غیر از edx.com دانلود نمیکنه.کسی بلده دستوری بنویسه که یک level یا چند level از لینک های جلوتر هم عکس و فیلم ها رو هم ذخیره کنه؟
کیفیت زندگی شما را دو چیز تعیین می کند: کتابهایی که می‌خوانید و انسانهایی که ملاقات می‌کنید. (مک لوهان)
To love GNU/Linux, you don't need to hate Microsoft

آفلاین دانیال بهزادی

  • ناظر انجمن
  • *
  • ارسال: 19687
  • جنسیت : پسر
  • Urahara Kiesuke
    • وبلاگ
پاسخ : دانلود کل محتویات سایت
« پاسخ #5 : 12 دی 1393، 01:08 ب‌ظ »
من یه برنامه‌ی edx downloader یا چنین چیزی روی گیت‌هاب دیدم قدیم. احتمالاً همونه که دنبالشی
اگه این ارسال بهت کمک کرد، دنبال دکمهٔ تشکر نگرد. به جاش تو هم به جامعهٔ آزادت کمک کن

آفلاین امیرحسین گودرزی

  • ناظر انجمن
  • *
  • ارسال: 743
  • جنسیت : پسر
  • Devops engineer and AI enthusiastic
پاسخ : دانلود کل محتویات سایت
« پاسخ #6 : 12 دی 1393، 01:13 ب‌ظ »
https://github.com/shk3/edx-downloader
اینه احتمالا منظور دانیال
چنین چیزی برای udacity  هست