انجمنهای فارسی اوبونتو
کمک و پشتیبانی => نرمافزارهای اینترنتی => نویسنده: mohsen-rashidi در 31 اردیبهشت 1391، 02:52 بظ
-
ابزار wget بهترین گزینه برای دانلود فایل از اینترنته.wget به راحتی میتونه از پس دانلود های پیچیده ، که شامل دانلود فایل های بزرگ ، دانلود های بازگشتی ، دانلود به صورت non-interactive و دانلود چند فایل به طور همزمان میشن ، بر بیاد.
ما در این مقاله قصد داریم طریقه استفاده از wget ، برای انواع مختلف دانلود را با استفاده از 15 مثال شرح بدیم.
1-دانلود یک فایل منفرد
مثال پایین ، یه فایل معمولی رو از اینترنت دانلود می کنه و در دایرکتوری جاری ذخیره می کنه.
$ wget http://www.openss7.org/repos/tarballs/strx25-0.9.2.1.tar.bz2
در طول فرآیند دانلود یه نوار وضعیت مشاهده می شه که شامل اطلاعات زیره:
1) میزان پیشرفت دانلود با نسبت درصد. (برای مثال در تصویر پایین ٪31 از فایل دانلود شده.)
2) میزان بایتی که تا کنون دانلود شده.(در تصویر پایین 1,213,592 بایت از فایل دانلود شده.)
3) سرعت دانلود فعلی. (k/s 68.2 در تصویر پایین.)
4) زمان باقیمانده برای اتمام دانلود. (34 ثانیه در تصویر پایین.)
$ wget http://www.openss7.org/repos/tarballs/strx25-0.9.2.1.tar.bz2
Saving to: `strx25-0.9.2.1.tar.bz2.1'
31% [=================> 1,213,592 68.2K/s eta 34s
حالت نوار وضعیت در زمان اتمام دانلود :
$ wget http://www.openss7.org/repos/tarballs/strx25-0.9.2.1.tar.bz2
Saving to: `strx25-0.9.2.1.tar.bz2'
100%[======================>] 3,852,374 76.8K/s in 55s
2009-09-25 11:15:30 (68.7 KB/s) - `strx25-0.9.2.1.tar.bz2' saved [3852374/3852374]
2-دانلود و ذخیر فایل با نام متفاوت با استفاده از wget -O
به طور پیش فرض wget اسم فایل رو از آخرین کلمات بعد از آخرین اسلش انتخاب میکنه ، که گاهی اوقات آزار دهنده ست برای همین ما از آپشن wget -O استفاده می کنیم.
به عنوان مثال دستور زیر
$ wget http://www.vim.org/scripts/download_script.php?src_id=7701
فایل رو با نام download_script.php?src_id=7701 دانلود و ذخیره می کنه.اما فایل این یکی
$ wget -O taglist.zip http://www.vim.org/scripts/download_script.php?src_id=7701
با اسم taglist.zip ذخیره میشه.
3-تعیین سرعت دانلود با استفاده از wget -–limit-rate
وقتی که wget رو اجرا می کنید ، این ابزار به طور پیش فرض سعی می کنه که تمام پهنای باند موجود رو اشغال کنه.شاید شما به هر دلیلی نخواین این اتفاق بیوفته و دوست داشته باشین که سرعت دانلودتون رو کنترل کنید.برای این کار باید از آپشن limit-rate-- استفاده کنید:
$ wget --limit-rate=200k http://www.openss7.org/repos/tarballs/strx25-0.9.2.1.tar.bz2
4-ادامه ی دانلود ناتمام با استفاده از wget -c
با استفاده از wget -c میتونید فرآیند دانلودی که متوقف شده رو از سر بگیرید.
$ wget -c http://www.openss7.org/repos/tarballs/strx25-0.9.2.1.tar.bz2
وقتی که اقدام به دانلود یه فایل بزرگ می کنید و ناگهان دانلود در وسط راه قطع می شه ؛ اونجاست که آپشن
wget -c مفید واقع میشه.شما به جای دانلود دوباره ی تمام فایل میتونید با استفاده از این آپشن دانلود رو از جایی که متوقف شده ادامه بدید.
5-دانلود در Background با استفاده از wget -b
برای دانلود فایل های بزرگ ، فرآیند دانلود رو با استفاده از wget -b در background قرار بدید :
$ wget -b http://www.openss7.org/repos/tarballs/strx25-0.9.2.1.tar.bz2
Continuing in background, pid 1984.
Output will be written to `wget-log'.
با استفاده از این آپشن می تونید در هنگام دانلود ، از خط فرمان استفاده کنید.همین طور میتونید از وضعیت دانلود در هر زمان بخواهید با استفاده از tail -f آگاه بشید.
$ tail -f wget-log
Saving to: `strx25-0.9.2.1.tar.bz2.4'
0K .......... .......... .......... .......... .......... 1% 65.5K 57s
50K .......... .......... .......... .......... .......... 2% 85.9K 49s
100K .......... .......... .......... .......... .......... 3% 83.3K 47s
150K .......... .......... .......... .......... .......... 5% 86.6K 45s
200K .......... .......... .......... .......... .......... 6% 33.9K 56s
250K .......... .......... .......... .......... .......... 7% 182M 46s
300K .......... .......... .......... .......... .......... 9% 57.9K 47s
6-ماسک زدن به wget با استفاده از wget -–user-agent
بعضی از وبسایت ها با تشخیص اینکه شما از مرورگر برای دانلود استفاده نمی کنید،می تونن اجازه دانلود به شما ندن.در این صورت شما می تونید با کمک گرفتن از wget -–user-agent به wget ماسک بزنید و اون رو به صورت یه مرورگر نشون بدید.
$ wget --user-agent="Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.3) Gecko/2008092416 Firefox/3.0.3" URL-TO-DOWNLOAD
7-تست URL با استفاده از wget --spider
وقتی که می خواین دانلودی رو در برنامه تون قرار بدید باید ببینید که آیا دانلود به خوبی انجام خواهد شد یا نه.برای این کار URL مورد نظرتون رو باید جلوی wget --spider قرار بدید تا از صحت اون مطمئن بشید:
$ wget --spider DOWNLOAD-URL
اگر URL بدون مشکل باشه ، عبارات زیر به نمایش در میان:
$ wget --spider download-url
Spider mode enabled. Check if remote file exists.
HTTP request sent, awaiting response... 200 OK
Length: unspecified [text/html]
Remote file exists and could contain further links,
but recursion is disabled -- not retrieving.
و به این معناست که دانلود بدون مشکل انجام خواهد شد.اما اگر URL وارد شده دارای اشکال باشه اونوقت جملات زیر در خروجی قرار می گیرن:
$ wget --spider download-url
Spider mode enabled. Check if remote file exists.
HTTP request sent, awaiting response... 404 Not Found
Remote file does not exist -- broken link!!!
8-استفاده از wget --tries برای افزایش تعداد رفرش ها
اگر اتصال اینترنت مشکلی داشته باشه (که در ایران یه امر شایعه) و اگر فایلی که قصد دانلودشو دارید گنده باشه ، احتمال شکست دانلود بالا میره.به طور پیش فرض wget ، بیست بار دانلود رو refresh میکنه تا بالاخره دانلود انجام بشه.
در صورت احتیاج ، میتونید با استفاده از آپشن wget --tries تعداد این رفرش ها رو بالا ببرید:
$ wget --tries=75 DOWNLOAD-URL
9-دانلود چند فایل به طور همزمان با استفاده از wget -i
اول ، تمام URL ها رو در یه فایل متنی ذخیره کنید:
$ cat > download-file-list.txt
URL1
URL2
URL3
URL4
بعد ، فایل متنی download-file-list.txt رو به عنوان آرگومان در جلوی wget -i قرار بدید:
$ wget -i download-file-list.txt
10-دانلود یک وبسایت کامل با استفاده از wget --mirror
دستور زیر زمانی کاربرد داره که شما می خواین یه وبسایت کامل رو دانلود کنید.
$ wget --mirror -p --convert-links -P ./LOCAL-DIR WEBSITE-URL
mirror-- : تمام آپشن های مناسب برای mirroring رو فعال می کنه.
p- : تمام فایل های لازم برای نمایش صحیح صفحات HTML رو دانلود می کنه.
convert-links-- : بعد از اتمام دانلود ، لینک ها رو برای استفاده ی محلی به سند تبدیل میکنه
P ./LOCAL-DIR- : تمام فایل ها و دایرکتوری ها رو در دایرکتوری مشخص شده توسط کاربر ، ذخیره می کنه.
WEBSITE-URL : آدرس وبسایتی که قصد دانلودشو دارید.
11-عدم دانلود یک نوع فایل معین ، در هنگام دانلود با استفاده از wget --reject
فرض کنید که یه سایت به درد بخور پیدا کردید ، اما نمی خواین عکساشو دانلود کنید.برای رسیدن به هدفتون باید از دستور زیر استفاده کنید:
$ wget --reject=gif WEBSITE-TO-BE-DOWNLOADED
12-با استفاده از آپشن o-، لاگ را به جای stderr در یک فایل ذخیره کن
وقتی میخواین log به جای چاپ در ترمینال در یک فایل ذخیره بشه.
$ wget -o download.log DOWNLOAD-URL
13-پایان دانلود وقتی که از سایز مشخص شده تجاوز کرد.
زمانی که بخواین یک دانلود وقتی که از 5 مگابایت بیشتر شد (یعنی وقتی که 5 مگابایت از اون فایل روی سیستم شما ذخیره شد) بایسته ، باید از wget -Q استفاده کنید.
$ wget -Q5m -i FILE-WHICH-HAS-URLS
14-دانلود فایل های مشخص شده با استفاده از wget -r -A
شما می تونید از این آپشن برای موقعیت هایی مانند مثال های زیر استفاده کنید:
دانلود تمام عکس های یک وبسایت
دانلود تمام ویدیو های یک وبسایت
دانلود تمام فایل های pdf یک وبسایت
.
.
.
$ wget -r -A.pdf http://url-to-webpage-with-pdfs/
15-دانلود FTP با استفاده از wget
میتونید برای دانلود FTP از wget به صورت زیر استفاده کنید:
دانلود FTP به صورت ناشناس:
$ wget ftp-url
دانلود FTP با استفاده از username و password :
$ wget --ftp-user=USERNAME --ftp-password=PASSWORD DOWNLOAD-URL
-------------------------------------------------------------------------------------------
در پایان دوست دارم بگم یکی از مهم ترین دلایلی که گنولینوکس کاربرانش رو برای همیشه به استفاده از خودش وا می داره ، وجود ابزار های کوچک و بسیار قدرتمند بر روی این سیستم عامله دوست داشتنیه.
سیستم عاملی که بیش از تمام رقبایش ، جهان تکنولوژری را تغییر داد و ثابت کرد که کارش را چه در قلب یک ابرکامپیوتر عظیم و یا یک مریخ نورد پیشرفته و چه در دل قهوه ساز های خانگی و ساعت های مچی به نحو احسن انجام می ده.
منبع : thegeekstuff.com
-
خیلی زیادی خوب بود. هیچ وقت حوصله نکرده بودم دستور man wget را بخونم. این مطلب خیلی کمک کرد. اون قسمت ماسک زدن خیلی عالی بود.
-
فایل های دانلود شده کجا ذخیره میشه؟
من فیلهایی که با wget دانلود میکنم رو پیدا نمیکنم
-
Log messages to a log file instead of stderr Using wget -o -12
When you wanted the log to be redirected to a log file instead of the terminal
wget پیشفرض لوگ ها را در همان جایی که پرونده را انبار میکند ، میسازد ( با نام wget_log به گمانم ) بخشی هم در خط فرمان بیرون میدهد . با این گزینه لوگ ها به پرونده ای که شما معین میدارید فرستاده میشود . کاربرد آنچنان ندارد
ویکی کنید این نوشتار را . پرکاربرد است
-
خیلی زیادی خوب بود. هیچ وقت حوصله نکرده بودم دستور man wget را بخونم. این مطلب خیلی کمک کرد. اون قسمت ماسک زدن خیلی عالی بود
این نظر لطف شماست دوست عزیز
فایل های دانلود شده کجا ذخیره میشه؟
من فیلهایی که با wget دانلود میکنم رو پیدا نمیکنم
باید اول به دایرکتوری ایی که می خواین فایلتون اونجا ذخیره بشه cd کنید و بعد دستورات wget رو اجرا کنید.
ویکی کنید این نوشتار را . پرکاربرد است
چه طور باید این کار رو بکنم؟
-
ویکی کنید این نوشتار را . پرکاربرد است
چه طور باید این کار رو بکنم؟
http://wiki.ubuntu.ir
-
راهی هست که بشه فایل رو چند تیکه با wget دانلود کرد
واقعا اگه بشه عالیه
در هر صورت خیلی از راهنمایی سپاس گذارم
-
راهی هست که بشه فایل رو چند تیکه با wget دانلود کرد
این کار رو معمولا با دستورهای axel و aria2c انجام میدن. وی-گت هم شاید آپشنی داشته باشه؟!
-
راهی هست که بشه فایل رو چند تیکه با wget دانلود کرد
واقعا اگه بشه عالیه
در هر صورت خیلی از راهنمایی سپاس گذارم
خبر. چون در این صورت یکدستی پرونده که یکی از مهمترین دلیل استفادهی کاربران از wget هست از بین میره. مثلا من دارم ایزوی اوبونتو رو از سرور میگیرم، یکدفعه سرور داون میشه. اگه از wget استفاده کرده باشم میتونم ادامهی بارگیری رو از تورنت انجام بدم
-
راهی هست که بشه فایل رو چند تیکه با wget دانلود کرد
واقعا اگه بشه عالیه
در هر صورت خیلی از راهنمایی سپاس گذارم
خبر. چون در این صورت یکدستی پرونده که یکی از مهمترین دلیل استفادهی کاربران از wget هست از بین میره. مثلا من دارم ایزوی اوبونتو رو از سرور میگیرم، یکدفعه سرور داون میشه. اگه از wget استفاده کرده باشم میتونم ادامهی بارگیری رو از تورنت انجام بدم
خوب آخه این طوری سرعت پایینه (وقتی فایل یک تیکه دریافت میشه)
خوب میشد اگه این قابلیت چند تیکه کردن فایل وجود داشت ولی باید دستی انتخابش می کردی
این طوری به کسی هم ضرری نمی رسید......
-
تجربهی من نشون داده بارگیری چند تکه تأثیر چندانی بر سرعت بارگیری نداره. اون هم با این اینترنتهای داغون ایران. نهایتا ۲ کیلوبایت در ثانیه میخواد سریعتر شه که به دردسرش نمیارزه
-
این جا هم اموزشش هست .
البته منبع هردو یکی هست ولی اموزشش دوستمون کامل تر هستش .
http://forum.ubuntu.ir/index.php/topic,17561.msg140352.html#msg140352
-
من الان می خوام یه فایل دانلود کنم و اون رو speed limit کنم
ولی چون توی آدرس دانلود پرانتز وجود داره وقتی توی ترمینال میزنم این جواب رو میگیرم :
iman@Iman:~$ wget --limit-rate=20k http://dl.downloadha.com/Rezaj/Up2/WinXp%20May%202012%20(www.Downloadha.com).rar
bash: syntax error near unexpected token `('
(این مشکل رو توی دانلود با axel هم دارم پرانتز قبول نمیکنه)
کال این نوع فایل ها رو از طریق flashgot میتونم دانلود کنم حالا چه جوری این دانلود این طور فایل ها رو لیمیت کنم؟
-
URL رو داخل دابل کوت "" قرار بدین و ما هم از نتیجه با خبر کنید
-
مشکلم حل شد
با سپاس از شما
-
Log messages to a log file instead of stderr Using wget -o -12
When you wanted the log to be redirected to a log file instead of the terminal
در محیط برنامه نویسی دسته های آماده ای به خرورجی ها موجود است(منظورم از دسته ترجمه انگلیسی handle است بازگردانی بهتری به نظرم نرسید) مثل stdout و stderr معمولا هر دو آنها در حالت پیش فرض به ترمینال خروجی دارند این که چه پیغامی در هرکدام از آنها چاپ شود بستگی به برنامه نویس دارد مثلا اگر از دستور
printf("%s","11111");
استفاده کند خروجی آن به stdout است که آن هم به صورت طبیعی به ترمینال خروجی می دهد ولی دستور
fprintf(stderr,"%s","11111");
به stderr خروجی میدهد.
ممکن است برنامه نویس کل خروجی برنامه را به stderr بدهد ممکن است خروجی بخشی که با سوییچ verbose فعال میشود را به آن بدهد یا هشدارها و خطاها را، به هر صورت با این دستور خروجی این بخش از پیغامها به جای ترمینال به یک فایل منتقل می شود.
فایل های دانلود شده کجا ذخیره میشه؟
من فیلهایی که با wget دانلود میکنم رو پیدا نمیکنم
cd راهگشاست و همچنین می توانید با استفاده از دستور pwd و گرفتن مسیر جاری ترمینال جای بایگانی فایلهای خودتون را پیدا کنید.
تجربهی من نشون داده بارگیری چند تکه تأثیر چندانی بر سرعت بارگیری نداره.
باید دید گلوگاه سرعت کدام بخش است سرعت کاربر یا پهنای باند محدود شده کارساز(سرور) (مثلا برای apache با استفاده از mod_limit)
-
مشکلم حل شد
با سپاس از شما
خواهش می کنم.در کل هر وقت با فایل یا لینکی مواجه شدید که کارکتر های غیر مجاز داشت برای اینکه بتونین با استفاده از دستورات بش روش مانور بدید باید اسم اون فایل و یا لینک رو داخل دابل کوت بذارید.
در محیط برنامه نویسی دسته های آماده ای به خرورجی ها موجود است(منظورم از دسته ترجمه انگلیسی handle است بازگردانی بهتری به نظرم نرسید) مثل stdout و stderr معمولا هر دو آنها در حالت پیش فرض به ترمینال خروجی دارند این که چه پیغامی در هرکدام از آنها چاپ شود بستگی به برنامه نویس دارد مثلا اگر از دستور
کد: [انتخاب]
printf("%s","11111");
استفاده کند خروجی آن به stdout است که آن هم به صورت طبیعی به ترمینال خروجی می دهد ولی دستور
کد: [انتخاب]
fprintf(stderr,"%s","11111");
به stderr خروجی میدهد.
ممکن است برنامه نویس کل خروجی برنامه را به stderr بدهد ممکن است خروجی بخشی که با سوییچ verbose فعال میشود را به آن بدهد یا هشدارها و خطاها را، به هر صورت با این دستور خروجی این بخش از پیغامها به جای ترمینال به یک فایل منتقل می شود.
از تلاش شما متشکرم
مورد 12 چندان کارایی نداره شاید بد نباشه که به همون حال خودش رهاش کنیم. ;)
-
wget بدلیل اینکه فایل رو به چندین قسمت تقسیم نمی کنه خیلی بدرد بخور نیست ! طبق تست های من axel و lftp -c pget از همه بهتر عمل می کنند !
-
من فکر می کنم صفحه قبل راجع به تکه شدن فایل ها بحث شد...
وقتی شما از اینترنت پر سرعت برخوردار باشید تکه تکه شدن فایل ها چندان با اهمیت به نظر نمی رسه
-
راهی هست که بشه فایل رو چند تیکه با wget دانلود کرد
واقعا اگه بشه عالیه
در هر صورت خیلی از راهنمایی سپاس گذارم
خبر. چون در این صورت یکدستی پرونده که یکی از مهمترین دلیل استفادهی کاربران از wget هست از بین میره. مثلا من دارم ایزوی اوبونتو رو از سرور میگیرم، یکدفعه سرور داون میشه. اگه از wget استفاده کرده باشم میتونم ادامهی بارگیری رو از تورنت انجام بدم
یک دستی از بین نمیره، چون که همونجوری می تونه ادامه بده، بعد اینکه بقیش با تورنت هم میتونید با aria2 کار کنید که چند قسمت هم پشتیبانی میکنه تورنت هم پشتیبانی میکنه!
تجربهی من نشون داده بارگیری چند تکه تأثیر چندانی بر سرعت بارگیری نداره. اون هم با این اینترنتهای داغون ایران. نهایتا ۲ کیلوبایت در ثانیه میخواد سریعتر شه که به دردسرش نمیارزه
این تجربه شخصیه و دلیل هم داره
چون که ISP (ارائه دهنده سرویس اینترنت ) ممکنه که پهنای باندی که به شما تعلق می گیره رو بین چند نفر به اشتراک گذاشته باشه و این باعث میشه که رقابت سر این پهنای باند شروع شه ! :) این پهنای باند اگه خودتون تکی باشید همه سرعت رو دارید. ولی اگر چند تا باشید سرعت تقسیم میشه به تعداد اتصالاتی که هست بین تعداد افراد! بنابراین این هایی که چند بخش می کنند چون پهنای باند بیشتری رو اشغال میکنن می تونن بیشتر سرعت دانلود در اختیار ما بزار ! البته فقط قسمت قسمت کردن نیست قسمت بیشتر از ۱۶ هم چندان فایده ای ندارد ! و به مکانیزم دانلودر برمیگرده. این پست هم ببینید :
http://forum.ubuntu.ir/index.php/topic,36632.0.html (http://forum.ubuntu.ir/index.php/topic,36632.0.html)
اختلاف سرعت هم نمایان هست.
-
یک دستی از بین نمیره، چون که همونجوری می تونه ادامه بده، بعد اینکه بقیش با تورنت هم میتونید با aria2 کار کنید که چند قسمت هم پشتیبانی میکنه تورنت هم پشتیبانی میکنه!
چرا دیگه! در صورت استفاده از شتابدهنده نتیجهی حاصله پروندهای خواهد بود که جاوی چند تکه از قسمتهای مختلف پروندهی اصلی هست و نهایتا میشه اون رو با همون مدیر بارگیریای که باهاش اقدام به بارگیری شده ادامه داد، چون معمولا این برنامههای یه سری اطلاعات ریز هم برای مشخص کردن قسمتهای مختلق برای خودشون به پرونده اضافه میکنن که برای بقیهی برنامهها قابل درک نیستن
-
یک دستی از بین نمیره، چون که همونجوری می تونه ادامه بده، بعد اینکه بقیش با تورنت هم میتونید با aria2 کار کنید که چند قسمت هم پشتیبانی میکنه تورنت هم پشتیبانی میکنه!
چرا دیگه! در صورت استفاده از شتابدهنده نتیجهی حاصله پروندهای خواهد بود که جاوی چند تکه از قسمتهای مختلف پروندهی اصلی هست و نهایتا میشه اون رو با همون مدیر بارگیریای که باهاش اقدام به بارگیری شده ادامه داد، چون معمولا این برنامههای یه سری اطلاعات ریز هم برای مشخص کردن قسمتهای مختلق برای خودشون به پرونده اضافه میکنن که برای بقیهی برنامهها قابل درک نیستن
خب خود aria2 همه کار هارو خودش میکنه ! خودش تورنت هم میگیره !
-
خب خود aria2 همه کار هارو خودش میکنه ! خودش تورنت هم میگیره !
بله. ولی پروندهی نیمهکارهاش رو نمیشه با چیز دیگهای ترمیم کرد و فقط خودش میتونه اون رو بخونه
-
خب خود aria2 همه کار هارو خودش میکنه ! خودش تورنت هم میگیره !
بله. ولی پروندهی نیمهکارهاش رو نمیشه با چیز دیگهای ترمیم کرد و فقط خودش میتونه اون رو بخونه
خب خودش همه کارست دیگه!
یه سوال !چه طوری دانلودر های دیگه از این فایل wget استفاده میکنن؟
-
خب خودش همه کارست دیگه!
یه سوال !چه طوری دانلودر های دیگه از این فایل wget استفاده میکنن؟
کافیه به عنوان پروندهی نیمهکاره بهشون معرفی بشه. از اونجا که پروندهی خام هست همه میشناسنش
-
خب خودش همه کارست دیگه!
یه سوال !چه طوری دانلودر های دیگه از این فایل wget استفاده میکنن؟
کافیه به عنوان پروندهی نیمهکاره بهشون معرفی بشه. از اونجا که پروندهی خام هست همه میشناسنش
آهان ! یعنی ملحقات اضافی نداره ؟ مثل فایل وضعیت ؟ چه جالب ! لازم شد تستش کنم! ولی سرعت کم امان نمی ده !
-
بابا اینقد سنگ wget رو به سینه نزنید.من یه بار فایل iso اوبونتورو که حجمش 700مگ هم نمیشد رو دانلود کردم.بعد دانلود اندازه فایلو 1گیگ کرده بود.یه عالمه خندیدم.... ;D :D :P
واقعا اتفاق عجیبی بود.دیگه اینجوری شو ندیده بودم.... :o
-
بابا اینقد سنگ wget رو به سینه نزنید.من یه بار فایل iso اوبونتورو که حجمش 700مگ هم نمیشد رو دانلود کردم.بعد دانلود اندازه فایلو 1گیگ کرده بود.یه عالمه خندیدم.... ;D :D :P
واقعا اتفاق عجیبی بود.دیگه اینجوری شو ندیده بودم.... :o
واقعا؟
ممکنه دانلود زدی بشه بدون آپشن c بعد وسطش قطع کردی دوباره زدی ! من که خیلی آشنا نیستم!
یه امتیاز به طرف بقیه دانلودر ها!! :P
-
بابا اینقد سنگ wget رو به سینه نزنید.من یه بار فایل iso اوبونتورو که حجمش 700مگ هم نمیشد رو دانلود کردم.بعد دانلود اندازه فایلو 1گیگ کرده بود.یه عالمه خندیدم.
اگه اینجوری باید نتیجه گیری کنیم منم پس بگم که اینقدر سنگ لینوکس رو به سینه نزنید! من یه بار یه فایل متنی داشتم مینوشتم، سیستم کرش کرد، ذخیره هم نکرده بودم مجبور شدم از اول بنویسم...
-
بابا اینقد سنگ wget رو به سینه نزنید.من یه بار فایل iso اوبونتورو که حجمش 700مگ هم نمیشد رو دانلود کردم.بعد دانلود اندازه فایلو 1گیگ کرده بود.یه عالمه خندیدم.
اگه اینجوری باید نتیجه گیری کنیم منم پس بگم که اینقدر سنگ لینوکس رو به سینه نزنید! من یه بار یه فایل متنی داشتم مینوشتم، سیستم کرش کرد، ذخیره هم نکرده بودم مجبور شدم از اول بنویسم...
این دلیل نمیشه ! این دوستمونم که گفتن نگفتن که آیدیام مثلا خوبه ! و همچنین با شوخی گفتند! ضمنا این همه چیز بهتر از wget با مجوز gpl هست تو گنو !
و همچنین شما اگه خاصیت AutoBackup رو فعال کنی ( اگه ادیتور باشه داره فکر کنم ) حله! ضمنا من اگه بودم میرفتم دنبال علت این چیز و باگ ریپورت میفرمودم! سنگ لینوکس هم به سینه میزنیم ! ولی سنگ گنو بیش ...
-
(http://kingtak.persiangig.com/image/wget.gif)
-
بابا اینقد سنگ wget رو به سینه نزنید.من یه بار فایل iso اوبونتورو که حجمش 700مگ هم نمیشد رو دانلود کردم.بعد دانلود اندازه فایلو 1گیگ کرده بود.یه عالمه خندیدم.
اگه اینجوری باید نتیجه گیری کنیم منم پس بگم که اینقدر سنگ لینوکس رو به سینه نزنید! من یه بار یه فایل متنی داشتم مینوشتم، سیستم کرش کرد، ذخیره هم نکرده بودم مجبور شدم از اول بنویسم...
این دلیل نمیشه ! این دوستمونم که گفتن نگفتن که آیدیام مثلا خوبه ! و همچنین با شوخی گفتند! ضمنا این همه چیز بهتر از wget با مجوز gpl هست تو گنو !
و همچنین شما اگه خاصیت AutoBackup رو فعال کنی ( اگه ادیتور باشه داره فکر کنم ) حله! ضمنا من اگه بودم میرفتم دنبال علت این چیز و باگ ریپورت میفرمودم! سنگ لینوکس هم به سینه میزنیم ! ولی سنگ گنو بیش ...
(http://kingtak.persiangig.com/image/wget.gif)
-
سلام امکانش هست یکم بیشتر درمورد قسمتی که از فایل تکست می خونه توضیح بدین
مسلا اینکه اگه دانلود یک فایل تموم شد اونو از تکست پاک می کنه یا نه
یا چون نمی بعضی فایل هارو تو یه روز دانلود کرد می شه از دستور
wget -c -i
استفاده کرد و یا وقتی دستور اجرا می شه تمام لینک ها رو شروع به دانلود می کنه یا نه از اول شروع می کنه تموم شد می ره بعدی؟
-
من در هنگام استفاده با این ارور مواجه می شم :
No URLs found in download-file-list.txt.
soroush@soroush:~$ $ wget -i download-file-list.txt
-
سلام امکانش هست یکم بیشتر درمورد قسمتی که از فایل تکست می خونه توضیح بدین
مسلا اینکه اگه دانلود یک فایل تموم شد اونو از تکست پاک می کنه یا نه
یا چون نمی بعضی فایل هارو تو یه روز دانلود کرد می شه از دستور
wget -c -i
استفاده کرد و یا وقتی دستور اجرا می شه تمام لینک ها رو شروع به دانلود می کنه یا نه از اول شروع می کنه تموم شد می ره بعدی؟
1 - خیر پاک نمیکنه
2 - بله میشه
3 - از اول شروع میکنه تموم شد میره بعدی
-
یه سوال؟؟؟؟؟؟؟؟؟؟؟
میشه تو ویجت دانلود نوبتی انجام داد؟مثلا همه فایل هامو تو یه لیست لینک کنمو بخوام یکی یکی دانلود بشن؟
-
یه سوال؟؟؟؟؟؟؟؟؟؟؟
میشه تو ویجت دانلود نوبتی انجام داد؟مثلا همه فایل هامو تو یه لیست لینک کنمو بخوام یکی یکی دانلود بشن؟
در قسمت "دانلود چند فایل به طور همزمان"-سر فصل شماره 9-انجام این کار آموزش داده شده.
لطفا به مقاله ی اصلی رجوع کنید.
-
سلام من هر چقدر این دستور رو میزنم چیزی دانلود نمی کنه !
wget http://www.openss7.org/repos/tarballs/strx25-0.9.2.1.tar.bz2
اینم ارور
-bash: wget: command not found
حالا میشه کسی بهم بگه مشکل از چیه ؟!
-
سلام من هر چقدر این دستور رو میزنم چیزی دانلود نمی کنه !
wget http://www.openss7.org/repos/tarballs/strx25-0.9.2.1.tar.bz2
اینم ارور
-bash: wget: command not found
حالا میشه کسی بهم بگه مشکل از چیه ؟!
از چه توزیعی استفاده می کنین ؟
اگر میگه دستو وجود نداره ممکنه نصب نیستش .
-
سلام من هر چقدر این دستور رو میزنم چیزی دانلود نمی کنه !
wget http://www.openss7.org/repos/tarballs/strx25-0.9.2.1.tar.bz2
اینم ارور
-bash: wget: command not found
حالا میشه کسی بهم بگه مشکل از چیه ؟!
از چه توزیعی استفاده می کنین ؟
اگر میگه دستو وجود نداره ممکنه نصب نیستش .
مال دانشگاهمونه
فکر کنم رد هت باشه !
هیچ دستوری رو نمی خونه لامصب
-
مال دانشگاهمونه
فکر کنم رد هت باشه !
هیچ دستوری رو نمی خونه لامصب
چرا یه توزیع دیگه که مناسب دسکتاپ باشه دانلود نمیکنی؟ اوبونتو رو از اینجا (http://www.ubuntu.com/download/desktop) بگیر.
-
دست رسی نصب نرم افزار داری ؟ اگر نداری 2 راه هستش یا از جای دیگه دانلود کنی ببری روش نصب کنی که از جایی که فکر کنم رپوزیتوری های ردهت در دست رس نباشه نتونی دانلود کنی راه دوم اینه که سورسشو ببری روش کامپایل کنی که اونم خودش احتیاج به کامپایلر داره که باید روش نصب باشه .
-
سلام
چندین لینکو که تو یه فایل ذخیره کرده بودم با wget -i گذاشتم برا دانلود یکی از فایل ها ۱۰ درصدش دانلود شد که قطع کردم حالا چطوری میتونم ادامش بدم
-
سلام
چندین لینکو که تو یه فایل ذخیره کرده بودم با wget -i گذاشتم برا دانلود یکی از فایل ها ۱۰ درصدش دانلود شد که قطع کردم حالا چطوری میتونم ادامش بدم
با اپشن c- که قبل از استفاده حتما به همون دایرکتوری که دفعه قبل دستور رو توش زدین برین .
این جا با مثال همین اپشن رو گفتن:
http://30li.org/bash/commands/wget
-
سلام دوست عزیز
از توضیحات خوبتون ممنون
یه چیزی، من با apt-get یه فایلی با حجم 530 مگ دانلود کردم و با اینترنتی که دارم هزار و یک بلا سر دانلود اومد(کرش لینوکس، قطع اینترنت، قطع برق! و ... ) و در نهایت فایلش خراب نشد و به درستی دانلود شد. سوالم اینه که wget هم همچین توانایی داره؟
اگه داره کد کامل دانلود یه لینک پر حجم چیه اگه امکانش هست بهم بگید
(با wget -c هم امتحان کردم شرایط فوق اتفاق افتاد و دانلودم خراب شد)
ممنون
-
سلام دوست عزیز
از توضیحات خوبتون ممنون
یه چیزی، من با apt-get یه فایلی با حجم 530 مگ دانلود کردم و با اینترنتی که دارم هزار و یک بلا سر دانلود اومد(کرش لینوکس، قطع اینترنت، قطع برق! و ... ) و در نهایت فایلش خراب نشد و به درستی دانلود شد. سوالم اینه که wget هم همچین توانایی داره؟
اگه داره کد کامل دانلود یه لینک پر حجم چیه اگه امکانش هست بهم بگید
(با wget -c هم امتحان کردم شرایط فوق اتفاق افتاد و دانلودم خراب شد)
ممنون
برای یه فایل پر حجم مثل این چرا از aria2 استفاده نمیکنی که با چنتا کانکشن دانلود کنه و قابلیت resume هم داره
-
ولی خب دوستم میگه wget هم قابلیت های apt-get رو داره ولی دستور دانلودش رو نمیدونم.
راستی با aria2 چجوری دانلود کنم. دستوراش زیاده و من نمیرسم تست کنم ولی یه دستور کلی که شما استفاده کردین رو میشه بگین که من اخرش لینکم رو بزارم و تموم :)
PersianDM هم به نظرم خوب اومد بعدا تستش میکنم
-
سلام دوستان
یه سوال ! با wget چطور میشه یک فایل رو که فقط با اکانت وی آی پی دانلود میشه ؛ دانلود کرد ؟ یعنی در واقع فایل دانلودی من از سایتی هست که باید اکانت وی آی پی می خریدم و خریدم حالا موقع دانلود باید یوزر و پسورد رو بزنم تا دانلود شه ؛ الان تو wget این یوزر و پسورد چطور باید وارد بشه ؟
-
سلام دوستان
یه سوال ! با wget چطور میشه یک فایل رو که فقط با اکانت وی آی پی دانلود میشه ؛ دانلود کرد ؟ یعنی در واقع فایل دانلودی من از سایتی هست که باید اکانت وی آی پی می خریدم و خریدم حالا موقع دانلود باید یوزر و پسورد رو بزنم تا دانلود شه ؛ الان تو wget این یوزر و پسورد چطور باید وارد بشه ؟
اگه فقط یوزر و پسورد میخواد که با سوییچهای user و password میشه راحت دانلود کرد: $ wget --user=mr.m --password=yourpass http://www.example.com/foo.bar
.
ولی اگه نیاز به لاگین داره باید کوکیهای مربوطه رو با سوییچ load-cookies بهش بدی
-
سلام دوستان
یه سوال ! با wget چطور میشه یک فایل رو که فقط با اکانت وی آی پی دانلود میشه ؛ دانلود کرد ؟ یعنی در واقع فایل دانلودی من از سایتی هست که باید اکانت وی آی پی می خریدم و خریدم حالا موقع دانلود باید یوزر و پسورد رو بزنم تا دانلود شه ؛ الان تو wget این یوزر و پسورد چطور باید وارد بشه ؟
اگه فقط یوزر و پسورد میخواد که با سوییچهای user و password میشه راحت دانلود کرد: $ wget --user=mr.m --password=yourpass http://www.example.com/foo.bar
.
ولی اگه نیاز به لاگین داره باید کوکیهای مربوطه رو با سوییچ load-cookies بهش بدی
فقط یوزر و پسورد می خواست که با کدی که گفتید درست شد ؛ خیلی ممنون !
-
سلام
چجوری میشه یه فایل که هیتلره رو دانلود کرد با wget؟؟
-
سلام. به روشهاش زیادی از جمله torify کردن wget
-
سلام
چجوری میشه یه فایل که هیتلره رو دانلود کرد با wget؟؟
securitykiss.com (http://securitykiss.com)
-
سلام. به روشهاش زیادی از جمله torify کردن wget
تایید میکنم
تور رو نصب کنید ( اموزش نصبش تو انجمن هست)
بعد
torify wget http://exmaple.ex
-
ممنون. قبلا این کار رو کرده بودم ولی با اون لینک جواب نداد. فکر کردم اشتباه دارم توریفای می کنم ولی با لینکی که الان امتحان کردم شد. بازم ممنون
-
میتونید با کمک proxychains هم دانلود کنید.
http://forum.ubuntu.ir/index.php/topic,99912.msg818387.html#msg818387 (http://forum.ubuntu.ir/index.php/topic,99912.msg818387.html#msg818387)
میتونید از axel یرای فایل های حجیم استفاده کنید. به نظرم کل سیستم رو فیلتر عبور بدین و از xdm استفاده کنید بهتره.
-
من میخوام یه سایت رو کلا دانلود کنم ولی نمیشه
wget --mirror -p --convert-links -P ./LOCAL-DIR333 http://www.omran-omran.com
اگه اشتباهه لطفا بگین با چه دستوری کلا دانلودش کنم
-
wget --convert-links -rl 2 http://www.omran-omran.com
-
wget --convert-links -rl 2 http://www.omran-omran.com
بازم این ارور رو میده:wget --convert-links -rl 2 http://www.omran-omran.com
--2014-12-03 21:28:04-- http://www.omran-omran.com/
Resolving www.omran-omran.com (www.omran-omran.com)... 70.38.36.199
Connecting to www.omran-omran.com (www.omran-omran.com)|70.38.36.199|:80... connected.
HTTP request sent, awaiting response... 406 Not Acceptable
2014-12-03 21:28:05 ERROR 406: Not Acceptable.
Converted 0 files in 0 seconds.
مشکل از کجاست؟
-
سلام
از بعضی از سایت ها با wget نمیشه دانلود کرد، یعنی نمیتونم. می خواستم بدونم کد خاصی برا اونها باید زد یا کلا نمیشه.
مثلا از این سایت پایین:
http://apps.evozi.com/apk-downloader/?id=com.instagram.android
-
این سایت برای هریک از لینکهای که تولید میکنه، هر بار با استفاده از جاوا اسکریپت درخواستهای گوناگونی میفرسته برای همین لینکی که تولید می شه تا شما بتونید فایل رو دانلود کنید هر بار متفاوت پس از طریق «Wget» نمیشه این کار رو انجام داد مگر اینکه یک اسکریپت بنویسید و تنظیم کنید که این درخواستها رو با استفاده از دکمهای که درون سایت تعریفشده بفرسته و لینک دانلود رو خروجی بده یا بوسیلهی یکی از این دانلود منیجرها فایل رو ذخیره کنه.
-
پس فعلا نمیشه کاری کرد و چند وقت دیگه که جاوا اسکریپت یاد گرفتم حله :)
-
میشه کاری کر که بعد از دانلود فایل کامیپوتر خاموش بشه ؟
-
بله شدنی باید دستور مخصوص به خورش را بزنی من تو wget نمی دنم جیه!
راستش آریا2 استفاده میکردم اونم با pdmt . :)
-
بعد از کمی سرچ پیدا کردم دستور مورد نظر رو
sudo sh -c 'wget http://path/to/file1 && wget http://path/to/file2 && shutdown -P now'
-
سلام
درسته تاپیک قدیمیه
ولی خواستم یه چیزایی رو بگم
اولیش این که توی دستور wget -i لازم نیست حتما آدرس یه فایل داخل سیستمتون رو بدین اگه لینک صفحات ایندکس به عنوان مثال http://rankbook.website/s1/Anime/Ended/Naruto/ (http://rankbook.website/s1/Anime/Ended/Naruto/) که فقط لینک یه سری فایل ها داخلش هست و یا هر سایتی رو بدین لینک های موجود در صفحه رو دانلود می کنه
دومیش این که وقتی با فایرفاکس یه چیزی رو دانلود می کنین و یهو دانلود شکست می خوره و قطع میشه اگه .part رو که آخر فایل نوشته شده رو حذف کنین و با wget -c توی اون دایرکتوری لینک رو بذارین رو دانلود دانلود ادامه داده میشه و لازم نیست فایل رو از اول دانلود کنین
سومیش این که وقتی با aria2 دانلودی رو با سرعت ضعیف اینترنت خودم انجام می دادم سرعت ۱۰ تا بیست کیلو بایت (حدود ده تا ۲۰ درصد) بیشتر میشد و ذره ای کمتر یا بیشتر نمیشد ولی اونوقت دیگه نمیشذ هیچ سایتی رو توی مرورگر باز کرد یا توی تلگرام چت کرد تمام سرعت رو گذاشته بود پای دانلود و هیچ کار دیگه ای نمیشد با اینترنت بکنی در ضمن وقتی یه دانلود میذاشتی اول یه فایل درست می کرد با حجم چیزی که قراره دانلود کنه بعد یه فایل با پسوند aria2 فکر کنم درست می کرد و دانلودش رو اونجا انجام میداد خلاصه ی کلام متودش با متود بقیه ی دانلود منیجر ها و دبلیوگت فرق می کرد و خب نمیشد کاری رو که سپردی بهش بدی یکی دیگه انجام بده
این توضیحاتی که دادم به عنوان نکات مثبت یا نکات منفی نیست بسته به نیاز هر شخص این توضیحات می تونه نکات مثبت یا نکات منفی حساب بشه
به شخصه wget رو ترجیح می دم
-
این سایت برای هریک از لینکهای که تولید میکنه، هر بار با استفاده از جاوا اسکریپت درخواستهای گوناگونی میفرسته برای همین لینکی که تولید می شه تا شما بتونید فایل رو دانلود کنید هر بار متفاوت پس از طریق «Wget» نمیشه این کار رو انجام داد مگر اینکه یک اسکریپت بنویسید و تنظیم کنید که این درخواستها رو با استفاده از دکمهای که درون سایت تعریفشده بفرسته و لینک دانلود رو خروجی بده یا بوسیلهی یکی از این دانلود منیجرها فایل رو ذخیره کنه.
از افزونه cliget برای فایرفاکس استفاده کنید، فوق العاده کارآمد است.
-
میشه تو ویجت دانلود نوبتی انجام داد؟مثلا همه فایل هامو تو یه لیست لینک کنمو بخوام یکی یکی دانلود بشن؟
-
من هر چقدر این دستور رو میزنم چیزی دانلود نمی کنه !
wget http://www.openss7.org/repos/tarballs/strx25-0.9.2.1.tar.bz2
اینم ارور
-bash: wget: command not found
-
من هر چقدر این دستور رو میزنم چیزی دانلود نمی کنه !
wget http://www.openss7.org/repos/tarballs/strx25-0.9.2.1.tar.bz2
اینم ارور
-bash: wget: command not found
این جمله یعنی فرمان موجود نیست! یعنی روی سیستم اون ابزار نصب نیست، wget جزو ابزارهای ضروری سیستم نیست.
-
باحال بود دمت گرم
-
از بالا آوردن موضوعهای قدیمی خودداری کنید. این موضوع هم باید به ویکی منتقل بشه.