انجمن‌های فارسی اوبونتو

کمک و پشتیبانی => نرم‌افزارهای اینترنتی => نویسنده: sayres در 22 امرداد 1388، 08:51 ب‌ظ

عنوان: کپی صفحات وب
ارسال شده توسط: sayres در 22 امرداد 1388، 08:51 ب‌ظ
سلام
یک نرم افزاری میخوام که بشه یک سایت داخل هارد copy کرد ...؟؟ :-X
میشه راهنماییم کنید؟؟
ممنون
عنوان: پاسخ به: کپی صفحات وب
ارسال شده توسط: جادی در 22 امرداد 1388، 10:22 ب‌ظ
wget
عنوان: پاسخ به: کپی صفحات وب
ارسال شده توسط: محمدرضا بوذری در 22 امرداد 1388، 10:55 ب‌ظ
از افزونه‌ی ScrapBook در فایرفاکس استفاده کنید.
عنوان: پاسخ به: کپی صفحات وب
ارسال شده توسط: یه انقلابی در 23 امرداد 1388، 12:02 ق‌ظ
با سلام
تایید دوستان . هم wget همscrapbook
 wget سرعت بیشتری دارد .
scrapbook راحت تر است .
یا علی
عنوان: پاسخ به: کپی صفحات وب
ارسال شده توسط: sayres در 23 امرداد 1388، 01:38 ق‌ظ
من از دستور wget به این صورت استفاده کردم :
ali@ali-Hp:~$ wget -mk http://dba.fyicenter.com/faq/mysql/mysql_myisam_innodb_bdb_storage_engines.html $
۱.درسته؟
۲.کجا save میکنه؟
۳.نمیدونم save کرده چون به ۵ ثانیه هم نرسید؟؟
۴.دمتون گرم

http://www.khomsanph.net/visualwget/
عنوان: پاسخ به: کپی صفحات وب
ارسال شده توسط: sayres در 24 امرداد 1388، 01:03 ق‌ظ
کمک؟؟؟؟؟ :(
عنوان: پاسخ به: کپی صفحات وب
ارسال شده توسط: فاراب در 24 امرداد 1388، 02:17 ق‌ظ
این دستور فایل‌ها رُ در مسیر جاری دانلود میکنه که در مورد شما پوشه‌ی خانگی‌تون هست.
عنوان: پاسخ به: کپی صفحات وب
ارسال شده توسط: sayres در 24 امرداد 1388، 02:31 ق‌ظ
من این کارو میکنم ولی یکم که save میکنه قطع میشه؟؟؟
الان تو پوشه home یک folder هست که هی پاک میکنم ولی باز میاد....
چیکارش کنم؟؟؟
ویروس گرفته؟؟؟
عنوان: پاسخ به: کپی صفحات وب
ارسال شده توسط: sct در 24 امرداد 1388، 06:44 ق‌ظ
نقل‌قول
از افزونه‌ی ScrapBook در فایرفاکس استفاده کنید.
خیلی عالی بود
:)
به این سایت هم یه نگاهی بندازید و با این افزونه عکس هارو دانلود کنید
http://www.boston.com/bigpicture (http://www.boston.com/bigpicture)
عنوان: پاسخ به: کپی صفحات وب
ارسال شده توسط: sayres در 24 امرداد 1388، 09:11 ب‌ظ
میشه همین link امتحان کنید؟؟
ali@ali-Hp:~$ wget -mk http://dba.fyicenter.com/faq/mysql/mysql_myisam_innodb_bdb_storage_engines.html
نمیشه؟؟؟
با scrapBook هم نشد؟؟؟؟
عنوان: پاسخ به: کپی صفحات وب
ارسال شده توسط: جادی در 24 امرداد 1388، 09:45 ب‌ظ
سایتی که رفتی سراغش علاقمند نیست که تو همه اش رو به سادگی دانلود کنی. یک فایل robots.txt داره که توش می گه :
....
User-agent: Wget
User-agent: Wget/1.5.3
User-agent: Wget/1.6
....
Disallow: /

User-agent: *
Crawl-delay: 60
یعنی اگر کسی با دبیلو گت (و کلی چیز دیگه) اومد حق نداره چیزی رو به شکل اتوماتیک دانلود کنه. در عین حال اگر هم با چیز دیگه اومد، هر دقیقه فقط یک صفحه رو می تونه بگیره. wget هم به عنوان یک نرم افزار آزاد به این خواسته طرف احترام می ذاره و دانلود رو متوقف می کنه (:
عنوان: پاسخ به: کپی صفحات وب
ارسال شده توسط: sudotux در 24 امرداد 1388، 10:41 ب‌ظ
همونطور که جادی توضیح داد بعضی از سایت ها اجازه ی دانلود کامل سایتشون رو نمیدن. ولی با این وجود راهنمای دانلود یک وب سایت با wget رو اینجا (http://linuxshare.org/2008/09/23/72/) گفتم.