همه ما در ويندوز با نرمافزارهاي دريافت وبسايت كار كرديم، دستكم اسم WebZip يا WebsiteDownloader بهگوشمان خورده و كمابيش با كارشان آشنايي داريم. اما براي دريافت كامل يك وبسايت در لينوكس چطور ميتوان اين كار را كرد؟
براي دريافت كامل يك وبسايت، بهمنظور مشاهده آفلاين يا هر چيز ديگري، با كمك wget ميتوان كار را پيش برد، اين دستور را ببينيد:
wget --recursive --domains forum.ubuntu.ir --page-requisites --html-extension --convert-links --restrict-file-names=windows --no-clobber --no-parent forum.ubuntu.ir/index.php
اين دستور وبسايت زير را به طور كامل دانلود ميكند.
forum.ubuntu.ir/index.phpانتخابهايي (Option) كه در اين دستور استفاده كرديم، بدين شرح است:
recursive -- : تمام وبسايت را دانلود كن.
domains forum.ubuntu.ir-- : لينكهاي خارج از دومين forum.ubuntu.ir را دنبال نكن.
page-requisites --: تمام عناصر موجود در صفحه را دريافت كن (تصاوير، css و از اين دست چيزها).
html-extension --: فايل را با پسوند .html ذخيره كن.
convert-links--:لينكها را طوري تبديل كن كه بشود بهطور آفلاين ازشان استفاده كرد.
restrict-file-names=windows --: اسم فايلها را طوري عوض كن كه در ويندوز هم كار كنند.
no-clobber--:هيچ فايلي را بازنويسي نكن (در مواردي بهكار ميرود كه دانلود قطع شده باشد و بخواهد مجدداً از سر گرفته شود).
no-parent --: يعني مسيرهاي بالاتر از index.php را باز نكن.
امیدوارم این مطلب براتون مفید باشه
تا بعد