Работа с многотомными архивами tar.gz
Допустим нам надо запаковать содержимое папки /var/www, исключив папку /var/www/test и все zip архивы, в многотомный архив с размером тома 1024 Мб. Делается это командой
КОД: ВЫДЕЛИТЬ ВСЁ
tar -czvf – –exclude=www/test –exclude=’*.zip’ /var/www/ | split -b 1024m – ./backup.tar.gz
Параметр –exclude нужно указывать обязательно после имени файла архива, но перед именем каталога, который требуется заархивировать, а я помещал ее в конец.
Если используются символы * или ?, нужно брать их в одинарные апострофы, чтобы они передавались в tar как есть, иначе оболочка пытается подставить вместо них полный список файлов.
В итоге правильная команда должна выглядеть примерно так:
$ tar cvf archive.tar –exclude=’logs/*’ –exclude=’tmp/*’ ./
tar -zcf fvsport.com.tar.gz –exclude=’fvsport.com/public_html/wa-data/public/shop/products/*’ fvsport.com/
Чтобы распаковать tar.gz архив в текущую директорию нужно выполнить команду:
tar -xvzf archive.tar.gz
SSH передача файлов для Linux:
— скачиваем файл на локальную машину
$ scp root@11.22.33.44:/home/user/file.tar.gz /opt
данная команда скачает файл /home/user/file.tar.gz с удаленной машины 11.22.33.44 в папку /opt локальной файловой системы.
— заливаем файл на удаленный сервер
$ scp /opt/file.tar.gz root@11.22.33.44:~/
Проверка нагрузки на web-сервер с ab для Linux и Unix
Сделать можно это с утилитой Apache benchmark – это одна из самых простых утилит для тестирования нагрузки на сайты. 1000 запросов к одному сайту –
#ab -c 10 -n 1000 https://vk.com/
Apachebench-for-multi-url
https://github.com/philipgloyne/apachebench-for-multi-url