Kinzersky.ru

ftp

Подписаться на эту метку по RSS

proftpd - настройка ограничения на вход по IP

Просмотров: 5951Комментарии: 0
Unix

Если на Вашем хостинге используется ftp-сервер proftpd, то можно обезопасить себя, установив ограничение на вход с определенных IP. Так же для этого необходимо либо взять у провайдера статический адрес, либо разрешить доступ ко всей подсети провайдера, что уже менее безопасно, да и подсетей может быть довольно много.

Сделать это можно по аналогии с файлом .htaccess для ограничения веб-доступа - путем создания файла с именем.ftpaccess в корне домашнего каталога пользователя (точнее, того каталога, куда мы попадаем при подключении по ftp) следующего содержания:

< Limit ALL >
Allow from ww.xx.yy.zz
Deny from all
< /Limit >

Где ww.xx.yy.zz - Ваш IP-адрес

Еще можно написать так, разрешив или запретив целую подсеть:

Allow 192.168.0.1/24
Deny 192.168.1.1/24

Update:

Для Pure-FTPD в данный файл просто вписываются IP-адреса или их части, например

172.16.0

Чтобы указать несколько IP-адресов или сетей, каждую необходимо писать с новой строки

резервное копирование файлов сайта, баз данных и конфигурации Apache (Ubuntu)

Просмотров: 5784Комментарии: 0
Unix

Итак, имеем свой веб-сервер на ubuntu (или еще на чем-нибудь, почти неважно). И надо нам на этом сервере организовать резервное копирование наших сайтов и другой полезной информации. Передавать, например, на FTP.

Для начала надо собрать кроном все данные для архивации в одно место на диске, заархивировать, а потом этот архив передать на FTP.

1. Создаем скрипт.

/srv/www# touch backup.sh

даем права на исполнение

/srv/www# chmod +x backup.sh

содержание.

#!/bin/sh
#создаем папку с бэкапом
#mkdir /srv/www-backup
mkdir /srv/www-backup/`date +%d-%m-%Y`
#делаем в него бэкап файлов веб-сервера, самого скрипта и конфигов апача. Для freebsd путь к апачу будет /usr/local/etc/apache2
cp -r /srv/www/ /srv/www-backup/`date +%Y-%m-%d`
cp -r /etc/apache2 /srv/www-backup/`date +%Y-%m-%d`-apache2-config
#бэкапим базы данных
/usr/bin/mysqldump -uLOGIN -pPASSWORD DATABASE_NAME > /srv/www-backup/`date +%Y-%m-%d`/`date +%Y-%m-%d`-DATABASE_NAME.sql
#создаем архив
zip -r /srv/www-backup/`date +%Y-%m-%d`-backup.zip /srv/www-backup/`date +%Y-%m-%d`
#удаляем каталог
rm -rf /srv/www-backup/`date +%Y-%m-%d`
# трем архивы старше 14 дней
find /srv/www-backup -name "*.zip" -mtime +14 -delete
# Копирование резервного архива на удаленный FTP-сервер
ftpuser='username'
password='password'
ftpserver='IP of FTP-server'
file=`date +%Y-%m-%d`'-backup.zip'
ftp -n $ftpserver < user $ftpuser $password
put /srv/www-backup/$file /www-backup$file
bye
End

2. Добавляем скрипт в крон.

Открываем планировщик

crontab -e

Вставляем наше задание

00 05 * * * /bin/sh /srv/www/backup.sh >/dev/null 2>&1

И наслаждаемся. Каждые сутки в 5 утра будет создаваться новая полная копия наших сайтов.