У меня написано и опубликовано много статей по управлению современным веб сервером. Сегодня я подробно расскажу, как установить и выполнить настройку nginx с подробным описанием функционала и примерами. Я постарался охватить все наиболее актуальные и полезные возможности бесплатной версии nginx.
Научиться настраивать MikroTik с нуля или систематизировать уже имеющиеся знания можно на углубленном онлайн-курcе по администрированию MikroTik. Автор курcа – сертифицированный тренер MikroTik Дмитрий Скоромнов. Более 40 лабораторных работ по которым дается обратная связь. В три раза больше информации, чем в MTCNA.
Введение
Базовая настройка nginx не представляет каких-то сложностей на первом этапе. У nginx есть неплохая документация на русском языке. Еще лучше на английском. Практически все, что я буду рассказывать, есть там. Понятное дело, что если вы только знакомитесь с продуктом, или используете его базовый функционал, копать документацию на начальном этапе будет не очень продуктивно. Моя статья будет служить беглым обзором основных возможностей, которые я сам использовал, с моими же примерами.
По тематике некоторых разделов у меня уже есть подробные статьи. В таком случае я буду давать на них ссылки с краткими комментариями здесь. В конце статьи приведу свой типовой конфиг для nginx, который я обычно беру за основу, когда настраиваю очередной web сервер.
Установка nginx
В своей статье я не буду привязываться к конкретному дистрибутиву, так как настройка nginx одинакова везде. Формат файла один и тот же, поэтому конфигурация без проблем может мигрировать на разные системы. Править придется только пути к файлам и директориям. Тем не менее, я расскажу, как выполнить установку на популярные дистрибутивы.
Установку nginx на CentOS 7 я подробно разбирал в соответствующей статье про настройку web сервера на centos. Здесь просто перечислю необходимые шаги.
Подключаем репозиторий nginx для CentOS 7:
# rpm -Uvh http://nginx.org/packages/centos/7/noarch/RPMS/nginx-release-centos-7-0.el7.ngx.noarch.rpm
Выполняем установку:
# yum install nginx
Вот и все. На этом установка на Centos 7 закончена. Пример установки nginx на Debian.
Подключаем репозиторий для Debian:
# echo "deb http://nginx.org/packages/debian `lsb_release -cs` nginx" | tee /etc/apt/sources.list.d/nginx.list
Импортируем ключ для проверки подлинности пакетов:
# curl -fsSL https://nginx.org/keys/nginx_signing.key | sudo apt-key add -
Устанавливаем nginx на Debian:
# apt update && apt install nginx
Установим nginx на Ubuntu. Подключаем репозиторий:
# echo "deb http://nginx.org/packages/ubuntu `lsb_release -cs` nginx" | tee /etc/apt/sources.list.d/nginx.list
Импортируем ключ:
# curl -fsSL https://nginx.org/keys/nginx_signing.key | sudo apt-key add -
Выполняем установку nginx на Ubuntu:
# apt update && apt install nginx
На всех указанных системах запуск веб сервера выполняется командой:
# systemctl start nginx
Добавляем nginx в автозагрузку:
# systemctl enable nginx
В последнее время большое распространение получили контейнеры, в частности docker. Довольно популярна ситуация, когда nginx работает в докере, поэтому отдельно рассмотрю вопрос установки nginx в docker, хоть там и нет ничего сложного.
Nginx в Docker
Неоспоримые преимущества от использования docker получают разработчики, поэтому они очень часто его используют. В том числе в виде контейнеров docker с nginx. Установка nginx через docker может быть выполнена из официального образа nginx в Docker Hub. Если не умеете работать с docker, смотрите мою статью по этой теме - установка docker в centos. Установить и запустить nginx в docker можно примерно такой командой:
# docker run --name nginx01 -p 80:80 -d nginx
В данной команде:
- nginx01 - имя созданного контейнера, основанного на базовом образе nginx
- -p 80:80 - сопоставление порта на локальной машине, порту в контейнере. Сначала указывается локальный порт, потом внутри контейнера.
- -d - ключ, обозначающий запуск контейнера в режиме службы.
Это общий случай установки. Образ nginx в данном случае будет скачан автоматически при создании первого контейнера. Для удобства используется большее количество параметров. Для примера запустим еще один контейнер с другим названием и с расширенными параметрами.
# docker run --name nginx02 -p 81:80 -v ~/nginx/www:/usr/share/nginx/html -v ~/nginx/conf:/etc/nginx -v ~/nginx/logs:/var/log/nginx -d nginx
В данном примере мы создали еще один контейнер naginx02, назначили ему порт 81 на локальной машине, в контейнер смонтировали 3 локальные директории:
- ~/nginx/www - здесь будут лежать исходники сайта.
- ~/nginx/conf - полная конфигурация nginx. Ее нужно будет скопировать откуда-то.
- ~/nginx/logs - логи nginx.
Не обязательно выносить на хост все эти папки. Я показываю для примера. Вы выбирайте только то, что вам действительно нужно.
Таким образом можно легко работать с nginx с помощью docker. Можно без проблем запустить сколько угодно контейнеров с nginx, указав каждому свой порт, конфигурацию и директорию с исходниками. Для разработки это действительно удобно. Для продакшена отдельный разговор. Те, кто используют nginx в docker в production вряд ли нуждаются в данной статье.
Рестарт nginx и другие параметры командной строки
Перед тем, как двигаться дальше к настройке nginx, предлагаю пройтись по основным параметрам в командной строке. Это упростит и ускорит дальнейшую работу.
Прежде всего расскажу, как перезапустить nginx. С помощью systemctl на всех дистрибутивах это выглядит одинаково.
# systemctl restart nginx
Перед перезагрузкой nginx, рекомендую выполнить проверку конфигурации:
# nginx -t
Еще одна важная команда, с помощью которой можно применить новую конфигурацию nginx без остановки и перезапуска веб сервера. Будет запущен новый рабочий процесс с новой конфигурацией, а старые процессы плавно завершатся.
# nginx -s reload
Следующая команда помимо тестирования конфигурации, выводит полный конфиг на экран. Вывод можно направить в отдельный файл и там проанализировать. Это удобно, когда у вас конфигурация состоит из множества вложенных конфигов, правильность которых трудно оценить разом.
# nginx -T
Так же бывает полезно посмотреть полную информацию о версии nginx, параметрах сборки, модулях и т.д.
# nginx -V
Например, мне эта информация была нужна, когда я делал собственную сборку nginx c поддержкой tls 1.3 и модулем сжатия brotli.
В принципе, на этом все. Не припоминаю, чтобы я использовал что-то еще. Плавно переходим к конфигурации nginx.
Виртуальные хосты
После дефолтной установки nginx у вас уже будет один виртуальный хост, который описан конфигом default.conf. Обычно конфиги с виртуальными хостами расположены в директории /etc/nginx/conf.d. Здесь, в отличие от Apache, структура размещения конфигурационных файлов одинаковая на всех дистрибутивах, что очень удобно.
Что такое виртуальный хост? Попробую объяснить своими словами. Это конфигурационный файл, который описывает настройку условно одного домена. Для удобства, каждый виртуальных хост выносят в отдельный конфиг, но никто не мешает вам все это описывать в общем конфигурационном файле. Дело в том, что если доменов у вас много, то работать в одном большом конфиге не удобно, поэтому я рекомендую вам придерживаться схемы файлов конфигурации, когда один конфиг описывает параметры одного домена.
Виртуальные хосты наследуют параметры из основного файла конфигурации nginx.conf, но эти параметры могут быть переопределены в конкретном виртуальном хосте. То есть можно задать дефолтные параметры для всех сайтов, но в случае необходимости переопределить какой-то параметр в конкретном виртуальном хосте. Вот типичный пример конфига.
server { listen 80; server_name example.com www.example.com; access_log /var/log/nginx/example.com.access.log main; root /var/www/example.com/public; location / { index index.html index.htm index.php; } location ~ \.php$ { fastcgi_pass 127.0.0.1:9000; fastcgi_index index.php; fastcgi_param SCRIPT_FILENAME /scripts$fastcgi_script_name; include fastcgi_params; } }
Все не указанные явно в этом виртуальном хосте параметры будут унаследованы из основного файла конфигурации nginx.conf. Допустим, вам надо по какой-то причине отключить сжатие gzip на этом хосте и указать кодировку windows-1251. Тогда конфиг приобретет следующий вид.
server { listen 80; server_name example.com www.example.com; access_log /var/log/nginx/example.com.access.log main; root /var/www/example.com/public; charset windows-1251; gzip off; location / { index index.html index.htm index.php; } location ~ \.php$ { fastcgi_pass 127.0.0.1:9000; fastcgi_index index.php; fastcgi_param SCRIPT_FILENAME /scripts$fastcgi_script_name; include fastcgi_params; } }
С помощью виртуальных хостов в nginx вы можете очень гибко настраивать конфигурацию каждого домена. Как минимум я рекомендую для каждого домена делать отдельно:
- директорию с исходниками сайта;
- директорию с логами;
- в некоторых ситуациях отдельный php-fpm пул для каждого сайта или группы сайтов.
Более полный пример настройки виртуального хоста для реального сайта на wordpress смотрите в отдельной статье по настройке web сервера. Мы же переходим к настройке location.
Настройка location в конфигурации
Как вы могли заметить, в предыдущем примере я использовал 2 разных location для виртуального хоста. Постараюсь простыми словами рассказать, что это такое, как использовать и для чего вообще нужно.
С помощью location в nginx вы можете управлять конфигурацией в зависимости от URI запроса. Если в виртуальных хостах мы могли переопределять настройки в зависимости от имени домена, то тут мы спускаемся на уровень ниже и управляем параметрами в зависимости от пути запроса. В примере с виртуальными хостами у меня было 2 location:
- / - корень сайта, перехватывает вообще все запросы к домену.
- ~ \.php$ - запросы к файлам с расширением php. То есть если в запросе указан путь к файлу .php, то к нему применяется параметр fastcgi_pass и запрос отправляется на обработку к php-fpm.
Location можно задавать префиксной строкой или регулярным выражением. В регулярных выражениях используются модификаторы ~, либо ~* Без звездочки учитывается регистр, со звездочкой нет. Обработка location в конфигурационном файле идет в следующей последовательности:
- Первыми проверяются префиксные строки. Совпадения запоминаются.
- Дальше проверяются регулярные выражения в том порядке, как они перечислены в конфигурационном файле. Проверка по регулярным выражениям прекращается сразу же после совпадения. Если совпадение не было найдено, используется запомненный ранее префикс.
Так же в location может использоваться префикс = Он означает точное совпадение запроса и заданного location. После такого совпадения, остальные проверки сразу же прекращаются. Рекомендуется использовать этот префикс, если у вас огромное количество конкретных запросов. Используя префикс = для них, вы снизите нагрузку на сервер, так как запросы не будут проверяться по всем правилам.
В крупном сайте может быть огромное количество различных location. Вот несколько простых реальных примеров из моей практики.
На своем сайте я решил отказаться от использования amp страниц, выключил их и сделал перенаправление с этих страниц на обычные. В данном примере amp располагались по исходному урлу с добавлением /amp/ в конец пути.
location ~ /amp/$ { rewrite ^(.*/)amp/$ $1 permanent; }
В этом примере укажем максимальный срок хранения картинок и шрифтов в кэше а так же отключим для них логирование.
location ~* ^.+.(js|css|png|jpg|jpeg|gif|ico|woff|woff2|swf|ttf|svg)$ { access_log off; expires 1y; }
Закроем доступ к директории .git на сайте.
location ~ /.git { return 404; }
Запретим исполнение скриптов в перечисленных директориях.
location ~* /(images|cache|media|logs|tmp)/.*.(php|pl|py|jsp|asp|sh|cgi)$ { return 404; }
И так далее. Думаю, смысл понятен. Примеров может быть огромное количество. Location важный параметр конфигурации в настройке nginx. Немного информации на эту тему можно посмотреть в соответствующем разделе документации.
Работа nginx с php-fpm
В предыдущих разделах я уже показал примеры конфигурации, где запросы по определенным URI перенаправляются на php-fpm. Еще более подробно я рассмотрел этот вопрос в отдельной статье по настройке php-fpm. Сейчас просто покажу на реальном примере, как выглядит взаимодействие nginx и php-fpm.
Php-fpm может слушать как сокет unix, так и tcp порт. Эти настройки задаются в конфиге пула. Это может быть либо
listen = 127.0.0.1:9000
либо
listen = /var/run/php-fpm/php-fpm.sock
В зависимости от того, в каком режиме работает php-fpm, зависят настройки в nginx.
Вот примерный конфиг php-fpm для пула www.conf на виртуальной машине с 1Gb памяти.
[www] listen = /var/run/php-fpm/php-fpm.sock listen.allowed_clients = 127.0.0.1 listen.mode = 0660 listen.owner = nginx listen.group = nginx user = nginx group = nginx ; как будут создаваться новые рабочие процессы pm = dynamic ; максимальное количество рабочих процессов pm.max_children = 15 ; число запущенных процессов при старте сервера pm.start_servers = 6 ; минимальное и максимальное количество процессов в простое pm.min_spare_servers = 4 pm.max_spare_servers = 8 slowlog = /var/log/php-fpm/www-slow.log pm.max_requests = 250 php_admin_value[error_log] = /var/log/php-fpm/www-error.log php_admin_flag[log_errors] = on php_value[session.save_handler] = files php_value[session.save_path] = /var/lib/php/session pm.status_path = /status
Чтобы заработал php в nginx через php-fpm, достаточно убедиться, что php-fpm работает и указать в виртуальном хосте location для php. Пример реальных настроек для wordpress сайта.
location ~ \.php$ { try_files $uri =404; fastcgi_pass unix:/var/run/php-fpm/php-fpm.sock; #fastcgi_pass 127.0.0.1:9000; fastcgi_index index.php; include fastcgi_params; fastcgi_param DOCUMENT_ROOT /web/sites/example.com/www/; fastcgi_param SCRIPT_FILENAME /web/sites/example.com/www$fastcgi_script_name; fastcgi_param PATH_TRANSLATED /web/sites/example.com/www$fastcgi_script_name; fastcgi_param QUERY_STRING $query_string; fastcgi_param REQUEST_METHOD $request_method; fastcgi_param CONTENT_TYPE $content_type; fastcgi_param CONTENT_LENGTH $content_length; fastcgi_param HTTPS on; # включать, если сайт по https работает fastcgi_intercept_errors on; fastcgi_ignore_client_abort off; fastcgi_connect_timeout 60; fastcgi_send_timeout 180; fastcgi_read_timeout 180; fastcgi_buffer_size 128k; fastcgi_buffers 4 256k; fastcgi_busy_buffers_size 256k; fastcgi_temp_file_write_size 256k; }
В целом все. Этого достаточно для настройки связки nginx + php-fpm. Типовой ошибкой в данном случае является то, что nginx не имеет доступа к unix сокету php-fpm. По-умолчанию после установки он запускается с правами apache. Если пользователя не исправить на nginx, то у веб сервера не будет доступа к сокету, php не заработает. В своем примере конфига php-fpm я указал пользователя правильно.
Настройка SSL сертификата
Далее рассмотрим момент с настройкой ssl сертификатов в nginx. В общем случае с этим не должно быть каких-то проблем. Тут все просто. Можно глобально задать настройки ssl для всех виртуальных хостов, а можно отдельно в каждом. Вот пример настроек ssl для nginx.conf.
ssl_session_cache shared:SSL:50m; ssl_session_timeout 1d; ssl_session_tickets on; ssl_protocols TLSv1 TLSv1.1 TLSv1.2 TLSv1.3; ssl_ciphers 'TLS13-CHACHA20-POLY1305-SHA256:TLS13-AES-128-GCM-SHA256:TLS13-AES-256-GCM-SHA384:ECDHE:ECDHE-ECDSA-CHACHA20-POLY1305:ECDHE-RSA-CHACHA20-POLY1305:ECDHE-ECDSA-AES128-GCM-SHA256:ECDHE-RSA-AES128-GCM-SHA256:ECDHE-ECDSA-AES256-GCM-SHA384:ECDHE-RSA-AES256-GCM-SHA384:DHE-RSA-AES128-GCM-SHA256:DHE-RSA-AES256-GCM-SHA384:ECDHE-ECDSA-AES128-SHA256:ECDHE-RSA-AES128-SHA256:ECDHE-ECDSA-AES128-SHA:ECDHE-RSA-AES256-SHA384:ECDHE-RSA-AES128-SHA:ECDHE-ECDSA-AES256-SHA384:ECDHE-ECDSA-AES256-SHA:ECDHE-RSA-AES256-SHA:DHE-RSA-AES128-SHA256:DHE-RSA-AES128-SHA:DHE-RSA-AES256-SHA256:DHE-RSA-AES256-SHA:ECDHE-ECDSA-DES-CBC3-SHA:ECDHE-RSA-DES-CBC3-SHA:EDH-RSA-DES-CBC3-SHA:AES128-GCM-SHA256:AES256-GCM-SHA384:AES128-SHA256:AES256-SHA256:AES128-SHA:AES256-SHA:DES-CBC3-SHA:!DSS'; ssl_prefer_server_ciphers on; ssl_dhparam /etc/ssl/certs/dhparam.pem; ssl_stapling on; ssl_stapling_verify on; add_header Strict-Transport-Security max-age=15768000; resolver 8.8.8.8;
Здесь уже включена поддержка TLS 1.3 и соответствующие шифры. Сейчас не готов прокомментировать именно такой выбор шифров. В свое время, перед настройкой TLS 1.3 я изучил этот вопрос и собрал такой набор, который везде использую.
Часто возникают споры насчет директивы resolver. На dns сервер 8.8.8.8 есть нарекания по стабильности. Так что выбор dns сервера остается за вами. С подобными настройками ssl вы получите рейтинг A+.
Для генерации файла dhparam.pem, воспользуйтесь командой:
# openssl dhparam -out /etc/ssl/certs/dhparam.pem 4096
Процесс длится долго, до получаса на слабых виртуалках. Этот файл нужен для повышения безопасности и получения максимального рейтинга. Насколько этот параметр критичен в реальности, не берусь судить. Если тороплюсь, то настраиваю без него. Подробный разбор параметров ssl можно посмотреть в статье на хабре.
В виртуальном хосте надо будет добавить настройки, касающиеся непосредственно сертификатов, а так же указать, что сервер слушает 443 порт.
server { listen 443 ssl http2; ........................ ssl_certificate /etc/letsencrypt/live/example.com/fullchain.pem; ssl_certificate_key /etc/letsencrypt/live/example.com/privkey.pem; ........................ location ~ \.php$ { ........................ fastcgi_param HTTPS on; ........................ } }
Редирект с http на https
Добавим переадресацию с http на https. Для этого добавляем в настройки виртуального хоста еще одну директиву server.
server { listen 80; server_name example.com www.example.com; access_log /var/log/nginx/example.com.access.log main; root /var/www/example.com/public; location / { return 301 https://example.com$request_uri; } }
Проксирование запросов
Nginx очень производительный веб сервер, поэтому его часто используют в качестве Reverse Proxy для других служб и серверов. Подробно вопрос проксирования запросов в nginx с помощью proxy_pass я рассмотрел отдельно. Сейчас же в двух словах объясню, что это такое. Допустим, у вас есть какой-то сервис на отдельном сервере и вы ходите перенаправлять на него часть запросов с вашего сайта. Для этого вы делаете отдельный location и указываете, что все запросы по определенному правилу нужно перенаправлять на этот сервер.
location /forum/ { proxy_pass http://192.168.13.31; proxy_set_header Host $host; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header X-Real-IP $remote_addr; proxy_redirect default; }
Все запросы с урлами, содержащими /forum/ будут перенаправлены на отдельный сервер, где трудится тяжелый форум со своей базой данных и своими настройками. Им может управлять другой администратор и вообще он не имеет к вам никакого отношения. Таким образом, большой проект можно разделить на части с делегированием полномочий. Но это отдельная история.
Nginx proxy_pass удобно использовать разработчикам для проксирования запросов в разные docker контейнеры, которые подняты на рабочей машине на разных портах. Можно перенаправлять не только отдельные урлы, но и весь сайт. Допустим, вы делаете какие-то фильтрации трафика на стороне сервера с nginx, а потом все запросы отправляете на исходный сайт. Тогда делаете простую настройку для проксирования:
location / { proxy_pass http://192.168.13.31; proxy_set_header Host $host; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header X-Real-IP $remote_addr; }
Все запросы уходят на сторонний сервер. Частным случаем проксирования в nginx является работа в связке с Apache, о чем я расскажу далее.
Nginx в связке с Apache
Популярным кейсом работы nginx является работа в качестве Reverse Proxy для Apache. Лет 5-10 назад, когда nginx был не очень распространен, это было очень популярное решение. Сейчас Nginx во многих областях полностью заменил Apache, но тем не менее, пока еще не до конца. К примеру, очень популярный в России движок для сайтов Bitrix до сих пор требует в качестве web сервера Apache.
Покажу на простом примере, как Nginx настроить в качестве front-end к Apache. Статические данные будет обрабатывать сам nginx, а динамические запросы перенаправлять на apache.
Для начала вам необходимо настроить apache стандартным образом, с той лишь разницей, что слушать он должен не привычный 80-й или 443 порт, а, к примеру, 8080. Далее в настройках виртуального хоста указываете для каких запросов будет перенаправление на apache. Для примера отправим туда все, что не является статичным контентом. Создаем 2 location:
- Статика, которую будет напрямую отдавать Nginx.
- Все остальные запросы, которые будет обрабатывать Apache.
server { listen 80; server_name example.com www.example.com; access_log /var/log/nginx/example.com.access.log main; location ~* ^.+.(js|css|png|jpg|jpeg|gif|ico|woff|woff2|swf|ttf|svg|html|txt)$ { root /var/www/example.com/public; expires 1y; } location / { proxy_pass http://127.0.0.1:8080/; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_connect_timeout 120; proxy_send_timeout 120; proxy_read_timeout 180; } }
В данном примере Nginx и Apache работают на одном сервере. Но это не обязательно. Web сервер с apache вы без проблем можете разместить на другой машине. Отдельно будет стоять вопрос определения реальных ip адресов клиентов на сервере с Apache. Я его рассмотрел подробно в статье про nginx revers proxy, ссылку на которую привел в предыдущем разделе.
Балансировка нагрузки
Nginx может выступать в качестве балансировщика. Настройку балансировки в nginx я так же подробно рассматривал отдельно. Все подробности в статье. Здесь кратко упомяну, что это такое. Nginx умеет распределять нагрузку между несколькими серверами. Правила распределения настраиваются, как и количество серверов. Покажу как это делать на предыдущем примере с apache.
Допустим, у вас очень нагруженный сайт. А нагрузить Bitrix без настроенного кэширования, очень просто. Вы хотите добавить еще один сервер с Apache, чтобы распределить нагрузку между двумя серверами. Сразу скажу, что это не такой простой вопрос, как может показаться вначале. Со стороны nginx настройки действительно простые, но нужно будет рассмотреть отдельно вопрос общего файлового хранилища для обоих серверов и общей базы данных. Ее, скорее всего, тоже нужно будет выносить на отдельный сервер, хотя и не обязательно. Если nginx будет раздавать статику, то доступ к файлам должен быть и у него. В общем, тут нужно хорошенько все продумать и подготовить. Может как-нибудь напишу статью с примером на данную тему.
Итак, распределим нагрузку между двумя бэкендами с Apache. Вот конфигурация виртуального хоста в этом случае.
upstream backend { server 192.168.0.10:8080; server 192.168.0.11:8080; } server { listen 80; server_name example.com www.example.com; access_log /var/log/nginx/example.com.access.log main; location ~* ^.+.(js|css|png|jpg|jpeg|gif|ico|woff|woff2|swf|ttf|svg|html|txt)$ { root /var/www/example.com/public; expires 1y; } location / { proxy_pass http://backend/; proxy_set_header Host $host; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header X-Real-IP $remote_addr; proxy_connect_timeout 120; proxy_send_timeout 120; proxy_read_timeout 180; } }
В данном примере балансировки нагрузки, nginx отдает всю статику, а 2 сервера с apache обрабатывают все остальные запросы.
Настройка редиректов и rewrite правил
Rewrite это то, что в первую очередь не позволяет отказаться от Apache. Многие проекты имеют массу rewrite правил в .htaccess, который поддерживает apache. Перенос этих правил в nginx не всегда прост и очевиден. Есть средства по автоматической конвертации правил rewrite из формата apache в формат nginx, но они далеко не всегда помогают. Пример такого сервиса - https://winginx.com/ru/htaccess. В идеале, такую конвертацию следует проделывать вручную, подключая голову :)
Это что касается конвертации правил из апача. А в целом rewrite правила в nginx это очень мощный инструмент. Вот несколько примеров правил.
С помощью rewrite можно отрезать у доменных имен www. Лично я считаю эту добавку к адресу сайта ненужным рудиментом и отрезаю на своих сайтах. Пример правила rewrite для замены www на запрос без него.
server { listen 443 ssl http2; server_name www.example.com; rewrite ^ https://example.com$request_uri permanent; }
Это правило rewrite все запросы к домену с www переадресовывает на запрос без www. Тут это просто пример работы механизма. В данном конкретном случае, редирект www лучше сделать с помощью return. Это более элегантное и быстрое решение, так как не придется обрабатывать лишнюю регулярку. На практике конкретно с www лучше поступить вот так:
server { listen 443 ssl http2; server_name www.example.com; return 301 $scheme://example.com$request_uri; }
Синтаксис rewrite запросов выглядит следующим образом:
rewrite regex URL [flag];
В моем примере получаем следующие элементы правила:
- ^ - регулярное выражение;
- https://example.com$request_uri - url, на который заменяем;
- permanent - флаг, который возвращает постоянное перенаправление с кодом 301.
Вот еще один пример, который я уже приводил в разделе про location. Я настраиваю замену страниц с /amp/ на конце на обычный url без /amp/. То есть просто его обрезаю.
location ~ /amp/$ { rewrite ^(.*/)amp/$ $1 permanent; }
Полезным является еще одно правило rewrite, которое к ссылкам в конце без слеша добавляет слеш. То есть заменяет ссылку вида http://example.com/page на http://example.com/page/
rewrite ^([^.]*[^/])$ $1/ permanent;
Много видел в сети примеров, где rewrite используют для перенаправления запросов с http на https. Как и в случае с заменой www, так лучше не делать. Тем более не стоит это делать через условия if, например вот так:
if ($scheme = "http") { rewrite ^ https://example.com$uri permanent; }
Это рабочий вариант, но в данном случае return вместо rewrite будет работать более эффективно, затрачивая меньше ресурсов web сервера. То же самое относится к примерам, где требуется замена имени домена в случае переезда. Вместо rewrite лучше использовать return. То есть делать не вот так:
server { listen 80; server_name old-name.com; rewrite ^ $scheme://new-name.com$request_uri permanent; }
а так:
return 301 $scheme://new-name.com;
Такой редирект с одного домена на другой быстрее работает.
Принципиальная разница между rewrite и return в том, что в rewrite переписывается только та часть исходного URL, которая соответствует регулярному выражению, а в return весь URL-адрес переписывается на указанный URL-адрес. Из этой особенности следует то, что return работает быстрее rewrite, поэтому там, где можно использовать return, лучше использовать именно его. Условно, return следует использовать там, где требуется постоянная замена адреса, а rewrite где требуется временное изменение запроса в силу каких-то обстоятельств.
Вот пример, где без rewrite не обойтись. Допустим, у вас есть какой-то обработчик запросов, которому нужно передавать различные урлы в определенном формате. К примеру, пользователи запрашивают урл http://example.com/linux/ubuntu, а нам надо его преобразовать в такой - http://example.com/linux.php?distro=ubuntu. Делаем это с помощью следующего правила rewrite.
rewrite ^/linux/(.*)$ /linux.php?distro=$1 last;
Еще пример, как сделать постоянное перенаправление с одной страницы на другую. Как обычно, можно сделать двумя способами, с помощью rewrite или return. Более правильно использовать return. Меняем адрес http://example.com/linux/ubuntu/ на http://example.com/windows/win10/
location = /linux/ubuntu/ { return 301 /windows/win10/; }
Вот нежелательный вариант, который тем не менее постоянно рекомендуют в разных статьях. Ошибки тут нет, но с return более правильно.
location = /linux/ubuntu/ { rewrite ^/linux/ubuntu/$ /windows/win10/ permanent; }
Фух, надеюсь с return и rewrite более ли менее понятно объяснил. Есть еще для перенаправлений try_files. Я немного плаваю в этой теме, поэтому решил не добавлять эти правила, чтобы вас не запутать и не наговорить неправды. К примеру, вопрос со слешами на конце урла в wordpress можно решить с помощью try_files таким образом:
try_files $uri $uri/ /index.php?$args;
Проверяется запрос со слешом, потом без него, если ничего не найдено, запрос уходит на index.php с параметрами. То есть не важно, что наберет пользователь, у него в любом случае будет открыта та или иная страница. Более подробно о различных правилах перенаправления можно почитать в этой англоязычной статье. Это наиболее полная информация по данной теме, что мне нагуглилась.
502 bad gateway и другие ошибки nginx
Ошибка 502 bad gateway знакома многим пользователям интернета, не только системным администраторам. Ее рано или поздно можно увидеть на любом сайте. Что она означает? В общем случае, это значит, что на веб сервере какие-то проблемы.
Ошибка 502 описана в RFC Hypertext Transfer Protocol (HTTP/1.1) в разделе 6.6.3. Там говорится, что во время обработки запроса веб сервер, в данном случае nginx, не получил ответ от какого-то бэкенда. Расскажу, что это обычно значит на практике.
Допустим, у вас nginx работает в связке с apache или php-fpm. Вы видите описываемую ошибку. Причин может быть две:
- Службы php-fpm или apache перестали отвечать, потому что просто упали. В таком случае, nginx будет показывать всем пользователям ошибку 502, пока бэкенд не начнет отвечать.
- Служба просто не справляется с нагрузкой. Ошибка будет только у части пользователей, а у других все будет нормально.
То же самое может произойти, если вы настроили проксирование запросов через proxy_pass на какой-то другой сервер и этот сервер перестал отвечать. Nginx будет показывать ошибку 502 bad gateway в данном случае.
Для того, чтобы исправить 502-ю ошибку, надо разобраться, с чем конкретно она связана. Если бэкенд просто упал, то надо его поднять. Если же причина не в этом, то надо более детально разбираться. Чаще всего в логах ошибок nginx есть вся информация для решение проблем с ошибкой 502. Наиболее распространенная ситуация с этой ошибкой при работе в связке с php-fpm в том, что php-fpm просто не выдерживает нагрузки, либо неправильно настроен. Возможно, у него не хватает процессов для обработки всех запросов. Тогда часть запросов будут возвращать ошибку.
Вот типичный пример ошибки 502 при работе с php-fpm. Пользователь видит ошибку. Идем смотреть лог ошибок виртуального хоста. Видим там такую строку:
2019/03/29 15:00:42 [error] 2058#2058: *18 connect() failed (111: Connection refused) while connecting to upstream, client: 192.168.13.16, server: localhost, request: "GET /1.php HTTP/1.1", upstream: "fastcgi://127.0.0.1:9000", host: "192.168.13.34"
В данном случае php-fpm просто упал и перестал обрабатывать запросы.
Я достаточно часто встречаюсь с этой серверной ошибкой. Иногда разработчики напрограммируют таких конструкций, что они валят php-fpm по какой-то причине. Причем, если проект уже сдали и он давно работает, никто с этими ошибками разбираться уже не хочет. Тогда я просто ставлю костыль - автоматически перезапускаю php-fpm с помощью zabbix, ели вылезает ошибка 502 bad gateway в nginx. Такие вещи иногда годами работают и в целом всех устраивают.
Вы можете настроить внешний вид страницы с ошибкой. То, что я показал на скрине - стандартный вид ошибки 502 bad gateway в nginx при отсутствии каких-то настроек на этот счет. Вы же можете установить свою страницу при возникновении этой ошибки. На ней можно написать, к примеру, что на сервере ведутся технические работы и скоро он заработает вновь. В каждый виртуальный хост можно установить свою страницу с ошибкой. Настраивается она в секции server.
error_page 500 502 503 504 /error50x.html; location = /50x.html { root /usr/share/nginx/html; }
В данном случае мы на все ошибки с кодами 500 502 503 504 показываем страницу /usr/share/nginx/html/error50x.html.
Ошибка 404 not found
Еще одна популярная ошибка nginx - 404 not found.
Тут все понятно и без объяснений - пользователь открывает ссылку, а документа по этой ссылке нет. Иногда бывает не очевидно, почему по ссылке выходит 404 ошибка. В таком случае рекомендую сразу смотреть лог ошибок. Вот пример.
2019/03/29 15:18:48 [error] 2058#2058: *20 open() "/usr/share/nginx/html/502" failed (2: No such file or directory), client: 192.168.13.16, server: localhost, request: "GET /502 HTTP/1.1", host: "192.168.13.34"
Ссылка ведет на документ, который должен быть в директории /usr/share/nginx/html/, но его там нет. Когда настраиваются алиасы, часто возникают такого рода ошибки. Вроде все настроил, а все равно 404 ошибка. Идешь смотреть лог и видишь, что реально nginx ищет не там документ, где ты ожидал, согласно настройкам. Надо просто все еще раз перепроверить. В статьях про установку zabbix я регулярно вижу вопросы, связанные с 404 ошибкой. Люди просто ошибаются при настройке веб сервера.
Страницу с этой ошибкой можно так же кастомизировать. Это делают практически все крупные сайты. Вот, к примеру, как выглядит эта ошибка у меня на сайте.
В данном случае внешний вид страницы с ошибкой формирует сам wordpress. Но вы так же можете это настроить самостоятельно через nginx.
Переменные в nginx
В примерах выше с редиректами я использовал переменные, но совершенно не останавливался на них и не пояснял, что они значат. Многие из них понятны по названиям, например:
- $args - аргументы в строке запроса;
- $request_uri - первоначальный URI запроса целиком (с аргументами);
- $scheme - схема запроса, http или https.
Полный список переменных можно посмотреть в документации. Когда вы отлаживаете сложную конфигурацию nginx с множеством переменных, бывает удобно выводить эти переменные в отдельные заголовки, а потом смотреть их во время отладки. Просто добавьте в конфигурацию виртуального хоста запись переменной примерно так.
add_header R-var "$request_uri";
Вместо R-var можете написать что угодно, это просто название записи. Далее в DevTools в Chrome можете смотреть эти заголовки.
Кэширование в nginx
Тема кэширования очень обширна. Много копий сломано о том, какое и где кэширование лучше применять. В том же wordpress существует огромное множество плагинов для кэширования. Nginx может самостоятельно хранить и управлять кэшом. В некоторых случаях это будет эффективнее, чем использовать плагины. Но все сильно зависит от конкретного проекта.
Кэшировать Nginx может разные вещи:
- Статику, которую получает с удаленного сервера, сохраняет себе и раздает быстрее, чем удаленный сервер.
- Динамику, превращая ее в статику и раздавая самостоятельно, без обращения к бэкенду.
С кэширвоанием статики все более ли менее понятно. Сохраняем файлы и отдаем их сами. А вот с кэшированием динамических страниц есть очень много нюансов. Конечно, удобно сформировать один раз динамическую страницу php, сохранить ее как html и раздавать. А что делать со счетчиком просмотров на странице, с комментариями, со списком последних статей, после публикации новой? Это первое, что приходит в голову. Таких моментов может быть очень много. В реальном проекте скорее всего не получится просто взять и включить кэширование.
Конкретно с WordPress я обычно поступаю следующим образом. Кэширование nginx я не использую. Вместо этого я использую плагин WP Total Cache. Он формирует статические html страницы по заданным в его настройках параметрам. А дальше я эти страницы отдаю напрямую через nginx, минуя вообще ядро WordPress. За счет этого достигается максимальное быстродействие. Вот пример настроек Nginx из секции server виртуального хоста для отдачи кэша WordPress.
set $cache_uri $request_uri; if ($request_method = POST) { set $cache_uri 'null cache'; } if ($query_string != "") { set $cache_uri 'null cache'; } if ($request_uri ~* "(/wp-admin/|/xmlrpc.php|/wp-(app|cron|login|register|mail).php|wp-.*.php|/feed/|index.php|wp-comments-popup.php|wp-links-opml.php|wp-locations.php|sitemap(_index)?.xml|[a-z0-9_-]+-sitemap([0-9]+)?.xml)") { set $cache_uri 'null cache'; } if ($http_cookie ~* "comment_author|wordpress_[a-f0-9]+|wp-postpass|wordpress_logged_in") { set $cache_uri 'null cache'; } location / { try_files /wp-content/cache/supercache/$http_host/$cache_uri/index-https.html $uri $uri/ /index.php?$args; }
Сначала идут проверки для добавления исключений к некоторым запросам, для которых кэширование не будет работать. А потом отдается статика из директории с кэшом. Если для заданного URI кэша нет, он уходит дальше в обработку.
В данном случае используется именно плагин WP, а не кэш nginx только из-за удобства управления кэшом через панель управления сайтом. Сам плагин делает ровно то же самое, что может делать nginx. Кэш в самом nginx настраивается следующим образом.
Сначала добавляются настройки кэширования в nginx.conf. Дальше речь пойдет о кэшировании динамики через fastcgi.
http { ... fastcgi_cache_path /var/cache/nginx/php levels=1:2 keys_zone=php_cache:32m max_size=3g; fastcgi_cache_key "$scheme$request_method$host$request_uri"; ... }
- fastcgi_cache_path - директива для объявления кэша для fatcgi;
- /var/cache/nginx/php - директория, где будут храниться файлы кэша;
- levels=1:2 - уровень вложенности каталогов в директории с кэшом;
- keys_zone=php_cache - название зоны;
- max_size=3g - размер директории с кэшом в 3Гб.
Не забудьте создать указанную директорию для кэша /var/cache/nginx/php. В конфигурацию виртуального хоста добавляем параметры кэширования в location с php.
location ~ \.php$ { fastcgi_pass unix:/var/run/php-fpm.sock; fastcgi_index index.php; include fastcgi_params; fastcgi_cache php_cache; fastcgi_cache_valid 200 120m; } }
Кэшируем ответы с кодом 200 на 120 минут.
Для кэширования запросов с ответами от бэкенда через proxy_pass, необходимо использовать директиву proxy_cache_path.
proxy_cache_path /var/cache/nginx/proxy levels=1:2 keys_zone=proxy_cache:32m max_size=3G;
И далее в вирутальном хосте.
location / { proxy_pass http://backend; proxy_cache proxy_cache; proxy_cache_valid 200 120m; }
Подробнее о кэшировании читайте в блоге nginx. Там очень много нюасов. Как минимум надо аккуратно прорабатывать исключения, чтобы в кэш не попадало то, что там быть не должно. Например, cookie или страницы из закрытой административной части.
Auth basic, доступ по паролю или ограничение по ip
Покажу на простых примерах, как в nginx настроить ограничения доступа по ip, имени пользователю и паролю (Auth basic авторизация). Начнем с простого. Закроем доступ к определенной папке на сайте всем подряд и разрешим только после ввода имени пользователя и пароля. Для этого добавляем в виртуальный хост, в нужный location следующие параметры.
location /secret { ... auth_basic "Unauthorized"; auth_basic_user_file /etc/nginx/htpasswd; ... }
Теперь нам надо создать файл с именем пользователя и паролем.
htpasswd -c /etc/nginx/htpasswd user New password: Re-type new password: Adding password for user user
Если получите сообщение, что у вас нет утилиты htpasswd, установите соответствующий пакет.
# apt install apache2-utils # yum install httpd-tools
Перечитайте конфигурацию nginx и проверяйте. Теперь доступ к /secret возможен только после авторизации по имени пользователю и паролю.
Настроим ограничение доступа по ip в nginx. Для этого достаточно добавить в свойства location или всего виртуального хоста следующие правила доступа.
location /secret { ... allow 192.168.10.10/32 deny all; ... }
Если нужен запрет доступа ко всему сайту сразу, то ставьте это ограничение в секцию server.
Если вам нужно настроить ограничение доступа по ip на основе стран или регионов, то читайте мою отдельную статью на эту тему - блокировка доступа к сайту по странам.
Мониторинг nginx
Для настройки мониторинга nginx, необходимо внести некоторые параметры в конфигурационный файл nginx.conf. После этого nginx сам будет отдавать базовую информацию о состоянии сервера с помощью модуля ngx_http_stub_status_module. Добавляем в секцию http следующее.
server { listen 127.0.0.1:80; server_name status.localhost; keepalive_timeout 0; allow 127.0.0.1; deny all; location /server-status { stub_status on; } access_log off; }
Перезапускаем nginx и проверяем. Я разрешил отдавать состояние о своем статусе только при запросе с локального сервера, где сам nginx работает. Поэтому смотрим через консоль сервера.
# curl http://localhost/server-status
Какие метрики мы здесь видим:
- Active connections - количество активных клиентских соединений.
- accepts - число принятых клиентских соединений.
- handled - число обработанных соединений.
- requests - число клиентских запросов.
- Reading - число соединений, в которых nginx в настоящий момент читает заголовок запроса.
- Writing - число соединений, в которых nginx в настоящий момент отвечает клиенту.
- Waiting - число бездействующих клиентских соединений в ожидании запроса.
Что делать с этими данными - решать вам в зависимости от того, какую систему мониторинга вы используете. Более подробно о мониторинге nginx читайте в отдельной статье.
Пример универсального конфига для nginx
В завершении своей статьи про настройку nginx, я хочу привести шаблон универсального конфига, который я обычно использую при настройке веб сервера. Сил уже нет писать статью, поэтому привожу его без подробных комментариев. Надеюсь сами разберетесь с помощью документации. Статью писал несколько дней и под конец уже устал :)
user nginx; worker_processes auto; worker_cpu_affinity auto; worker_rlimit_nofile 30000; pid /var/run/nginx.pid; pcre_jit on; events { worker_connections 8192; multi_accept on; } http { # Basic ####################### sendfile on; tcp_nopush on; tcp_nodelay on; reset_timedout_connection on; keepalive_timeout 120; keepalive_requests 1000; types_hash_max_size 2048; server_tokens off; send_timeout 30; client_body_timeout 30; client_header_timeout 30; server_names_hash_max_size 4096; # Limits ###################### client_max_body_size 10m; client_body_buffer_size 128k; client_body_temp_path /var/cache/nginx/client_temp; proxy_connect_timeout 60; proxy_send_timeout 60; proxy_read_timeout 60; proxy_buffer_size 4k; proxy_buffers 8 16k; proxy_busy_buffers_size 64k; proxy_temp_file_write_size 64k; proxy_temp_path /var/cache/nginx/proxy_temp; include /etc/nginx/mime.types; default_type application/octet-stream; # Logs ######################## log_format main '$remote_addr - $host [$time_local] "$request" ' '$status $body_bytes_sent "$http_referer" ' '"$http_user_agent" "$http_x_forwarded_for"' 'rt=$request_time ut=$upstream_response_time ' 'cs=$upstream_cache_status'; log_format full '$remote_addr - $host [$time_local] "$request" ' 'request_length=$request_length ' 'status=$status bytes_sent=$bytes_sent ' 'body_bytes_sent=$body_bytes_sent ' 'referer=$http_referer ' 'user_agent="$http_user_agent" ' 'upstream_status=$upstream_status ' 'request_time=$request_time ' 'upstream_response_time=$upstream_response_time ' 'upstream_connect_time=$upstream_connect_time ' 'upstream_header_time=$upstream_header_time'; access_log /var/log/nginx/access.log main; error_log /var/log/nginx/error.log; # Gzip ######################## gzip on; gzip_static on; gzip_types text/plain text/css application/json application/x-javascript text/xml application/xml application/xml+rss text/javascript application/javascript image/x-icon image/svg+xml application/x-font-ttf; gzip_comp_level 9; gzip_proxied any; gzip_min_length 1000; gzip_disable "msie6"; gzip_vary on; etag off; # Если собран с модулем сжатия brotli #brotli_static on; #brotli on; #brotli_comp_level 6; #brotli_types text/plain text/css text/xml application/javascript image/x-icon image/svg+xml; # Cache ####################### #proxy_cache_valid 1m; #proxy_cache_key $scheme$proxy_host$request_uri$cookie_US; #proxy_cache_path /web/sites/nginx_cache levels=1:2 keys_zone=main:1000m; # Zone limits ################ limit_conn_zone $binary_remote_addr zone=perip:10m; limit_req_zone $binary_remote_addr zone=lim_5r:10m rate=5r/s; # lim for dynamic page limit_req_zone $binary_remote_addr zone=lim_1r:10m rate=1r/s; # lim for search page limit_req_zone $binary_remote_addr zone=lim_10r:10m rate=10r/s; # SSL ######################### ssl_session_cache shared:SSL:50m; ssl_session_timeout 1d; ssl_session_tickets on; ssl_protocols TLSv1 TLSv1.1 TLSv1.2 TLSv1.3; ssl_ciphers 'TLS13-CHACHA20-POLY1305-SHA256:TLS13-AES-128-GCM-SHA256:TLS13-AES-256-GCM-SHA384:ECDHE:ECDHE-ECDSA-CHACHA20-POLY1305:ECDHE-RSA-CHACHA20-POLY1305:ECDHE-ECDSA-AES128-GCM-SHA256:ECDHE-RSA-AES128-GCM-SHA256:ECDHE-ECDSA-AES256-GCM-SHA384:ECDHE-RSA-AES256-GCM-SHA384:DHE-RSA-AES128-GCM-SHA256:DHE-RSA-AES256-GCM-SHA384:ECDHE-ECDSA-AES128-SHA256:ECDHE-RSA-AES128-SHA256:ECDHE-ECDSA-AES128-SHA:ECDHE-RSA-AES256-SHA384:ECDHE-RSA-AES128-SHA:ECDHE-ECDSA-AES256-SHA384:ECDHE-ECDSA-AES256-SHA:ECDHE-RSA-AES256-SHA:DHE-RSA-AES128-SHA256:DHE-RSA-AES128-SHA:DHE-RSA-AES256-SHA256:DHE-RSA-AES256-SHA:ECDHE-ECDSA-DES-CBC3-SHA:ECDHE-RSA-DES-CBC3-SHA:EDH-RSA-DES-CBC3-SHA:AES128-GCM-SHA256:AES256-GCM-SHA384:AES128-SHA256:AES256-SHA256:AES128-SHA:AES256-SHA:DES-CBC3-SHA:!DSS'; ssl_prefer_server_ciphers on; ssl_dhparam /etc/ssl/certs/dhparam.pem; ssl_stapling on; ssl_stapling_verify on; add_header Strict-Transport-Security max-age=15768000; resolver 8.8.8.8; include /etc/nginx/conf.d/*.conf; # For monitoring ########### server { listen 127.0.0.1:80; server_name status.localhost; keepalive_timeout 0; allow 127.0.0.1; deny all; access_log off; location /server-status { stub_status on; } location /status { access_log off; allow 127.0.0.1; deny all; include fastcgi_params; fastcgi_pass unix:/var/run/php-fpm/php-fpm.sock; fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name; } } }
На этом по базовой настройке nginx все. Надеюсь, было полезно.
Заключение
Я постарался собрать в обзорной статье все то, с чем приходится обычно работать в Nginx. В целом, этот продукт хорошо документирован, популярен. В интернете есть много полезной информации по всем темам в отдельности. Но похожей объемной статьи по продукту я не нашел, поэтому решил написать.
Остались несколько тем, которые я хотел бы тоже расписать, но не успел. Да и статья получилась очень большая. Не знаю, насколько это уместно, публиковать все в куче. В общем, не рассмотрены остались вопросы логирования, gzip сжатия и лимитов. Тема логирования частично рассмотрена в статье про мониторинг бэкенда с помощью elk.
Так же рекомендую в продолжении темы мониторинга nginx посмотреть статью про дашборды в kibana для nginx. Полезный и удобный инструмент для администраторов сайтов и web серверов.
Буду рад замечаниям, исправлениям, дополнениям в комментариях к статье.
На углубленном курсе "Архитектура современных компьютерных сетей" вы с нуля научитесь работать с Wireshark и «под микроскопом» изучите работу сетевых протоколов. На протяжении курса надо будет выполнить более пятидесяти лабораторных работ в Wireshark.
Здравствуйте, нужна помощь, необходимо создать зону лимитов:
...
limit_req_zone $binary_remote_addr zone=req_limits:10m rate=30r/s;
...
и задействовать ее:
location / {
...
limit_req zone=req_limits burst=10;
limit_req_status 429;
...
}
как это будет выглядеть в конфиге
user bitrix;
worker_processes 8;
error_log /var/log/nginx/error.log warn;
pid /var/run/nginx.pid;
worker_rlimit_nofile 10240;
events {
use epoll;
worker_connections 10240;
}
http {
include /etc/nginx/mime.types;
default_type application/force-download;
server_names_hash_bucket_size 128;
location / {
limit_req zone=req_limits burst=10;
limit_req_status 429;
}
# Description of supported access log formats
log_format main '$remote_addr - $remote_user [$time_local - $upstream_response_time] '
'$status "$request" $body_bytes_sent '
'"$http_referer" "$http_user_agent" "$http_x_forwarded_for"';
log_format common '$remote_addr - - [$time_local - $upstream_response_time] '
'"$request" $status $bytes_sent '
'"$http_referer" "$http_user_agent" $msec';
log_format balancer '$remote_addr - $remote_user [$time_iso8601] "$host" '
'"$request" $status $body_bytes_sent "schema: $scheme" '
'"$http_referer" "$http_user_agent" "$http_x_forwarded_for" '
'"$request_length" : "$request_time" -> $upstream_response_time';
log_format debug '$upstream_response_time,"$time_local","$remote_addr","$request",$status,$body_bytes_sent';
proxy_redirect ~^http://([^:]+):443(/.+)$ https://$1$2;
# upload default maps
include bx/maps/*.conf;
# settings files
include bx/settings/*.conf;
server_tokens off;
# Disable request logging in nginx by default
#access_log /var/log/nginx/access.log common;
access_log off;
sendfile on;
tcp_nopush on;
tcp_nodelay on;
client_max_body_size 1024m;
client_body_buffer_size 4m;
# Parameters for back-end request proxy
proxy_connect_timeout 300;
proxy_send_timeout 300;
proxy_read_timeout 300;
proxy_buffer_size 64k;
proxy_buffers 8 256k;
proxy_busy_buffers_size 256k;
proxy_temp_file_write_size 10m;
# Zone limits ################
limit_req_zone $binary_remote_addr zone=req_limits:10m rate=30r/s;
# Assign default error handlers
error_page 500 502 503 504 /500.html;
error_page 404 = /404.html;
# Content compression parameters
gzip on;
gzip_disable "msie6";
gzip_vary on;
gzip_proxied any;
gzip_comp_level 6;
gzip_buffers 16 8k;
gzip_types text/plain text/css application/json application/x-javascript text/xml application/xml application/xml+rss text/javascript;
# add_header
include bx/conf/http-add_header.conf;
# Set default website
include bx/site_enabled/*.conf;
# Set additional websites
include bx/site_ext_enabled/*.conf;
}
Почему при работе с сокетами обращается по несуществующему адресу: /var/www/html/bitrix/admin/site_checker.php, хотя должен обратится по адресу /home/tst/sites/test.loc/bitrix/admin/site_checker.php
2022/05/21 13:15:42 [error] 1257#0: *17 open() "/var/www/html/bitrix/admin/site_checker.php" failed (2: No such file or directory), client: 127.0.0.1, server: , request: "GET /bitrix/admin/site_checker.php?test_type=socket_test&unique_id=c1b0f9c9345b0ec4995a8b2fd620bd7e HTTP/1.1", host: "test.loc"
Сервер локальный, домен тестовый test.loc, если перенести на хостинг с реальным доменом то все работает нормально, в чем может быть проблема?
Настройки веб сервера надо смотреть. Всё это задаётся только там.
Добрый день, подскажите пожалуйста как мне сделать что бы со странцы /yandex_market/api/stocks/ ридерект был на /yandex_market/api/stocks
ну дело в том что у меня со всех файлов без слеша на конце идет 301 на все вайлы со слешем
как я понимаю вот этим действием
rewrite ^([^.]*[^/])$ $1/ permanent;
merge_slashes off;
rewrite (.*)//+(.*) $1/$2 permanent;
rewrite (.*)//+(.*) $1/$2 permanent;
if ($request_uri ~ "^[^?]*?//") {
rewrite "^" $scheme://$host$uri permanent;
}
ну у меня никак не получается сделать что бы страница /yandex_market/api/stocks была нормальная и не цекличная
Здравствуйте! отличная статья много интересного. Столкнулся с проблемой с протоколом шифрования получаю такое сообщение
"SSL_do_handshake() failed (SSL: error:1409442E:SSL routines:ssl3_read_bytes:tlsv1 alert protocol version:SSL alert number 70) while SSL handshaking to upstream, client: 37.142.167.149, server: example.ru, request: "POST /greet.Greeter/SayHello HTTP/2.0", upstream: "grpcs://127.0.0.1:5001", host: "example.ru""
использую Grpc.
Файл крнфигурации сервера
server {
listen 443 http2 ssl;
server_name example.ru;
location /greet. {
grpc_pass grpcs://grpcserver;
}
default_type application/grpc;
}
upstream grpcserver {
zone grpcserver 64k;
server 127.0.0.1:5001;
}
nginx.conf
http {
include /etc/nginx/mime.types;
include /etc/nginx/proxy.conf;
include /etc/nginx/conf.d/constructionorg.conf;
default_type application/octet-stream;
log_format main '$remote_addr - $remote_user [$time_local] "$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent"';
sendfile on;
keepalive_timeout 65;
server_names_hash_bucket_size 128;
#TLS config
ssl_certificate /etc/ssl/certs/nginx.crt;
ssl_certificate_key /etc/ssl/private/server.key;
ssl_trusted_certificate /etc/ssl/certs/ca.crt;
ssl_session_cache shared:SSL:50m;
ssl_session_timeout 1d;
ssl_session_tickets on;
ssl_protocols TLSv1.2 TLSv1.3;
ssl_ciphers TLS13-CHACHA20-POLY1305-SHA256:TLS13-AES-128-GCM-SHA256:TLS13-AES-256-GCM-SHA384:ECDHE:ECDHE-ECDSA-CHACHA20-POLY1305:ECDHE-RSA-CHACHA20-POLY1305:ECDHE-ECDSA-AES128-GCM-SHA256
ssl_prefer_server_ciphers on;
ssl_dhparam /etc/ssl/certs/dhparam-nginx.pem;
ssl_stapling on;
ssl_stapling_verify on;
add_header Strict-Transport-security max-age=15768000;
resolver 8.8.8.8;
}
А у вас upstream поддерживает указанные версии tls 1.2 и 1.3? Сдаётся мне, что он по tlsv1 хочет подключение, а у вас оно отключено. На эти мысли меня навела вот эта строка:
tlsv1 alert protocol version
Насчёт upstream поддерживает ли у меня верссии TLS 1.2 и 1.3 сама веб служба поддерживает конечно! А надо ли где то еще указывать версии протокола?
ДВС!
Вопрос upload работает на nginx?(под вынь)
Пробовал следующий конфиг, не сработал
location /upload
{
root /test/nginx/html/;
index index.html index.htm;
limit_except POST { deny all; }
client_body_temp_path /test/tmp.;
client_body_in_file_only on;
client_body_buffer_size 128k;
client_max_body_size 50M;
client_body_timeout 10s;
proxy_pass_request_headers on;
#proxy_set_header content-type "text/html";
proxy_set_header X-FILE $request_body_file;
proxy_set_body off;
proxy_method POST;
proxy_pass http://localhost:80/;
proxy_redirect off;
}
не коммерческий проект, не высоконагруженный, главное чтоб работало
В общем случае всё работает. Правда под Win я его никогда не настраивал. В любом случае, если что-то не работает, надо лог ошибок смотреть. там будет информация о проблеме.
в логах ничего особенного, только ругань на фавайкон:
2021/10/05 17:12:02 [error] 6996#7668: *3 CreateFile() "c:\test\nginx\nginx-1.21.1/html/favicon.ico" failed (2: The system cannot find the file specified), client: 127.0.0.1, server: localhost, request: "GET /favicon.ico HTTP/1.1", host: "localhost", referrer: "http://localhost/"
Так же отмечу что у меня нет связки с пхп и установлен 1.21.1 без доп модулей
На гидхабе утверждают что с нативным "client_body_in_file_only" должно работать, вообщем есть подозрение что на вынь это не работает из-за специфики winAPI read write, но это лишь догадки
Здравствуйте. Подскажите. Как определить какое значение нужно установить для client_body_buffer_size?
Например, у меня client_max_body_size 256m;
Эти два параметра напрямую друг с другом не связаны. Ставьте то, что вам нужно. client_body_buffer_size ограничивает размер данных, которые сможет отправить клиент в post запросе. Обычно это небольшое значение. Должно быть существенно меньше, чем client_max_body_size.
Спасибо. Просто не совсем понимаю можно ли чем-то навредить если указать небольшое значение. client_body_buffer_size 10К например
Особо не навредите. Если кто-то будет выходить за лимиты, то получит стандартную ошибку. В логах nginx будет видно что за ошибка и из-за чего она. Тогда можно увеличить значение.
Что-то я вот не понял по мониторингу в итоговом конфиге. Почему разные директории в при включении модуля
stub_status? Я так понял он будет работать только в /server-status, зачем тогда дополнительно указывать еще location /status ?
# For monitoring ###########
server {
listen 127.0.0.1:80;
server_name status.localhost;
keepalive_timeout 0;
allow 127.0.0.1;
deny all;
access_log off;
location /server-status {
stub_status on;
}
location /status {
access_log off;
allow 127.0.0.1;
deny all;
include fastcgi_params;
fastcgi_pass unix:/var/run/php-fpm/php-fpm.sock;
fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name;
}
}
/server-status это информация от nginx, а /status от php-fpm.
Добрый день! подскажите можно ли реализовать такую задачу? На сервере "A" стоит nginx для проектирования на белый ip "B" шлюза, за которым крутятся разные сервисы и все они открыты на шлюзе на разных портах. Задача такая, при обращении на сервер A/zabbix я попадаю на сервер "B":8081,
на этом порту там открыт zabbix. При обращении на сервер сервер A/nextcloud я попадаю на сервер "B":8082 на этом порту на шлюзе открыт nextcloud и так далее. То есть задача в том чтобы использовать один домен который на сервере "A" с настроенным Let's Encrypt.
Точно не могу сказать, надо пробовать. На первый взгляд кажется, что работать будет. Но всегда есть нюансы, что сам веб сервис не сможет корректно работать с таким преобразованием урлов и начнутся проблемы.
Подскажите, а умеет ли nginx nat-pt? Информации пока не нашел, но если умеет - есть ли ссылка на мануал? Спасибо
Я не понял в контексте nginx что он должен делать с помощью nat-pt.
Опишу ситуацию: у меня есть ip 2.2.2.2 с него перенаправлен траффик 443 порта на nginx для сайтов, и еще у меня есть служба directaccess, которая строит туннель из внешней сети в корпоративную. Строится этот туннель на основе ipv6, а для этого используется технология nat-pt. А в данном случае траффик проходит через прокси nginx и как я понимаю он не умеет nat-pt и из-за этого туннель не строится... Либо может быть это как-то настраивается на nginx, хотя пока информации я не нашел(
Здравствуйте,
auth_basic "Unauthorized" можно ли вместо "Unauthorized" что-нибудь на русском написать?
Попробуйте. Я не пробовал ни разу.
Здравствуйте! Подскажите, как решить проблему... Сделал настройку SSL по вашей статье и все отлично заработало на одном сайте. Но когда сделал такую же настройку на втором сайте на этом же вэб-сервере, то первый сайт начинает ссылаться на второй сайт и выдает ошибку.
Вот конфиги сайтов на Nginx, вроде все правильно:
server {
listen 80;
server_name site1.ru;
access_log /var/log/nginx/site1.ru-access.log;
error_log /var/log/nginx/site1.ru-error.log;
return 301 https://$server_name$request_uri;
}
server {
listen 443 ssl http2;
server_name site1.ru;
access_log /var/log/nginx/site1.ru-ssl-access.log;
error_log /var/log/nginx/site1.ru-ssl-error.log;
ssl on;
ssl_certificate /etc/letsencrypt/live/site1.ru.crt;
ssl_certificate_key /etc/letsencrypt/live/site1.ru.key;
ssl_session_timeout 5m;
ssl_protocols TLSv1 TLSv1.1 TLSv1.2;
ssl_dhparam /etc/ssl/certs/dhparam.pem;
ssl_ciphers 'EECDH+AESGCM:EDH+AESGCM:AES256+EECDH:AES256+EDH';
ssl_prefer_server_ciphers on;
ssl_session_cache shared:SSL:10m;
location /.well-known/acme-challenge/ {
root /web/sites/site1.ru/www/;
}
location / {
proxy_pass http://10.10.3.22;
proxy_set_header Host $host;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Real-IP $remote_addr;
}
}
и второй:
server {
listen 80;
server_name site2.ru;
access_log /var/log/nginx/site2.ru-access.log;
error_log /var/log/nginx/site2.ru-error.log;
return 301 https://$server_name$request_uri;
}
server {
listen 443 ssl http2;
server_name site2.ru;
access_log /var/log/nginx/site2.ru-ssl-access.log;
error_log /var/log/nginx/site2.ru-ssl-error.log;
ssl on;
ssl_certificate /etc/letsencrypt/live/site2.ru.crt;
ssl_certificate_key /etc/letsencrypt/live/site2.ru.key;
ssl_session_timeout 5m;
ssl_protocols TLSv1 TLSv1.1 TLSv1.2;
ssl_dhparam /etc/ssl/certs/dhparam.pem;
ssl_ciphers 'EECDH+AESGCM:EDH+AESGCM:AES256+EECDH:AES256+EDH';
ssl_prefer_server_ciphers on;
ssl_session_cache shared:SSL:10m;
location /.well-known/acme-challenge/ {
root /web/sites/site2.ru/www/;
}
location / {
proxy_pass http://10.10.3.23;
proxy_set_header Host $host;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Real-IP $remote_addr;
}
}
Подскажите, что я делаю не так??
Вы на втором сайте вот это зачем делаете?
return 301 https://$server_name$request_uri;
И то же самое на первом. Указывайте явно адрес сайта, куда хотите редирект сделать.
то есть нужно писать return 301 https://site1.ru/site1?
Вы что хотите получить этим редиректом? Я не совсем понимаю. Что это за ссылка https://site1.ru/site1 ?
У меня есть сайт site1.ru/index.html и site2.ru/index.html. Я хочу чтобы они открывались по ссылкам https://
Так вот же у меня прямо в статье пример, которую вы комментируете :) Делайте вот так:
server {
listen 80;
server_name site1.ru;
return 301 https://site1.ru$request_uri;
}
server {
listen 80;
server_name site2.ru;
return 301 https://site2.ru$request_uri;
}
Понял, я просто видимо упустил этот момент) Спасибо за помощь!
Сделайте так:
server {
listen 80;
server_name1 site1.ru;
return 301 https://$server_name1$request_uri;
}
server {
listen 80;
server_name2 site2.ru;
return 301 https://$server_name2$request_uri;
}
Подскажите пожадуйста, почему я получаю вот такю ошибку?
nginx_1 | 2020/09/17 23:09:03 [error] 6#6: *38 open() "/usr/share/nginx/html/stub_status" failed (2: No such file or directory), client: 172.21.0.10, server: localhost, request: "GET /stub_status HTTP/1.1", host: "nginx"
nginx-exporter | 2020/09/17 23:09:03 Could not create Nginx Client: Failed to create NginxClient: expected 200 response, got 404
nginx_1 | 172.21.0.10 - - [17/Sep/2020:23:09:03 +0000] "GET /stub_status HTTP/1.1" 404 154 "-" "Go-http-client/1.1" "-
в моем конфиге есть такая настройка
server {
listen 127.0.0.1:80;
server_name _;
keepalive_timeout 0;
location /stub_status {
stub_status on;
}
access_log off;
}
в этой директории - /usr/share/nginx/html/, лежит только index.html. Модуль есть в nginx
У вас /stub_status доступен только на 127.0.0.1, а клиент, судя по логу, обращается с ip 172.21.0.10.
Спасибо, проглядел :-)
Здравствуйте! Подскажите, пожалуйста, как правильно прописывается путь в proxy_cache_path для директории windows server? Попробовал сделать так: proxy_cache_path c:/cache/nginx/proxy_cache levels=1:2 keys_zone=proxy_cache:15m max_size=1G; nginx запускается, но от него никакой реакции, никаких записей в логи и при этом в указанную директорию кэши не записываются.
Ни разу не настраивал nginx на windows, так что не подскажу.
Помоги пожалуйста. По наследству достался web сервер с связкой apache+nginx и не понятным образом повешенный битрикс (как понял он выступает как базовый набор файлов для сайта и панель управления им) без SSL. Руководство наконец созрело на организацию SSL. Подкинул сертификат проверки делаю серт находится. Но вот организовать работу сайта через https не выходит все время натыкаюсь на ошибку "ERR_TOO_MANY_REDIRECTS" переадресация уходит в цикл. Из документации редирект надо делать на Nginx. делаю следующим образом в файл с настройками http (s1.conf) вставил строку return 301 https://example.com$request_uri;
Может поможете решить проблему
Судя по конфигу s1.conf, на сервере используется bitrixenv. Рекомендую сделать настройки сертификата через него. Там по менюшкам если полазить, можно найти эти настройки. Можно на тестовом сервере развернуть bitrixenv и потренироваться.
Ошибка типовая, часто вылезает в битриксе. Можно руками наковырять конфиги, но лучше, как я уже сказал, сделать через меню bitrixenv. Если лазить напрямую в конфиги, при обновлениях будет что-то ломаться, так как окружение будет их переписывать.
Чаще всего такая ошибка возникает, если настроен редирект на https в nginx, а потом еще в apache через .htaccess.
bitrixenv установлен, но среда не настроена и не развернута, он стоит что бы перенесенные файлы, в корень каталога с сайтом, битрикс могли работать. По сути он установлен не как сервис, а как набор библиотек, поэтому настроить через него не вариант. В конторе которая сопровождает наш сайт, от любых манипуляций на сервере открещиваются, а руководство требует решение.
Общую причину возникновения ошибки я знаю. Обычно исходя из документации редиректы в связке Apache+Nginx настраиваются на том сервисе который смотрит на порты 80, 443. В моем случае это Nginx. Но стандартными командами не помогло.
Чудес не бывает. Я эти ошибки видел много раз, причем на разных сайтах. Где-то идет двойной редирект, это факт. Его нужно найти. Можно посмотреть заголовки http, которые прилетают во время редиректа. Иногда бывает так, что редирект делает веб сервер, а потом еще сама CMS. Она обычно добавляет заголовок о редиректе в таком случае. Заочно мне трудно что-то подсказать. Судя по описанию, веб сервер настроен костыльно и надо разбираться, в чем там проблема.
я смотрел редиреты. это либо когда https:site.ru повторно сам на себя идет. либо когда он пытается на файл битрикса urlrewrite.xml уйти. в этих случаях пишет что соединение защищено. бывает что https на http идет постоянно, тогда браузеры пишут что соединение не защищено. выловить не могу
у меня почему-то при переходе по https://site.ru открывается сайт http://site.ru, хотя насколько я помню он должен открыться. я так понимаю где-то висит автопереход на 80 порт
По поводу настройки шифров, рекомендую конфигуратор https://ssl-config.mozilla.org/#server=nginx&server-version=1.17.0&config=intermediate так как при проверке хоть и получаем результат A, всё таки часть шифров считается слабой.
О, кажется дельная статья!
Спасибо!
Но нигде не могу найти информации особенности настройки fastcgi cache для более одного домена на nginx.
В конфигурации nginx для одного site.ru - работает нормально:
fastcgi_cache_path /var/www/cache/dom-noi.ru levels=1:2 keys_zone=domnoi:100m inactive=60m;
fastcgi_cache_key "$scheme$request_method$host$request_uri";
....
А если добавить второй nginx конфиг для test.site.ru:
# fastcgi_cache_path /var/www/cache/wptest1 levels=1:2 keys_zone=wptest1:100m inactive=60m;
....
то test.site.ru начинает редиректитья на site.ru, что лечиться комментированием всех настроек fastcgi для test.site.ru
Может подскажите куда копать?
Так трудно сказать, в чем проблема. Где-то ошибка. В общем случае, настройки для каждого виртуального хоста задаются в его конфиге и отрабатывают нормально. То есть, то, что вы хотите сделать, должно работать нормально. Надо разбираться детально. Более конкретно подсказать не могу, потому что конкретно fastcgi_cache не использую, но другие параметры меняю. Если у вас сайты на wordpress, советую повнимательнее посмотреть на его плагины кэширования. Они дадут более значительный прирост быстродействия сразу, без сложных настроек веб сервера.
оки, спасибо!
Кстати да, wordpress
А можете порекомендовать конкретные плагины?
WP Super Cache. С ним есть возможность отдавать статические страницы из кэша напрямую через nginx, если он используется. Получается максимально возможное быстродействие сайта и минимальная нагрузка на сервер. Пример конфига nginx есть в документации плагина.
спасибо,
а дополнительно Redis поможет? На сервере + Redis плагин..
Нет, не поможет. Если нормально настроить кэширование, redis ускорения не даст. Максимальное быстродействие - статический кэш на ssd диске. Для информационных сайтов со статическим содержимым страниц ничего лучше не придумать.
ок. Чтобы убедится что я правильно понял нужный тип кеша- резюме:
то есть
1) WP Super Cache делает из php динамических страниц статические html страницы
2) nginx кэширует эти html страницы с диска в RAM
Этого достаточно.
все остальное мало помогает:
- компиляция css
- Load Media-Queries Files Asynchronously
- CSS Variables
- JS Compiler
Правильно?
ПС:
Ну и наверное не помешает какой нибудь webp плагин
В целом, да. Про все остальное ничего сказать не могу, не знаком с терминами. Могу только сказать, что css и js отвечают в первую очередь за скорость рендеринга страницы, которую тоже надо оптимизировать, но кэш это другая область.
Замечание по nginx. Сам nginx не кэширует страницы в памяти по-умолчанию. Этим занимается система linux. Те данные, что часто запрашиваются с диска, автоматически уходят в кэш операционной системы, которая использует всю доступную оперативную память для этого.
Могу поделиться еще одним своим наблюдением. Если у вас быстрый ssd диск, то кэш с него работает быстрее, нежели помещение такого же кэша в memcached, который работает только в оперативной памяти. Я не знаю, почему так происходит, но наблюдал это лично, плюс видел такие же наблюдения других людей.
В итоге для себя сделал вывод - самый быстрый кэш - статика, хранящаяся на быстром ssd диске без лишних прослоек.
Извиняюсь, снова я. Почитал про FastCGI.
>WP Super Cache. С ним есть возможность отдавать статические страницы из кэша напрямую через nginx, если он используется
Так ведь при настроенном FastCGI на сервере этот функционал уже работает: в каталоге кэша находятся текстовые страницы, которые являются результатов работы php запросов. И они отдаются броузеру.
Что тогда делает этот плагин дополнительно?
Он взаимодействует с сайтом. Во-первых, через плагин легко сбросить кэш, не надо лезть на веб сервер. Во-вторых, есть куча настроек по управлению кэшом - сколько он будет жить, в каких случаях обновляться, кому и чт опоказывать и т.д. В общем, кэширование веб сервера не заменит отдельный плагин. С плагином в разы удобнее. К примеру, я не кэширую сеансы администратора. Сам всегда вижу динамический сайт, без кэшей.
То есть нужно сначал корректно fastcgi настроить на сервере, а
WP Super Cache только обеспечит комфорт, визуализацию и диагностику.
Сам он конфиги nginx не меняета , только читает?
Правильно?
Или этот плагин вообще не использует FastCGI и FastCGI можно отключить?
Кстати, этот микро-плагин умеет сбрасывать кеш автоматом при изменении контента.
https://ru.wordpress.org/plugins/nginx-cache/
WP Super Cache к fastcgi и nginx никакого отношения не имеет. Это плагин кэширования wordpress. Он генерирует статичные html страницы по заданным правилам. А что там в бэкенде, fastcgi, mod_php или что-то еще не имеет значения.
понятно, спасибо
При попытке использовать Пример универсального конфига для nginx - ошибка:
nginx: [emerg] a duplicate listen 127.0.0.1:80 in /etc/nginx/nginx.conf:121
121 строчка - это:
listen localhost;
Тут прямо написано, в чем ошибка. У вас два раза указана директива listen localhost или 127.0.0.1:80. Ищите ошибку в своем конфиге.
для моих целей было достаточно вот такой конфи-и:
upstream backend {
server 192.168.1.3:5555;
server 192.168.1.4:5555;
}
server
{
listen 80;
server_name testing.ru;
location / {
proxy_pass http://backend;
root /usr/share/nginx/html;
index index.php index.html index.htm;
}
location ~ \.php$ {
proxy_pass http://backend; #apache2
}
}
проблема была в избыточных locataion.
Добрый день!
Подскажите, пожалуйста.
Есть следующая конфигурация nginx
upstream backend {
server 192.168.1.3:5555;
server 192.168.1.4:5555;
}
server {
listen 80;
location / {
proxy_pass http://backend;
}
}
server {
listen 80;
server_name testing.ru;
location / {
root /usr/share/nginx/html;
index index.php index.html index.htm;
}
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root /usr/share/nginx/html;
}
location ~ \.php$ {
proxy_pass http://192.168.1.3:5555; #apache2
}
}
Вопрос:
Если захожу по ip адресу http://109.109.109.3
то балансировка между 192.168.1.3 и 192.168.1.4 работает.
Если захожу по имени http://testing.ru
Балансировка не работает....
Куда копать?
разобрался. спасибо.
В чем была проблема?
Спасибо за Вашу статью и примеры.
Прошу подсказать такой момент - как сделать переадресацию с ip адреса сервера на основую страницу сайта? Что вообще правильно отдавать в этом случае - ошибки, типа 403, 404 или вообще может 444?
В работе используется связка nginx+apache. В основном nginx.conf в секции server есть такие строки:
listen 80 default_server;
listen [::]:80 default_server;
server_name _;
root /usr/share/nginx/html;
достаточно ли будет прописать ниже return 301 $scheme://site1.ru; (как у Вас в примере) или нужно править/указывать что-то ещё?
Мне кажется, что если указать на нужном сайте параметр default_server, а все остальные default_server убрать, то по ip будет открываться именно тот домен, где стоит параметр default_server. Могу ошибаться, надо проверить, но мне кажется, что этого достаточно.
нужен блок server с именем site1.ru
Статья хорошая, спасибо. Но почему-то у меня с настройкой nginx руки кривые. Не специалист в web-серверах и потому застрял на какой-то мелочи. Нужен локальный веб сервер для небольших дел, в частности страницу заглушку и разместить гайд виде HTML документа. Настроил как положено (ну как минимум курил официальную документацию и уже тут просмотрел некоторые статьи), дал разрешения на каталоги, даже от рута запускал, ну вот ты хоть тресни не хочет он возвращать изображение не прямо по ссылке, не в html документе, если вставлять изображение как ссылку на внешний ресурс, то все отлично, если локально картинку вставлять, не выводит ее. Я понимаю скорее всего какая-то мелочь может в переменной или директиве, может в самом centos уже даже не знаю.
Для проверки все настроил в default.conf
server {
listen 80;
server_name localhost;
access_log /var/www/test.com/log/host.access.log main;
location / {
root /usr/share/nginx/html;
index index.html index.htm;
}
location /test.com/html/ {
root /var/www;
}
location /test.com/images/ {
root /var/www;
}
http://192.168.204.4/test.com/html/test.html - вот так он возвращает документ, текст нормально картинка не грузится
http://192.168.204.4/test.com/images/dw.gif - вот так 403 Forbidden
в логах "GET /test.com/images/dw.gif HTTP/1.1" 403 169 "-" "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:66.0) Gecko/20100101 Firefox/66.0" "-"
Для примера HTML файлик:
TEST
Зачем столько раз root объявлять? Одного раза в самом начале в вашем случае достаточно. И не в location, а выше.
Есть подозрения что не в этом дело. Ну вообще это практически пример из документации. Я не знаю, что я делаю не так, все элементарно и должно работать, какие-то подводные камни видать.
Разобрался отключаем ненавистный SELinux и все работает!
semanage fcontext -a -t httpd_sys_content '/var/other_folder(/.*)?' && restorecon -Rv /var/other_folder
респект за статью как кстати и то что нужно и необходимо знать.
Ну наконец то годная статья по nginx. Сохраню в закладки на будущее. Кстати для mysql могу посоветовать такие конфиги от известного хостера
https://github.com/RodrigoViolante/my.cnf
Подскажи. Я переехал на новый сервер, поставил в связке apache + nginx (fastcgi) На php 5.4 сайт работает без проблем. При переключении на php 5.6 выводит ошибку 500 internal servrr error. Но при этом я не могу найти из-за чего ошибка, в логах пусто, хотя логи включены. Подскажи куда копать?
.
Скорее всего проблемы в исходниках сайта. Не всегда можно перейти на более свежую версию php. Требуется поддержка проекта. Старые движки не работают на новых версиях php, если их специально не обновили под них. Ошибка 500 как раз и бывает от этого. Я ловил их при переходе на 7-ю версию, но давно уже. Сейчас все добавили поддержку 7-й версии.
2 Arthur
Вкл. access_log с макс. детлизацией. И смотрите в нем.
P.s. Использовать php 5.x в 2019 ? Ну, да ж не знаю что сказать. Php 7.x в нек-ых моментах в РАЗЫ быстрее.
Сегодня наконец тряхнул стариной и перешел на 7.1) Все ошибки поборол
На практике я нигде не видел увеличения производительности в разы. В лучшем случае на 20-30%, обычно и того меньше.
https://gbksoft.com/blog/php-5-vs-php-7-performance-comparison/
В 2 раза почти в нек-ых тестах.
Отличная статья. Теперь не надо бегать по разным статьям и выискивать нудные настройки.