Як налаштувати простий і безпечний зворотний проксі-сервер за допомогою Docker, Nginx і Letsencrypt

Вступ

Ви коли-небудь пробували встановити якийсь сервер вдома? Де потрібно відкрити новий порт для кожної послуги? І потрібно пам’ятати, який порт підходить до якої служби, і який ваш домашній ip? Це, безумовно, працює, і люди роблять це найдовше.

Однак, чи не було б непогано ввести plex.example.com і отримати миттєвий доступ до медіа-сервера? Це саме те, що для вас зробить зворотний проксі, і поєднувати його з Docker стає простіше, ніж будь-коли.

Передумови

Docker & Docker-Compose

Ви повинні мати Docker версії 17.12.0+ та версії Compose версії 1.21.0+.

Домен

Ви повинні налаштувати домен і мати пов’язаний із ним сертифікат SSL. Якщо у вас його немає, дотримуйтесь мого керівництва тут, як отримати безкоштовний за допомогою LetsEncrypt.

Що висвітлюватиме ця стаття

Я твердо вірю в розуміння того, що ти робиш. Був час, коли я дотримувався інструкцій і не мав уявлення про те, як усувати несправності. Якщо ви хочете це зробити, ось чудовий підручник, який розповідає, як це налаштувати. Хоча мої статті довгі, ви в кінцевому підсумку повинні зрозуміти, як це все працює.

Тут ви дізнаєтесь, що таке зворотний проксі, як його налаштувати та як ви можете його захистити. Я роблю все можливе, щоб розділити тему на розділи, розділені на заголовки, тому сміливо перескакуйте через розділ, якщо вам це подобається. Я рекомендую спочатку прочитати всю статтю, перш ніж починати її налаштування.

Що таке зворотний проксі?

Звичайний проксі

Почнемо з поняття звичайного проксі. Хоча це термін, який дуже поширений у технічному співтоваристві, це не єдине місце, де він використовується. Проксі-сервер означає, що інформація проходить через третю сторону, перш ніж потрапити до місця розташування.

Скажімо, що ви не хочете, щоб служба знала ваш IP, ви можете використовувати проксі. Проксі - це сервер, який було створено спеціально для цієї мети. Якщо проксі-сервер, який ви використовуєте, знаходиться, наприклад, в Амстердамі, IP-адреса, яка буде показана зовнішньому світу, - це IP-адреса сервера в Амстердамі. Ваші IP-адреси знатимуть лише ті, хто контролює проксі-сервер.

Зворотний проксі

Щоб розбити його на прості терміни, проксі додасть шар маскування. Це те саме поняття у зворотному проксі, за винятком того, що замість того, щоб маскувати вихідні з'єднання (ви отримуєте доступ до веб-сервера), це вхідні з'єднання (люди, що отримують доступ до вашого веб-сервера) будуть замасковані. Ви просто надаєте URL-адресу, наприклад example.com , і кожного разу, коли люди отримують доступ до цієї URL-адреси, ваш зворотний проксі подбає про те, куди надходить цей запит.

Скажімо, у вас у внутрішній мережі налаштовано два сервери. Server1 знаходиться на 192.168.1.10 , а Server2 - 192.168.1.20. Зараз ваш зворотний проксі надсилає запити, що надходять з example.com на Server1. Одного разу у вас з’являться оновлення веб-сторінки. Замість того, щоб знімати веб-сайт для обслуговування, ви просто робите нову настройку на Server2. Закінчивши, ви просто змінюєте один рядок у зворотному проксі-сервісі, і тепер запити надсилаються на Server2. Якщо припустити, що зворотний проксі встановлений правильно, ви просто не повинні простоювати.

Але, мабуть, найбільшою перевагою наявності зворотного проксі є те, що ви можете мати служби, що працюють на безлічі портів, але вам потрібно лише відкрити порти 80 і 443, HTTP і HTTPS відповідно. Всі запити надходитимуть у вашу мережу на цих двох портах, а зворотний проксі подбає про решту. Все це матиме сенс, як тільки ми почнемо налаштовувати проксі.

Налаштування контейнера

Що робити

docker-compose.yaml:

version: '3' services: reverse: container_name: reverse hostname: reverse image: nginx ports: - 80:80 - 443:443 volumes: - :/etc/nginx - :/etc/ssl/private

Перш за все, вам слід додати нову службу до вашого файлу складання докера. Ви можете назвати це як завгодно, у цьому випадку я вибрав зворотний . Тут я щойно вибрав nginx як зображення, однак у виробничому середовищі зазвичай є гарною ідеєю вказати версію на випадок, якщо в майбутніх оновленнях будуть якісь незмінні зміни.

Тоді слід об'ємно прив'язати дві папки. / etc / nginx - це місце, де зберігаються всі ваші файли конфігурації, а / etc / ssl / private - це місце, де зберігаються ваші SSL-сертифікати. ДУЖЕ важливо, щоб ваша папка конфігурації НЕ існувала на вашому хості під час першого запуску контейнера. Коли ви запускаєте контейнер за допомогою docker-compose, він автоматично створить папку та заповнить її вмістом контейнера. Якщо ви створили порожню конфігураційну папку на хості, вона змонтує це, а папка всередині контейнера буде порожньою.

Чому це працює

У цій частині не так багато. Здебільшого це як запуск будь-якого іншого контейнера з docker-compose. Тут слід зауважити, що ви прив’язуєте порти 80 та 443. Тут будуть надходити всі запити, і вони будуть пересилатися до будь-якої служби, яку ви визначите.

Налаштування Nginx

Що робити

Тепер у вас на хості повинна бути конфігураційна папка. Перейшовши до цього каталогу, ви побачите купу різних файлів і папку з назвою conf.d. Всередині conf.dбудуть розміщені всі ваші конфігураційні файли. Зараз є один default.confфайл, який можна видалити.

Все ще всередині conf.dстворіть дві папки: sites-availableі sites-enabled. Перейдіть sites-availableі створіть свій перший файл конфігурації. Тут ми збираємося налаштувати запис для Plex, але сміливо користуйтеся іншою послугою, яку ви налаштували, якщо хочете. Насправді не має значення, як називається файл, проте я волію називати його як plex.conf.

Тепер відкрийте файл і введіть наступне:

upstream plex { server plex:32400; } server { listen 80; server_name plex.example.com; location / { proxy_pass //plex; } }

Зайдіть в sites-enabledкаталог і введіть таку команду:

ln -s ../sites-available/plex.conf .

Це створить символічне посилання на файл в іншій папці. Тепер залишилось лише одне, і це змінити nginx.confфайл у папці конфігурації. Якщо ви відкриваєте файл, останнім рядком ви побачите наступне:

include /etc/nginx/conf.d/*.conf;

Змініть це на:

include /etc/nginx/conf.d/sites-enabled/*.conf;

In order to get the reverse proxy to actually work, we need to reload the nginx service inside the container. From the host, run docker exec nginx -t. This will run a syntax checker against your configuration files. This should output that the syntax is ok. Now run docker exec nginx -s reload. This will send a signal to the nginx process that it should reload, and congratulations! You now have a running reverse proxy, and should be able to access your server at plex.example.com (assuming that you have forwarded port 80 to your host in your router).

Even though your reverse proxy is working, you are running on HTTP, which provides no encryption whatsoever. The next part will be how to secure your proxy, and get a perfect score on SSL Labs.

Why it Works

The Configuration File

As you can see, the plex.conf file consists of two parts. An upstream part and a server part. Let’s start with the server part. This is where you are defining the port receiving the incoming requests, what domain this configuration should match, and where it should be sent to.

The way this server is being set up, you should make a file for each service that you want to proxy requests to, so obviously you need some way to distinguish which file to receive each request. This is what the server-name directive does. Below that we have the location directive.

In our case we only need one location, however you can have as many location directives as you want. Imagine you have a website with a frontend and a backend. Depending on the infrastructure you’re using, you’ll have the frontend as one container and the backend as another container. You could then have location / {} which will send requests to the frontend, and location /api/ {} which will send requests to the backend. Suddenly you have multiple services running on a single memorable domain.

As for the upstream part, that can be used for load-balancing. If you’re interested in learning more about how that works, you can look at the official docs here. For our simple case, you just define the hostname or ip address of the service you want to proxy to, and what port is should be proxied to, and then refer to the upstream name in the location directive.

Hostname Vs. IP Address

To understand what a hostname is, let’s make an example. Say you are on your home network 192.168.1.0. You then set up a server on 192.168.1.10 and run Plex on it. You can now access Plex on 192.168.1.10:32400, as long as you are still on the same network. Another possibility is to give the server a hostname. In this case we’ll give it the hostname plex. Now you can access Plex by entering plex:32400 in your browser!

This same concept was introduced to docker-compose in version 3. If you look at the docker-compose file earlier in this article, you’ll notice that I gave it a hostname: reverse directive. Now all other containers can access my reverse proxy by its hostname. One thing that’s very important to note, is that the service name has to be the same as the hostname. This is something that the creators of docker-compose chose to impose.

Another really important thing to remember, is that by default docker containers are put on their own network. This means that you won’t be able to access your container by it’s hostname, if you’re sitting on your laptop on your host network. It is only the containers that are able to access each other through their hostname.

So to sum it up and make it really clear. In your docker-compose file, add the hostname directive to your services. Most of the time your containers will get a new IP every time you restart the container, so referring to it via hostname, means it doesn’t matter what IP your container is getting.

Sites-available & Sites-enabled

Why are we creating the sites-available and sites-enabled directories? This is not something of my creation. If you install Nginx on a server, you will see that it comes with these folders. However because Docker is built with microservices in mind, where one container should only ever do one thing, these folders are omitted in the container. We’re recreating them again, because of how we’re using the container.

And yes, you could definitely just make a sites-enabled folder, or directly host your configuration files in conf.d. Doing it this way, enables you to have passive configuration laying around. Say that you are doing maintenance, and don’t want to have the service active; you simply remove the symbolic link, and put it back when you want the service active again.

Symbolic Links

Symbolic links are a very powerful feature of the operating system. I had personally never used them before setting up an Nginx server, but since then I’ve been using them everywhere I can. Say you are working on 5 different projects, but all these projects use the same file in some way. You can either copy the file into every project, and refer to it directly, or you can place the file in one place, and in those 5 projects make symlinks to that file.

This gives two advantages: you take up 4 times less space than you otherwise would have, and then the most powerful of them all; change the file in one place, and it changes in all 5 projects at once! This was a bit of a sidestep, but I think it’s worth mentioning.

Securing Nginx Proxy

What to Do

Go to your config folder, and create 3 files and fill them with the following input:

common.conf:

add_header Strict-Transport-Security "max-age=31536000; includeSubDomains" always; add_header X-Frame-Options SAMEORIGIN; add_header X-Content-Type-Options nosniff; add_header X-XSS-Protection "1; mode=block";

common_location.conf:

proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header X-Forwarded-Proto $scheme; proxy_set_header Host $host; proxy_set_header X-Forwarded-Host $host; proxy_set_header X-Forwarded-Port $server_port;

ssl.conf:

ssl_protocols TLSv1 TLSv1.1 TLSv1.2; ssl_ecdh_curve secp384r1; ssl_ciphers "ECDHE-RSA-AES256-GCM-SHA512:DHE-RSA-AES256-GCM-SHA512:ECDHE-RSA-AES256-GCM-SHA384:DHE-RSA-AES256-GCM-SHA384:ECDHE-RSA-AES256-SHA384 OLD_TLS_ECDHE_ECDSA_WITH_CHACHA20_POLY1305_SHA256 OLD_TLS_ECDHE_RSA_WITH_CHACHA20_POLY1305_SHA256"; ssl_prefer_server_ciphers on; ssl_dhparam /etc/nginx/dhparams.pem; ssl_certificate /etc/ssl/private/fullchain.pem; ssl_certificate_key /etc/ssl/private/privkey.pem; ssl_session_timeout 10m; ssl_session_cache shared:SSL:10m; ssl_session_tickets off; ssl_stapling on; ssl_stapling_verify on;

Now open the plex.conf file, and change it to the following (notice lines 6, 9, 10 & 14):

upstream plex { server plex:32400; } server { listen 443 ssl; server_name plex.example.com; include common.conf; include /etc/nginx/ssl.conf; location / { proxy_pass //plex; include common_location.conf; } }

Now go back to the root of your config folder, and run the following command:

openssl dhparam -out dhparams.pem 4096

This will take a long time to complete, even up to an hour in some cases.

If you followed my article on getting a LetsEncrypt SSL Certificate, your certificates should be located in /etc/letsencrypt/live// .

When I helped a friend set this up on his system, we ran into some problems where it couldn’t open the files when they were located in that directory. Most likely the cause of some permissions problems. The easy solution to this is to make an SSL directory, like /certs, and then mount that to the Nginx container’s /etc/ssl/private folder. In the newly created folder, you should then make symbolic links, to the certs in your LetsEncrypt’s config folder.

When the openssl command is done running, you should run the docker exec nginx -t to make sure that all the syntax is correct, and then reload it by running docker exec nginx -s reload. At this point everything should be running, and you now have a working and perfectly secure reverse proxy!

Why it Works

Looking in the plex.conf file, there is only one major change, and that is what port the reverse proxy is listening on, and telling it that it’s an ssl connection. Then there are 3 places where we’re including the 3 other files we made. While SSL is kind of secure by itself, these other files make it even more secure. However if for some reason you don’t want to include these files, you need to move the ssl-certificate and ssl-certificate-keyinside the .conf file. These are required to have, in order for an HTTPS connection to work.

Common.conf

Looking in the common.conf file, we add 4 different headers. Headers are something that the server sends to the browser on every response. These headers tell the browser to act a certain way, and it is then up to the browser to enforce these headers.

Strict-Transport-Security (HSTS)

This header tells the browser that connections should be made over HTTPS. When this header has been added, the browser won’t let you make plain HTTP connection to the server, ensuring that all communication is secure.

X-Frame-Options

When specifying this header, you are specifying whether or not other sites can embed your content into their sites. This can help avoid clickjacking attacks.

X-Content-Type-Options

Say you have a site where users can upload files. There’s not enough validation on the files, so a user successfully uploads a php file to the server, where the server is expecting an image to be uploaded. The attacker may then be able to access the uploaded file. Now the server responds with an image, however the file’s MIME-type is text/plain. The browser will ‘sniff’ the file, and then render the php script, allowing the attacker to do RCE (Remote Code Execution).

With this header set to ‘nosniff’, the browser will not look at the file, and simply render it as whatever the server tells the browser that it is.

X-XSS-Protection

While this header was more necessary in older browsers, it’s so easy to add that you might as well. Some XSS (Cross-site Scripting) attacks can be very intelligent, while some are very rudimentary. This header will tell browsers to scan for the simple vulnerabilities and block them.

Common_location.conf

X-Real-IP

Because your servers are behind a reverse proxy, if you try to look at the requesting IP, you will always see the IP of the reverse proxy. This header is added so you can see which IP is actually requesting your service.

X-Forwarded-For

Sometimes a users request will go through multiple clients before it reaches your server. This header includes an array of all those clients.

X-Forwarded-Proto

This header will show what protocol is being used between client and server.

Host

This ensures that it’s possible to do a reverse DNS lookup on the domain name. It’s used when the server_name directive is different than what you are proxying to.

X-Forwarded-Host

Shows what the real host of the request is instead of the reverse proxy.

X-Forwarded-Port

Helps identify what port the client requested the server on.

Ssl.conf

SSL is a huge topic in and of itself, and too big to start explaining in this article. There are many great tutorials out there on how SSL handshakes work, and so on. If you want to look into this specific file, I suggest looking at the protocols and ciphers being used, and what difference they make.

Redirecting HTTP to HTTPS

The observant ones have maybe noticed that we are only ever listening on port 443 in this secure version. This would mean that anyone trying to access the site via //* would get through, but trying to connect through //* would just get an error. Luckily there’s a really easy fix to this. Make a redirect.conf file with the following contents:

server { listen 80; server_name _; return 301 //$host$request_uri; }

Now just make sure that it appears in your sites-enabled folder, and when you’ve reloaded the Nginx process in the container, all requests to port 80 will be redirected to port 443 (HTTPS).

Final Thoughts

Now that your site is up and running, you can head over to SSL Labs and run a test to see how secure your site is. At the time of writing this, you should get a perfect score. However there is a big thing to notice about that.

There will always be a balance between security and convenience. In this case the weights are heavily on the side of security. If you run the test on SSL Labs and scroll down, you will see there are multiple devices that won’t be able to connect with your site, because they don’t support new standards.

So have this in mind when you are setting this up. Right now I am just running a server at home, where I don’t have to worry about that many people being able to access it. But if you do a scan on Facebook, you’ll see they won’t have as great a score, however their site can be accessed by more devices.