Apacheで複数バックエンドを管理する負荷分散設定方法【図解付き】

Apacheのリバースプロキシ機能を活用して、複数のバックエンドサーバーにトラフィックを分散させる方法は、システムの安定性と拡張性を向上させる重要な手段です。特に、負荷が集中するWebアプリケーションや、複数のサーバーで同一のサービスを提供している環境では、効率的な負荷分散が求められます。

Apacheは「mod_proxy」や「mod_proxy_balancer」といったモジュールを利用することで、リクエストを自動的に複数のサーバーに振り分けることができます。これにより、リソースを最適に活用し、障害発生時には自動的に別のサーバーに切り替えるフェイルオーバー機能も実現可能です。

本記事では、Apacheを用いた負荷分散の基本から、実際の設定例、バランシングアルゴリズムの選び方、SSLを使ったセキュアな通信方法まで、図解を交えて詳しく解説します。Apacheによる負荷分散の導入を検討している方や、より効率的なサーバー運用を目指している方に役立つ内容となっています。

目次

Apache負荷分散の基本概念


Apacheは単なるWebサーバーとしてだけでなく、リバースプロキシとしても機能し、複数のバックエンドサーバーにリクエストを分散する役割を担います。これにより、システム全体の負荷を軽減し、高可用性とパフォーマンス向上を実現します。

リバースプロキシとは


リバースプロキシは、クライアントからのリクエストを受け取り、適切なバックエンドサーバーに転送する仕組みです。クライアントは直接バックエンドサーバーにアクセスすることなく、リバースプロキシが仲介する形でデータを取得します。これにより、以下の利点が得られます。

  • 負荷分散:複数のバックエンドサーバーにリクエストを分散し、特定のサーバーへの負荷集中を防ぐ。
  • セキュリティ向上:バックエンドサーバーのIPアドレスを隠蔽し、外部からの直接アクセスを防止。
  • キャッシュ機能:静的コンテンツをキャッシュし、バックエンドサーバーの負荷を軽減。

Apacheでの負荷分散の仕組み


Apacheで負荷分散を実現するには、「mod_proxy」モジュールと「mod_proxy_balancer」モジュールが必要です。これらのモジュールを利用することで、リクエストを動的に分配し、サーバーリソースを効率的に管理できます。

動作の流れ

  1. クライアントがApacheにリクエストを送信。
  2. Apacheがリクエストを解析し、適切なバックエンドサーバーに転送。
  3. バックエンドサーバーが処理を行い、結果をApacheに返却。
  4. Apacheがクライアントにレスポンスを返す。

負荷分散の応用例

  • Webアプリケーションの冗長化:複数のサーバーで同一アプリケーションを稼働させることで、サーバーダウン時もサービスを継続可能。
  • APIサーバーのスケールアウト:APIリクエストを複数のサーバーに分散し、高負荷に対応。

このように、Apacheの負荷分散は規模の大小を問わず、多様なシステムで有効に機能します。

必要なモジュールの確認とインストール方法


Apacheで負荷分散を行うためには、いくつかのモジュールを導入し、有効化する必要があります。特に重要なのが「mod_proxy」「mod_proxy_balancer」「mod_lbmethod_byrequests」などのモジュールです。これらはリクエストの振り分けや、バランシングのアルゴリズムを制御する役割を担います。

必要なモジュール一覧

  • mod_proxy:リバースプロキシの基本機能を提供
  • mod_proxy_balancer:複数のバックエンドサーバーにリクエストを分散する機能を提供
  • mod_proxy_http:HTTPプロトコルを使ってプロキシを動作させる
  • mod_lbmethod_byrequests:リクエスト数に応じたバランシングを行うモジュール

モジュールのインストール方法

CentOS/RHELの場合

sudo yum install httpd -y
sudo yum install mod_proxy mod_proxy_balancer mod_proxy_http

Ubuntu/Debianの場合

sudo apt update
sudo apt install apache2
sudo a2enmod proxy proxy_balancer proxy_http lbmethod_byrequests

モジュールの有効化と確認


インストール後、以下のコマンドでApacheがモジュールを正しく読み込んでいるか確認します。

apachectl -M | grep proxy


以下のような出力が表示されれば、モジュールは正しく有効化されています。

 proxy_module (shared)  
 proxy_balancer_module (shared)  
 proxy_http_module (shared)  
 lbmethod_byrequests_module (shared)  

Apacheの再起動


モジュールのインストールと有効化が完了したら、Apacheを再起動して設定を反映します。

sudo systemctl restart apache2  # Ubuntu/Debian  
sudo systemctl restart httpd    # CentOS/RHEL  

これで負荷分散の準備が整いました。次のステップでは、実際のバーチャルホストを用いた具体的な設定方法を解説します。

バーチャルホストの設定例


Apacheで複数のバックエンドサーバーにトラフィックを分散するには、バーチャルホストを設定し、「mod_proxy_balancer」を使用して負荷分散プールを構築します。以下に具体的な設定例を示します。

基本的なバーチャルホスト設定


以下の例は、3台のバックエンドサーバー(192.168.1.10, 192.168.1.11, 192.168.1.12)にリクエストを振り分けるバーチャルホストの設定です。

<VirtualHost *:80>
    ServerName www.example.com
    ProxyRequests Off
    ProxyPreserveHost On

    <Proxy balancer://mycluster>
        BalancerMember http://192.168.1.10:8080
        BalancerMember http://192.168.1.11:8080
        BalancerMember http://192.168.1.12:8080
    </Proxy>

    ProxyPass / balancer://mycluster/
    ProxyPassReverse / balancer://mycluster/

    <Location "/balancer-manager">
        SetHandler balancer-manager
        Require ip 192.168.1.0/24
    </Location>
</VirtualHost>

設定のポイント

  • ProxyRequests Off:フォワードプロキシを無効化し、リバースプロキシモードにします。
  • ProxyPreserveHost On:クライアントからのホストヘッダーを維持します。
  • BalancerMember:各バックエンドサーバーを指定します。ここでは3台のサーバーが含まれています。
  • ProxyPass/ProxyPassReverse:すべてのリクエストを「balancer://mycluster」に転送します。
  • balancer-manager:管理UIにアクセスするためのエンドポイントを「/balancer-manager」として用意します。

balancer-managerの活用


「balancer-manager」を使えば、ApacheのWebインターフェースから直接負荷分散の状態を確認し、各サーバーの状態を動的に変更できます。ブラウザから以下のURLにアクセスすることで、設定画面が表示されます。

http://www.example.com/balancer-manager

設定ファイルの保存とApacheの再起動


設定が完了したら、Apacheを再起動して反映させます。

sudo systemctl restart apache2  # Ubuntu/Debian  
sudo systemctl restart httpd    # CentOS/RHEL  

これでApacheが負荷分散の役割を担うようになります。次のセクションでは、バランシングアルゴリズムの種類と選定について解説します。

バランシングアルゴリズムの選定


Apacheで負荷分散を行う際、どのようにリクエストをバックエンドサーバーに振り分けるかは非常に重要です。適切なバランシングアルゴリズムを選択することで、パフォーマンスを最適化し、システムの安定性を向上させることができます。Apacheでは、いくつかのバランシングアルゴリズムが用意されており、「mod_lbmethod_」モジュールによって制御されます。

主要なバランシングアルゴリズムの種類

1. ラウンドロビン方式(byrequests)

  • 概要:リクエストを順番に各バックエンドサーバーへ振り分けます。
  • 特徴:シンプルで設定が容易。負荷が均等に分散されるため、小規模なシステムやリソースが均等な場合に適しています。
  • 適用例:負荷がほぼ同じ複数のアプリケーションサーバーが存在する場合。

設定例

ProxyPass / balancer://mycluster/ lbmethod=byrequests

2. 最小接続方式(bybusyness)

  • 概要:最も接続数が少ないバックエンドサーバーを優先してリクエストを振り分けます。
  • 特徴:サーバーの負荷状況に応じてリクエストが分散されるため、不均衡な負荷を回避できます。
  • 適用例:処理時間が長いリクエストが多いシステムや、サーバーごとにリソースが異なる場合に有効。

設定例

ProxyPass / balancer://mycluster/ lbmethod=bybusyness

3. 重み付けラウンドロビン方式(bytraffic)

  • 概要:各バックエンドサーバーに重み(weight)を設定し、より強力なサーバーに多くのリクエストを振り分けます。
  • 特徴:サーバーの性能差に応じて負荷を調整可能。
  • 適用例:バックエンドサーバーのスペックに差がある場合に最適です。

設定例

<Proxy balancer://mycluster>
    BalancerMember http://192.168.1.10:8080 loadfactor=2
    BalancerMember http://192.168.1.11:8080 loadfactor=1
</Proxy>
ProxyPass / balancer://mycluster/ lbmethod=bytraffic

4. ハッシュ方式(byrequests with stickysession)

  • 概要:セッション維持が必要な場合に利用されます。ユーザーごとに同じサーバーにリクエストを振り分けます。
  • 特徴:同一ユーザーのセッションが同じサーバーに割り当てられるため、状態管理が容易になります。
  • 適用例:ログイン状態を保持するWebアプリケーションなどに最適。

設定例

ProxyPass / balancer://mycluster/ stickysession=JSESSIONID|jsessionid

アルゴリズム選定のポイント

  • 処理が均等な場合:ラウンドロビン方式(byrequests)が最もシンプルで有効です。
  • 負荷に偏りがある場合:最小接続方式(bybusyness)を選択し、サーバーの負荷を考慮します。
  • サーバーの性能差がある場合:重み付け方式(bytraffic)で適切な負荷分散を実現します。
  • セッション維持が必要な場合:スティッキーセッションを活用して、同一ユーザーを同じサーバーに誘導します。

次のセクションでは、セッション維持の具体的な設定方法について解説します。

セッション維持の設定方法


セッション維持(スティッキーセッション)は、ユーザーが同じバックエンドサーバーにリクエストを送り続けるための重要な設定です。特に、ログイン状態を維持する必要があるWebアプリケーションでは、リクエストが異なるサーバーに分散されるとセッションが失われる可能性があります。Apacheでは「stickysession」オプションを使用して、特定のセッションを同じバックエンドサーバーに紐づけることが可能です。

スティッキーセッションの仕組み


スティッキーセッションは、ユーザーのブラウザから送信されるセッションID(例:JSESSIONID)を元に、同じサーバーにリクエストを振り分ける方式です。Apacheの「mod_proxy_balancer」を使用することで簡単に設定できます。

設定例:スティッキーセッションの有効化

以下の例は、JSESSIONIDを使ってスティッキーセッションを実装する設定です。

<VirtualHost *:80>
    ServerName www.example.com
    ProxyRequests Off
    ProxyPreserveHost On

    <Proxy balancer://mycluster>
        BalancerMember http://192.168.1.10:8080 route=node1
        BalancerMember http://192.168.1.11:8080 route=node2
        BalancerMember http://192.168.1.12:8080 route=node3
        ProxySet stickysession=JSESSIONID|jsessionid
    </Proxy>

    ProxyPass / balancer://mycluster/
    ProxyPassReverse / balancer://mycluster/
</VirtualHost>

設定の解説

  • BalancerMember routeオプション
  • 各バックエンドサーバーに「route」パラメータを設定します。これにより、セッションIDが特定のサーバーに紐づけられます。
  • ProxySet stickysession
  • セッションID(JSESSIONIDまたはjsessionid)を元に負荷分散を行い、ユーザーのリクエストを同一サーバーに振り分けます。
  • ProxyPreserveHost On
  • クライアントが送信したホストヘッダーを維持します。これにより、バックエンドサーバーがリクエストを正しく処理できます。

テストと確認方法

  1. Apacheの設定を保存後、再起動します。
sudo systemctl restart apache2  # Ubuntu/Debian
sudo systemctl restart httpd    # CentOS/RHEL
  1. Webブラウザでサイトにアクセスし、開発者ツールでクッキー(JSESSIONID)が設定されていることを確認します。
  2. サーバーログを確認し、同じユーザーが同じバックエンドサーバーに振り分けられているか検証します。

スティッキーセッションが必要なケース

  • ECサイトや会員制サイト:ログイン状態の維持が必要なアプリケーション。
  • フォーム送信やウィザード形式のアプリ:途中でセッションが切れるとデータが失われる可能性があるシステム。
  • リアルタイムアプリケーション:同一サーバーでセッション情報を保持することで、スムーズな動作を確保。

注意点

  • スティッキーセッションはバックエンドサーバーに障害が発生した際、別のサーバーへの自動切り替えが難しくなるため、フェイルオーバー機能と併用する必要があります。
  • セッションのレプリケーション(セッション情報を複数のサーバー間で共有)を検討することで、さらに高い冗長性を実現できます。

次のセクションでは、SSL証明書を適用し、セキュアな通信環境を整える方法について解説します。

SSLとセキュリティ対策


負荷分散環境においても、安全な通信を確保することは不可欠です。ApacheでSSLを設定し、HTTPS通信を実現することで、クライアントとサーバー間のデータが暗号化されます。本セクションでは、SSL証明書の導入方法とセキュリティ強化のためのポイントについて解説します。

SSL証明書の取得と導入

1. Let’s Encryptを使用した無料のSSL証明書の取得


Let’s Encryptは無料でSSL証明書を発行するサービスです。Certbotを使用して簡単に証明書を取得・適用できます。

Certbotのインストール(Ubuntu/Debian)

sudo apt update
sudo apt install certbot python3-certbot-apache

Certbotのインストール(CentOS/RHEL)

sudo yum install epel-release
sudo yum install certbot python3-certbot-apache

SSL証明書の取得と適用

sudo certbot --apache -d www.example.com


証明書取得後、自動でApacheのSSL設定が追加されます。

2. 手動でのSSL証明書の導入


商用のSSL証明書を使用する場合は、以下の手順で証明書を導入します。

  1. CSR(証明書署名要求)を作成
sudo openssl req -new -key /etc/ssl/private/server.key -out /etc/ssl/certs/server.csr
  1. 認証局(CA)で証明書を発行
  2. 発行された証明書を以下のディレクトリに配置
/etc/ssl/certs/server.crt
/etc/ssl/certs/ca_bundle.crt

ApacheのSSL設定


以下は、SSLを適用したバーチャルホストの設定例です。

<VirtualHost *:443>
    ServerName www.example.com
    ProxyPreserveHost On
    SSLProxyEngine On

    <Proxy balancer://mycluster>
        BalancerMember https://192.168.1.10:8443 route=node1
        BalancerMember https://192.168.1.11:8443 route=node2
        BalancerMember https://192.168.1.12:8443 route=node3
        ProxySet stickysession=JSESSIONID|jsessionid
    </Proxy>

    SSLEngine on
    SSLCertificateFile /etc/ssl/certs/server.crt
    SSLCertificateKeyFile /etc/ssl/private/server.key
    SSLCertificateChainFile /etc/ssl/certs/ca_bundle.crt

    ProxyPass / balancer://mycluster/
    ProxyPassReverse / balancer://mycluster/
</VirtualHost>

セキュリティ強化のポイント

1. SSL/TLSの強化


古いTLSバージョンの無効化と強力な暗号化方式の指定が必要です。

SSLProtocol all -SSLv3 -TLSv1 -TLSv1.1
SSLCipherSuite HIGH:!aNULL:!MD5

2. HTTPからHTTPSへのリダイレクト


すべてのHTTPトラフィックをHTTPSにリダイレクトします。

<VirtualHost *:80>
    ServerName www.example.com
    RewriteEngine On
    RewriteCond %{HTTPS} !=on
    RewriteRule ^/?(.*) https://%{SERVER_NAME}/$1 [R=301,L]
</VirtualHost>

3. HSTS(HTTP Strict Transport Security)の導入


HTTPSのみを使用するようブラウザに指示します。

Header always set Strict-Transport-Security "max-age=31536000; includeSubDomains"

テストと検証


証明書の有効性を確認するために、以下のコマンドを使用します。

sudo apachectl configtest
sudo systemctl restart apache2  # Ubuntu/Debian
sudo systemctl restart httpd    # CentOS/RHEL


ブラウザからhttps://www.example.comにアクセスし、証明書が正しく適用されていることを確認します。

SSL導入の利点

  • データの暗号化:ユーザー情報や機密データを安全に送受信可能。
  • 信頼性の向上:ブラウザの「保護された通信」表示により、ユーザーの信頼性が高まります。
  • SEO効果:HTTPSサイトはSEOの観点からも有利です。

次のセクションでは、Apacheのログ解析とトラブルシューティングについて解説します。

ログとトラブルシューティング


Apacheの負荷分散環境では、リクエストの流れやエラーの発生状況を把握することが重要です。ログを適切に管理し、トラブルシューティングを迅速に行うことで、システムの安定性を保つことができます。本セクションでは、Apacheのログの活用方法と、負荷分散環境で発生しやすい問題への対処法について解説します。

Apacheの主要なログファイル

1. アクセスログ(access.log)


すべてのHTTPリクエストが記録されます。クライアントIPやリクエストされたURL、ステータスコードなどが含まれます。
パス例

/var/log/apache2/access.log  # Ubuntu/Debian  
/var/log/httpd/access_log    # CentOS/RHEL  


確認コマンド

tail -f /var/log/apache2/access.log

2. エラーログ(error.log)


Apacheの起動エラーやモジュールの問題、リクエスト処理中に発生したエラーが記録されます。
パス例

/var/log/apache2/error.log  # Ubuntu/Debian  
/var/log/httpd/error_log    # CentOS/RHEL  


確認コマンド

tail -f /var/log/apache2/error.log

3. バランサーログ(custom log設定)


負荷分散の状態を記録するために、カスタムログを設定することができます。
設定例

LogFormat "%h %l %u %t \"%r\" %>s %b %{BALANCER_WORKER_ROUTE}e" balancer
CustomLog /var/log/apache2/balancer.log balancer

トラブルシューティングのポイント

1. バックエンドサーバーへの接続エラー


症状:503 Service Unavailableが頻発する。
原因

  • バックエンドサーバーが停止している。
  • ProxyPassの設定ミス。
  • ファイアウォールでバックエンドへの通信がブロックされている。

対応方法

  • バックエンドサーバーが稼働しているか確認
systemctl status httpd
  • Apacheの設定ファイルを再確認
apachectl configtest

2. リクエストが特定のサーバーに偏る


原因:スティッキーセッションの設定ミスやバランサーメンバーの優先度が高すぎる。
対応方法

  • stickysessionが正しく設定されているか確認
ProxySet stickysession=JSESSIONID|jsessionid
  • balancer-managerで動作状況を確認し、負荷の分散状況を監視

3. balancer-managerにアクセスできない


原因:アクセス制限が厳しく設定されている。
対応方法

  • balancer-managerのLocation設定を見直す
<Location "/balancer-manager">
    SetHandler balancer-manager
    Require ip 192.168.1.0/24
</Location>

ログの解析と自動化


Apacheのログを効率的に解析するために、logrotateやGoAccessなどのツールを活用します。

logrotateによるログの自動ローテーション


長期間のログ蓄積を防ぐため、logrotateでログの自動ローテーションを設定します。

設定例

/etc/logrotate.d/apache2
/var/log/apache2/*.log {
    weekly
    rotate 4
    compress
    missingok
    notifempty
    create 640 root adm
    sharedscripts
    postrotate
        systemctl reload apache2 > /dev/null
    endscript
}

GoAccessでリアルタイム解析

sudo apt install goaccess  # Ubuntu/Debian
sudo yum install goaccess  # CentOS/RHEL
goaccess /var/log/apache2/access.log --log-format=COMBINED

これで、Apacheのログをリアルタイムで解析し、負荷の分布やエラー状況を視覚化できます。

まとめ


ログの適切な管理とトラブルシューティングの実施により、Apacheの負荷分散環境を安定して運用できます。次のセクションでは、複数サーバーの具体的な構成例について解説します。

実践例:複数サーバーの具体的構成


ここでは、Apacheを使用して3台のバックエンドサーバーに負荷分散を行う具体的な構成例を紹介します。この構成では、各サーバーにHTTPおよびHTTPSトラフィックを振り分け、スティッキーセッションを活用してユーザーセッションを維持します。

サーバー構成の概要

  • フロントエンド:Apacheリバースプロキシサーバー(192.168.1.1)
  • バックエンドサーバー:3台のアプリケーションサーバー
  • node1:192.168.1.10(ポート8080)
  • node2:192.168.1.11(ポート8080)
  • node3:192.168.1.12(ポート8080)

Apacheの設定例


以下の設定は、バーチャルホストを使用して3台のバックエンドサーバーにリクエストを分散する例です。HTTPSを有効にし、セッション維持のためにスティッキーセッションを設定しています。

<VirtualHost *:80>
    ServerName www.example.com
    RewriteEngine On
    RewriteCond %{HTTPS} !=on
    RewriteRule ^/?(.*) https://%{SERVER_NAME}/$1 [R=301,L]
</VirtualHost>

<VirtualHost *:443>
    ServerName www.example.com
    ProxyPreserveHost On
    SSLProxyEngine On
    SSLEngine on
    SSLCertificateFile /etc/ssl/certs/server.crt
    SSLCertificateKeyFile /etc/ssl/private/server.key
    SSLCertificateChainFile /etc/ssl/certs/ca_bundle.crt

    <Proxy balancer://mycluster>
        BalancerMember http://192.168.1.10:8080 route=node1
        BalancerMember http://192.168.1.11:8080 route=node2
        BalancerMember http://192.168.1.12:8080 route=node3
        ProxySet stickysession=JSESSIONID|jsessionid
    </Proxy>

    ProxyPass / balancer://mycluster/
    ProxyPassReverse / balancer://mycluster/

    <Location "/balancer-manager">
        SetHandler balancer-manager
        Require ip 192.168.1.0/24
    </Location>
</VirtualHost>

設定のポイント

  • セッション維持の設定
  • ProxySet stickysession=JSESSIONID|jsessionidにより、JSESSIONIDを使用して同じサーバーにユーザーを振り分けます。
  • リダイレクト設定
  • HTTPリクエストをHTTPSへ自動的にリダイレクトする設定を記述しています。
  • balancer-managerの活用
  • /balancer-managerにアクセスすることで、動作中の負荷分散状態をリアルタイムで監視・調整可能です。

バックエンドサーバーの設定


各バックエンドサーバーでは、TomcatやNode.jsなど、アプリケーションが動作する環境が整っていることを前提とします。ポート8080でアプリケーションが待ち受けるよう設定します。

sudo systemctl start tomcat
sudo systemctl enable tomcat

動作確認

  1. Apacheの設定を確認
apachectl configtest


エラーがなければ、Apacheを再起動して設定を反映させます。

sudo systemctl restart apache2  # Ubuntu/Debian  
sudo systemctl restart httpd    # CentOS/RHEL  
  1. ブラウザでhttps://www.example.comにアクセスし、正しく負荷分散が行われていることを確認します。
  2. balancer-managerでサーバーの状態を確認
https://www.example.com/balancer-manager


各サーバーの負荷状況が表示され、動的にサーバーを有効・無効化できます。

動作例

  • ユーザーAはnode1に接続し、そのセッションはnode1に固定される。
  • ユーザーBはnode2に接続し、別のサーバーに負荷を分散。
  • node3がダウンした場合、node1とnode2に自動的にリクエストが振り分けられる。

フェイルオーバー対策

  • BalancerMemberに「status=+H」を付与すると、特定のサーバーをスタンバイ状態にできます。障害発生時のみ稼働するサーバーを設定することで、システムの耐障害性を高めます。
BalancerMember http://192.168.1.13:8080 status=+H

まとめ


この構成例を参考にすることで、複数のバックエンドサーバーを効率的に管理し、セッション維持やSSLを活用した安全な負荷分散環境を構築できます。次のセクションでは、これまでの内容をまとめます。

まとめ


本記事では、Apacheを使用して複数のバックエンドサーバーに負荷分散を行う方法について、基本概念から具体的な設定例までを詳しく解説しました。

Apacheの「mod_proxy」や「mod_proxy_balancer」を利用することで、リバースプロキシとしての役割を果たし、負荷を複数のサーバーに分散させることが可能です。さらに、スティッキーセッションの設定により、ユーザーごとのセッション維持が実現でき、セキュアなSSL環境を構築することで、より安全な通信が確保されます。

また、トラブルシューティングやログ解析を通じてシステムの安定性を維持し、balancer-managerを活用してリアルタイムで負荷分散の状況を監視することも重要です。

今回の設定例を参考にしながら、システムの要件に応じた柔軟な負荷分散環境を構築し、パフォーマンスの向上と障害耐性の強化を実現してください。

コメント

コメントする

目次