目次
Math
Analysis
Experiment
Simulations

ロジスティック回帰

ロジスティック回帰は,目的変数がカテゴリカルであったり比率 (0,1) で合ったりする場合に用いる代表的な回帰手法です.線形回帰が適用できない (望ましくない) ようなデータに対して利用可能です.筆者が学部生の最初の頃あたりでは,これが出来れば世間的には「データ解析に強い AI エンジニア」を名乗れていたような記憶があります.

▶︎
all
running...

変数の尺度とダミー変数

データ分析において用いるデータは,必ずしも数量として意味をもつ連続的なものではありません.統計学の初歩に戻ってみると,Stevens, S.S. による尺度水準の4分類がありました.

スティーブンスの尺度水準

ロジスティック回帰はこのうち,名義尺度や順序尺度に対して回帰分析を行いたい時に用いるものです.ただ一般に,単にロジスティック回帰といった場合は名義尺度,つまりカテゴリカルデータの分析に用いるものを指すことが多いです.

では,何故名義尺度や順序尺度には線形回帰ではなく,ロジスティック回帰を使うのでしょうか.まだロジスティック回帰がどんな回帰をするものなのかは分かりませんが,とりあえず例を見てみます.

ロジスティック回帰の例

下の図は,1日に吸うたばこの本数によって発がん率 (True or False) に影響があるかをplotした仮想図です.癌の有無は,2値データとしてしか観測できませんので,1と0というダミー変数によって表しています.

Pythonコード
# データの定義
x = np.array([3, 7, 2, 6, 6, 10, 14, 19, 22, 25,26,27,29, 30]).reshape(-1, 1)
y = np.array([0, 0, 0, 0, 0, 0, 1, 0, 1, 1, 1,1,1,1])

# 線形単回帰モデル
lin_reg = LinearRegression()
lin_reg.fit(x, y)
y_pred_lin = lin_reg.predict(x)

# ロジスティック回帰モデル
log_reg = LogisticRegression()
log_reg.fit(x, y)
x_test = np.linspace(0, 35, 300).reshape(-1, 1)
y_pred_log = log_reg.predict_proba(x_test)[:, 1]

# プロット
plt.figure(figsize=(10, 6))

# 元データのプロット
plt.scatter(x, y, color='black', zorder=5)

# 線形回帰のプロット
plt.plot(x, y_pred_lin, label='Linear Regression', color='blue')

# ロジスティック回帰のプロット
plt.plot(x_test, y_pred_log, label='Logistic Regression', color='red')

# 設定
plt.xlabel('Cigarettes per a day')
plt.ylabel('Cancer')
plt.title('Comparison of Linear and Logistic Regression for categorical data')
plt.legend()
plt.grid(True)

plt.savefig('../figures/logistic1.png')

まず,青の線形回帰モデルより,ロジスティック回帰モデルの方がよく合っていそうではあると思います.

しかし重要なのは,回帰の端のあたりの挙動です.線形回帰は,(0,1)の範囲を飛び出ていることが分かるでしょうか.つまり,こいつに予測をさせると「喫煙本数が27本を超えると,発がん率は100%を超える」や「毎日マイナス本のたばこを吸うと,癌率もマイナスになる」等の意味の分からない予言が出てしまいます.

この問題こそが,名義尺度や順序尺度に線形回帰が使えない理由です.対するロジスティック回帰は,(0,1) の間に収まった関数形をしています.これなら,発がん率が120%なんてことにはなりません.

とりあえず,最低限はここまで理解すればロジスティック回帰の目的はOKです.

ロジスティック回帰モデル

では,実際にロジスティック回帰を扱うための関数やモデルの導出を行っていきます.

まず,線形回帰の問題点はダミーである目的変数 (y) の値が (0,1) を飛び出してしまうことにありました.それ以外の部分では,先ほどの図をよく見ればたとえば中心 (y=0.5) が一緒だったりするのが分かると思います.

ということで,線形回帰の線を両端で0,1に漸近するような形にゆがめてあげたい気持ちが芽生えます.そこで,(,)(-\infty, \infty) の値を取る変数を (0,1)(0,1) の範囲に収まるよう変換するシグモイド関数あるいはロジスティック関数

f(y)=11+exp(y)\begin{align} f(y) = \frac{1}{1+\exp(-y)} \end{align}

を使って回帰線を変換してしまうことを考えます.こうすることで,予測値が[0,1]の範囲に収まります.

これが ロジスティック回帰という名前の由来です.目的変数をロジスティック変換して,それに回帰をしているからです.

ということで,線形回帰の yi=βxiy_i = \bm{\beta}^\top\bm{x_i} をロジスティック変換

f(y)=11+exp(y)f(y) = \frac{1}{1+\exp(-y)}

した y=piy' = p_i という新たな変数を考えます.pp にしているのは確率からです.y=1y=1 である確率はどれほどか,といったモデルを考えます.

すると yi=βxiy_i = \bm{\beta}^\top\bm{x_i} より

pi=11+exp(βxi),0<pi<1,<xi<\begin{align} p_i = \frac{1}{1+\exp(-\bm{\beta}^\top\bm{x_i})}, \quad 0 < p_i < 1, \quad -\infty < \bm{x_i} < \infty \end{align}

となります.これがロジスティック (回帰) モデルです.さらに,これをβxi\bm{\beta}^\top\bm{x_i}について解くと...

解法 まず,

pi=11+exp(βxi)=exp(βxi)1+exp(βxi)\begin{align} p_i = \frac{1}{1+\exp(-\bm{\beta}^\top\bm{x_i})} = \frac{\exp (\bm{\beta^\top x_i})}{1 + \exp (\bm{\beta^\top x_i})} \end{align}

とし,

1pi=1+exp(βxi)exp(βxi)1+exp(βxi)=11+exp(βxi)\begin{align} 1 - p_i = \frac{1 + \exp (\bm{\beta^\top x_i}) - \exp (\bm{\beta^\top x_i})}{1 + \exp (\bm{\beta^\top x_i})} = \frac{1}{1 + \exp (\bm{\beta^\top x_i})} \end{align}

も同様に出しておきます.

ここで式6,7の比を取ると

pi1pi=exp(βxi)(1+exp(βxi))1+exp(βxi)=exp(βxi)\begin{align} \frac{p_i}{1-p_i} = \frac{\exp (\bm{\beta^\top x_i})(1+\exp (\bm{\beta^\top x_i}))}{1+\exp (\bm{\beta^\top x_i})} = \exp (\bm{\beta^\top x_i}) \end{align}

と,exp(βxi)\exp (\bm{\beta^\top x_i}) であることがわかります.よって両辺の対数を取ると

logpi1pi=βxi\begin{align} \log \frac{p_i}{1-p_i} = \bm{\beta^\top x_i} \end{align}

が得られます.これはx\bm{x}の線形式の形で書かれた ロジスティック (回帰) モデル の別表現です.この変換は特に,ロジット変換といいます.あとはこれを,得られた x\bm{x} のもとで最適化する β\bm{\beta} を見つけていけばよいということになります.

パラメータの推定

では,あとは回帰の問題を考えていきます.線形回帰 の時にはモデルの式が出たら解法として最小二乗法と最尤法がありました.あとで確認しますが,ロジスティック回帰モデルでは最小二乗法を用いることが出来ません.従ってここでは,最尤法を適用することを考えます.

最尤法

最尤法では,まず問題に適した対数尤度関数を考えます.

問題設定によってちょっと式が変わってくるので,とりあえず先ほどのたばこの例のように,目的変数が2値変数

yi={0(癌ではない)1()y_i = \begin{cases} 0 (癌ではない)\\ 1 (癌) \end{cases}

である場合を考えます.この場合,癌である確率 PPp(y=1x)p(y=1|x) とし,nn 人のデータが独立である (p(yi=1xi)=pip(y_i=1|x_i)=p_i) と考えると yiy_i の従う分布はベルヌーイ分布 B(1,pi)B(1,p_i) に従うため,尤度 LL

L=i=1nf(yi;pi)=i=1npiyi(1pi)1yi\begin{align} L = \prod_{i=1}^n f(y_i;p_i)= \prod_{i=1}^n p_i^{y_i}(1-p_i)^{1-y_i} \end{align}

となります.例によって積は嫌なので対数を取ると

log(L)=log(i=1npiyi(1pi)1yi)=i=1n{yilogpi+(1yi)log(1pi)}\begin{align} \log(L)= \log(\prod_{i=1}^n p_i^{y_i}(1-p_i)^{1-y_i})\\ = \sum_{i=1}^n \{y_i \log p_i + (1-y_i) \log(1-p_i) \} \end{align}

と対数尤度関数が求まります.

ここで,確率pip_iについては

pi=11+exp(βxi)\begin{align} p_i = \frac{1}{1+\exp(-\bm{\beta}^\top\bm{x_i})} \end{align}

でした.
これを先程の対数尤度関数

log(L)=i=1n{yilogpi+(1yi)log(1pi)}\begin{align} \log(L)= \sum_{i=1}^n \{y_i \log p_i + (1-y_i) \log(1-p_i) \} \nonumber \end{align}
に代入すると

解法

まず,
log(L)=i=1n{yilogpi+(1yi)log(1pi)}\begin{align} \log(L)= \sum_{i=1}^n \{y_i \log p_i + (1-y_i) \log(1-p_i) \} \end{align}
logpi,log(1pi)\log p_i, \log (1-p_i) をそれぞれ

logpi=log(exp(βxi)1+exp(βxi))=βxilog(1+βxi)log(1pi)=log(11+βxi)=log(1+exp(βxi))\begin{align} \log p_i = \log(\frac{\exp (\bm{\beta^\top x_i})}{1 + \exp (\bm{\beta^\top x_i})})=\bm{\beta^\top x_i}-\log(1+\bm{\beta^\top x_i})\\ \log(1-p_i) = \log(\frac{1}{1+\bm{\beta^\top x_i}})=-\log(1+\exp(\bm{\beta^\top x_i})) \end{align}

と表します.すると

log(L)=i=1n{yilogpi+(1yi)log(1pi)}=i=1n{yiβxiyilog(1+βxi)log(1+βxi)+yilog(1+βxi)}\begin{align} \log(L) &= \sum_{i=1}^n \{y_i \log p_i + (1-y_i) \log(1-p_i) \}\\ &=\sum_{i=1}^n \{y_i \bm{\beta^\top x_i} - y_i \log (1+\bm{\beta^\top x_i}) \nonumber \\ &-\log (1+\bm{\beta^\top x_i}) + y_i\log (1+\bm{\beta^\top x_i}) \} \end{align}

となります.これを整理すると

log(L)=i=1n{yiβxilog(1+exp(βxi))}\begin{align} \log(L) = \sum_{i=1}^n \{y_i \bm{\beta^\top x_i} -\log(1+\exp (\bm{\beta^\top x_i})) \} \end{align}

が得られます.これが,ロジスティック回帰で解く尤度方程式です.

線形回帰の場合,尤度方程式を解析的に解くことが可能で,それにより最尤推定量を得ることができます.しかし,残念なことにロジスティック回帰モデルの場合,これは難しいです.

解析的に解くことが出来ないため,数値計算を利用して近似的に求める必要があります.一般的には,ニュートン-ラフソン法等が用いられるそうです.

筆者の勉強が十分でないので,アルゴリズムの詳細はまた後日とします.とにかく,近似的に用いる方法があるようです.

最小二乗法

では,最小二乗法が何故使えないのかです.色々あるのですが,まず一番大きいのは

「誤差がうまく定義できない」

ということにあります.ロジスティック回帰でいま考えているような問題は, yi=0,1y_i =0,1 とかです.これが正規分布に従うことはありません.線形回帰の際には誤差について

ϵ1,...,ϵni.i.d.E(ϵi)=0V(ϵi)=σ2\begin{align} \epsilon_1,...,\epsilon_n \quad \text{i.i.d.}\\ E(\epsilon_i)=0\\ V(\epsilon_i)=\sigma^2 \end{align}

という仮定をおいていました.今回はこれが成り立たないわけですね.従う分布はベルヌーイ分布になってしまいます.また,シグモイド関数がもつ非線形性に対して,最小二乗法が不適切というのもあるそうです.

ロジスティック回帰モデルによる判別

AIっぽくなってきました.ロジスティック回帰では,

のようにロジスティック関数によって歪んだ回帰を行うことで,2値分類のようなタスクにも扱えるようにするのを目的としていました.

では,今あるデータだけでなく未来に得られるデータについてそのカテゴリを判別する課題を考えていきます.モデルの応用的利用ですね.

普通の線形回帰の場合,与えられる予言の取り得る値は xxの値によって変わるので,無限にありました.しかしこのロジスティック回帰の場合,元々がカテゴリカルな判別を目的としています (比率の場合もある.その場合は線形回帰と同じように考えてよい).

そのため,モデルの推定によって

pi=P(yi=1xi)p_i = P(y_i =1|\bm{x_i})

の推定値 pi^\hat{p_i} が得られたとします.この値は(0,1)の範囲に収まります.目的変数は2値なので,適当なところで閾値 TT を定めて

yi^={1,pi^T0,pi^T\begin{align} \hat{y_i}= \begin{cases} 1, \hat{p_i} \geq T \\ 0, \hat{p_i} \leq T \end{cases} \end{align}

のように基準を設けます.これにより,観測値を2群に分類することが可能です.研究の場では,得られた生理指標や行動指標から疾患その他を判別するといった用途で使われます.

尚,この結果は真偽と陰陽の組み合わせで4パターン考えられます.それぞれTrue positive (TP), false negative (FN), false positive (FP), true negative (TN)です.

これらを用いて得られる

ACC=TP+TNTP+FN+FP+TN\begin{align} \text{ACC} = \frac{\text{TP} + \text{TN}}{\text{TP} + \text{FN} + \text{FP} + \text{TN}} \end{align}

は正解率 (Accuracy rate) と呼ばれる比率で,モデルの評価によく用いられます.

また同様に,

TPR=TPTP+FN\begin{align} \text{TPR} = \frac{\text{TP}}{\text{TP} + \text{FN}} \end{align}

FPR=FPFP+TN\begin{align} \text{FPR} = \frac{\text{FP}}{\text{FP} + \text{TN}} \end{align}

の2つはそれぞれTrue positive rate, False positive rateという値で,これらもよく用います.特にこれらは,後述するROC曲線を描く際に用います.

多群判別

これまで,2値分類の問題でのロジスティック回帰の用法を考えてきましたが,実際には3値以上での分類問題も当然考えられます.

その場合,ロジスティック回帰ではやや大変になってしまい,

などがあります.ただこれはあまり頭の良い方法ではないので,他に多項ロジスティック回帰やそのほかのモデルを使った判別法があります.

これらについてはまたいつか.

モデルの評価

モデル評価基準

ロジスティック回帰の場合でも,比率の推定や判別に寄与している説明変数の組み合わせ最適化には AICBIC を適用することができます.その場合,ロジスティック回帰モデルに基づく対数尤度関数

log(L)=i=1n{yiβxilog(1+exp(βxi))}\begin{align} \log(L) = \sum_{i=1}^n \{y_i \bm{\beta^\top x_i} -\log(1+\exp (\bm{\beta^\top x_i})) \} \end{align}

に,得られた推定値 β^\hat{\bm{\beta}}を代入して

AIC=2log(L(β^))+2(p+1)\begin{align} \text{AIC} = -2\log(L(\hat{\bm{\beta}})) + 2(p + 1) \end{align}

BIC=2log(L(β^))+(p+1)log(n)\begin{align} \text{BIC} = -2\log(L(\hat{\bm{\beta}})) + (p + 1)\log(n) \end{align}

と与えられます.

ROC曲線とAUC

上で確認したように,ロジスティック回帰モデルを使った判別結果は閾値 TT によって

yi^={1,pi^T0,pi^T\hat{y_i}= \begin{cases} 1, \hat{p_i} \geq T \\ 0, \hat{p_i} \leq T \end{cases}

と定められます.当然,TT の値次第で TPR や FPR の値は変わります.一般に,TPR が上がると FPR も上がる,トレードオフの関係が成り立っています.従って,良い判別モデルとは,閾値 T を変えていった時に, 最も TPRが大きく,FPRが小さい モデルであることになります.

この関係を図にしたのが ROC曲線およびAUC (area under the curve) です.

Python code
import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets import make_classification
from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import train_test_split
from sklearn.metrics import roc_curve, auc

# ランダムな2値分類データセットの生成
X, y = make_classification(n_samples=1000, n_features=2, n_informative=2, n_redundant=0, n_clusters_per_class=1, random_state=42)

# データをトレーニングセットとテストセットに分割
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)

# ロジスティック回帰モデルの作成とトレーニング
model = LogisticRegression()
model.fit(X_train, y_train)

# モデルの回帰線と決定境界をプロットするための設定
x_min, x_max = X[:, 0].min() - 1, X[:, 0].max() + 1
y_min, y_max = X[:, 1].min() - 1, X[:, 1].max() + 1
xx, yy = np.meshgrid(np.linspace(x_min, x_max, 500), np.linspace(y_min, y_max, 500))

# モデルによる決定境界
Z = model.predict_proba(np.c_[xx.ravel(), yy.ravel()])[:, 1]
Z = Z.reshape(xx.shape)

# 図のプロット
plt.figure(figsize=(8, 6))
plt.contourf(xx, yy, Z, levels=[0, 0.5, 1], cmap='RdBu', alpha=0.6)
plt.colorbar(label='Probability')
plt.scatter(X_train[:, 0], X_train[:, 1], c=y_train, cmap='winter', marker='x',edgecolors='k', alpha=0.8, label='Training data')
plt.scatter(X_test[:, 0], X_test[:, 1], c=y_test, cmap='winter', edgecolors='white', alpha=0.8, label='Test data')
plt.title('Logistic Regression Decision Boundary', fontsize=20)
plt.xlabel('Feature 1', fontsize=15)
plt.ylabel('Feature 2', fontsize=15)
plt.legend()
plt.grid(True)
plt.savefig('../figures/logistic2.png')
# テストデータに対する予測確率
y_scores = model.predict_proba(X_test)[:, 1]

# ROC曲線とAUCの計算
fpr, tpr, thresholds = roc_curve(y_test, y_scores)
roc_auc = auc(fpr, tpr)


plt.plot(fpr, tpr, color='darkorange', lw=2, label='ROC curve (area = %0.2f)' % roc_auc)
plt.plot([0, 1], [0, 1], color='navy', lw=2, linestyle='--')
plt.xlim([0.0, 1.0])
plt.ylim([0.0, 1.05])
plt.xlabel('False Positive Rate', fontsize=15)
plt.ylabel('True Positive Rate', fontsize=15)
plt.title('Receiver Operating Characteristic', fontsize=20)
plt.legend(loc="lower right", fontsize=15)
plt.grid(True)

plt.tight_layout()
plt.savefig('../figures/ROC.png')

AUC は ROC 曲線の下の面積です.この図だと 0.94 ですね.TPR が大きく FPR が小さい時に面積は大きくなるので,これはかなり良い例です.論文でもよく使われている指標です.

実用上,青線の TPR=FPR\text{TPR} = \text{FPR} となる破線に並行な直線をスライドさせ,ROC 曲線との接線を求めることで最適な閾値 T を選択することが可能です.