ロジスティック回帰は、2値分類のためのモデルです。入力特徴量を線形スコアにまとめ、そのスコアをシグモイド関数に通して、00 から 11 の間の値を出力します。この値は、学習済みモデルのもとで正例クラスの推定確率として解釈されます。

名前に「回帰」とありますが、ロジスティック回帰は通常、合格/不合格、スパム/非スパム、延滞/非延滞のような2つのクラスを判定するために使われます。「回帰」という言葉は、連続値を予測するという意味ではなく、モデル内部の線形な式を指しています。

ロジスティック回帰の式をひと目で確認

2値ロジスティック回帰では、次を使います。

p(y=1x)=σ(z),z=β0+β1x1++βnxnp(y=1 \mid x) = \sigma(z), \qquad z = \beta_0 + \beta_1 x_1 + \cdots + \beta_n x_n

シグモイド関数は

σ(z)=11+ez\sigma(z) = \frac{1}{1 + e^{-z}}

です。線形部分 zz は任意の実数を取れます。シグモイド関数はその値を (0,1)(0,1) に押し込むので、出力を確率の推定値として使えます。

シグモイド関数が重要な理由

生の線形スコア zz をそのまま確率として使うと、1.71.70.4-0.4 のようなありえない値が出てしまいます。シグモイド関数はそれを修正し、大きく負のスコアを 00 に近く、大きく正のスコアを 11 に近く、00 付近のスコアを 0.50.5 に近く写します。

すると、実用的には次のように読めます。

  • zz が大きく負なら、モデルはクラス 00 に傾いている
  • zz00 に近いなら、モデルは不確かである
  • zz が大きく正なら、モデルはクラス 11 に傾いている

この曲線は z=0z=0 付近で最も急になります。つまり、スコアの小さな変化でも、確率が 0.50.5 付近なら大きく変わりえますが、確率がすでに 0011 に近いときは変化がずっと小さくなります。

ロジスティック回帰の計算例

1つの特徴量 xx を使うモデルがあり、

z=7+0.1xz = -7 + 0.1x

だとします。xx をテストの点数、y=1y=1 を「合格」と考えてよいでしょう。ここでの係数は、仕組みを示すための単なる例です。

x=65x = 65 のとき、

z=7+0.1(65)=0.5z = -7 + 0.1(65) = -0.5

したがって、予測確率は

p(y=1x=65)=σ(0.5)=11+e0.50.378p(y=1 \mid x=65) = \sigma(-0.5) = \frac{1}{1 + e^{0.5}} \approx 0.378

です。

x=80x = 80 のときは、

z=7+0.1(80)=1z = -7 + 0.1(80) = 1

となり、

p(y=1x=80)=σ(1)=11+e10.731p(y=1 \mid x=80) = \sigma(1) = \frac{1}{1 + e^{-1}} \approx 0.731

です。

つまり、同じモデルでも x=65x=65 では合格確率は約 37.8%37.8\%x=80x=80 では約 73.1%73.1\% になります。スコアは 1.51.5 増えましたが、シグモイド関数が結果を確率に曲げるため、最終出力は 00 から 11 の間に収まります。

ここでしきい値を 0.50.5 にすると、最初のケースはクラス 00、2つ目のケースはクラス 11 に分類されます。この最後のステップはしきい値に依存します。確率の推定値そのものは依存しません。

便利な近道を1つ挙げると、しきい値が 0.50.5 のとき、クラスが切り替わるのはちょうど z=0z=0 のときです。なぜなら σ(0)=0.5\sigma(0)=0.5 だからです。

ロジスティック回帰が分類器になる仕組み

モデルの出力は確率の推定値です。分類のルールはその後で追加されます。

たとえば、しきい値が 0.50.5 なら、

  • p(y=1x)0.5p(y=1 \mid x) \ge 0.5 ならクラス 11 を予測する
  • p(y=1x)<0.5p(y=1 \mid x) < 0.5 ならクラス 00 を予測する

となります。

ただし、0.50.5 が常に正しいしきい値とは限りません。偽陽性と偽陰性のコストが異なる場合や、クラスの偏りが大きい場合には、別のしきい値のほうがうまくいくことがあります。

係数の意味

係数の符号は、線形スコア zz に対する影響の向きを表します。

  • βi>0\beta_i > 0 なら、xix_i が増えると zz は大きくなり、p(y=1x)p(y=1 \mid x) は増える傾向がある
  • βi<0\beta_i < 0 なら、xix_i が増えると zz は小さくなり、p(y=1x)p(y=1 \mid x) は減る傾向がある

この部分は比較的わかりやすいです。少し注意が必要なのは、シグモイド曲線は直線ではないため、確率は特徴量に対して線形には変化しないという点です。

標準的なロジスティック回帰では、線形モデルは対数オッズの尺度で表されます。

log(p1p)=β0+β1x1++βnxn\log\left(\frac{p}{1-p}\right) = \beta_0 + \beta_1 x_1 + \cdots + \beta_n x_n

これは、他の特徴量を固定したとき、ある特徴量が1単位増えるごとに対数オッズが線形に変化することを意味します。これは、確率が一定量だけ変わると言うよりも、より正確な説明です。

ロジスティック回帰でよくある誤解

出力を確定したクラスだと考える

0.730.73 のような予測は、その事象が必ず起こることを意味しません。その入力に対して、モデルが正例クラスに約 73%73\% の推定確率を与えているという意味です。

しきい値は必ず 0.50.5 だと思う

0.50.5 はよく使われますが、選択肢の1つであって絶対のルールではありません。最適なしきい値は用途によって変わります。

確率が線形に変わると思う

スコア zz は入力に対して線形ですが、確率はそうではありません。特徴量が1単位変化したときの影響は、p=0.5p=0.5 付近と p=0.95p=0.95 付近で異なることがあります。

拡張しない限り2値モデルだという点を忘れる

基本的なロジスティック回帰が扱うのは2クラスです。多クラス版もありますが、それは別の書き方をした同じ2値設定ではなく、拡張版です。

ロジスティック回帰が使われる場面

ロジスティック回帰は、目的変数が yes/no 型のときによく使われます。たとえば、スパム検出、病気の有無、顧客離反、ローン延滞、合格/不合格の判定などです。

この手法が今でも広く使われるのは、シンプルで高速であり、ある程度解釈しやすいからです。特に、ベースラインとなる分類器が欲しいとき、データセットがそれほど大きくないとき、あるいは単なるラベルではなく推定確率が必要なときに役立ちます。

シンプルなイメージのしかた

ロジスティック回帰は、2段階の機械だと考えるとわかりやすいです。

  1. 線形スコアで証拠を足し合わせる。
  2. そのスコアをシグモイド関数で確率に変換する。

このイメージだけでも、多くの入門的な例を理解できますし、ロジスティック回帰が線形モデルと分類タスクの中間に位置する理由も見えてきます。

似たロジスティック回帰の問題を試してみよう

たとえば、

z=3+0.5xz = -3 + 0.5x

のような単純なスコアを選びます。x=2x=2661010 などいくつかの値について σ(z)\sigma(z) を計算してみてください。線形スコアは一定のペースで変化する一方、確率はS字カーブに沿って曲がることがわかります。次に別のしきい値も試して、予測クラスがいつ変わるかを確認してみましょう。

問題の解き方でお困りですか?

問題をアップロードすると、検証済みのステップバイステップ解答が数秒で届きます。

GPAI Solver を開く →