AIとは何か

決定係数R2って何?は今日でお終い!3分でわかるR二乗とは

学ぶことが大事だというイメージ

データ分析業務や統計、機械学習に携わり始めると「決定係数」や「R2」「アールツースコア」「寄与率」などの用語を見聞きして「これ何?」と頭を悩ませた経験は誰にでもありますよね。これらは全て同じものを意味していますが、これなんだろう?と思いググって見るものの、小難しい数式や説明で「ああ、もう嫌・・・」なんて憂鬱な気分になる方は多いかもしれません。

実際僕がそうだったのでそうした気持ちはよくわかります。しかも、

なんてこった・・・簡単に理解しやすそうなページが全然見つからない_:(´ཀ`」 ∠):

このままでは僕と同じように憂鬱な気分になる人が今後も出続けるに違いないし、統計や機械学習を理解していく一つの障壁になっていることは間違いない・・・。だったらわかりやすく整理したら助かる人が絶対いるし、僕も勉強になって一石二鳥だよね!!僕はそう思いました!

そこで今回は決定係数(R2)について整理をすることにしました!読んだ後には決定係数(R2)とは何で、何を意味するものでどう見たらいいのかがイメージできるようになっているはずです(頑張って整理していきます!!)。

※決定係数は数式で2と表現されます。

決定係数(R2)その前に「回帰」とは

線を引くイメージ早速決定係数(R2)にふれていくのですが、理解を深めるためには「回帰」という言葉を先に押さえておく必要があります。そこでまず「回帰」の意味から整理していきましょう。

つっちー
つっちー

回帰を既に理解されている方は本章は読み飛ばしてください

この回帰という言葉、調べて見るといろんな言葉で表現されており、統計の分野から見たときの説明と、機械学習の分野から見たときの説明では少し表現が違っているように見受けられたので念のため両方記載しておきます。ただ本質的には同じものを指しています。

※機械学習:AI(人工知能)を実現するための技術の一つで、近年非常に注目を浴びている。コンピュータがデータに潜むパターンや傾向を掴んで、そこから未知のデータの予測が可能になります

<参考>統計と機械学習の違い
現代の機械学習は統計的機械学習と呼ばれるほど統計と機械学習では重なる部分が多いですが、二つは学問の目的が大きく違うと言われています。統計はデータの「説明」に重きを置いており、機械学習はデータの「予測」に重きを置いているようです。そのため統計ではなぜこの現象が起こったのか?を正確に説明することが求められ、一方機械学習では、手元に無い未知のデーから結果をうまく予測できるか?について重視されます。

線を引くイメージ

統計から見た「回帰」

回帰とは、求めたいものが売上や気温などの連続値であるときに、データの傾向やパターンを表現する数式を当てはめることです。

<イメージ例> 自分が飲食店を経営しているとして、手元にはこれまでの日毎の売上とその日の気温を記録してきたデータがあるとする。手元にあるデータを見たときに売上をy、気温をxとすれば、売上げと気温の関係はy=ax+bという数式に当てはめて説明できそうだなあ・・・というのが回帰です。

機械学習から見た「回帰」

「回帰」とは、正解となる数値と入力データの組み合わせでデータに潜むパターンや傾向を見つけ、手元に無い未知のデータから売上や気温などの連続値を予測することです

<イメージ例> 自分が飲食店を経営しているとして、手元にはこれまでの日毎の売上とその日の気温を記録してきたデータがあるとする。売上をy、気温をxとすれば、「売上yとその日の気温はxだったという組み合わせ」から、データの傾向はy=ax+bで表現できそうだ!明日気温が●度だからこの数式を使って明日の売上を予測しよう!・・・というのが回帰です。

(回帰についてもっと詳しく理解したい方はこちら↓)

決定係数(R2)とは

R

つっちー
つっちー

本章からいよいよ決定係数(R2)について触れていきます!

回帰によって求めたデータの傾向やパターンを表す数式(例えばy=ax+bのような)のことをモデルと呼びます。

そして今回のテーマである決定係数(R2)とは、

回帰によって導いたモデルの当てはまりの良さを表現する値で、モデルによって予測した値が実際の値とどの程度一致しているかを表現する評価指標です。

これは言葉だけでは理解しづらいので図を見てみましょう。例えば、次の図では青の点で示されているデータに対して、データの傾向、パターンを表す線が引かれています。この線がモデル(緑色)です。

回帰直線のイメージ

赤の縦線はデータの実際の値とモデルが導いた(予測した)値のズレ(誤差)を示しています。左図はズレ(誤差)が小さいですが、右図は左図よりもズレが大きいことがわかりますよね。これはつまり、左図のモデルの方がより適切にデータを表現できている!ということです。

こうしたモデルによる予測が実際の値に比べてどのくらい当たっているのか(どれだけズレが小さいか)を客観的に示す指標が決定係数(R2)です。

決定係数(R2)は普通0〜1の範囲の値をとり、値が大きいほどモデルが適切にデータを表現できている(線を引けている)ことを意味し、小さいほど適切にデータを表現できていないことを意味します。

具体的にはモデルの予測値と実際の値のズレ(誤差)が小さいほど決定係数(R2は1に近づき、1では完全に一致(引いた線(モデル)の上に完全にデータが乗っている)しします。逆に予測値と実際の値のズレ(誤差)が大きいほど決定係数(R2は小さくなり、予測が当たっていない状態を示します。なので決定係数(R2)の大小からモデルの良し悪しを判断できるというわけです。

※決定係数(R2)が負の値をとる場合も時にありますが、そのような時はわざと予測を外すモデルになっていると判断できます。

決定係数(R2)は説明変数が目的変数をどれくらい説明できるかを表す

算数のイメージ決定係数(R2)の説明を調べていると、「決定係数(R2)は説明変数(独立変数)が目的変数(従属変数)をどれくらい説明できるかを表す値です」なんていう難しい説明も見られます。

これはどういうことかと言うと、機械学習や統計の分野では

  • 求めたいものを目的変数(従属変数)
  • 求めたいものに作用する変数を説明変数(独立変数)

と表現します。

例えばy=ax+b(直線になりますね!)という数式でデータの傾向を表現するモデルがあった場合、求めたいもの(目的変数)はy、目的変数に作用するものは説明変数xです。この時モデルはy=ax+bなので、説明変数xの値は目的変数yの値を決定する=説明することになると言えますよね。

データの傾向、パターンを上手く捉えられたモデルであればあるほど、モデルによって実際の値に近いyをxで説明できます。なので、「決定係数は、説明変数(独立変数)x が目的変数(従属変数)y をどれくらい説明できるかを表す値です」と言われているんですね。

サイコロの目を6分の1で予測→R2=0、100%的中→R2=1

サイコロのイメージまた、別の角度から見てみると、決定係数(R2値)は常に平均値を出力する回帰モデルに比べて、相対的にどのくらい性能が良いかを表しているとも言えます。難しい表現ですが、これはサイコロを例に考えてみましょう。

サイコロをころころと転がした場合、各目が出る確率は6分の1ですよね。サイコロをふって出る目が何かを予測しようとした場合、モデルによる予測精度が6分の1なら決定係数(R2)は0になり、次に出る目を完全に予測できる時には決定係数(R2)は1となります。

つまり決定係数(R2)は、自然に起こる確率よりもどれだけ高い確率でモデルが結果を導けているか、ということがわかる指標とも言えます。

つっちー
つっちー

ここまで様々決定係数(R2)について見てきましたが、回帰モデルを評価するには決定係数(R2)が最も直感的な基準だと言われています。

決定係数(R2)の値をどう判断するか

0~1のイメージ決定係数(R2)は普通0〜1の範囲の値をとることは前述しました。

データサイエンティストとして現在活躍されている方から僕が以前直接聞いた話ですが、決定係数(2)を判断する大体の目安としては下記があるようです。(ただ人によって様々な見方があります)

<決定係数(R2値)の判断目安>

  • 0.6以下:モデルとして意味なしていない(全然予測できてない)
  • 0.8以上:すごい良いモデルができた!よくやりました!※ただ0.8以下の数値であってもデータ同士の関連性が存在する場合もあるので一つの指標としてみるべき。
  • 0.9以上:大丈夫?過学習してないか?

この過学習というのは、モデルが「学習に使ったデータに対してはきちんと予測できるけど、知らないデータに対しては全然当たらない」という実用性を全く伴っていない状態のことです。(過学習についてもっと知りたい方はこちら↓)

ただ、もちろん過学習には陥っておらず未知のデータにも対応できるモデルの状態で決定係数が非常に高いという場合もあります。そのような場合はデータが非常に綺麗であること、つまり説明変数(パラメーター)に目的変数を説明するための十分な情報量があったことが考えられるでしょう。

<参考>決定係数(R2)の数式

決定係数は一般的には以下のような数式で表現されます。

決定係数の数式

回帰モデルの評価をする際、決定係数(R2)だけを見ていてはいけない

注意のイメージ回帰モデルの評価する際には、決定係数だけを見て判断していてはいけません。決定係数(2)の値を見るだけでなく、モデルそのものの汎化性能を見る必要があります。なぜなら前述したように決定係数(2)が高くても未知のデータに対する予測が低ければ、それは汎化性能があるとは言えず過学習に陥っていることになるからです。
回帰モデルの評価指標として、決定係数以外に代表的なものとして平均二乗誤差がありますが(平均二乗誤差についてもっと詳しく知りたい方はこちら↓)、

決定係数(2)は平均二乗誤差(MSE)の尺度を取り直した一つの姿です。R2値=1のとき、モデルはMSE=0で完全に適合することになります。

自由度調整済み決定係数

調整のイメージ決定係数(R2)とは別に「自由度調整済み決定係数」というものもあり、中には聞いたことのある方もいるかもしれません。

こちらは決定係数(R2)が説明変数(独立変数)の数が多くなるにつれて大きくなるという欠点を補うためのものです。自由度とはパラメータと思えばわかりやすいでしょう。説明変数(独立変数)の数で調整した決定係数(2)を、自由度調整済み決定係数と呼びます。

まだ理解しづらいので具体例で考えていきましょう。

例えば「道端で出会った500組の夫婦に聞き取り調査を行った」とします。聞き取り調査によって得られたデータを利用して愛の深さを予測できる回帰モデルを作成し、その回帰モデルを利用して決定係数(2)を算出したとします。

夫婦のイメージ

ここで冷静に考えてみると、作成した回帰モデルはあくまで「たまたま道端で出会った夫婦500組」に対して予測が当たるように作られたものですよね。この作成したモデルを、仮に国内全ての夫婦を対象として利用してみたとすれば予測結果は悪くなるでしょう。なぜなら、500組のデータの傾向と国内全ての夫婦データのそれは異なるはずからです。

そのため、500組の夫婦の聞き取りデータから導いたモデルの決定係数(2)を国内全ての夫婦を対象としたものとして考えようとすれば、モデルによる予測の当てはまりの良さを本来よりも高く評価していることになってしまいます。

こうした問題が起こるので、あくまで「国内全体を対象」としたモデルの評価を見積れるように決定係数の値に調整を加えたものが「自由度調整済み決定係数」です。決定係数の値を修正するのにデータ数と説明変数の個数から求められる「自由度」という数字を用いているため「自由度調整済み決定係数」と呼ばれているんですね。

ビジネスで決定係数を使用する場合には、手元にあるデータに対するモデルの性能よりも「ターゲットとする顧客層全体」に対するモデルの性能が重要になりますよね。そのため、決定係数と自由度調整済み決定係数の両方がわかっている場合は、後者を評価の指標として利用すると良いでしょう。

まとめ

さて、今回は頭を悩ませがちな決定係数(2)について一つずつ整理してきました。

  • 決定係数(2)とは、回帰によって導いたモデルの当てはまりの良さを表現する値で、モデルによって予測した値が実際の値とどの程度一致しているかを判断する評価指標である
  • 決定係数(2)は値が大きければ大きいほど良いが決定係数だけでなくモデルそのものの汎化性能を見る必要がある
  • 決定係数と自由度調整済み決定係数がわかる場合は、後者を利用すると良い

といったことを中心に見てきましたよね。

決定係数(2)をはじめとして、専門用語は小難しい印象を与えるものばかりです。そうした背景もあって統計や機械学習の世界に足を踏み入れることに、最初は中々ハードルが高いと感じてしまう人も多いかもしれません。しかし一つ一つを紐解いていけば、わからない苦痛がわかる喜びへ、わかるが興味へ、そして面白さへと変わっていくものでしょう。

つっちー
つっちー

僕は囲碁AIに興味を持ったことをきっかけに機械学習に興味を持ちました。学びを深めているうちに自然と機械学習に関連が深い数学や統計学を学ぶことがどんどん面白くなっています。学生時代にこれらが苦手だったにも関わらず。。。

意味のわからない単語や考えに出会ってつまづいた時には誰しも憂鬱な気持ちになるものですが、何が今わからないのかを一つ一つ紐解きながら、ゆっくりとでも自分のペースで学びを深めていきたいものですよね!その繰り返しの先にきっと楽しい状況が待っているでしょう。

<参考>

コメントをどうぞ

トップへ戻る
タイトルとURLをコピーしました