回帰分析におけるグラフの見方について

実現したいこと

回帰分析におけるグラフの見方について理解する

発生している問題・分からないこと

以下のページの
x軸:y-true
y軸:y-pred
のグラフの見方について知りたい
https://qiita.com/oki_kosuke/items/ebb0f7c28f86e72f9224
赤い点はtest_dataとあり、学習したモデルでの予測結果というのは理解できます。
青い点はtrain_dataとありますが、学習時の結果なのだとおもいます。
学習時の結果とはつまりどういうことなのでしょうか?
学習時は何を用いて予測しているのでしょうか?
素人質問で申し訳ありませんが、学習時の予測というのはどういうことなのでしょうか?

該当のソースコード

x = np.linspace(0, 450, 900) plt.rcParams["font.size"] = 14 plt.scatter(x=sc_y_train, y=train_pred, s=15, label='train_data', color="b") plt.scatter(x=sc_y_test, y=test_pred, s=15, label='test_data',color="r") plt.plot(x, x, color="gray", linestyle="--") plt.title("LinearRegression") plt.xlabel("y_true [-]") plt.ylabel("y_pred [-]") plt.xlim(0, 450) plt.ylim(0, 450) plt.xticks(np.arange(0,500,50)) plt.yticks(np.arange(0,500,50)) plt.grid() plt.legend() plt.show()

試したこと・調べたこと

上記の詳細・結果

他のサイトでも調べましたが、理解しているのが前提の解説が多く、意味を解説しているサイトが見つかりませんでした。

補足

特になし

コメントを投稿

0 コメント