投稿

Translate

#23 Section 21 ヒストグラム(1)

イメージ
さて、本セクションでは、Section 20で作成した「id_pos11」を使って、 ヒストグラム を描いていきます。 ヒストグラムとは、対象のデータを区間ごとに区切った 度数分布表 を、棒グラフに似た図で表現したグラフのことです。データの分布を見るために用いられます。 横軸(X軸)の数値を「 階級 」と呼び、データを区切った区間を表します。縦軸(Y軸)の数値は、「 度数 」と呼び、各区間に含まれるデータの数量を表します。 それらを実現するプログラムは下記の6つです。 52 sns.histplot(data=データ名, x=“列名")  53 sns.histplot(data=データ名1, x=“列名")     sns.histplot(data=データ名2, x=“列名")  54  color=‘色’ 55 plt.legend(labels=[“A", “B", “C"])  56  alpha=数字 57 sns.histplot(data=データ名, x=“列名1”, hue=”列名2“)   ■ まずは、 概要を理解したい方は、下記の 動画 (9分30秒) をご覧ください。   ■ PowerPoint (パワポ) でじっくりと理解したい方は、 下記のスライドを参照してください。 Section 21 ヒストグラム(1) by @Cat_Taro ■ 参考URL ●seabornでは、matplotlibの色指定の方法を使います。詳細は、下記を参照してください。       https://matplotlib.org/2.0.2/examples/color/named_colors.html

#22 Section 20 グラフ用のデータを作る

イメージ
本セクションはでは、ビンのラベルを元のデータに付与して作った「id_pos7_2」を、seabornでグラフを描いた際に、影響力のある3カ国を選んで、結果がわかりやすいように、データを作っていきます。 1.「 groupby 」を用いて、国別にTotal(合計金額)を算出します。これは、㉖の応用ですね。 2.カンマに続けて「 sort_values 」を使い、 Totalが大きい順に並べ替えます。これは、⑰の応用ですね。 3.Section 10で解説した列の値に対する条件に応じて行を抽出する「query」を用いて、上位3カ国のデータのみを抽出します。         データ名.query('列名 == ["要素名1", "要素名2"]') 「㉔ データ名.query(“列名 == 列名”)」とは異なりますので、注意してください。 ■ まずは概要を理解したい!という方は、下記の 動画 (8分0秒) をご覧ください。    ■ PowerPoint でじっくり理解したい方は、右下のマーク「 ページを新しいウインドウで開きます。 」 をクリックしてください。 Section 20 グラフ用のデータを作る by @Cat_Taro

#21 Section 19 ビンのラベルを元のデータに付与する

イメージ
Section 18では、データの変数を分割する「 ビニング処理 」を解説しましたが、このセクションでは、 そのビン(分割区分)に付けたラベルを元データに付与する方法を解説します。 元データに、新たなデータ項目を追加することにより、分析の幅が広がりますので、今回のスキルをしっかりとマスターしましょう。このプログラムは、 機械学習 用のデータを作成するときにもよく使うものです。 それらを実現するプログラムは下記の2つです。 ㊾ 新データ名 = 元データ名.copy() ㊿ 新データ名[“新列名”] = pd.cut(元データ名[“列名”]         , [数字1, 数字2, 数字3]          , labels=[ラベル1, ラベル2, ラベル3] ) また、Pythonのプログラムを書く際に犯してしまうミスを警告してくれるコラボの機能「 SettingWithCopyWarning 」を体験し、それを防ぐ方法も身に付けていきましょう!  ■ まずは、 概要を理解したい方は、下記の 動画 (8分45秒) をご覧ください。 ■ PowerPoint (パワポ) でじっくりと理解したい方は、下記のスライドを参照してください。 Section 19 ビンのラベルを元のデータに付与する by @Cat_Taro    ■ 参考URL ブログ「naoの学習&学習」の「【Pandas】 データフレームをコピーしたいときにcopy()を使う意味」のURLは下記のとおりです。 https://www.learning-nao.com/?p=2384

#20 Section 18 データを分割するビニング

イメージ
Section 17では、データに含まれていた時間の「ドリルダウン」、すなわち「年」から「年月」への「ドリルダウン」を行いましたが、このセクションでは、「 ドリルダウン 」するための数値を新たに作っていきます。 「商品」に属する「UnitPrice(単価)」を、顧客の特徴をよく表すように分割(これを「 ビニング 」と言います)する方法を身に付けましょう。 それらを実現するプログラムは下記の7つです。 ㊺ pd.cut( データ名[“列名”], 分割数, precision=□, right=True ) ㊻ pd.cut( データ名[“列名”], 分割数 ). value_counts() ㊼ pd.cut( データ名[“列名”], [数字1, 数字2, 数字3] ) ㊽ pd.cut( データ名[“列名”], [数字1, 数字2, 数字3]      , labels=[ラベル1, ラベル2, ラベル3] ) ■ まずは、 概要を理解したい方は、下記の 動画 (6分47秒) をご覧ください。   ■ PowerPo int (パワポ) でじっくりと理解したい方は、下記のスライドを参照してください。 Section 18 データを分割するビニング by @Cat_Taro   ■ 参考URL ●ビニングに関しては、Smart-Hintが運営している「データをビニング(ビン分割)する方法|cut」がとってもわかりやすかったので、参考にしてみてはいかがでしょうか。 https://smart-hint.com/python/cut/ ●フリーランスのサウンドクリエータ「パンダの中のパンダ」さんがやっている「【AIプログラミング】 ビニングでボストン住宅価格の回帰」が役に立つと思いますので、下記を参考にしてみてくださいね。 https://panda-clip.com/binnning-boston/

#19 Section 17 seabornでグラフ描画(2)

イメージ
それでは、データサイエンス・チュートリアル 第19回目、Section 17「seabornでグラフ描画(2)」を始めます。 このセクションでは、 OLAPキューブ の分析手法に従い、時間に関してドリルダウンを行い、データ分析を試みていきます。 また、それらの結果で説得力あるプレゼンをするために、 seaborn で作成したグラフを見栄えよくする方法を身に付けていきましょう。具体的には、seabornの日本語化、グラフの大きさを指定、軸の単位を整数にする、グラフをクールに表示する(ggplotライク)、グラフのタイトルを表示、 y軸の表示範囲を設定、グラフの画像を保存などを解説します。 Seabornの体裁を整えるプログラムを整理すると、下記のようになります。 今回、解説するプログラムは下記の7つです。あまり、応用することは無いので、そのまま覚えるか、コピペできるようにしておきましょう。   ㊳ !pip install japanize-matplotlib    import japanize_matplotlib  ㊴ plt.figure(figsize=(○, △), dpi=□)  ㊵ plt.gca().ticklabel_format(style='plain’,axis='y’)  ㊶ plt.style.use("ggplot")  ㊷ plt.title(“グラフタイトル")  ㊸ plt.ylim(最小値,最大値)  ㊹ from google.colab import files       plt.savefig(“画像ファイル名.jpg")       files.download("画像ファイル名.jpg") ■ まずは、 概要を理解したい方は、下記の 動画 (11分40秒) をご覧ください。 ■ PowerPoin t (パワポ) でじっくりと理解したい方は、右下のマーク「ページを新しいウインドウで開きます。」をクリックしてください。 Section 17 seabornでグラフ描画(2) by @Cat_Taro

#18 Section 16 seabornでグラフ描画(1)

イメージ
データサイエンス体験動画「データサイエンス チュートリアル 猫のタロー編」、第18回目、Section 16「seabornでグラフ描画(1)」始めます! 今回からは、時間の ドリルダウン とライブラリ「 seaborn 」を使ったグラフの描画です。 seabornは、 x、y軸 (場合によってはz軸も) が列 でないとグラフを描いてくれません。groupbyなどを使って年や年月ごとに売上の合計を出すと、年や年月がインデックスになっていますので、列にして直す必要があることに注意して下さい。 それらを実現するプログラムは下記の7つです。   ㉖’ データ名.groupby(“列名”).sum()  ㉝ import matplotlib.pyplot as plt  ㉞ import seaborn as sns  ㉟ %matplotlib inline  ㊱ sns.barplot(data=データ名, x=“列名1”, y=“列名2”)  ㊲ データ名.reset_index()  ㊳ データ名.groupby(“列名”, as_index=False).sum() ■ 概要を理解したい方は、下記の 動画 (8分59秒) をご覧ください。 ■ PowerPoint (パワポ) でじっくりと理解したい方は、右下のマーク「ページを新しいウインドウで開きます。」をクリックしてください。 Section 16 seabornでグラフ描画(1) by @Cat_Taro ■ 参考URL seaborn公式ドキュメントのGallery https://seaborn.pydata.org/examples/index.html

#17 Section 15 分析するための列の作成

イメージ
データサイエンス体験動画「データサイエンス チュートリアル 猫のタロー編」、通算第17回目、Section15「分析するための列の作成」を始めます。 今回は、 Section 13で解説したOLAPキューブの分析手法を実践していくために、その前段階であるデータ作成を行います。 「Quantity」(数量)と「UnitPrice」(単価)の積から 合計値の列を追加 、データ型 datetimeから文字列で年、年月を取り出した列の追加 を解説します。 今回の動画は、それらを実現する下記のプログラムを解説します。   ㉛ データ名[“新列名”] = データ名[“列名1”] * データ名[“列名2”]  ㉜ データ名[“新列名”] = データ名[“列名”].dt.strftime(“%Y%m”) また、復習になりますが、列の順序を変えるために、下記の⑫を使います。  ⑫ データ名[[“列名”]] (「 Section 6 列の参照 」を参照) ■ 概要を理解したい方は、下記の 動画 (8分42秒) をご覧ください。 ■ PowerPoin t (パワポ) でじっくりと理解したい方は、 下記のスライドを参照してください。    Section 15 分析するための列の作成 by @Cat_Taro

#16 Section 14 csvデータの読込

イメージ
データサイエンス体験動画「データサイエンス チュートリアル 猫のタロー編」、 通算第16回目、Section14「csvデータの読込」を始めます。 今回は、 1st STEPで作成したcsvデータ「id_pos4」を読み込みます。 その際、 データ型を指定して読み込ます 。 また、余分な列を削除して、集計や分析の際に分かりやすいきれいなデータにしましょう。 今回の動画は、それらを実現する下記のプログラムを解説します。   ㉙ pd.read_csv(“データのある場所”, parse_dates=[“列名"]     , dtype ={"列名1": データ型 , "列名2": データ型})  ㉚ データ名.drop("列名", axis=1) axis=0 と axis=1 の違いもよく理解しておきましょう。 ■ 概要を理解したい方は、下記の 動画 (8分42秒) をご覧ください。 ■ PowerPoin t (パワポ) でじっくりと理解したい方は、 下記のスライドを参照してください。 Section 14 csvデータの読込 by @Cat_Taro

#15 Section 13 どのような集計をして、グラフを描くのか?

イメージ
データサイエンス体験動画「データサイエンス チュートリアル 猫のタロー編」は、2nd STEPに進みます!今回は、 2nd STEP「集計とグラフ描画」 のオリエンテーションです。 2nd STEP「集計とグラフ描画」の最初は、通算第15回目、Section 13「どのような集計をして、グラフを描くのか?」です。 これから、1st STEPで作成した「id_pos4」、いわゆる「きれいなデータ」を用いて、データの見える化、および報告書・会議用資料などのレポーティング用の集計を行っていきます。 様々なグラフの描き方、集計表形式がありますが、ビッグデータが格納されている「 OLAP 」で用いられている標準的な分析法に沿って解説していきます。「OLAP」の解説は後程行います。これらは応用範囲が広いため、他のデータでも活用できます。 また、「 seaborn 」を用いて、インパクトのあるグラフを少ないコードで描いていきます。グラフによるデータの見える化で、より深い洞察が得られることと思います。 ■ 概要を理解したい方は、下記の 動画 (7分31秒) をご覧ください。 ■ PowerPoint (パワポ) でじっくりと理解したい方は、 下記のスライドを参照してください。 Section 13 どのような集計をして、グラフを描くのか? by @Cat_Taro ■ 参考資料は、下記のURLをクリック!株式会社アシストが運営している「WebFOCUS」からの引用です。 https://fobi.ashisuto.co.jp/tech/imasara/olap/

#14 Section 12 データの保存

イメージ
データサイエンス体験動画「データサイエンス チュートリアル 猫のタロー編」の第14回目は、Section 12「データの保存」です。 1st STEP「ビッグデータの読み込みとデータの確認」の最終回です! せっかくデータ型を変更したり、欠損値を削除してきれいなデータになったので、Googleドライブに保存しておきましょう。これは、「2nd STEP 集計とグラフ描画」で使います。 今回はExcelではなく、「 csv 」というビッグデータでよく用いられる形式で 保存 します。 解説するプログラムは、次の2つです。   ㉘ データ名.to_csv(‘保存するフォルダーのパス/新データ名.csv’) 「' '」を忘れないようにしてください! 「保存するフォルダーのパス」は、一番左に表示されているアイコン(フォルダー)をクリックして選択し、その後右クリックし、「 パスをコピー 」をクリックすればコピーできます。 復習したい方は、第4回 Section 2「ライブラリの選択とデータの読み込み」 → 「4.パスのコピー」(スライド7)を参照してください。 ■ 概要を理解したい方は、下記の 動画 (4分54秒)をご覧ください。 PC操作画面を確認できます! ■ PowerPoint(パワポ) でじっくりと理解したい方は、 下記のスライドを参照してください。 Section 12  データの保存 by @Cat_Taro

#13 Section 11 データのグループ化

イメージ
データサイエンス体験動画「データサイエンス チュートリアル 猫のタロー編」の第13回目は、Section 11「groupbyを使ったデータのグループ化」です。 特定の列の値ごとにグループを作成 する「 groupby() 」について解説します。 解説するプログラムは、次の2つです。   ㉖ データ名.groupby(“列名”).count()   ㉗ データ名.groupby(“列名1”)[“列名2”].max() 「groupby()」で作ったグループは、pandasの特殊なオブジェクトになっているので 中身を確認することができません 。しかし、関数と組み合わせることによって、グループごとの計算が一気にできます。 ここでは、 顧客ごとの購入期間を算出 する例を説明しています。よく使う例ですので、しっかりと身に付けていきましょう! ■ 概要を理解したい方は、下記の 動画 (6分16秒)をご覧ください。 PC操作画面を確認できます! ■ PowerPoint(パワポ) でじっくりと理解したい方は、 下記のスライドを参照してください。 Section 11 groupbyを使ったデータのグループ化 by @Cat_Taro

#12 Section 10 queryを使った複数条件での抽出

イメージ
データサイエンス体験動画「データサイエンス チュートリアル 猫のタロー編」の第12回目は、 Section 10「 queryを使った複数条件での抽出 」です。 #8 「列の参照」では、列名を指定して、比較演算子を書くことによって、その列の条件に当てはまる行のみを参照する方法を解説しましたが、今回は、複数条件の組み合わせが、簡潔に記述できる「query」について解説します。 解説するプログラムは、次の4つです。  ㉒ データ名.query(“数字1 <= 列名 <= 数字2”)  ㉓ データ名.query(“列名 ! == 列名”)  ㉔ データ名.query(“列名 == 列名”)  ㉕ データ名.query(“論理演算1" and "論理演算2") 「query」は、 複数の比較演算子を用いる場合 や「and」、「or」、「not」等の 論理演算子 を使う場合にも対応していますので、とっても便利なものです。 また、結果の確認のために、「len()」、「describe()」も使います。復習してみてください! ■ 概要を理解したい方は、下記の 動画 (8分44秒)をご覧ください。 PC操作画面を確認できます! ■ PowerPoint(パワポ) でじっくりと理解したい方は、 下記のスライドを参照してください。 Section 10 queryを使った複数条件での抽出 by @Cat_Taro

カスタマーサクセスとデータ分析について

みなさん、お正月休み、どのように過ごしていますか? 猫のタローは、チュートリアルの動画作成をちょっとお休みして、TVや Prime Videoの合間に、溜まってしまった Chrome「リーディングリスト」を読んでいます。 その中で、ちょっと古いですが、ITmedia マーケティングの「 カスタマーサクセスはマーケティングや営業をどう変えるのか Gainsight日本法人代表に聞く 」がありました。 ポイントは、下記の点です。 ********** これまで、カスタマーサクセス部門は 解約防止 のための専門組織という印象があった。つまり、いかにして顧客を辞めさせないかに重点をおいていたのである。 だが、解約を希望する顧客に対して、あの手この手で何とか顧客をつなぎ止めるだけでは「顧客の成功」とは正反対の活動だと言わざるを得ない。 もともとやめたかったサービスを 渋々継続してもらっても 、それで顧客が成果を出せなければ ますます離脱意向は強まる 。 結果、企業側も売り上げを落とすことになる。これは買う側にとっても売る側にとっても 不幸な結末 だ。 ********** 確かに、前世では、顧客の求めに応じて、 チャーンレート (churn rate/解約率)の推移等を算出していたのですが、それって、ビジネスにとって、あまり効果が無かったのですね。 データ分析をする場合は、ビジネス上の目的に沿うことが大切だという原点を思い出させてくれる文章でした。 ビジネスの目的を理解するために、どのようなビジネスで、どのようにデータサイエンスが使われているかを知ることが大切だと思いますので、今年は、このあたりの解説も増やしていきたいと思います。 あと2回ほどで、1st STEP「ビッグデータの読み込みとデータの確認」も終了する予定ですので、 2nd STEP「集計とグラフ描画」との間に、いくつかのエピソードを入れて行こうと思っています。応援、お願いします!

リスキリングの意味

イメージ
 「NPO法人しごとのみらい」の竹内さんの記事「 リスキリング?本当に大切なのって、そこでしたっけ? 」を読みました。 以下、主な個所を抜粋します。 ●企業の中でリスキリングというなら、社員が学んだスキルを存分に生かせるように、 組織文化も変えていく必要 があるのでしょう。 ●本当の意味で学んだスキルを仕事に生かすためには、「 仕事で生かす努力 」も必要ではないかと思います。 ●実績とか、人柄とか、頼まれたら逃げずにやり切るところとか、スキルと同時に、 スキル以外のところも高めていく必要 があるんじゃないかな、と思います。 猫のタローは、この記事に大いに 賛同 します。 このブログは、データサイエンティストが身に付けるべき最小限のPythonプログラムを解説していますが、それは、プログラミング・スキルを身に付けることが最終目的ではありません。 プログラミングを体験することによって「 データ思考 」を身に付け、 ビジネス力を向上させ 、 キャリアアップ して 様々な体験 をしていくことで、自分の 人生を充実 させることの手助けができればと考えて執筆しています。更新が滞ることもありますが、「1st STEP ビッグデータの読み込みとデータの確認」、「2nd STEP 集計とグラフ描画」を完成させたいと思いますので、これからもよろしくお願いします。 動画や資料を作ることで、猫のタロー自身も日々成長を感じています!

#11 Section 9 欠損値の見つけ方・削除方法

イメージ
データサイエンス体験動画「データサイエンス チュートリアル 猫のタロー編」の第11回目は、 Section 9「 欠損値の見つけ方・削除方法 」です。 データには、カラムに何も要素の無い「 欠損値 」が存在することがあります。欠損値があると、機械学習のプログラムがエラーになってしまうものがあるため、欠損値を見つけ、欠損値を含む行、列を除去する必要があります。  解説するプログラムは、次の4つです。  ⑰ データ名.sort_values(“列名”,ascending=False):前出  ⑲ データ名.iloc[行番号 :  ]  ⑳ データ名.isna().sum()  ㉑ データ名.dropna() ■ 概要を理解したい方は、下記の 動画 (11分12秒)をご覧ください。 PC操作画面を確認できます! ■ PowerPoint(パワポ) でじっくりと理解したい方は、 下記のスライドを参照してください。 Section 9 欠損値の見つけ方・削除方法 by @Cat_Taro