colaboratory
機械学習使っても技術的負債を残しにくいAWSのインフラ構成 - Qiita
機械学習でシステムを作ることができる人は世の中にたくさんいますが、作った後に運用したり保守したりする人がいるということまできちんと考えてシステムを作れる人はどれだけいるでしょうか。
エンドユーザーがハッピーになるからといってやたら高度な機能を作りまくって、考えなしに高利子なシステムを本番環境に乗っけてはならないと思っております。
上記サイトより引用
データのとり方、保存方法や保存先などの選定
今後、例えば機械学習をしたいとおもったときに
どのような構成にしていくかを考えられたら良いなあとおもったの。
機械学習について、なにも知らないより
どういった仕組みなのかくらい把握しておきたいなあということで
少しずつ勉強中です。
今日はKaggleに挑戦してみました。
【Kaggle初心者入門編】タイタニック号で生き残るのは誰?
この記事を参考にしながら進めた。
今回はJupyterNotebookの代わりにGoogleのColaboratoryを使ってみました。
Google Colabの使い方まとめ - Qiita
Google Colabの知っておくべき使い方
Google Colabとは、Jupyter Notebookを必要最低限の労力とコストで利用でき、ブラウザとインターネットがあれば今すぐにでも機械学習のプロジェクトを進めることが可能なサービスです。
上記サイトから引用
PythonやNumpyなど、機械学習で必要なほぼ全ての環境がすでに構築されている。 書いたコード(ノートブック)は、グーグルドライブで保存される。 そして、Colaboratoryの画面こんな感じです。
次に、Kaggleに接続してアカウントを作成。
Kaggleとは
Kaggleは企業や研究者がデータを投稿し、世界中の統計家やデータ分析家がその最適化モデルを競い合う 予測モデリング及び分析手法関連プラットフォーム及びその運営会社である。
ということで、まずは
https://www.kaggle.com/c/titanic/submissions
このページのRolesに同意して
「Join Competitions」をクリックしてコンペティションに参加します。
https://www.kaggle.com/c/titanic/data
こちらからデータをDL
Colaboratory
from google.colab import files files.upload()
https://www.kaggle.com/ユーザー名/account
ここのページから
「Create New API Token」をクリックしてDL
!mkdir -p ~/.kaggle !mv kaggle.json ~/.kaggle/
ダウンロードしたAPI Tokenをupします。
!chmod 600 /root/.kaggle/kaggle.json
!kaggle competitions download -c titanic
import pandas as pd import numpy as np train = pd.