「Python」アナコンダをいれる中であった障害(ダウンロード先のPath指定)
今回は自分のメモ帳替わりに書いてるといっても過言ではありません。
もしアナコンダを入れるのに手間取っている方はご参考ください。
インターネットでアナコンダのインストール手順を調べ、それに沿って進めている時にこのPath指定で少し時間を食いました。対処法は下です。
対処法
ローカルディスク(windows (C:))にフォルダを英語で新しく作り、それをインストール先にする。
これだけです。これだけなのですが、最初のアナコンダの指定先がユーザーだったので最初自分はあれこれ解決法を探してました。(フォルダ名が日本語だったらだめらしい)
もしお役に立てたなら幸いです。勉強がんばってください(`・ω・´)b
コロナ渦で作ったパンたち(パン作りのコツ)
今回はコロナ渦で作ったパンたちを紹介していきます!
メロンパンを作ってみたい、と思ったのがきっかけで強力粉やら調理器具やらを1万ほどで買って作り始めました。
「・・・・・・・・・・。」
なんだこれ…?思ってたんと違う、材料と時間はぴったりレシピと同じなのに…
美味しそうに見えるかな?実はこれも大失敗で、とても食べられるものではありませんでした。加熱しすぎで混ぜた粉チーズがすべて粉状で残り、一個一個食べるのに10分かかるほどきつかったです。
ここまで失敗続き…向いてないのかなとか思っていたらここから快進撃が始まりました!
旨い!旨すぎる!
うまーい!
ちょっと焼きすぎちゃったけどおいしいからヨシ!
めっちゃええやん…(めっちゃよかった)
25日に自作ピッザ!
結論
パン作りで最も重要なことは小麦粉の量でも、味付けでもなく(もちろんこれらも超大事)、発酵出来ているか出来ていないかであるとわかりました。
発酵とはパンを作るときに生地へいれるイーストに入っている酵母菌がパンを膨張させるというもので、これがあるかないかでもちもち度合が大きく左右されるのです!それも第一次発酵と第二次発酵があるのですが、作るパンによって第一次までか第二次までかは分かれるようです。
とにかく、パン作りで最も大切なことはパンが第一次発酵によって2倍くらいの大きさになっているかです。レシピ本に書いてある発酵する時間なんて関係ありません、生地が大きくなってなければ発酵できていないのです。レシピ本の時間は目安程度にとらえておきましょう。
もしパンを作ったことが無いなら、これから訪れる冬休みにぜひ作ってみてはいかがでしょうか(`・ω・´)b
「Python」scikit-learnによる機械学習の準備
こんにちは、今回cistLTで書いて回してるアドベントカレンダーの17日を書いてるフクダです。当日の昼から急ピッチでこれを書いています。昔から期限があるものはギリギリまで残しちゃうのでこれ早めに直したいです。
さて、今回は最近使ってるpythonで使う予定のscikit-learnについて書いていこうと思います。
まず紹介から、scikit-learn(サイキットラーン)とはpythonのオープンソース機械学習ライブラリのことで様々な分類、回帰、クラスタリングアルゴリズムを備えており、様々な数値計算ライブラリとやり取りができるものになっています。以下からpythonのインストール等に移っていきます。(開発環境はPyCharmを使用)
1.python(3.6.8)のインストール
現在pythonの最新版はバージョン3.9.0ですが、パッケージであるscikit-learnがまだ対応していないためインストールすることが出来ません。なので
こちらから3.6.8をインストールしました。(3.9.0ずっと使ってた)
2. scikit-learnのダウンロード
PyCharmの設定からPythonInterpretorを開き、+ボタンを押してscikit-learnを検索、左下からインストールします。
3. 実際に触ってみる
今回は上記の記事を参考にさせていただき学習しました。以降書くことは記事を簡単に解釈した文章を綴っています。
➀インポート
from sklearn import svm
from sklearn.metrics import accuracy_score
ここではSVM(サポートベクターマシン)という、データを直線で分割することによって学習できる手法(予測したいものがあるときに多く使われるらしい)と学習結果を表示するmetrics、accuracy_scoreをインポートしています。
②見本と練習問題とモデル
#教師データ
train_data = [[0, 0], [1, 0], [0, 1], [1, 1]]
train_label = [0, 1, 1, 0]
#テストデータを準備
test_data = [[0, 0], [1, 0], [0, 1], [1, 1]]
今回は教師あり学習を使っていてtrain_dataが教師の指示、train_labelがこのデータに対する答えになっています。つまりお手本、見本ということですね。モデルはこれを使って学習していきます。また、test_dataはモデルが与えられる問題でその出力結果がモデルが出す回答になります。
③用意されているアルゴリズムの指定と学習の実行
#アルゴリズムを指定
clf = svm.SVC(C=10, gamma=0.1)
#学習
clf.fit(train_data,train_label)
①でインポートしたSVMの中からクラスを分類するためのSVC(CはClassification)を使用しており、モデルがclf.fit(train_data,train_label)で学習しています。(cif.fit()で学習実行)
④テストデータを使ってテスト
#テスト
test_label = clf.predict(test_data)
学習が③で終わったのでテストをしていきます。
⑤ターミナルでモデルが出した回答を表示
#テスト結果の表示
print("テストデータ:{0},予測ラベル:{1}".format(test_data,test_label))
print("正解率= {}".format(accuracy_score([0, 1, 1, 0], test_label)))
print文を使って回答を表示しています。
⑥結果
テストデータ:[[0, 0], [1, 0], [0, 1], [1, 1]],予測ラベル:[0 1 1 0]
正解率= 1.0
結果は上記のようになりました、正答率100%です(当たり前)。ちなみにテストデータを以下のようにすると正答率はこうなりました。
テストデータ:[[1, 0], [1, 1], [0, 0], [0, 1]],予測ラベル:[1 0 0 1]
正解率= 0.0
テストデータ:[[0, 1], [1, 0], [0, 1], [1, 1]],予測ラベル:[1 1 1 0]
正解率= 0.75
簡単に正答率下がっちゃいますね。for文や新しいデータを取り入れることで、見本にないようなデータの場合にも対応してくれると思うので、時間あるときやってみたいです(`・ω・´)b
⑦振り返り
今回は初のブログと一歩踏み込んだ機械学習の準備をしました。ブログを一から作るとなるとサーバー問題とかもあって色々難しいのかな、と避けていましたがHatena Blogさんの方でHTML編集もしてくれるのやばいですね。これからもバリバリ発信していける気がします(^▽^)/
このようなブログを書く動機となった先輩方や、すべてに感謝して今回は終わろうと思います、ありがとうございました!!