2016-05-01から1ヶ月間の記事一覧
全く機械学習に興味のない人から「xgboostって何?」と聞かれました。 『くまみこ』のナツが「都会の人はみんなxgboostを使ってるよ」と煽ってくるツイートがツボにハマったそうです。都会の人はみんなxgboostを使ってるよ pic.twitter.com/v6ZfBJ8imN— おら…
UTF-8版のipadicがうまく入らなかったため、mecab用辞書としてnaist-jdicを使っているのですが、どうしてもmecab-ipadic-NEologdが使いたくて試してみたところ、今のところ普通に動いています。 こちらのReadMeの「mecab-ipadic-NEologd をインストールする…
ハンズオン会場でAndroid Studioがノートパソコンに差したSHARP製のスマホを一向に認識してくれず超焦りました。 下記の参考文献を元にGoogle から「Google USB Driver」をダウンロードして必死にインストールしていたのですが、全くインストールしてくれま…
階層型ニューラルネットワークはイメージできるけど、ボルツマンマシンはイメージできない、という人が多いようです。 制限付きボルツマンマシンにいきなり取り組むよりも、もととなったホップフィールド・ネットワークのことを理解してから進んだほうが良い…
Masaaki_Inabaさんの qiita.com が超絶に分かりやすく、 「うわあー、すっごーい、わかりやすーい!」 と感動しながら最後まで読んでいたら、参考文献の一番上に 「北野坂備忘録」 って書いてあって3回転ぐらいひっくり返った。
機械学習の勉強にパーセプトロンは避けて通れません。なぜならサポートベクトルマシンもディープラーニングもパーセプトロンから派生してきたからです。 マージンを最大化するパーセプトロンが線形サポートベクトルマシンです。それがカーネルトリックによっ…
文系にシグモイド関数を教えるにあたり、Wikipedia風にいきなり数式をぶつけてはいけません。機械学習に出てくる数式の中では最も簡単な部類に属しますが、彼らにSANチェック(0/1D2)を要求してしまいます。 まずは図です。Wikipediaだとこの図がいいでしょう…
高村薫の本……ではない。このブログでも何度も取り上げている『言語処理のための機械学習入門』のこと。著者が高村大也 氏のため。 言語処理のための機械学習入門 (自然言語処理シリーズ)機械学習系のブログでは有名な書籍に対しこのような略称と言うか通称が…
「ラグランジュの未定乗数法を理解している人よりも、ラグランジュの未定乗数法を理解していないって言ってる人のほうがバリバリTensorFlowを使ってシステムを作っている……」という身近な闇は置いておいて。 なにはともあれ「ラグランジュの未定乗数法」の大…
お題が出てた。「線形回帰モデルとSVMとランダムフォレストとDeep Learningの4つの手法の共通点と相違点を、東証一部上場企業の社長にも分かるように5分で説明して下さい」みたいなスキルテストがあったらつらそうだな、とふと思った— TJO (@TJO_datasci) 20…