読者です 読者をやめる 読者になる 読者になる

hirschkalb's blog

"I beseech you, in the bowels of Christ, think it possible that you may be mistaken."

言ったところがどうしたいのか

論理的・論理風
他言語に訳せないことを何か高度な知性あるいは何か繊細な精神を保持していることの証明のごとく挿話するのはあんまり趣味じゃないな。まあ、そういうことを言わない私、言うことを好まない私、というアピールになるから、この手の話は難しい。
広告を非表示にする

深い精神社

論理的・論理風
脅威と考えようが考えまいがやがてやってくるものならば、それまでの間心穏やかでいられる方を選ぶね私は。
脅威と考える、というよりは、考え方で脅威とも感じられる、というのが正しい認識じゃないのかな。
エネーチケースペシャルみてて思ったこと。
広告を非表示にする

「そもそも~」みたいなひともいるからね

メモ

みんなの生まれ変わったらなにがしになりたいって人を聞いて回りたい。
「生まれ変わったら」とか言っているけど、そういうのあんまり信じてないぜって場合はべつに「いますぐに」でもいいし。

広告を非表示にする

not xor but and

メモ

電子的なスケジュール管理が進むのと並行して、紙の手帳が人気を集めているのはおもしろい。あんだけフェイスブックとかでおシェアしつつ、マステでいろいろ作っちゃったり、果てはそれをインスタで公開とか、やっぱり紙VS電子的な考えはちがうんだなーって思った。紙も電子もなんだよ、やっぱり。

広告を非表示にする

ストレス性!

メモ

なんか無性にアップル製品を買いたくなってきた。むしろアップル信者になりたくなってきた。こわい!

広告を非表示にする

Overfitting

論理的・論理風

クヌースだったかな、「早過ぎる最適化はマジやばい」って言ってたの。これは言い換えると、過学習、過剰適応、オーバーフィッティングってことなのかな。「いちいち反応するなし!」「細かいこと気にするなよ」「そこらへんは適当でいいんだってば」「スルー力足りねえな」「そんなの気にしてたらやってらんないよ?」「どんどん流していけって。だめだったらどこかでちゃんと止まるから」。なんか普段言われたり思われたりしているような内容になってきたぞ。

広告を非表示にする

ざつ

ひまつぶし
いろいろと雑になってきたことをよろこびたいと思いました。
広告を非表示にする

いやな言葉

メモ 自由律俳句
時代の空気とか時代の雰囲気というフレーズで何かを言った感じになってる
広告を非表示にする

気のせいかな

論理的・論理風

論理的にありたいと思うのは、論理的に導き出したことこそいちばん信頼できる推測(占い)だと思うから……そんな考えのやつはいねが。わりと科学者のほうが占い好きそうな気がするんだ。そういう方面へのロマンをかきたてられやすいはず。錬金術、星占い、宇宙人探し、エトセトラ。

広告を非表示にする

計算したくない

メモ

だめなほうにベイズ改訂されたなこりゃ。まいったなあ。いやだなあ。こわいなこわいなー。

広告を非表示にする

圧倒的乱雑さ

論理的・論理風

異動についてはネタが尽きないなあ。(正しくは「推測については」、だと思うけど)
hirschkalb.hateblo.jp

いま『Data Science for Business』(Foster Provost, Tom Fawcett著、O'Reilly Copyright 2013 Foster Provost and Tom Fawcett, ISBN978-1-449-36132-7, 邦題『戦略的データサイエンス入門』オライリー・ジャパン、ISBN978-4-87311-685-3)を読んでて*1、よく聞くけどよくわかんないエントロピーのお話が出てきたが、案外すっきり書かれているので復習のために上記の異動の話をネタに確認してみようというものです。

まず、エントロピーとはこういうものらしい。

entropy=-p_{1}\log(p_{1})-p_{2}\log(p_{2})-...

このときの p_{i} は「データセット中に存在するあるインスタンスの特性(目的変数)が i という値である確率(相対的な割合)」なのだそうだが、たぶんこの文章を初見する人は何を言っているのかよくわからないだろうから簡単のため「p_{i} はとりあえず確率らしい」というくらいのことでいいと思う。エントロピーは乱雑さが最小のとき0で、最大のとき1となる。

そんでもってある部署に留まる確率と異動する確率は別の機会に予定していたのでこうなっている;

Pr(here|here)=P_{here, here}=P_{1,1}=0.68

Pr(there|here)=P_{here, there}=P_{1,2}=0.32

これについてエントロピーを出すとこうなる:

entropy=-\left[0.68*\log_{2}(0.68)+0.32*\log_{2}(0.32)\right]\approx-(0.68*-0.56+0.32*-1.64)\approx0.91

わりと乱雑(純粋でない)ということなのか。(参考:エントロピー - Wikipedia

*1:なぜやたらと詳しく出典を示しているのか。それについては本書の「はじめに」のxvページをご参照ください。

広告を非表示にする

I have a bad feeling about this.

メモ

嫌な予感がする。杞憂であってほしい……のか? 本当にそう思うのか?
さあねえ。

広告を非表示にする

いい会話

SLA(第二言語習得)

マイクロフト・ホームズとジョン・ワトソンの会話が好きだ。なんかおしゃれな感じがする。(小並感)

MH: Do you plan to continue your association with Sherlock Holmes?
JW: I could be wrong, but I think that's none of your business.
MH: It could be.
JW: It really couldn't.
(from SHERLOCK Series 1)

広告を非表示にする

割合の標準誤差

論理的・論理風

お前は異動にこだわり過ぎだぞシリーズその2。

異動の確率(いまの部署に居残るかほかの部署に異動するか、でモデル化できる)を遷移[確率]行列で適当にあらわしてみると、こうなる:

P=\left[\begin{matrix}0.68&0.32\\0.01&0.99\end{matrix}\right]

この P はこう読む。すなわち、いまの部署Aで1年を過ごした後、その部署Aにもう1年いる確率は0.68であり、ほかの部署Bに移動したならば次の年にまたAに戻ってくる確率は0.01である。

とてもシンプルな異動モデル - hirschkalb's blog

条件付き確率のような表現方法もやっておこうと思う:

Pr(here|here)=P_{here, here}=P_{1,1}=0.68

Pr(there|here)=P_{here, there}=P_{1,2}=0.32

Pr(here|there)=P_{there, here}=P_{2,1}=0.01

Pr(there|there)=P_{there, there}=P_{2,2}=0.99

あとは、割合についての標準誤差もやろう。割合の標準誤差は次のとおり:

SE_{ratio} = \large{\sqrt{\frac{\overbrace{r(1-r)}^{\sigma^2}}{n}}}

仮に上記の遷移確率行列が50件によるものとすれば:

SE_{ratio} = \large{\sqrt{\frac{\overbrace{0.68(0.32)}^{\sigma^2}}{50}}}\normalsize{=0.06596969001}

ということは0.68という割合はこれくらいの幅があると思っていればいい(のかな?*1):

61.41\%\leq68\%\leq74.59\%

いや、ちがうちがう。2\sigma=2SD (平均から標準偏差2つ分の範囲)は「わりとある」と思っていいのだから、2s=2SE_{ratio} で考えようか:

54.8\%\leq68\%\leq81.19\%

*1:だんだん自信なくなってきた

広告を非表示にする