本ページはアフィリエイトプログラムによる収益を得ています
- Amazon.co.jp ・本 (224ページ)
- / ISBN・EAN: 9784627813212
感想・レビュー・書評
-
代数幾何がどんなものなのか知りたかったのと、今はやりの人工知能との関連に興味があって読んでみた。
学習理論において、真の確率分布が学習モデルのあるパラメータで与えられると仮定すると、そのパラメータの集合は特異点を含むそうだ。しかし特異点解消定理というものがあって、これを用いることで、学習モデルを各変数の積という極めて分かりやすい形式に変換することができる。この関数で定義されるゼータ関数は簡単に積分できて、その極、位数が学習モデルの挙動を調べるのに役に立つということだ。
なかなか難解な理論が使われていて、読むのに苦労した。ただ、学習モデルにおいて、サンプル空間がルベーグ積分で評価されることと、パラメータ空間が解析性で評価されることは何となくわかった。サンプル空間は外れ値やノイズなどがあるため、解析性よりもルベーグ可積性、パラメータ空間は、勾配降下法や特異点の解消を考慮して、解析性を仮定することなどは妥当なことと思われた。
超関数について新たに知ったこと。超関数はほとんど積分核で表現できるということ。(超関数空間の適当な位相に関して積分核の集合が稠密であること。)というわけで機械学習でもカーネルの理論は超関数の理論と言ってもほとんど同じ(と思う。)詳細をみるコメント0件をすべて表示 -
うーん。なぜ確率の方をいれるんだろうか。。。。ちょっとちがった!
全2件中 1 - 2件を表示