代数幾何と学習理論 (知能情報科学シリーズ)

著者 :
  • 森北出版株式会社
3.00
  • (0)
  • (2)
  • (9)
  • (0)
  • (1)
本棚登録 : 75
感想 : 2
本ページはアフィリエイトプログラムによる収益を得ています
  • Amazon.co.jp ・本 (224ページ)
  • / ISBN・EAN: 9784627813212

感想・レビュー・書評

並び替え
表示形式
表示件数
絞り込み
  • 代数幾何がどんなものなのか知りたかったのと、今はやりの人工知能との関連に興味があって読んでみた。

    学習理論において、真の確率分布が学習モデルのあるパラメータで与えられると仮定すると、そのパラメータの集合は特異点を含むそうだ。しかし特異点解消定理というものがあって、これを用いることで、学習モデルを各変数の積という極めて分かりやすい形式に変換することができる。この関数で定義されるゼータ関数は簡単に積分できて、その極、位数が学習モデルの挙動を調べるのに役に立つということだ。

    なかなか難解な理論が使われていて、読むのに苦労した。ただ、学習モデルにおいて、サンプル空間がルベーグ積分で評価されることと、パラメータ空間が解析性で評価されることは何となくわかった。サンプル空間は外れ値やノイズなどがあるため、解析性よりもルベーグ可積性、パラメータ空間は、勾配降下法や特異点の解消を考慮して、解析性を仮定することなどは妥当なことと思われた。

    超関数について新たに知ったこと。超関数はほとんど積分核で表現できるということ。(超関数空間の適当な位相に関して積分核の集合が稠密であること。)というわけで機械学習でもカーネルの理論は超関数の理論と言ってもほとんど同じ(と思う。)

  • うーん。なぜ確率の方をいれるんだろうか。。。。ちょっとちがった!

全2件中 1 - 2件を表示

渡辺澄夫の作品

  • 話題の本に出会えて、蔵書管理を手軽にできる!ブクログのアプリ AppStoreからダウンロード GooglePlayで手に入れよう
ツイートする
×