takeda_san’s blog

KotlinとVRを頑張っていく方向。

2017-01-01から1年間の記事一覧

サンプルプログラムをいじろう その1

前回のあらすじ 多層パーセプトロンプログラムを読んだ。 takeda-san.hatenablog.com やったこと 今回からサンプルプログラムを少しいじって、何かデータを解析してみる。 どうせやるなら心躍る題材をということで、株価をデータとして扱います。 2015年の株…

多層パーセプトロンプログラムの理解

前回のあらすじ パーセプトロンプログラムを最後まで読んだ。 takeda-san.hatenablog.com やったこと 今回からは多層パーセプトロンプログラムを読んでいく。 courseraの機械学習動画や各種技術書で基礎をじっくりと… と思っていたが結局プログラムを実際に…

パーセプトロンプログラムの理解 その4

前回のあらすじ 学習率と重みについて、少し深堀り。 takeda-san.hatenablog.com やったこと 学習の実行と結果表示部分のプログラムを読む。 // 確認用のリスナーを追加 perceptron.setListeners( new ScoreIterationListener(1) ); // 学習(fit) perceptron…

学習率、重みってなんだ?

前回のあらすじ ニューラルネットワークの定義、生成部分のコードを読んだ。 takeda-san.hatenablog.com やったこと 重みってなんだ? 前回のニューラルネットワークの定義の中で重みというパラメータが登場した。 この重みは、以前にやった下記の数式におけ…

パーセプトロンプログラムの理解 その3

前回のあらすじ 学習データの生成方法部分を読んだ。 takeda-san.hatenablog.com やったこと なんとも本丸感がある、このワンライナー。 落ち着いてひとずつ確認していきます。 // ニューラルネットワークを定義 MultiLayerConfiguration.Builder builder = …

パーセプトロンプログラムの理解 その2

前回のあらすじ 活性化関数として使われる、シグモイド関数。 誤差関数として使われるMSEについてそれとなくわかった気になる。 takeda-san.hatenablog.com やったこと 実際にプログラムを読んでいく。 INDArray tIn = Nd4j.create( new float[]{ 1 , 1 , //…

パーセプトロンプログラムの理解 その1

前回のあらすじ なぜ4層以上がDeep Learningなのかをふわっと理解。 takeda-san.hatenablog.com やったこと パーセプトロンの実装例のプログラムを読む ここのパーセプトロンの実装プログラム(Perceptron.java)を読んでいきます。 Java DeepLearning4j 基本…

なぜ中間層(隠れ層)が増えるとDeep Learningなのか

前回のあらすじ ニューラルネットワークの基本を勉強。 「ニューラルネットワークとは?」、「学習(誤差逆伝搬法)」、「階層型ニューラルネットワーク」をなんとなく、ふわっと理解する。 takeda-san.hatenablog.com やったこと なぜ中間層(隠れ層)が増える…

ニューラルネットワークの基本を勉強する

前回のあらすじ 環境構築がちゃんとできたかを確認するために、サンプルプログラムを実行。 なにやら結果が出たので一安心。 takeda-san.hatenablog.com やったこと ここのサンプルプログラムを読んで何をしているのかわかった気になりたかったが そもそも、…

Deeplearning4jを使って何か動かしてみる

前回のあらすじ EclipseでDeepLearning4jの環境構築をしました。 takeda-san.hatenablog.com やったこと Deeplearning4j入門の「基本的な利用方法」をコピペして動かしてみる。 Java DeepLearning4j 基本的な利用方法|軽Lab ひとまずサンプルプログラムをそ…

EclipseでDeeeplearning4jを使いたい

動機 興味本位で読んだかずー氏本こと「コンピューターで「脳」がつくれるか」を読んでわくわくしたので。 オラ、わくわくすっぞ。(後半は正直理解してない) あと、「Deep Learning Javaプログラミング 深層学習の理論と実装」を読んでいてプログラムかきな…