摘要:實(shí)踐股票預(yù)測(cè)原始數(shù)據(jù)下載代碼單層數(shù)據(jù)預(yù)處理導(dǎo)入數(shù)據(jù)最高價(jià)按時(shí)間升序標(biāo)準(zhǔn)化生成訓(xùn)練集時(shí)間步輸出維度每一批次訓(xùn)練多少個(gè)樣例輸入維度輸出維度學(xué)習(xí)率訓(xùn)練集構(gòu)建圖變量模型保存模型訓(xùn)練模型執(zhí)行圖每步保存一次參數(shù)保存模型參考單層多層雙向參數(shù)
實(shí)踐 股票預(yù)測(cè) 原始數(shù)據(jù)
下載
# 數(shù)據(jù)預(yù)處理 ## 導(dǎo)入數(shù)據(jù) df = pd.read_csv("/Users/Nick/Desktop/stock_dataset.csv") data = np.array(df["最高價(jià)"]) data = data[::-1] # 按時(shí)間升序 normalize_data=(data-np.mean(data))/np.std(data) #標(biāo)準(zhǔn)化 normalize_data=normalize_data[:,np.newaxis]# (6111, 1) ## 生成訓(xùn)練集 time_step=20 #時(shí)間步 rnn_unit=10 #lstm輸出維度 batch_size=60 #每一批次訓(xùn)練多少個(gè)樣例 input_size=1 #輸入維度 output_size=1 #輸出維度 lr=0.0006 #學(xué)習(xí)率 train_x,train_y=[],[] #訓(xùn)練集 for i in range(len(normalize_data)-time_step-1): x=normalize_data[i:i+time_step] y=normalize_data[i+1:i+time_step+1] train_x.append(x.tolist()) # (6090, 20, 1) train_y.append(y.tolist()) # (6090, 20, 1) # 構(gòu)建圖 tf.reset_default_graph() ## 變量 X = tf.placeholder(tf.float32, [batch_size, time_step, input_size]) Y = tf.placeholder(tf.float32, [batch_size, time_step, output_size]) ## 模型 cell = tf.nn.rnn_cell.LSTMCell(rnn_unit, num_proj=output_size) output_rnn, final_states = tf.nn.dynamic_rnn(cell, X,initial_state=init_state, dtype=tf.float32) pred = output_rnn loss=tf.reduce_mean(tf.square(tf.reshape(pred,[-1])-tf.reshape(Y, [-1]))) train_op=tf.train.AdamOptimizer(lr).minimize(loss) saver=tf.train.Saver(tf.global_variables()) # 保存模型 # 訓(xùn)練模型(執(zhí)行圖) with tf.Session() as sess: sess.run(tf.global_variables_initializer()) for i in range(100): step=0 start=0 end=start+batch_size while(end參考 單層/多層/雙向LSTM參數(shù)含義及實(shí)踐
LSTM中units參數(shù)的理解
理解LSTM網(wǎng)絡(luò)譯文
有趣的RNN實(shí)踐
文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請(qǐng)注明本文地址:http://m.specialneedsforspecialkids.com/yun/43367.html
摘要:本文將詳細(xì)解析深度神經(jīng)網(wǎng)絡(luò)識(shí)別圖形圖像的基本原理。卷積神經(jīng)網(wǎng)絡(luò)與圖像理解卷積神經(jīng)網(wǎng)絡(luò)通常被用來張量形式的輸入,例如一張彩色圖象對(duì)應(yīng)三個(gè)二維矩陣,分別表示在三個(gè)顏色通道的像素強(qiáng)度。 本文將詳細(xì)解析深度神經(jīng)網(wǎng)絡(luò)識(shí)別圖形圖像的基本原理。針對(duì)卷積神經(jīng)網(wǎng)絡(luò),本文將詳細(xì)探討網(wǎng)絡(luò) 中每一層在圖像識(shí)別中的原理和作用,例如卷積層(convolutional layer),采樣層(pooling layer),...
摘要:用離散信一文清晰講解機(jī)器學(xué)習(xí)中梯度下降算法包括其變式算法無論是要解決現(xiàn)實(shí)生活中的難題,還是要?jiǎng)?chuàng)建一款新的軟件產(chǎn)品,我們最終的目標(biāo)都是使其達(dá)到最優(yōu)狀態(tài)。 提高駕駛技術(shù):用GAN去除(愛情)動(dòng)作片中的馬賽克和衣服 作為一名久經(jīng)片場(chǎng)的老司機(jī),早就想寫一些探討駕駛技術(shù)的文章。這篇就介紹利用生成式對(duì)抗網(wǎng)絡(luò)(GAN)的兩個(gè)基本駕駛技能: 1) 去除(愛情)動(dòng)作片中的馬賽克 2) 給(愛情)動(dòng)作片中...
閱讀 709·2021-11-15 11:37
閱讀 3333·2021-10-27 14:14
閱讀 6132·2021-09-13 10:30
閱讀 2975·2021-09-04 16:48
閱讀 1941·2021-08-18 10:22
閱讀 2139·2019-08-30 14:19
閱讀 741·2019-08-30 10:54
閱讀 1758·2019-08-29 18:40