国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

RNN理解與實(shí)踐

mating / 2589人閱讀

摘要:實(shí)踐股票預(yù)測(cè)原始數(shù)據(jù)下載代碼單層數(shù)據(jù)預(yù)處理導(dǎo)入數(shù)據(jù)最高價(jià)按時(shí)間升序標(biāo)準(zhǔn)化生成訓(xùn)練集時(shí)間步輸出維度每一批次訓(xùn)練多少個(gè)樣例輸入維度輸出維度學(xué)習(xí)率訓(xùn)練集構(gòu)建圖變量模型保存模型訓(xùn)練模型執(zhí)行圖每步保存一次參數(shù)保存模型參考單層多層雙向參數(shù)

實(shí)踐 股票預(yù)測(cè) 原始數(shù)據(jù)

下載

代碼(單層LSTM)
# 數(shù)據(jù)預(yù)處理
## 導(dǎo)入數(shù)據(jù)
df = pd.read_csv("/Users/Nick/Desktop/stock_dataset.csv")
data = np.array(df["最高價(jià)"])
data = data[::-1] # 按時(shí)間升序
normalize_data=(data-np.mean(data))/np.std(data) #標(biāo)準(zhǔn)化
normalize_data=normalize_data[:,np.newaxis]# (6111, 1)
## 生成訓(xùn)練集
time_step=20    #時(shí)間步
rnn_unit=10       #lstm輸出維度
batch_size=60   #每一批次訓(xùn)練多少個(gè)樣例
input_size=1      #輸入維度
output_size=1   #輸出維度
lr=0.0006         #學(xué)習(xí)率
train_x,train_y=[],[]   #訓(xùn)練集
for i in range(len(normalize_data)-time_step-1):
    x=normalize_data[i:i+time_step]
    y=normalize_data[i+1:i+time_step+1]
    train_x.append(x.tolist()) # (6090, 20, 1)
    train_y.append(y.tolist()) # (6090, 20, 1)

# 構(gòu)建圖
tf.reset_default_graph()
## 變量
X = tf.placeholder(tf.float32, [batch_size, time_step, input_size])
Y = tf.placeholder(tf.float32, [batch_size, time_step, output_size])
## 模型
cell = tf.nn.rnn_cell.LSTMCell(rnn_unit, num_proj=output_size)
output_rnn, final_states = tf.nn.dynamic_rnn(cell, X,initial_state=init_state, dtype=tf.float32)
pred = output_rnn
loss=tf.reduce_mean(tf.square(tf.reshape(pred,[-1])-tf.reshape(Y, [-1])))
train_op=tf.train.AdamOptimizer(lr).minimize(loss)
saver=tf.train.Saver(tf.global_variables()) # 保存模型

# 訓(xùn)練模型(執(zhí)行圖)
with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
    for i in range(100):
        step=0
        start=0
        end=start+batch_size
        while(end
參考

單層/多層/雙向LSTM參數(shù)含義及實(shí)踐
LSTM中units參數(shù)的理解
理解LSTM網(wǎng)絡(luò)譯文
有趣的RNN實(shí)踐

文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://m.specialneedsforspecialkids.com/yun/43367.html

相關(guān)文章

  • 從圖像到知識(shí):深度神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)圖像理解的原理解

    摘要:本文將詳細(xì)解析深度神經(jīng)網(wǎng)絡(luò)識(shí)別圖形圖像的基本原理。卷積神經(jīng)網(wǎng)絡(luò)與圖像理解卷積神經(jīng)網(wǎng)絡(luò)通常被用來張量形式的輸入,例如一張彩色圖象對(duì)應(yīng)三個(gè)二維矩陣,分別表示在三個(gè)顏色通道的像素強(qiáng)度。 本文將詳細(xì)解析深度神經(jīng)網(wǎng)絡(luò)識(shí)別圖形圖像的基本原理。針對(duì)卷積神經(jīng)網(wǎng)絡(luò),本文將詳細(xì)探討網(wǎng)絡(luò) 中每一層在圖像識(shí)別中的原理和作用,例如卷積層(convolutional layer),采樣層(pooling layer),...

    UnixAgain 評(píng)論0 收藏0
  • 機(jī)器學(xué)習(xí)

    摘要:用離散信一文清晰講解機(jī)器學(xué)習(xí)中梯度下降算法包括其變式算法無論是要解決現(xiàn)實(shí)生活中的難題,還是要?jiǎng)?chuàng)建一款新的軟件產(chǎn)品,我們最終的目標(biāo)都是使其達(dá)到最優(yōu)狀態(tài)。 提高駕駛技術(shù):用GAN去除(愛情)動(dòng)作片中的馬賽克和衣服 作為一名久經(jīng)片場(chǎng)的老司機(jī),早就想寫一些探討駕駛技術(shù)的文章。這篇就介紹利用生成式對(duì)抗網(wǎng)絡(luò)(GAN)的兩個(gè)基本駕駛技能: 1) 去除(愛情)動(dòng)作片中的馬賽克 2) 給(愛情)動(dòng)作片中...

    wums 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

最新活動(dòng)
閱讀需要支付1元查看
<