国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

探索大型神經(jīng)網(wǎng)絡(luò)智能調(diào)參(一):構(gòu)建大規(guī)模BPNN

趙連江 / 3391人閱讀

摘要:此神經(jīng)網(wǎng)絡(luò)有個(gè)隱含層,每層個(gè)節(jié)點(diǎn),個(gè)是一個(gè)預(yù)測(cè)類的后向反饋神經(jīng)網(wǎng)絡(luò),建立值用以量化某聲學(xué)設(shè)備設(shè)計(jì)方案的好壞和個(gè)設(shè)計(jì)尺寸的函數(shù)關(guān)系。導(dǎo)入依賴庫(kù)用以處理矩陣數(shù)據(jù),用以可視化,用以訓(xùn)練后向反饋神經(jīng)網(wǎng)絡(luò)。

我們正在研究如何用更廉價(jià)、更高效、魯棒性更好的方法對(duì)大寬度、大深度的神經(jīng)網(wǎng)路進(jìn)行調(diào)參(hidden layer的層數(shù),每層layer的節(jié)點(diǎn),epochs,batch_size)。
無(wú)論如何,先構(gòu)建一個(gè)規(guī)模較大的神經(jīng)網(wǎng)絡(luò),要保證訓(xùn)練的時(shí)間(即使使用GPU計(jì)算)。
此神經(jīng)網(wǎng)絡(luò)有9個(gè)隱含層,每層400個(gè)節(jié)點(diǎn),1450401個(gè)trainable parameters,是一個(gè)預(yù)測(cè)類的后向反饋神經(jīng)網(wǎng)絡(luò),建立feval值(用以量化某聲學(xué)設(shè)備設(shè)計(jì)方案的好壞)和15個(gè)設(shè)計(jì)尺寸的函數(shù)關(guān)系。

1.導(dǎo)入依賴庫(kù)

pandas用以處理矩陣數(shù)據(jù),matplotlib用以可視化,keras用以訓(xùn)練后向反饋神經(jīng)網(wǎng)絡(luò)。

import pandas as pd
import matplotlib.pyplot as plt
from keras.models import Sequential
from keras.layers.core import Dense,Dropout, Activation
from keras.utils.vis_utils import plot_model

2.導(dǎo)入EXCEL文件中的數(shù)據(jù)

定義輸入文件、輸出文件、模型參數(shù)保存文件的目錄;
讀取excel數(shù)據(jù),定義15個(gè)feature和1個(gè)Label;
截取前40000個(gè)example作為訓(xùn)練數(shù)據(jù)集。

inputfile = "Dataset.xlsx"
outputfile = "output.xls"
modelfile = "modelweight.model"
data = pd.read_excel(inputfile,index="index",sheetname=0)
feature = ["l1","l2","l3","l4","l5",
           "p1","p2","p3","p4","p5",
           "h1","h2","h3","h4","h5"]
label = ["feval"]
data_train = data.loc[range(0,40000)].copy()

3.將數(shù)據(jù)歸一化,提高訓(xùn)練效率
計(jì)算各個(gè)特征和標(biāo)簽的平均值和標(biāo)準(zhǔn)差,用來(lái)做線性變換將數(shù)據(jù)歸一化,并轉(zhuǎn)化為矩陣格式。

data_mean = data_train.mean()
data_std = data_train.std()
data_train = (data_train - data_mean)/data_std
x_train = data_train[feature].as_matrix()
y_train = data_train[label].as_matrix()

4.建立深度學(xué)習(xí)模型
Sequential類的模型,輸入層接受15個(gè)輸入,輸出到第一個(gè)隱藏層的400個(gè)神經(jīng)元中,其后9個(gè)隱藏層都接受400個(gè)輸入并產(chǎn)生400個(gè)輸出。輸入層和隱藏層都采用ReLu作為激活函數(shù),Dropout概率都為1%。
采用均方根誤差(mse)值作為loss value,優(yōu)化器使用adam。
打印summary,并將結(jié)構(gòu)圖保存為png文件。

model = Sequential()
model.add(Dense(400,input_dim=15,kernel_initializer="uniform"))
model.add(Activation("relu"))
model.add(Dropout(0.01))
model.add(Dense(400,input_dim=400,kernel_initializer="uniform"))
model.add(Activation("relu"))
model.add(Dropout(0.01))
model.add(Dense(400,input_dim=400,kernel_initializer="uniform"))
model.add(Activation("relu"))
model.add(Dropout(0.01))
model.add(Dense(400,input_dim=400,kernel_initializer="uniform"))
model.add(Activation("relu"))
model.add(Dropout(0.01))
model.add(Dense(400,input_dim=400,kernel_initializer="uniform"))
model.add(Activation("relu"))
model.add(Dropout(0.01))
model.add(Dense(400,input_dim=400,kernel_initializer="uniform"))
model.add(Activation("relu"))
model.add(Dropout(0.01))
model.add(Dense(400,input_dim=400,kernel_initializer="uniform"))
model.add(Activation("relu"))
model.add(Dropout(0.01))
model.add(Dense(400,input_dim=400,kernel_initializer="uniform"))
model.add(Activation("relu"))
model.add(Dropout(0.01))
model.add(Dense(400,input_dim=400,kernel_initializer="uniform"))
model.add(Activation("relu"))
model.add(Dropout(0.01))
model.add(Dense(400,input_dim=400,kernel_initializer="uniform"))
model.add(Activation("relu"))
model.add(Dropout(0.01))
model.add(Dense(1,input_dim=400))
model.compile(loss="mean_squared_error", optimizer="adam")
print(model.summary())
plot_model(model, to_file="bpnn_predict_model.png",show_shapes=True)

5.訓(xùn)練模型
迭代200次,每一次批量梯度下降使用256個(gè)樣本。

model.fit(x_train, y_train, epochs = 200, batch_size = 256)

最終loss值穩(wěn)定在0.0035左右

6.測(cè)試模型
將data數(shù)據(jù)歸一化后使用訓(xùn)練的模型預(yù)測(cè)tl值,并保存到excel文件中。

x = ((data[feature] - data_mean[feature])/data_std[feature]).as_matrix()
data[u"feval_pred"] = model.predict(x) * data_std["feval"] + data_mean["feval"]
data.to_excel(outputfile)

打印預(yù)測(cè)值(除去訓(xùn)練集樣本)并與真實(shí)值進(jìn)行對(duì)比。

plt.xlim(6000, 16000)
plt.ylim(6000, 16000)
plt.gca().set_aspect(1)
plt.scatter(data["feval_pred"][40000:],data["feval"][40000:],s=1, c="b", marker=".")
plt.show()

文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://m.specialneedsforspecialkids.com/yun/40785.html

相關(guān)文章

  • DeepMind異步優(yōu)化算法PBT解決神經(jīng)網(wǎng)絡(luò)痛點(diǎn)

    摘要:目前,這些選擇又稱為超參數(shù)是通過(guò)經(jīng)驗(yàn),隨機(jī)搜索或計(jì)算密集型搜索過(guò)程來(lái)選擇的。該技術(shù)是超參數(shù)優(yōu)化最常用的兩種方法隨機(jī)搜索和手動(dòng)調(diào)試的結(jié)合。隨機(jī)搜索中會(huì)并行訓(xùn)練神經(jīng)網(wǎng)絡(luò)的群體,并在訓(xùn)練結(jié)束時(shí)選擇較高性能的模型。 在圍棋和Atari游戲、圖像識(shí)別與語(yǔ)言翻譯等領(lǐng)域,神經(jīng)網(wǎng)絡(luò)都取得了巨大的成功。但經(jīng)常被忽視的一點(diǎn)是,神經(jīng)網(wǎng)絡(luò)在這些特定應(yīng)用中的成功往往取決于研究開始時(shí)做出的一系列選擇,包括:使用何種類型...

    flybywind 評(píng)論0 收藏0
  • 華為云EI ModelArts,從0到1開發(fā)訓(xùn)練AI模型,通過(guò)“極快”和“極簡(jiǎn)”實(shí)現(xiàn)普惠AI

    摘要:華為云,從到開發(fā)訓(xùn)練模型,通過(guò)極快和極簡(jiǎn)實(shí)現(xiàn)普惠現(xiàn)如今技術(shù)概念火爆落地應(yīng)用更是繁多,但開發(fā)呢是否困難到底有多痛據(jù)了解,大部分開發(fā)者的工作時(shí)間并不長(zhǎng),并且十有八九可能不是科班出身。 華為云EI ModelArts,從0到1開發(fā)訓(xùn)練AI模型,通過(guò)極快和極簡(jiǎn)實(shí)現(xiàn)普惠AI現(xiàn)如今 AI 技術(shù)、概念火爆、落地應(yīng)用更是繁多,但開發(fā)呢?是否困難?到底有多痛?據(jù)了解,大部分 AI 開發(fā)者的工作時(shí)間并不長(zhǎng)...

    Alex 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

趙連江

|高級(jí)講師

TA的文章

閱讀更多
最新活動(dòng)
閱讀需要支付1元查看
<