国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

人工智能術(shù)語表

pingan8787 / 3005人閱讀

摘要:如果你對(duì)算法實(shí)戰(zhàn)感興趣,請(qǐng)快快關(guān)注我們吧。加入實(shí)戰(zhàn)微信群,實(shí)戰(zhàn)群,算法微信群,算法群。

作者:chen_h
微信號(hào) & QQ:862251340
微信公眾號(hào):coderpai
簡(jiǎn)書地址:https://www.jianshu.com/p/b5c...


介紹一些人工智能技術(shù)的術(shù)語,如果你還有術(shù)語補(bǔ)充,請(qǐng)?jiān)L問 Github
English Terminology 中文術(shù)語
neural networks 神經(jīng)網(wǎng)絡(luò)
activation function 激活函數(shù)
hyperbolic tangent 雙曲正切函數(shù)
bias units 偏置項(xiàng)
activation 激活值
forward propagation 前向傳播
feedforward neural network 前饋神經(jīng)網(wǎng)絡(luò)
Backpropagation Algorithm 反向傳播算法
(batch) gradient descent (批量)梯度下降法
(overall) cost function (整體)代價(jià)函數(shù)
squared-error 方差
average sum-of-squares error 均方差
regularization term 規(guī)則化項(xiàng)
weight decay 權(quán)重衰減
bias terms 偏置項(xiàng)
Bayesian regularization method 貝葉斯規(guī)則化方法
Gaussian prior 高斯先驗(yàn)概率
MAP 極大后驗(yàn)估計(jì)
maximum likelihood estimation 極大似然估計(jì)
activation function 激活函數(shù)
tanh function 雙曲正切函數(shù)
non-convex function 非凸函數(shù)
hidden (layer) units 隱藏層單元
symmetry breaking 對(duì)稱失效
learning rate 學(xué)習(xí)速率
forward pass 前向傳導(dǎo)
hypothesis 假設(shè)值
error term 殘差
weighted average 加權(quán)平均值
feedforward pass 前饋傳導(dǎo)
Hadamard product 阿達(dá)馬乘積
forward propagation 前向傳播
off-by-one error 缺位錯(cuò)誤
bias term 偏置項(xiàng)
numerically checking 數(shù)值檢驗(yàn)
numerical roundoff errors 數(shù)值舍入誤差
significant digits 有效數(shù)字
unrolling 組合擴(kuò)展
learning rate 學(xué)習(xí)速率
Hessian matrix Hessian 矩陣
Newton"s method 牛頓法
conjugate gradient 共軛梯度
step-size 步長(zhǎng)值
Autoencoders 自編碼算法
Sparsity 稀疏性
neural networks 神經(jīng)網(wǎng)絡(luò)
supervised learning 監(jiān)督學(xué)習(xí)
unsupervised learning 無監(jiān)督學(xué)習(xí)
hidden units 隱藏神經(jīng)元
the pixel intensity value 像素灰度值
IID 獨(dú)立同分布
PCA 主元分析
active 激活
inactive 抑制
activation function 激活函數(shù)
activation 激活度
the average activation 平均活躍度
sparsity parameter 稀疏性參數(shù)
penalty term 懲罰因子
KL divergence KL 散度
Bernoulli random variable 伯努利隨機(jī)變量
overall cost function 總體代價(jià)函數(shù)
backpropagation 后向傳播
forward pass 前向傳播
gradient descent 梯度下降
the objective 目標(biāo)函數(shù)
the derivative checking method 梯度驗(yàn)證方法
Visualizing 可視化
Autoencoder 自編碼器
hidden unit 隱藏單元
non-linear feature 非線性特征
activate 激勵(lì)
trivial answer 平凡解
norm constrained 范數(shù)約束
sparse autoencoder 稀疏自編碼器
norm bounded 有界范數(shù)
input domains 輸入域
vectorization 矢量化
Logistic Regression 邏輯回歸
batch gradient ascent 批量梯度上升法
intercept term 截距
the log likelihood 對(duì)數(shù)似然函數(shù)
derivative 導(dǎo)函數(shù)
gradient 梯度
vectorization 向量化
forward propagation 正向傳播
backpropagation 反向傳播
training examples 訓(xùn)練樣本
activation function 激活函數(shù)
sparse autoencoder 稀疏自編碼網(wǎng)絡(luò)
sparsity penalty 稀疏懲罰
average firing rate 平均激活率
Principal Components Analysis 主成份分析
whitening 白化
intensity 亮度
mean 平均值
variance 方差
covariance matrix 協(xié)方差矩陣
basis
magnitude 幅值
stationarity 平穩(wěn)性
normalization 歸一化
eigenvector 特征向量
redundant 冗余
variance 方差
smoothing 平滑
dimensionality reduction 降維
regularization 正則化
reflection matrix 反射矩陣
decorrelation 去相關(guān)
Principal Components Analysis (PCA) 主成分分析
zero-mean 均值為零
mean value 均值
eigenvalue 特征值
symmetric positive semi-definite matrix 對(duì)稱半正定矩陣
numerically reliable 數(shù)值計(jì)算上穩(wěn)定
sorted in decreasing order 降序排列
singular value 奇異值
singular vector 奇異向量
vectorized implementation 向量化實(shí)現(xiàn)
diagonal 對(duì)角線
Softmax Regression Softmax回歸
supervised learning 有監(jiān)督學(xué)習(xí)
unsupervised learning 無監(jiān)督學(xué)習(xí)
deep learning 深度學(xué)習(xí)
logistic regression logistic回歸
intercept term 截距項(xiàng)
binary classification 二元分類
class labels 類型標(biāo)記
hypothesis 估值函數(shù)/估計(jì)值
cost function 代價(jià)函數(shù)
multi-class classification 多元分類
weight decay 權(quán)重衰減
self-taught learning 自我學(xué)習(xí)/自學(xué)習(xí)
unsupervised feature learning 無監(jiān)督特征學(xué)習(xí)
autoencoder 自編碼器
semi-supervised learning 半監(jiān)督學(xué)習(xí)
deep networks 深層網(wǎng)絡(luò)
fine-tune 微調(diào)
unsupervised feature learning 非監(jiān)督特征學(xué)習(xí)
pre-training 預(yù)訓(xùn)練
Deep Networks 深度網(wǎng)絡(luò)
deep neural networks 深度神經(jīng)網(wǎng)絡(luò)
non-linear transformation 非線性變換
represent compactly 簡(jiǎn)潔地表達(dá)
part-whole decompositions “部分-整體”的分解
parts of objects 目標(biāo)的部件
highly non-convex optimization problem 高度非凸的優(yōu)化問題
conjugate gradient 共軛梯度
diffusion of gradients 梯度的彌散
Greedy layer-wise training 逐層貪婪訓(xùn)練方法
autoencoder 自動(dòng)編碼器
Greedy layer-wise training 逐層貪婪訓(xùn)練法
Stacked autoencoder 棧式自編碼神經(jīng)網(wǎng)絡(luò)
Fine-tuning 微調(diào)
Raw inputs 原始輸入
Hierarchical grouping 層次型分組
Part-whole decomposition 部分-整體分解
First-order features 一階特征
Second-order features 二階特征
Higher-order features 更高階特征
Linear Decoders 線性解碼器
Sparse Autoencoder 稀疏自編碼
input layer 輸入層
hidden layer 隱含層
output layer 輸出層
neuron 神經(jīng)元
robust 魯棒
sigmoid activation function S型激勵(lì)函數(shù)
tanh function tanh激勵(lì)函數(shù)
linear activation function 線性激勵(lì)函數(shù)
identity activation function 恒等激勵(lì)函數(shù)
hidden unit 隱單元
weight 權(quán)重
error term 偏差項(xiàng)
Full Connected Networks 全連接網(wǎng)絡(luò)
Sparse Autoencoder 稀疏編碼
Feedforward 前向輸送
Backpropagation 反向傳播
Locally Connected Networks 部分聯(lián)通網(wǎng)絡(luò)
Contiguous Groups 連接區(qū)域
Visual Cortex 視覺皮層
Convolution 卷積
Stationary 固有特征
Pool 池化
features 特征
example 樣例
over-fitting 過擬合
translation invariant 平移不變性
pooling 池化
extract 提取
object detection 物體檢測(cè)
DC component 直流分量
local mean subtraction 局部均值消減
sparse autoencoder 消減歸一化
rescaling 縮放
per-example mean subtraction 逐樣本均值消減
feature standardization 特征標(biāo)準(zhǔn)化
stationary 平穩(wěn)
zero-mean 零均值化
low-pass filtering 低通濾波
reconstruction based models 基于重構(gòu)的模型
RBMs 受限Boltzman機(jī)
k-Means k-均值
long tail 長(zhǎng)尾
loss function 損失函數(shù)
orthogonalization 正交化
Sparse Coding 稀疏編碼
unsupervised method 無監(jiān)督學(xué)習(xí)
over-complete bases 超完備基
degeneracy 退化
reconstruction term 重構(gòu)項(xiàng)
sparsity penalty 稀疏懲罰項(xiàng)
norm 范式
generative model 生成模型
linear superposition 線性疊加
additive noise 加性噪聲
basis feature vectors 特征基向量
the empirical distribution 經(jīng)驗(yàn)分布函數(shù)
the log-likelihood 對(duì)數(shù)似然函數(shù)
Gaussian white noise 高斯白噪音
the prior distribution 先驗(yàn)分布
prior probability 先驗(yàn)概率
source features 源特征
the energy function 能量函數(shù)
regularized 正則化
least squares 最小二乘法
convex optimization software 凸優(yōu)化軟件
conjugate gradient methods 共軛梯度法
quadratic constraints 二次約束
the Lagrange dual 拉格朗日對(duì)偶函數(shù)
feedforward architectures 前饋結(jié)構(gòu)算法
Independent Component Analysis 獨(dú)立成分分析
Over-complete basis 超完備基
Orthonormal basis 標(biāo)準(zhǔn)正交基
Sparsity penalty 稀疏懲罰項(xiàng)
Under-complete basis 不完備基
Line-search algorithm 線搜索算法
Topographic cost term 拓?fù)浯鷥r(jià)項(xiàng)

作者:chen_h
微信號(hào) & QQ:862251340
簡(jiǎn)書地址:https://www.jianshu.com/p/b5c...

CoderPai 是一個(gè)專注于算法實(shí)戰(zhàn)的平臺(tái),從基礎(chǔ)的算法到人工智能算法都有設(shè)計(jì)。如果你對(duì)算法實(shí)戰(zhàn)感興趣,請(qǐng)快快關(guān)注我們吧。加入AI實(shí)戰(zhàn)微信群,AI實(shí)戰(zhàn)QQ群,ACM算法微信群,ACM算法QQ群。長(zhǎng)按或者掃描如下二維碼,關(guān)注 “CoderPai” 微信號(hào)(coderpai)

文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://m.specialneedsforspecialkids.com/yun/41151.html

相關(guān)文章

  • Hyperledger Fabric(術(shù)語

    摘要:區(qū)塊鏈接到區(qū)塊,區(qū)塊鏈接到區(qū)塊。共識(shí)整個(gè)交易流的更廣泛的術(shù)語,用于生成順序協(xié)議并確認(rèn)構(gòu)成區(qū)塊的交易集合的正確性。策略策略是由數(shù)字身份的屬性組成的表達(dá)式,例如。在中,智能合約被稱為鏈碼,智能合約鏈碼安裝在對(duì)等節(jié)點(diǎn)上并實(shí)例化為一個(gè)或多個(gè)通道。 術(shù)語表 術(shù)語很重要,以便所有Hyperledger Fabric用戶和開發(fā)人員都同意每個(gè)特定術(shù)語的含義,例如,什么是智能合約。文檔將根據(jù)需要引用術(shù)語...

    wind3110991 評(píng)論0 收藏0
  • Hyperledger Fabric(目錄)

    摘要:企業(yè)區(qū)塊鏈平臺(tái)企業(yè)級(jí)許可的分布式分類賬平臺(tái),為廣泛的行業(yè)用例提供模塊化和多功能性。這些節(jié)點(diǎn)通過應(yīng)用已經(jīng)由共識(shí)協(xié)議驗(yàn)證的交易來維護(hù)分類帳的副本,該交易被分組為包括將每個(gè)塊綁定到前一個(gè)塊的散列的塊中。 企業(yè)區(qū)塊鏈平臺(tái) 企業(yè)級(jí)許可的分布式分類賬平臺(tái),為廣泛的行業(yè)用例提供模塊化和多功能性。 介紹 一般而言,區(qū)塊鏈?zhǔn)且粋€(gè)不可變的交易分類賬,維護(hù)在一個(gè)分布式對(duì)等節(jié)點(diǎn)網(wǎng)絡(luò)中。這些節(jié)點(diǎn)通過應(yīng)用已經(jīng)由共...

    trigkit4 評(píng)論0 收藏0
  • 敏捷AI | NLP技術(shù)在宜信業(yè)務(wù)中的實(shí)踐【背景篇】

    摘要:技術(shù)在宜信宜信擁有豐富的業(yè)務(wù)和產(chǎn)品線,這些產(chǎn)品線產(chǎn)生了大量的人工智能賦能需求。技術(shù)在宜信的實(shí)踐背景暫且介紹到這里,接下來我們會(huì)為大家介 文章圍繞基于機(jī)器學(xué)習(xí)的NLP技術(shù)在宜信內(nèi)部各業(yè)務(wù)領(lǐng)域的應(yīng)用實(shí)踐展開,分享這一過程中的相關(guān)經(jīng)驗(yàn),包括智能機(jī)器人在業(yè)務(wù)支持、客戶服務(wù)中的探索,基于文本語義分析的用戶畫像構(gòu)建,以及NLP算法服務(wù)平臺(tái)化實(shí)施思路等。本文為背景篇,敬請(qǐng)大家閱讀~ 作者:井玉欣。畢...

    myshell 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

最新活動(dòng)
閱讀需要支付1元查看
<