摘要:如果你對(duì)算法實(shí)戰(zhàn)感興趣,請(qǐng)快快關(guān)注我們吧。加入實(shí)戰(zhàn)微信群,實(shí)戰(zhàn)群,算法微信群,算法群。
作者:chen_h
微信號(hào) & QQ:862251340
微信公眾號(hào):coderpai
簡(jiǎn)書地址:https://www.jianshu.com/p/b5c...
介紹一些人工智能技術(shù)的術(shù)語,如果你還有術(shù)語補(bǔ)充,請(qǐng)?jiān)L問 Github
English Terminology | 中文術(shù)語 |
---|---|
neural networks | 神經(jīng)網(wǎng)絡(luò) |
activation function | 激活函數(shù) |
hyperbolic tangent | 雙曲正切函數(shù) |
bias units | 偏置項(xiàng) |
activation | 激活值 |
forward propagation | 前向傳播 |
feedforward neural network | 前饋神經(jīng)網(wǎng)絡(luò) |
Backpropagation Algorithm | 反向傳播算法 |
(batch) gradient descent | (批量)梯度下降法 |
(overall) cost function | (整體)代價(jià)函數(shù) |
squared-error | 方差 |
average sum-of-squares error | 均方差 |
regularization term | 規(guī)則化項(xiàng) |
weight decay | 權(quán)重衰減 |
bias terms | 偏置項(xiàng) |
Bayesian regularization method | 貝葉斯規(guī)則化方法 |
Gaussian prior | 高斯先驗(yàn)概率 |
MAP | 極大后驗(yàn)估計(jì) |
maximum likelihood estimation | 極大似然估計(jì) |
activation function | 激活函數(shù) |
tanh function | 雙曲正切函數(shù) |
non-convex function | 非凸函數(shù) |
hidden (layer) units | 隱藏層單元 |
symmetry breaking | 對(duì)稱失效 |
learning rate | 學(xué)習(xí)速率 |
forward pass | 前向傳導(dǎo) |
hypothesis | 假設(shè)值 |
error term | 殘差 |
weighted average | 加權(quán)平均值 |
feedforward pass | 前饋傳導(dǎo) |
Hadamard product | 阿達(dá)馬乘積 |
forward propagation | 前向傳播 |
off-by-one error | 缺位錯(cuò)誤 |
bias term | 偏置項(xiàng) |
numerically checking | 數(shù)值檢驗(yàn) |
numerical roundoff errors | 數(shù)值舍入誤差 |
significant digits | 有效數(shù)字 |
unrolling | 組合擴(kuò)展 |
learning rate | 學(xué)習(xí)速率 |
Hessian matrix Hessian | 矩陣 |
Newton"s method | 牛頓法 |
conjugate gradient | 共軛梯度 |
step-size | 步長(zhǎng)值 |
Autoencoders | 自編碼算法 |
Sparsity | 稀疏性 |
neural networks | 神經(jīng)網(wǎng)絡(luò) |
supervised learning | 監(jiān)督學(xué)習(xí) |
unsupervised learning | 無監(jiān)督學(xué)習(xí) |
hidden units | 隱藏神經(jīng)元 |
the pixel intensity value | 像素灰度值 |
IID | 獨(dú)立同分布 |
PCA | 主元分析 |
active | 激活 |
inactive | 抑制 |
activation function | 激活函數(shù) |
activation | 激活度 |
the average activation | 平均活躍度 |
sparsity parameter | 稀疏性參數(shù) |
penalty term | 懲罰因子 |
KL divergence | KL 散度 |
Bernoulli random variable | 伯努利隨機(jī)變量 |
overall cost function | 總體代價(jià)函數(shù) |
backpropagation | 后向傳播 |
forward pass | 前向傳播 |
gradient descent | 梯度下降 |
the objective | 目標(biāo)函數(shù) |
the derivative checking method | 梯度驗(yàn)證方法 |
Visualizing | 可視化 |
Autoencoder | 自編碼器 |
hidden unit | 隱藏單元 |
non-linear feature | 非線性特征 |
activate | 激勵(lì) |
trivial answer | 平凡解 |
norm constrained | 范數(shù)約束 |
sparse autoencoder | 稀疏自編碼器 |
norm bounded | 有界范數(shù) |
input domains | 輸入域 |
vectorization | 矢量化 |
Logistic Regression | 邏輯回歸 |
batch gradient ascent | 批量梯度上升法 |
intercept term | 截距 |
the log likelihood | 對(duì)數(shù)似然函數(shù) |
derivative | 導(dǎo)函數(shù) |
gradient | 梯度 |
vectorization | 向量化 |
forward propagation | 正向傳播 |
backpropagation | 反向傳播 |
training examples | 訓(xùn)練樣本 |
activation function | 激活函數(shù) |
sparse autoencoder | 稀疏自編碼網(wǎng)絡(luò) |
sparsity penalty | 稀疏懲罰 |
average firing rate | 平均激活率 |
Principal Components Analysis | 主成份分析 |
whitening | 白化 |
intensity | 亮度 |
mean | 平均值 |
variance | 方差 |
covariance matrix | 協(xié)方差矩陣 |
basis | 基 |
magnitude | 幅值 |
stationarity | 平穩(wěn)性 |
normalization | 歸一化 |
eigenvector | 特征向量 |
redundant | 冗余 |
variance | 方差 |
smoothing | 平滑 |
dimensionality reduction | 降維 |
regularization | 正則化 |
reflection matrix | 反射矩陣 |
decorrelation | 去相關(guān) |
Principal Components Analysis (PCA) | 主成分分析 |
zero-mean | 均值為零 |
mean value | 均值 |
eigenvalue | 特征值 |
symmetric positive semi-definite matrix | 對(duì)稱半正定矩陣 |
numerically reliable | 數(shù)值計(jì)算上穩(wěn)定 |
sorted in decreasing order | 降序排列 |
singular value | 奇異值 |
singular vector | 奇異向量 |
vectorized implementation | 向量化實(shí)現(xiàn) |
diagonal | 對(duì)角線 |
Softmax Regression | Softmax回歸 |
supervised learning | 有監(jiān)督學(xué)習(xí) |
unsupervised learning | 無監(jiān)督學(xué)習(xí) |
deep learning | 深度學(xué)習(xí) |
logistic regression | logistic回歸 |
intercept term | 截距項(xiàng) |
binary classification | 二元分類 |
class labels | 類型標(biāo)記 |
hypothesis | 估值函數(shù)/估計(jì)值 |
cost function | 代價(jià)函數(shù) |
multi-class classification | 多元分類 |
weight decay | 權(quán)重衰減 |
self-taught learning | 自我學(xué)習(xí)/自學(xué)習(xí) |
unsupervised feature learning | 無監(jiān)督特征學(xué)習(xí) |
autoencoder | 自編碼器 |
semi-supervised learning | 半監(jiān)督學(xué)習(xí) |
deep networks | 深層網(wǎng)絡(luò) |
fine-tune | 微調(diào) |
unsupervised feature learning | 非監(jiān)督特征學(xué)習(xí) |
pre-training | 預(yù)訓(xùn)練 |
Deep Networks | 深度網(wǎng)絡(luò) |
deep neural networks | 深度神經(jīng)網(wǎng)絡(luò) |
non-linear transformation | 非線性變換 |
represent compactly | 簡(jiǎn)潔地表達(dá) |
part-whole decompositions | “部分-整體”的分解 |
parts of objects | 目標(biāo)的部件 |
highly non-convex optimization problem | 高度非凸的優(yōu)化問題 |
conjugate gradient | 共軛梯度 |
diffusion of gradients | 梯度的彌散 |
Greedy layer-wise training | 逐層貪婪訓(xùn)練方法 |
autoencoder | 自動(dòng)編碼器 |
Greedy layer-wise training | 逐層貪婪訓(xùn)練法 |
Stacked autoencoder | 棧式自編碼神經(jīng)網(wǎng)絡(luò) |
Fine-tuning | 微調(diào) |
Raw inputs | 原始輸入 |
Hierarchical grouping | 層次型分組 |
Part-whole decomposition | 部分-整體分解 |
First-order features | 一階特征 |
Second-order features | 二階特征 |
Higher-order features | 更高階特征 |
Linear Decoders | 線性解碼器 |
Sparse Autoencoder | 稀疏自編碼 |
input layer | 輸入層 |
hidden layer | 隱含層 |
output layer | 輸出層 |
neuron | 神經(jīng)元 |
robust | 魯棒 |
sigmoid activation function | S型激勵(lì)函數(shù) |
tanh function | tanh激勵(lì)函數(shù) |
linear activation function | 線性激勵(lì)函數(shù) |
identity activation function | 恒等激勵(lì)函數(shù) |
hidden unit | 隱單元 |
weight | 權(quán)重 |
error term | 偏差項(xiàng) |
Full Connected Networks | 全連接網(wǎng)絡(luò) |
Sparse Autoencoder | 稀疏編碼 |
Feedforward | 前向輸送 |
Backpropagation | 反向傳播 |
Locally Connected Networks | 部分聯(lián)通網(wǎng)絡(luò) |
Contiguous Groups | 連接區(qū)域 |
Visual Cortex | 視覺皮層 |
Convolution | 卷積 |
Stationary | 固有特征 |
Pool | 池化 |
features | 特征 |
example | 樣例 |
over-fitting | 過擬合 |
translation invariant | 平移不變性 |
pooling | 池化 |
extract | 提取 |
object detection | 物體檢測(cè) |
DC component | 直流分量 |
local mean subtraction | 局部均值消減 |
sparse autoencoder | 消減歸一化 |
rescaling | 縮放 |
per-example mean subtraction | 逐樣本均值消減 |
feature standardization | 特征標(biāo)準(zhǔn)化 |
stationary | 平穩(wěn) |
zero-mean | 零均值化 |
low-pass filtering | 低通濾波 |
reconstruction based models | 基于重構(gòu)的模型 |
RBMs | 受限Boltzman機(jī) |
k-Means | k-均值 |
long tail | 長(zhǎng)尾 |
loss function | 損失函數(shù) |
orthogonalization | 正交化 |
Sparse Coding | 稀疏編碼 |
unsupervised method | 無監(jiān)督學(xué)習(xí) |
over-complete bases | 超完備基 |
degeneracy | 退化 |
reconstruction term | 重構(gòu)項(xiàng) |
sparsity penalty | 稀疏懲罰項(xiàng) |
norm | 范式 |
generative model | 生成模型 |
linear superposition | 線性疊加 |
additive noise | 加性噪聲 |
basis feature vectors | 特征基向量 |
the empirical distribution | 經(jīng)驗(yàn)分布函數(shù) |
the log-likelihood | 對(duì)數(shù)似然函數(shù) |
Gaussian white noise | 高斯白噪音 |
the prior distribution | 先驗(yàn)分布 |
prior probability | 先驗(yàn)概率 |
source features | 源特征 |
the energy function | 能量函數(shù) |
regularized | 正則化 |
least squares | 最小二乘法 |
convex optimization software | 凸優(yōu)化軟件 |
conjugate gradient methods | 共軛梯度法 |
quadratic constraints | 二次約束 |
the Lagrange dual | 拉格朗日對(duì)偶函數(shù) |
feedforward architectures | 前饋結(jié)構(gòu)算法 |
Independent Component Analysis | 獨(dú)立成分分析 |
Over-complete basis | 超完備基 |
Orthonormal basis | 標(biāo)準(zhǔn)正交基 |
Sparsity penalty | 稀疏懲罰項(xiàng) |
Under-complete basis | 不完備基 |
Line-search algorithm | 線搜索算法 |
Topographic cost term | 拓?fù)浯鷥r(jià)項(xiàng) |
作者:chen_h
微信號(hào) & QQ:862251340
簡(jiǎn)書地址:https://www.jianshu.com/p/b5c...
CoderPai 是一個(gè)專注于算法實(shí)戰(zhàn)的平臺(tái),從基礎(chǔ)的算法到人工智能算法都有設(shè)計(jì)。如果你對(duì)算法實(shí)戰(zhàn)感興趣,請(qǐng)快快關(guān)注我們吧。加入AI實(shí)戰(zhàn)微信群,AI實(shí)戰(zhàn)QQ群,ACM算法微信群,ACM算法QQ群。長(zhǎng)按或者掃描如下二維碼,關(guān)注 “CoderPai” 微信號(hào)(coderpai)
文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請(qǐng)注明本文地址:http://m.specialneedsforspecialkids.com/yun/41151.html
摘要:區(qū)塊鏈接到區(qū)塊,區(qū)塊鏈接到區(qū)塊。共識(shí)整個(gè)交易流的更廣泛的術(shù)語,用于生成順序協(xié)議并確認(rèn)構(gòu)成區(qū)塊的交易集合的正確性。策略策略是由數(shù)字身份的屬性組成的表達(dá)式,例如。在中,智能合約被稱為鏈碼,智能合約鏈碼安裝在對(duì)等節(jié)點(diǎn)上并實(shí)例化為一個(gè)或多個(gè)通道。 術(shù)語表 術(shù)語很重要,以便所有Hyperledger Fabric用戶和開發(fā)人員都同意每個(gè)特定術(shù)語的含義,例如,什么是智能合約。文檔將根據(jù)需要引用術(shù)語...
摘要:企業(yè)區(qū)塊鏈平臺(tái)企業(yè)級(jí)許可的分布式分類賬平臺(tái),為廣泛的行業(yè)用例提供模塊化和多功能性。這些節(jié)點(diǎn)通過應(yīng)用已經(jīng)由共識(shí)協(xié)議驗(yàn)證的交易來維護(hù)分類帳的副本,該交易被分組為包括將每個(gè)塊綁定到前一個(gè)塊的散列的塊中。 企業(yè)區(qū)塊鏈平臺(tái) 企業(yè)級(jí)許可的分布式分類賬平臺(tái),為廣泛的行業(yè)用例提供模塊化和多功能性。 介紹 一般而言,區(qū)塊鏈?zhǔn)且粋€(gè)不可變的交易分類賬,維護(hù)在一個(gè)分布式對(duì)等節(jié)點(diǎn)網(wǎng)絡(luò)中。這些節(jié)點(diǎn)通過應(yīng)用已經(jīng)由共...
摘要:技術(shù)在宜信宜信擁有豐富的業(yè)務(wù)和產(chǎn)品線,這些產(chǎn)品線產(chǎn)生了大量的人工智能賦能需求。技術(shù)在宜信的實(shí)踐背景暫且介紹到這里,接下來我們會(huì)為大家介 文章圍繞基于機(jī)器學(xué)習(xí)的NLP技術(shù)在宜信內(nèi)部各業(yè)務(wù)領(lǐng)域的應(yīng)用實(shí)踐展開,分享這一過程中的相關(guān)經(jīng)驗(yàn),包括智能機(jī)器人在業(yè)務(wù)支持、客戶服務(wù)中的探索,基于文本語義分析的用戶畫像構(gòu)建,以及NLP算法服務(wù)平臺(tái)化實(shí)施思路等。本文為背景篇,敬請(qǐng)大家閱讀~ 作者:井玉欣。畢...
閱讀 698·2023-04-25 22:50
閱讀 1531·2021-10-08 10:05
閱讀 987·2021-09-30 09:47
閱讀 1921·2021-09-28 09:35
閱讀 825·2021-09-26 09:55
閱讀 3416·2021-09-10 10:51
閱讀 3431·2021-09-02 15:15
閱讀 3297·2021-08-05 09:57