博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Deep Learning for Nature Language Processing --- 第四讲(下)
阅读量:6973 次
发布时间:2019-06-27

本文共 709 字,大约阅读时间需要 2 分钟。

A note on matrix implementations

将J对softmax的权重W和每一个word vector进行求导:

这里写图片描写叙述

尽量使用矩阵运算(向量化)。不要使用for loop。

模型训练中有两个开销比較大的运算:矩阵乘法f=Wx和指数函数exp

for loop

Softmax(=logistic regression) is not very powerful

softmax仅仅是在原来的向量空间中给出了一些linear decision boundary(线性决策线),在小的数据集上有非常好的regularization,可是在处理大数据集的时候会受到非常大的限制。

这里写图片描写叙述

可是neural network能够非常好地克服softmax的缺点:

这里写图片描写叙述

From logistic regression to neural nets

不单独介绍神经网络,能够參考其它介绍神经网络的文章

假设没有非线性的激活函数,那么输入x后,第一层就是W1*x。第二层就是W2*W1*x,等同于这个神经网络仅仅有一层,权重为W2*W1。

有很多其它的层,deep learning就能够有近似(分类)更复杂数据集的功能:

这里写图片描写叙述

神经网络的单层single layer就是一个线性表达式和一个非线性函数的组合:

这里写图片描写叙述

激励activation能够用来计算某个函数。比如在softmax中:

这里写图片描写叙述

演示样例:计算三层神经网络中一个window’ score(s=score(museumsinParisareamazing)):

这里写图片描写叙述

score事实上就是softmax的概率值

下一讲

训练一个window-based的神经网络

反向传播backpropagation

你可能感兴趣的文章
tab键技巧小结
查看>>
数据库管理中文件的使用
查看>>
计算机英语单词汇总
查看>>
TCP、UDP和HTTP详解
查看>>
MYSQL数据库设计规范与原则
查看>>
chrome贴吧插件——源代码
查看>>
201621123048《Java程序设计》第六周学习总结
查看>>
Eclipse快捷键大全(转载)
查看>>
python压缩文件脚本
查看>>
把Catalina的字符串格式转化为日期格式
查看>>
【语法】NSMutableString的用法
查看>>
前端知识点总结(html+css)部分
查看>>
VI/VIM 编辑器
查看>>
C#写爬虫,版本V2.0
查看>>
基于Ubuntu16搭建Hadoop大数据完全分布式环境
查看>>
网络爬虫
查看>>
python-memcached学习笔记
查看>>
转--Java工程师成神之路(2018修订版)
查看>>
学习python第一天内容回顾
查看>>
原码,补码表示
查看>>