Pelhans Blog

Practice makes perfect
本站总访问量 本站访客数人次

知识图谱论文阅读笔记(三)

翻译 Entity Linking with a Knowledge Base: Issues, Techniques, and Solutions

多读书, 多看报,多吃零食, 多睡觉. 摘要 概览 动机 任务描述 应用 信息抽取 信息检索 内容分析 问答 知识库扩充 现有知识库 提纲 ...

知识图谱论文阅读笔记(二)

Enriching Pre-trained Language Model with Entity Information for Relation Classification

多读书, 多看报,多吃零食, 多睡觉. 论文概览 论文要解决的问题是什么 这篇文章得主要贡献是什么 论文详解 输入 BERT 效果 个人启发 参考 论文概览 论文链接: Enriching Pre-trained Language Model with Ent...

知识图谱论文阅读笔记(一)

Neural Relation Extraction with Selective Attention over Instances

多读书, 多看报,多吃零食, 多睡觉. 论文概览 论文要解决的问题是什么 这篇文章得主要贡献是什么 论文详解 输入 CNN Attention 效果 个人启发 参考 论文概览 论文链接: Neural Relation Extraction wit...

深度学习笔记(十三)

Normalization 总结

眼睛看过只是别人的,整理出来并反复学习才是自己的。 什么是 Normalization 为什么要做 Normalization 常见的 Normalization 方法 Batch Normalization Layer Normalization Instance Normalization Group Nor...

为面试准备的机器学习

逻辑回归

Logistic 回归 问题的定义 参数的求解 梯度下降法 问题汇总 LR 的归一化问题 为什么逻辑回归要用极大似然法来进行参数估计而不是最小二乘法? 逻辑回归是线性模型还是非线性模型...

为面试准备的机器学习

线性回归

面试和自己学着玩有很大差别,学着玩你可以嘴上说的溜,手上推个大概就行了(就是学的水)。但面试要求推得准确,同时在推得过程中有自己的思考,面对面试官提出的问题能根据自己的所学进行相应的推导。部分重要的算法还要能手写代码。当然面试还有一些 “必备” 问题列表,都是需要准备的。 线性回归 问题的定义 最小二乘法 正则化 为什么...

手写代码 习题集

剑指 Offer 篇

春天出去找工作不知道外面要手写代码和手推ML公式,简直 SB 到了极致,慢慢补吧。下面是自己近期刷几遍剑指后的个人分类总结。其中动态规划、数组、字符串、分治、贪心这几类剑指包含的不多,需要在 leetcode 上专门训练。 数组 剑指 3. 数组中重复的数字 剑指 4. 二维数组中的查找 剑指 11. 旋转数组的最小数字 重要 ...

深度学习笔记(十二)

BERT

眼睛看过只是别人的,整理出来并反复学习才是自己的。 概述 模型结构 预训练任务 MLM NSP Fine-tuning Procedure 总结 概述 最近开始做关系抽取相关的任务,因为BERT 现在势头很猛所以一直想试一下,同时还可以学学 Transformer 的用法细节。这篇主要记录 BERT 的原理...

关系抽取笔记

综述(一)

论文 Relation Extraction: A Survey 的中文翻译,并对其中提到的模型进行补充。 摘要 随着互联网的出现,每天都会以新闻文章,研究出版物,博客,问答论坛和社交媒体的形式产生大量的文本。开发从这些文档中自动提取信息的技术是非常重要的,因为许多重要信息都隐藏在其中。提取的信息可用于改进对大文本语料库中隐藏的知识的访问和管理。诸如问答,信息检索等几个项目将受益...

深度学习笔记(十一)

Word2Vec

眼睛看过只是别人的,整理出来并反复学习才是自己的。 概述 CBOW 正向传播 反向传播 Skip-Gram 优化 分层 softmax 负采样 word2vec 问题 参考 概述 Word2Vec 是谷歌的分布式词向量工具。使用它可以很方便的得到词向量。W...