一文读懂Embedding的概念,以及它和深度学习的关系

什么是Embedding?


近年来,NLP自然语言处理、推荐系统,以及计算机视觉已成为目前工业界算法岗的主流方向,无论在哪个领域,对“Embedding”这个词概念的理解都是每个庞大知识体系的基石。

今天我们就以诙谐生动的方式来理解一下这个看似高大上的名词吧。

“Embedding”直译是嵌入式、嵌入层


看到这个翻译的时候是不是一脸懵圈?什么叫嵌入?意思是牢固地或深深地固定?那么它能把什么嵌入到什么呢?

很开心地告诉你,它能把万物嵌入万物,是沟通两个世界的桥梁,是打破次元壁的虫洞!

用数学的话来说:“它是单射且同构的(看到这么好的性质是不是很激动!)”

简单来说,我们常见的地图就是对于现实地理的Embedding,现实的地理地形的信息其实远远超过三维,但是地图通过颜色和等高线等来最大化表现现实的地理信息

通过它,我们在现实世界里的文字、图片、语言、视频就能转化为计算机能识别、能使用的语言,且转化的过程中信息不丢失。


怎么理解Embedding


首先,我们有一个one-hot编码的概念。

假设,我们中文,一共只有10个字,那么我们用0-9就可以表示完。

比如,这十个字就是“小普喜欢星海湾的朋友”

其分别对应“0-9”,如下:



那么,其实我们只用一个列表就能表示所有的对话。


例如:


或者:


但是,经过one-hot编码把上面变成:




即:把每一个字都对应成一个十个(样本总数/字总数)元素的数组/列表,其中每一个字都用唯一对应的数组/列表对应,数组/列表的唯一性用1表示。

那问题来了,费老大劲整这个干嘛呢?有什么优势?

很明显,计算简单嘛,稀疏矩阵做矩阵计算的时候,只需要把1对应位置的数相乘求和就行,也许你心算都能算出来;而一维列表,你能很快算出来?

何况这个列表还是一行,如果是100行、1000行或1000列呢?所以,one-hot编码的优势就体现出来了,计算方便快捷、表达能力强。

然而,缺点也随着来了。

比如:中文大大小小简体繁体常用不常用有十几万,然后一篇文章100W字,你要表示成100W X 10W的矩阵???

这是它最明显的缺点:过于稀疏时,过度占用资源

比如:其实我们这篇文章,虽然100W字,但是其实我们整合起来,有99W字是重复的,只有1W字是完全不重复的。

那我们用100W X 10W的岂不是白白浪费了99W X 10W的矩阵存储空间。

那怎么办???

这时,Embedding层就出现了!

假设:我们有一个2 x 6的矩阵,然后乘上一个6 x 3的矩阵后,变成了一个2 x 3的矩阵。


先不管它什么意思,这个过程,我们把一个A中的12个元素的矩阵变成C中6个元素的矩阵,直观上,大小是不是缩小了一半?

对!!!Embedding层,在某种程度上,就是用来降维的,降维的原理就是矩阵乘法

假如我们有一个100W X10W的矩阵,用它乘上一个10W X 20的矩阵,我们可以把它降到100W X 20,瞬间量级降了10W/20=5000倍!!!

这就是嵌入层的一个作用——降维

接着,既然可以降维,当然也可以升维。

为什么要升维?


这张图,如果要你在10米开外找出四处不同!是不是太困难了!(小普这就叫复联的鹰眼来帮我!)当然,目测这是不可能完成的。

但是让你在一米外,也许你一瞬间就发现鼻子是不同的,然后再走近半米,你又发现右下角元宝也是不同的。再走近20厘米,又发现耳朵也不同,最后,在距离屏幕10厘米的地方,终于发现第四个不同的地方在眼睛的高光。

但是,其实无限靠近并不代表认知度就高了,比如,你只能距离屏幕1厘米远的地方找,找出四处不同,小普怕不是要被读者打死了。

由此可见,距离的远近会影响我们的观察效果

同理也是一样的,低维的数据可能包含的特征是非常笼统的,我们需要不停地拉近拉远来改变我们的感受,让我们对这幅图有不同的观察点,找出我们要的""。

Embedding的又一个作用体现了:对低维的数据进行升维时,可能把一些其他特征给放大了,或者把笼统的特征给分开了

同时,这个Embedding是一直在学习在优化的,就使得整个拉近拉远的过程慢慢形成一个良好的观察点。

比如:小普来回靠近和远离屏幕,发现45厘米是最佳观测点,这个距离能10秒就把4个不同点找出来了。

因此它就是作为这个桥梁的存在,让我们手头的东西可伸可缩,变成我们希望的样子。

语义理解中Embedding意义


理解了它是沟通两个世界的桥梁后,我们再看个例子,它是如何运用在文本数据中的?

如下图所示,我们可以通过将两个无法比较的文字映射成向量,接下来就能实现对他们的计算。

例如:

queen(皇后)= king(国王)- man(男人)+ woman(女人)

这样计算机能明白,“皇后啊,就是女性的国王呗!”

walked(过去式)= walking(进行时)- swimming(进行时)+ swam(过去式)

同理计算机也能明白,“walked,就是walking的过去式啦!”另外,向量间的距离也可能会建立联系,比方说“北京”是“中国”的首都,“巴黎”是“法国”的首都,那么向量:|中国|-|北京|=|法国|-|巴黎|

总结:


Embedding 的基本内容大概就是这么多啦,然而小普想说的是它的价值并不仅仅在于 word embedding 或者 entity embedding 再或者是多模态问答中涉及的 image embedding,而是这种能将某类数据随心所欲的操控且可自学习的思想


通过这种方式,我们可以将神经网络深度学习用于更广泛的领域,Embedding 可以表示更多的东西,而这其中的关键在于要想清楚我们需要解决的问题和应用 Embedding 表示我们期望的内容。

- 完 -


对人工智能感兴趣的朋友,别忘了收藏我们的专栏哟~

WTIAW.TIAW
关注 关注
  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
一文读懂高维数据异常检测的降维策略
程序员光剑
05-24 448
一文读懂高维数据异常检测的降维策略 作者:禅与计算机程序设计艺术 1. 背景介绍 1.1 高维数据的诅咒与异常检测难题 随着信息技术的飞速发展,各行各业积累的数据量呈爆炸式增长,其高维数据占据了越来越大的
深度学习论文: LLaMA: Open and Efficient Foundation Language Models
mingo_敏
07-10 1722
本文介绍了LLaMA,这是一系列基础而先进的语言模型,其参数规模横跨7亿至65亿不等,展现了强大的语言处理能力。研究表明,通过大规模公开数据的训练,LLaMA系列模型成功打破了对专有或受限数据集的依赖,达到了业界最前沿(SOTA)的性能水平。本研究的核心目标是通过显著增加训练的token数量,开发出在不同推理场景下均能展现出卓越性能的语言模型。LLaMA模型家族以其多样的参数配置,为语言模型领域带来了新的竞争力量。
什么是Embedding
qq_42402817的博客
11-06 452
近年来,NLP自然语言处理、推荐系统,以及计算机视觉已成为目前工业界算法岗的主流方向,无论在哪个领域,对“Embedding”这个词概念的理解都是每个庞大知识体系的基石。今天我们就以诙谐生动的方式来理解一下这个看似高大上的名词吧。“Embedding”直译是嵌入式、嵌入层。看到这个翻译的时候是不是一脸懵圈?什么叫嵌入?意思是牢固地或深深地固定?那么它能把什么嵌入到什么呢?很开心地告诉你,它能把万物嵌入万物,是沟通两个世界的桥梁,是打破次元壁的虫洞!用数学的话来说:“
什么是embedding
热门推荐
weixin_44493841的博客
07-10 10万+
本文转自:https://www.jianshu.com/p/6c977a9a53de    简单来说,embedding就是用一个低维的向量表示一个物体,可以是一个词,或是一个商品,或是一个电影等等。这个embedding向量的性质是能使距离相近的向量对应的物体有相近的含义,比如 Embedding(复仇者联盟)和Embedding(钢铁侠)之间的距离就会很接近,但 Embedding(复仇者联...
神经网络算法 - 一文搞懂Embedding(嵌入)
最新发布
2401_85328934的博客
08-22 1433
本文将从三个方面,带您一文搞懂Embedding(嵌入)原理:将离散数据映射为连续向量,捕捉潜在关系。方法:使用神经网络Embedding层,训练得到数据的向量表示。作用:提升模型性能,增强泛化能力,降低计算成本。在机器学习Embedding主要是指将离散的高维数据(如文字、图片、音频)映射到低维度的连续向量空间。这个过程会生成由实数构成的向量,用于捕捉原始数据的潜在关系和结构。原理:将文本转换为连续向量,基于分布式假设捕捉语义信息。
深度学习embedding的含义
Lavi的专栏
10-11 1万+
Embedding在数学上表示一个maping, f: X ->Y 也就是一个function,其该函数是injective(就是我们所说的单射函数,每个Y只有唯一的X对应,反之亦然)和structure-preserving (结构保存,比如在X所属的空间上X1 < X2,那么映射后在Y所属空间上同理 Y1 < Y2)。那么对于word embedding,就是将单词word...
计算机视觉领域的常见专业名词解释--小白篇(持续更新)
菜根檀的博客
10-06 2785
embeddings:embedding就是用一个低维的向量表示一个物体,可以是一个词,或是一个商品,或是一个电影等等。这个embedding向量的性质是能使距离相近的向量对应的物体有相近的含义。在深度学习是指将离散变量转变为连续向量的方式。 heterogeneous,异类,指与当前已存在的方法不同,褒义 proposed:在论文就是只,本文的,也就是作者提出的想法 overhead:本意翻译为开销,可以指代额外资源或配置手段 residual network:ResNet,残差网络,由大神何凯明提.
一文读懂深度学习:从神经元到BERT
阿里云云栖号
05-27 1030
阿里妹导读:自然语言处理领域的殿堂标志 BERT 并非横空出世,背后有它的发展原理。今天,蚂蚁金服财富对话算法团队整理对比了深度学习模型在自然语言处理领域的发展历程。从简易的神经元到当前最复杂的BERT模型,深入浅出地介绍了深度学习在 NLP 领域进展,并结合工业界给出了未来的 NLP 的应用方向,相信读完这篇文章,你对深度学习的整体脉络会有更加深刻认识。 一个神经网络结构通常包含输入层、隐...
一文读懂数据科学工作流程
weixin_49669196的博客
03-02 491
点击关注“数据科学应用研院” 领取干货资料 在大数据和人工智能异常火爆的当下,数据科学家已成为一个炙手可热的岗位,成功从众多码农标签脱颖而出,站上鄙视链顶端。 数据科学工作:你以为的 VS 实际上的 在很多人眼里,数据科学家的工作似乎光鲜亮丽,充满技术含量: 但实际上,数据码农的工作状态通常是这样的: 数据科学家的一天是这样开始的,早上到公司,先打开邮箱查看需求爸爸们的新需求和负反馈。然后打开jupyterlab做做数据校对,把问题反馈给工程开发的小伙伴,或者写写文档,插入几个美美的示意图,让需求爸爸
原创 | 一文读懂图神经网络
数据派THU
06-10 614
作者:钟阳扬审校:陈之炎 本文约2500字,建议阅读5分钟 本文对图神经网络基本概念以及典型的模型做简要的介绍。图(Graph)是一种数据结构, 能够很自然地建模现实场景一组实体之间的复杂关系。在真实世界,很多数据往往以图的形式出现, 例如社交网络、电商购物、蛋白质相互作用关系等。因此,近些年来使用智能化方式来建模分析图结构的研究越来越受到关注, 其基于深度学习...
神经网络算法一文搞懂 Embedding(嵌入)
2401_84033492的博客
04-02 3761
本文将从Embedding的本质、Embedding的原理、Embedding的应用三个方面,带您一文搞懂Embedding(嵌入)。
嵌入(embedding概念
xw555666的博客
03-14 2308
嵌入(embedding)技术在数学、机器学习和数据科学扮演着关键角色,其核心目标是将复杂或高维的数据结构转换为低维的向量表示,以便于理解和处理。通过嵌入过程,原本难以直接操作和分析的对象可以被映射到一个具有特定结构的空间模型,这个空间的元素间关系更清晰,运算规则也更为明确。
【文本特征表征(1)】什么是embedding(把物体编码为一个低维稠密向量)pytorchnn.Embedding原理及使用,大模型的LMAS.Embedding原理及使用
Hali_Botebie的博客
06-15 1万+
使embedding空前流行的“word2vec”到了深度学习时代,我们一定会首先想到 2013 年的 Word2Vec——没错,句子是由词构成的,有了词向量,句子向量自然而然呼之欲出了。直觉看,直接对每个词的向量拼接、求和、逐元素相乘、取平均值或最大值,得到的向量都可以表示为句子向量。当然,这里面也有一些花样,比如加权重求和:权重可以根据词性、句法结构等设定一个固定值,然后对每个位置的词向量乘权重再求和;权重也可以根据输入向量来,输出向量的_每个元素_都根据输入元素向量进行加权求和。
Embedding的理解
longshendaren的博客
10-19 3020
Embedding 嵌入,我们可以将其理解为一种降维行为。可以将高维数据映射到低维空间来解决稀疏输入数据的问题。 它主要有以下三个目的: 在 embedding 空间查找最近邻,这可以很好的用于根据用户的兴趣来进行推荐。 作为监督性学习任务的输入。 用于可视化不同离散变量之间的关系。 此时,我们先介绍一下One Hot编码。这是一种表示离散数据很常见的编码方法,用N位状态寄存器对N个状态进行编码。 编码的第一步是确定编码对象,eg:[“国”、“美国”、“日本”、“国”],紧接着确定分类..
深入理解深度学习——用Embedding处理分类特征
冯·诺依曼
01-31 1万+
传统机器学习的输入数据一般含有分类特征,对这些特征或字段的处理是特征工程的重要内容之一。分类(Categorical)特征也被称为离散特征,而机器学习模型通常只能处理数值数据,所以需要将分类数据转换成数值数据。 有序(Ordinal)类型 有序类型的分类特征存在自然的顺序结构,所以可以对该类型数据进行升序或者降序排列,比如关于衣服型号特征的值可能有SSS(Small)、MMM(Middle)、LLL(Large)、XLXLXL(eXtra Large)等不同尺码,它们之间存在XL>L>M&gt
所有人都在谈的Embedding到底是什么?
WGS.
02-05 7927
文章目录什么是 EmbeddingEmbedding 技术对深度学习推荐系统的重要性 说起 Embedding,我想你肯定不会陌生,至少经常听说。事实上,Embedding 技术不仅名气大,而且用 Embedding 方法进行相似物品推荐,几乎成了业界最流行的做法,无论是国外的 Facebook、Airbnb,还是在国 内的阿里、美团,我们都可以看到 Embedding 的成功应用。因此,自从深度学习流行起来之后,Embedding 就 成为了深度学习推荐系统方向最火热的话题之一。 但是 Embeddin
“什么是Word Embedding词嵌入)”的个人理解
zmqsdu9001的博客
10-15 2332
首先粘贴一下Wiki英文的定义: Word embedding is the collective name for a set of language modeling and feature learning techniques in natural language processing (NLP) where words or phrases from the vocabulary a...
写文章

热门文章

  • 2021蓝桥杯Java复习【史上最详细攻略】【持续更新】 27935
  • 轻量级网络Ghostnet(GhostConv(幻影卷积)、Ghost BottleNeck)详解 20590
  • 解决报错:train.py: error: unrecognized arguments: --local-rank=1 ERROR:torch.distributed.elastic.multipr 13653
  • YOLOv5核心基础知识讲解 10319
  • 什么是二值图像,什么是灰度图像,什么是彩色图像,他们有什么区别? 9369

分类专栏

  • 深度学习 17篇
  • 人工智能 17篇
  • 博士 7篇
  • 蓝桥杯 35篇
  • 365天深度学习 6篇
  • 目标检测与跟踪
  • python 10篇
  • SSM 1篇
  • 图论 44篇
  • 网络原理 16篇
  • 队列 4篇
  • 广度优先搜索(bfs) 1篇
  • 优先队列 1篇
  • ^异或+思维 3篇
  • 筛法 2篇
  • 数论 13篇
  • 数据结构 33篇
  • Java 19篇
  • dfs 4篇
  • bfs 8篇
  • php 4篇
  • c# 15篇
  • javaweb 16篇
  • 二分法 7篇
  • 贪心算法 5篇
  • 博弈 2篇
  • 打表 5篇
  • 深度优先搜索 1篇
  • 个人随笔 1篇
  • 动态规划 27篇
  • 网络流 12篇
  • 二分图匹配 7篇
  • 拓扑排序 1篇
  • 数学期望 1篇
  • 数学推导 3篇
  • stack栈+思维 2篇
  • 后缀和 1篇
  • 计蒜客信息学入门 8篇
  • 刘汝佳—算法入门经典 5篇
  • 思维题 40篇

最新评论

  • 【PyTorch】下载的预训练模型的保存位置(Windows)

    WTIAW.TIAW: 应该是可以改变的,我怀疑它就藏在torch包里面,你可以在包里面find in一下这个c盘路径,找到后做修改

  • 【PyTorch】下载的预训练模型的保存位置(Windows)

    kikojh: 请问这个位置可以改变吗?

  • 轻量级网络Ghostnet(GhostConv(幻影卷积)、Ghost BottleNeck)详解

    WTIAW.TIAW: GhostConv组成了Ghostnet

  • 轻量级网络Ghostnet(GhostConv(幻影卷积)、Ghost BottleNeck)详解

    2401_84328797: 我想问一下Ghostnet和GhostConv一种东西吗?我看有人说一种有人说不是一种,有点迷茫

  • PyTorch 两大转置函数 transpose() 和 permute() 以及 view()和resize()

    March08-Z: 给大家提醒:NumPy 中的 transpose() 函数是支持一次性指定多个维度进行转置操作的,因此你可以使用 transpose() 函数来实现多维度的转置。而在 PyTorch 中,transpose() 函数只能一次性指定两个维度进行转置,如果想要多维度转置,需要使用permute() 函数。

大家在看

  • 基于百度AI的视频客流动态识别统计平台
  • 枚举类的介绍和应用场景 102
  • 【IEEE 独立出版,快速EI检索】第四届人工智能、虚拟现实与可视化国际学术会议(AIVRV 2024) 507
  • 深度学习01-概述 1277
  • 【深度学习】(4)--卷积神经网络

最新文章

  • 两台服务器之间互传数据
  • 如何使用命令行快速下载Google Drive/OneDrive大文件
  • 科研习惯 [4] 学会表达
2024年11篇
2023年102篇
2022年18篇
2021年8篇
2020年195篇
2019年235篇

目录

目录

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

玻璃钢生产厂家环保玻璃钢雕塑公司玻璃钢小品雕塑厂山西玻璃钢雕塑制作视频雅安玻璃钢雕塑商业美陈商场通辽小区玻璃钢雕塑制作台北仿铜玻璃钢雕塑玻璃钢雕塑计价清单动物玻璃钢雕塑哪里找龙泉玻璃钢十二生肖雕塑盐城美陈商场布置河南秋季商场美陈怎么样广东商场节庆美陈雕塑工厂玻璃钢公园雕塑单价重庆玻璃钢雕塑货源推荐乌当区玻璃钢雕塑厂家大连玻璃钢雕塑厂保定公园玻璃钢雕塑山西仿铜玻璃钢雕塑生产厂家阜阳学校玻璃钢雕塑玻璃钢教书先生雕塑玻璃钢雕塑的模具制作材料黄山户外玻璃钢雕塑批发贵州省玻璃钢雕塑定制厂家上海节日商场美陈河南玻璃钢雕塑工厂信丰玻璃钢雕塑淮南玻璃钢公仔人物雕塑温州生产玻璃钢座椅雕塑玻璃钢雕塑 腊肉香港通过《维护国家安全条例》两大学生合买彩票中奖一人不认账让美丽中国“从细节出发”19岁小伙救下5人后溺亡 多方发声单亲妈妈陷入热恋 14岁儿子报警汪小菲曝离婚始末遭遇山火的松茸之乡雅江山火三名扑火人员牺牲系谣言何赛飞追着代拍打萧美琴窜访捷克 外交部回应卫健委通报少年有偿捐血浆16次猝死手机成瘾是影响睡眠质量重要因素高校汽车撞人致3死16伤 司机系学生315晚会后胖东来又人满为患了小米汽车超级工厂正式揭幕中国拥有亿元资产的家庭达13.3万户周杰伦一审败诉网易男孩8年未见母亲被告知被遗忘许家印被限制高消费饲养员用铁锨驱打大熊猫被辞退男子被猫抓伤后确诊“猫抓病”特朗普无法缴纳4.54亿美元罚金倪萍分享减重40斤方法联合利华开始重组张家界的山上“长”满了韩国人?张立群任西安交通大学校长杨倩无缘巴黎奥运“重生之我在北大当嫡校长”黑马情侣提车了专访95后高颜值猪保姆考生莫言也上北大硕士复试名单了网友洛杉矶偶遇贾玲专家建议不必谈骨泥色变沉迷短剧的人就像掉进了杀猪盘奥巴马现身唐宁街 黑色着装引猜测七年后宇文玥被薅头发捞上岸事业单位女子向同事水杯投不明物质凯特王妃现身!外出购物视频曝光河南驻马店通报西平中学跳楼事件王树国卸任西安交大校长 师生送别恒大被罚41.75亿到底怎么缴男子被流浪猫绊倒 投喂者赔24万房客欠租失踪 房东直发愁西双版纳热带植物园回应蜉蝣大爆发钱人豪晒法院裁定实锤抄袭外国人感慨凌晨的中国很安全胖东来员工每周单休无小长假白宫:哈马斯三号人物被杀测试车高速逃费 小米:已补缴老人退休金被冒领16年 金额超20万

玻璃钢生产厂家 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化