打脸!一个线性变换就能媲美“最强句子embedding”?

打脸!一个线性变换就能媲美“最强句子embedding”? 13

知行编程网 人工智能前沿 2年前 (2022-01-31) 83 0

小编:前几周小屋刚推完《还在用[CLS]?从BERT得到最强句子Embedding的打开方式!》,苏神就来打脸了_(:з」∠)_ BERT-flow来自论文《On the Sentence Embeddings from Pre-trained Language Models》[1],中了EMNLP 2020,主要是用flow模型校正了BERT出来的句向量的分布,从而使得计算出来的cos相似度更为...

还在用[CLS]?从BERT得到最强句子Embedding的打开方式!

还在用[CLS]?从BERT得到最强句子Embedding的打开方式! 17

知行编程网 人工智能前沿 2年前 (2022-01-30) 489 0

文:涅生 编:兔子酱 你有尝试从 BERT 提取编码后的 sentence embedding 吗?很多小伙伴的第一反应是:不就是直接取顶层的[CLS] token的embedding作为句子表示嘛,难道还有其他套路不成? nono,你知道这样得到的句子表示捕捉到的语义信息其实很弱吗?今天向大家介绍一篇来自于 CMU 和字节跳动合作,发表在 EMNLP2020 的 paper, 详尽地分析了从预训...

怎样将Embedding融入传统机器学习框架?

怎样将Embedding融入传统机器学习框架? 2

知行编程网 人工智能前沿 2年前 (2022-01-29) 5 0

LR本身是一个经典的CTR模型,广泛应用于推荐/广告系统。输入的特征大多数是离散型/组合型。那么对于Embedding技术,如何在不使用深度学习模型的情况下(假设就是不能用DNN),融入到LR框架中呢?让我们来看看清华大学的博士石塔西大佬是如何解答的。 问题实战意义 其实这个问题可以再扩展一下,即,如何在传统机器学习算法(LR/GBDT)中使用Embedding信息。 这个问题并非空穴来风,而是有...

扫一扫二维码分享