包含标签:自然语言处理 的文章
-
人工智能基础:机器学习常见的算法介绍
目录 监督学习 1.1 分类 1.2 回归 无监督学习 2.1 聚类 2.2 降维 3、半监督学习 4、迁移学习 5、强化学习(ReinforcementLearning, RL) 今天给大家聊…… -
自然语言处理之入门必学案例100例
bert_wwm_ext_pytorch +keras+tensorflow 版本搭配 http://t.csdn.cn/erzlb 余弦相似度、欧式距离、闵氏距离、曼哈顿距离、切比雪夫距离。 http://t.csdn…… -
微信推出自研NLP大规模语言模型WeLM,现已开放API推动应用落地
大规模语言模型领域迎来新“选手”。近日,微信AI推出自研NLP大规模语言模型WeLM ,该模型是一个尺寸合理的中文模型,能够在零样本以及少样本的情境下完成包多…… -
1011 循环神经网络 RNN
循环神经网络(RNN) recurrent neural networks,RNNs 对于序列模型的神经网络 回顾 潜变量自回归模型 使用潜变量 ht 总结过去的信息 n 元语法模型中,…… -
【NLP屠夫系列】- NER之实战BILSTM
文章目录 本文学习目标 一. NER 1.1 什么是命名实体识别: 1.2 命名实体识别的作用: 1.3 命名实体识别常用方法: 1.4 医学文本特征: 二、 BiLSTM 2.1…… -
BERT模型解析
1. 概述 Bidirectional Encoder Representation from Transformers(BERT)[1],即双向Transformer的Encoder表示,是2018年提出的一种基于上下文的预训练模…… -
Transformer的基本原理
1. Seq2Seq框架 1.1. Seq2Seq框架概述 Seq2Seq[1]框架最初是在神经机器翻译(Neural Machine Translation,NMT)领域中提出,用于将一种语言(sequence)翻…… -
-
【Transformer专题】一、Attention is All You Need(Transformer)
目录 前言 一、整体架构 二、Transfomer输入 2.1、单词Embedding 2.2、位置Embedding 三、Self-Attention结构 3.1、Self-Attention QKV 3.2、Multi-H…… -
讯飞AIUI智能机器人5—–让器理解你(语音技术综合应用)
????????? ???????? ???????? ???????? ???????? ???????? ???????? ???????? ???????? ???????? ????? ?? ??? ???? 作者 : 不良使 ????? 潜力创作新星 华……