包含标签:自然语言处理 的文章
-
训练自己的GPT2模型(中文),踩坑与经验
GPT2与Bert、T5之类的模型很不一样!!! 如果你对Bert、T5、BART的训练已经很熟悉,想要训练中文GPT模型,务必了解以下区别!!! 官方文档里虽然已经有教…… -
自然语言处理: 第一章N-Gram
一. 理论基础 定义: 语言模型在wiki的定义是统计式的语言模型是一个几率分布,给定一个长度为 m 的字词所组成的字串 W1 , W2 ,··· ,Wn ,派几率的字符串P(…… -
BERT网络的原理与实战
BERT网络的原理与实战 一、简介 二、原理 1. Transformer 2. BERT 2.1 MLM 2.2 NSP 3. Fine-tuning 三、实战 1. 数据集 2. 预处理 3. 模型训练 …… -
一步一步详解LSTM网络【从RNN到LSTM到GRU等,直至attention】
一步一步详解LSTM网络【从RNN到LSTM到GRU等,直至attention】 0、前言 1、Recurrent Neural Networks循环神经网络 2、The Problem of Long-Term Dependenci…… -
(论文阅读)Chain-of-Thought Prompting Elicits Reasoning in Large Language Models
论文地址 https://openreview.net/pdf?id=_VjQlMeSB_J 摘要 我们探索如何生成一个思维链——一系列中间推理步骤——如何显著提高大型语言模型执行复杂推…… -
大模型有什么用,从技术上看
一、大模型有什么用 目前为止,大模型主要是以NLP为主,因为NLP抛弃了RNN序列依赖的问题,采用了Attention is All you need的Transformer结构,使得NLP能…… -
-
【SCI征稿】中科院2区,SCI&EI双检,CCF推荐,计算、存储、数据的计算机科学研究
存储计算类SCI&EI 【期刊简介】IF:4.5-5.0,JCR1/2区,中科院2区 【检索情况】SCI&EI 双检,CCF-C类 【征稿领域】有关计算、存储等的计算机科学研究…… -
AIGC周报|周鸿祎:不会用GPT的人未来将被淘汰;蔡崇信:不用过于担心AI未来会取代人类;AI翻唱或涉多项侵权行为
AIGC(AI Generated Content)即人工智能生成内容。近期爆火的 AI 聊天机器人 ChatGPT,以及 Dall·E 2、Stable Diffusion 等文生图模型,都属于 AIGC 的典型…… -