包含标签:NLP 的文章
-
LLM之RAG实战(一):使用Mistral-7b, LangChain, ChromaDB搭建自己的WEB聊天界面
一、RAG介绍 如何使用没有被LLM训练过的数据来提高LLM性能?检索增强生成(RAG)是未来的发展方向,下面将解释一下它的含义和实际工作原理。 …… -
大语言模型下载,huggingface和modelscope加速
huggingface 下载模型 如果服务器翻墙了,不用租机器 如果服务器没翻墙,可以建议使用下面的方式 可以租一台**autodl**不用显卡的机器,一小时只有1毛钱,启…… -
为什么现在的LLM都是Decoder only的架构?
LLM 是 “Large Language Model” 的简写,目前一般指百亿参数以上的语言模型, 主要面向文本生成任务。跟小尺度模型(10亿或以内量级)的“百花齐放”不同,目…… -
百度智能云千帆大模型平台再升级,SDK版本开源发布!
文章目录 1. SDK的优势 2. 千帆SDK:快速落地LLM应用 3. 如何快速上手千帆SDK 3.1 SDK快速启动 3.2 SDK进阶指引 3.3 通过Langchain接入千帆SDK 4. 开源…… -
百度智能云正式上线Python SDK版本并全面开源!
文章目录 1. SDK的优势 2. 千帆SDK:快速落地LLM应用 3. 如何快速上手千帆SDK 3.1 SDK快速启动 3.2 SDK进阶指引 3.3 通过Langchain接入千帆SDK 4. 开源…… -
文献阅读:AnnoLLM: Making Large Language Models to Be Better Crowdsourced Annotators
文献阅读:AnnoLLM: Making Large Language Models to Be Better Crowdsourced Annotators 1. 文章简介 2. 方法介绍 3. 实验考察 1. 实验结果 2. 消解…… -
Transformer模型入门详解及代码实现
目录 前言 一.什么是Transformer 二.Encoder的组成 1.输入部分 2.注意力机制 2.1注意力机制的含义 2.2在TRM中的实现 3.前馈神经网络 3.1 前馈神经网络,BP算…… -
图解NLP模型发展:从RNN到Transformer
图解NLP模型发展:从RNN到Transformer 自然语言处理 (NLP) 是深度学习中一个颇具挑战的问题,与图像识别和计算机视觉问题不同,自然语言本身没有良好的向量…… -
论文笔记–Selective Annotation Makes Language Models Better Few-Shot Learners
论文笔记--Selective Annotation Makes Language Models Better Few-Shot Learners 1. 文章简介 2. 文章导读 2.1 概括 2.2 文章重点技术 2.2.1 selecti…… -
ChatGPT应用场景与工具推荐
目录 写在前面 一、关于ChatGPT 二、应用实例 1.写文章 2.入门新的知识 3.解决疑难问题 4.生成预演问题 5.文本改写 6.语言翻译 7.思维导图 8.PDF阅读理解 9.……