包含标签:大语言模型 的文章
-
02极简LLM逻辑与PyTorch快速入门
文章目录 02极简LLM逻辑与PyTorch快速入门 极简LLM逻辑 PyTorch环境安装(重要,不难) PyTorch 主要概念 Tensors张量 张量常见的形式:scalar、vect…… -
AI提示工程实战:从零开始利用提示工程学习应用大语言模型【文末送书-19】
文章目录 背景 什么是提示工程? 从零开始:准备工作 设计提示 调用大语言模型 实际应用示例 文字创作助手 代码生成 持续优化与迭代 数据隐私与安…… -
大语言模型的三种主要架构 Decoder-Only、Encoder-Only、Encoder-Decoder
现代大型语言模型(LLM)的演变进化树,如下图: https://arxiv.org/pdf/2304.13712.pdf 基于 Transformer 模型以非灰色显示: decoder-only 模型在蓝色…… -
AI大模型低成本快速定制秘诀:RAG和向量数据库
文章目录 1. 前言 2. RAG和向量数据库 3. 论坛日程 4. 购票方式 1. 前言 当今人工智能领域,最受关注的毋庸置疑是大模型。然而,高昂的训练成本、漫长…… -
LLaMA长度外推高性价比trick:线性插值法及相关改进源码阅读及相关记录
前言 最近,开源了可商用的llama2,支持长度相比llama1的1024,拓展到了4096长度,然而,相比GPT-4、Claude-2等支持的长度,llama的长度外推显得尤为重要,…… -
使用GGML和LangChain在CPU上运行量化的llama2
Meta AI 在本周二发布了最新一代开源大模型 Llama 2。对比于今年 2 月发布的 Llama 1,训练所用的 token 翻了一倍,已经达到了 2 万亿,对于使用大模型最重要…… -
在自定义数据集上微调Alpaca和LLaMA
本文将介绍使用LoRa在本地机器上微调Alpaca和LLaMA,我们将介绍在特定数据集上对Alpaca LoRa进行微调的整个过程,本文将涵盖数据处理、模型训练和使用流行的…… -
ChatGPT训练流程
图源:State of GPT - Microsoft Build 笔者翻译上图如下: 阶段 子阶段 目标 备注 Pre-Training -------- 语言建模 Instruction Finetuning -…… -
大语言模型的最新研究方向综述
在自然语言处理( Natural Language Processing, NLP)领域,其最新代表之作ChatGPT凭借卓越的多轮对话和内容生成能力,正掀起新一轮人工智能研究、商用及创业……