包含标签:大语言模型 的文章
-
AI大模型低成本快速定制秘诀:RAG和向量数据库
文章目录 1. 前言 2. RAG和向量数据库 3. 论坛日程 4. 购票方式 1. 前言 当今人工智能领域,最受关注的毋庸置疑是大模型。然而,高昂的训练成本、漫长…… -
LLaMA长度外推高性价比trick:线性插值法及相关改进源码阅读及相关记录
前言 最近,开源了可商用的llama2,支持长度相比llama1的1024,拓展到了4096长度,然而,相比GPT-4、Claude-2等支持的长度,llama的长度外推显得尤为重要,…… -
使用GGML和LangChain在CPU上运行量化的llama2
Meta AI 在本周二发布了最新一代开源大模型 Llama 2。对比于今年 2 月发布的 Llama 1,训练所用的 token 翻了一倍,已经达到了 2 万亿,对于使用大模型最重要…… -
在自定义数据集上微调Alpaca和LLaMA
本文将介绍使用LoRa在本地机器上微调Alpaca和LLaMA,我们将介绍在特定数据集上对Alpaca LoRa进行微调的整个过程,本文将涵盖数据处理、模型训练和使用流行的…… -
ChatGPT训练流程
图源:State of GPT - Microsoft Build 笔者翻译上图如下: 阶段 子阶段 目标 备注 Pre-Training -------- 语言建模 Instruction Finetuning -…… -
大语言模型的最新研究方向综述
在自然语言处理( Natural Language Processing, NLP)领域,其最新代表之作ChatGPT凭借卓越的多轮对话和内容生成能力,正掀起新一轮人工智能研究、商用及创业……