LlamaIndex 实战 LlamaIndex 原理介绍 llamaindex 原理介绍 LlamaIndex(GPT Index)是一个对话式文档问答解决方案,可以针对特定语料进行文档检索,通过索引文件把外部语料数据和GPT连接起来。它主要帮我们做了如下几件事:文档拆分、向量化、向量存储检索、基于文档对话等。 现在ChatGPT的API是无状态的,意味着你需要自己去维持会话状态,保存上下文,每次请求的时候将之前的历史消 2023-04-14 #LlamaIndex
InstructGPT Training language models to follow instructions with human feedback赛尔笔记 | 浅析ChatGPT的原理及应用 InstructGPT要做什么?InstructGPT 是 GPT3 的微调版本。GPT3 是受过文本补全训练的 LLM。你给它一些提示;它预测下一个对它有意义的词。但有个问题!由于它只进行文本补全,它并不能真正“理 2023-04-11 InstructGPT #原创
💡ChatGPT prompting方法论 可操作,可复现的chatGPT prompting方法论“BORE”来了,适合所有任务!如何向 ChatGPT 提问以获得高质量答案:提示技巧工程完全指南 2023-04-11 Prompting #转载
基于知识库+ChatGPT搭建问答机器人 xinqiu/bot.py 基于embedding和ChatGPT的文档检索原理介绍 - 宝玉 基于垂直行业知识库和ChatGPT搭建行业问答机器人的技术架构 目前建立自己的知识库问答机器人,流行的做法有两种: 一种是利用文本 embedding 的相似度搜索,构建出context,利用zero/few shot learning的方式让LLM进行Q&A; 一种是使用私有数据集进行f 2023-04-06 ChatGPT #原创
一键部署私人 ChatGPT 网页应用 开源项目我试用了这两个 ChatGPT Web 端都可以一键发布到 Vercel,在 Cloudflare 上配置好域名,都不需要翻墙来使用,方便搭建分享给身边不方便上网的朋友们使用。 ChatGPT Next Web (9.4K star) 在 1 分钟内使用 Vercel 免费一键部署 精心设计的 UI,响应式设计,支持深色模式 极快的首屏加载速度(~85kb) 海量的内置 prompt 列表 2023-04-03 ChatGPT #ChatGPT 私人部署
🇨🇳中文NLP常用开源库整理 https://github.com/crownpku/Awesome-Chinese-NLPfighting41love/funNLP Toolkits 综合NLP工具包中文: THULAC 中文词法分析工具包 (⭐️1.8K) by 清华 (C++/Java/Python) BaiduLac (⭐️3.4K) by 百度,支持分词,词性标注,命名实体识别,词重要性 hankcs/Han 2023-03-21 LLM #中文NLP库
🇨🇳中文预训练模型研究进展&整理 https://www.jsjkx.com/CN/article/openArticlePDF.jsp?id=20915 近两年,中文预训练模型受 到广大学者的关注并取得了一定的研究成果.为了阐明现有 的中文预训练模型,本节主要从以下6个方面对现有的预训练 模型进行分类,图3展示了典型的中文预训练模型的分类图. 预训练模型的方法改进,主要包括掩码方式的转变、 位置编码的转变、LN 层的位置 2023-03-21 LLM #中文预训练模型
🇨🇳中文常用语料Corpus整理 InsaneLife/ChineseNLPCorpusSophonPlus/ChineseNlpCorpusbrightmart/nlp_chinese_corpusningshixian/NLP-zoo、fighting41love/funNLP 中文词典 Synonyms:中文近义词工具包 基于维基百科中文和word2vec训练的近义词库,封装为python包文件 同义词库、反义词库、否定 2023-03-21 LLM #Corpus
Prompting, Instruction, RLHF 斯坦福大学CS224N——深度学习自然语言处理Lecture 11课件-prompting和RLHF 之前看了李宏毅老师的深度强化学习课程,内容从浅入深,娓娓道来,但是过了两天知识点全忘了(实际是记不住,也有点理解不到位)…..今天偶然间看到了斯坦福大学CS224N《深度学习自然语言处理》的 Prompting, Instruction Finetuning, and RLHF 这一讲的课件, 2023-03-21 ChatGPT #原创
PPO算法 要点 根据 OpenAI 的官方博客, PPO 已经成为他们在强化学习上的默认算法. 如果一句话概括 PPO: OpenAI 提出的一种解决 Policy Gradient 不好确定 Learning rate (或者 Step size) 的问题. 因为如果 step size 过大, 学出来的 Policy 会一直乱动, 不会收敛, 但如果 Step Size 太小, 对于完成训练, 我们会等 2023-03-14 强化学习 #PPO