就在刚刚,王小川的开源大模型又有了新动作—— 百川智能,正式发布130亿参数通用大语言模型(Baichuan- […]
出自:https://zhuanlan.zhihu.com/p/634608422 目前已囊括19个大模型,覆 […]
对于大模型prompt的设计,近期斯坦福吴恩达伙同OpenAl出了一套视频教程(B站地址:https://ww […]
Tuning整体介绍 微调(Fine-tunning) 语言模型的参数需要一起参与梯度更新 轻量微调(ligh […]
原文:https://zhuanlan.zhihu.com/p/635710004 1. 开源基座模型对比 大 […]
1.安装 目前官方提供 单机模式、集群模式、离线模式三种安装方式,目前milvus都是基于docker 容器方 […]
需求描述 打造 特定领域知识(Domain-specific Knowledge) 问答 系统,具体需求有: […]
ChatGLM2-6B 介绍 ChatGLM2-6B 在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基 […]
来源|阿里开发者公众号https://developer.aliyun.com/article/1272112 […]
上下文学习和索引 自 GPT-2(Radford 等人)和 GPT-3(Brown 等人)以来,我们已经看到在 […]
人工智能大语言模型微调技术:SFT 监督微调、LoRA 微调方法、P-tuning v2 微调方法、Freez […]
Greedy Search 方式:每一时间步都选择概率最大的词。 参数设置:do_sample = False […]
模型 训练数据 训练数据量 模型参数量 词表大小 LLaMA 以英语为主的拉丁语系,不包含中日韩文 1T/1. […]
写在前面 大家好,我是刘聪NLP。 对于ToC端来说,广大群众的口味已经被ChatGPT给养叼了,市场基本上被 […]
最近几个月一直都有关于OpenAI的两个传说,其一是ChatGPT的流量开始下滑,其二是GPT4“变笨”了。 […]
本文旨在帮助读者快速掌握使用Firefly项目微调Baichuan-13B模型,该教程同样适用于微调llama […]
一、前言 先做个声明,下面图片都是AI工具生成,此技术不要做危害他人之事。 在AI绘画的学习过程中,有不少人希 […]
昨天类似这种文字光效或者将文字合成在衣服上的图好像又火了,很多朋友在问怎么做,其实就是ControlNet的简 […]
What:什么是模型量化 简单来说,模型量化(Model Quantization)就是通过某种方法将浮点模型 […]
本文Github地址:https://github.com/HqWu-HITCS/Awesome-Chines […]
Stable Diffusion是一个能够根据文本描述生成高质量图片的深度学习模型,它使用了一种叫做潜在扩散模 […]
第一个首推的是哩布哩布,网址是: https://www.liblibai.com/ 哩布哩布LiblibAI […]
在上一篇文章里我们列举了国内可以下载StableDiffusion模型的两个著名网站,那么小伙伴们下载下来模型 […]
一、下载启动器 先根据百度云盘下载相对应自己系统版本的安装器 Aimwise启动器 基于vladmandic版 […]
定义了树-邻接语法(TAG)的阿拉文德·乔西(Aravind Joshi)教授,曾提出过“如果没有基准来评估模 […]
在今年的Microsoft Build 2023大会上,来自OpenAI的研究员Andrej Karpathy […]
原文:https://www.toutiao.com/article/7160153099146297897/ […]
作者:轻口味 链接:https://juejin.cn/post/7239393450906058810 1、 […]
一.SSE原理介绍 1、SSE基础概念 SSE(Server Sent Event),直译为服务器发送事件,顾 […]
就在刚刚,王小川的开源大模型又有了新动作—— 百川智能,正式发布130亿参数通用大语言模型(Baichuan- […]