安徽网站建站系统平台,百度网站排名查询,市场推广的方法和规划,国外网站用什么dns文章目录 1、简介1.1 大模型排行榜 2、智谱AI2.1 GLM2.1.1 模型简介2.1.2 开源代码2.1.2.1 GLM-130B 2.2 ChatGLM2.2.1 模型简介2.2.2 开源代码2.2.2.1 ChatGLM2.2.2.2 ChatGLM22.2.2.3 ChatGLM3 2.3 CodeGeeX2.3.1 模型简介2.3.2 开源代码 2.4 CogView2.4.1 模型简介2.4.2 开源… 文章目录 1、简介1.1 大模型排行榜 2、智谱AI2.1 GLM2.1.1 模型简介2.1.2 开源代码2.1.2.1 GLM-130B 2.2 ChatGLM2.2.1 模型简介2.2.2 开源代码2.2.2.1 ChatGLM2.2.2.2 ChatGLM22.2.2.3 ChatGLM3 2.3 CodeGeeX2.3.1 模型简介2.3.2 开源代码 2.4 CogView2.4.1 模型简介2.4.2 开源代码 2.5 CogVideo2.5.1 模型简介2.5.2 开源代码 结语 1、简介
1.1 大模型排行榜
https://rank.opencompass.org.cn/home 202年1月30日大模型开源开放评测体系司南OpenCompass2.0正式发布旨在为大语言模型、多模态模型等各类模型提供一站式评测服务。
2、智谱AI
https://maas.aminer.cn/ https://open.bigmodel.cn/ GLM 全名 General Language Model 是一款基于自回归填空的预训练语言模型。ChatGLM 系列模型支持相对复杂的自然语言指令并且能够解决困难的推理类问题。该模型配备了易于使用的 API 接口允许开发者轻松将其融入各类应用广泛应用于智能客服、虚拟主播、聊天机器人等诸多领域。
2.1 GLM 基于领先的千亿级多语言、多模态预训练模型打造高效率、通用化的“模型即服务”AI开发新范式 全面升级的新一代基座大模型GLM-4整体性能相比GLM3提升60%支持128K上下文可根据用户意图自主理解和规划复杂指令、完成复杂任务。 2.1.1 模型简介 GLM-4 模型编码glm-4 根据输入的自然语言指令完成多种语言类任务推荐使用 SSE 或异步调用方式请求接口
from zhipuai import ZhipuAI
client ZhipuAI(api_key) # 填写您自己的APIKey
response client.chat.completions.create(modelglm-4, # 填写需要调用的模型名称messages[{role: user, content: 作为一名营销专家请为我的产品创作一个吸引人的slogan},{role: assistant, content: 当然为了创作一个吸引人的slogan请告诉我一些关于您产品的信息},{role: user, content: 智谱AI开放平台},{role: assistant, content: 智启未来谱绘无限一智谱AI让创新触手可及!},{role: user, content: 创造一个更精准、吸引人的slogan}],
)
print(response.choices[0].message)GLM-4V 模型编码glm-4v 根据输入的自然语言指令和图像信息完成任务推荐使用 SSE 或同步调用方式请求接口
from zhipuai import ZhipuAI
client ZhipuAI(api_key) # 填写您自己的APIKey
response client.chat.completions.create(modelglm-4v, # 填写需要调用的模型名称messages[{role: user,content: [{type: text,text: 图里有什么},{type: image_url,image_url: {url : https://img1.baidu.com/it/u1369931113,3388870256fm253app138sizew931n0fJPEGfmtauto?sec1703696400tf3028c7a1dca43a080aeb8239f09cc2f}}]}]
)
print(response.choices[0].message)
GLM-3-Turbo 模型编码glm-3-turbo 根据输入的自然语言指令完成多种语言类任务推荐使用 SSE 或异步调用方式请求接口
from zhipuai import ZhipuAI
client ZhipuAI(api_key) # 填写您自己的APIKey
response client.chat.completions.create(modelglm-3-turbo, # 填写需要调用的模型名称messages[{role: user, content: 作为一名营销专家请为我的产品创作一个吸引人的slogan},{role: assistant, content: 当然为了创作一个吸引人的slogan请告诉我一些关于您产品的信息},{role: user, content: 智谱AI开放平台},{role: assistant, content: 智启未来谱绘无限一智谱AI让创新触手可及!},{role: user, content: 创造一个更精准、吸引人的slogan}],
)
print(response.choices[0].message)2.1.2 开源代码
2.1.2.1 GLM-130B
https://github.com/THUDM/GLM https://models.aminer.cn/glm-130b/ https://github.com/THUDM/GLM-130B GLM-130B: An Open Bilingual Pre-Trained Model (ICLR 2023) GLM-130B 是一个开源开放的双语中文和英文双向稠密模型拥有 1300 亿参数模型架构采用通用语言模型GLM1。它旨在支持在一台 A10040G * 8 或 V10032G * 8服务器上对千亿规模参数的模型进行推理。截至 2022 年 7 月 3 日GLM-130B 已完成 4000 亿个文本标识符中文和英文各 2000 亿的训练。
[2023.03.14] 我们很高兴地推出基于 GLM-130B 的双语对话语言模型 ChatGLM以及其开源版本 ChatGLM-6B它只能在 6GB GPU 内存下运行
2.2 ChatGLM
https://chatglm.cn/ 基于GLM模型开发支持多轮对话具备内容创作、信息归纳总结等能力 2.2.1 模型简介 2.2.2 开源代码
2.2.2.1 ChatGLM
https://github.com/THUDM/ChatGLM-6B ChatGLM-6B: An Open Bilingual Dialogue Language Model | 开源双语对话语言模型 新一代开源模型 ChatGLM3-6B 已发布拥有10B以下最强的基础模型支持工具调用Function Call、代码执行Code Interpreter、Agent 任务等功能。
ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型基于 General Language Model (GLM) 架构具有 62 亿参数。结合模型量化技术用户可以在消费级的显卡上进行本地部署INT4 量化级别下最低只需 6GB 显存。
ChatGLM-6B 权重对学术研究完全开放在填写问卷进行登记后亦允许免费商业使用。
硬件需求:
量化等级最低 GPU 显存推理最低 GPU 显存高效参数微调FP16-无量化13 GB-14 GBINT88 GB9 GBINT46 GB7 GB
ChatGLM-6B
可以通过如下代码调用 ChatGLM-6B 模型来生成对话
from transformers import AutoTokenizer, AutoModel
tokenizer AutoTokenizer.from_pretrained(THUDM/chatglm-6b, trust_remote_codeTrue)
model AutoModel.from_pretrained(THUDM/chatglm-6b, trust_remote_codeTrue).half().cuda()
model model.eval()
response, history model.chat(tokenizer, 你好, history[])
print(response)2.2.2.2 ChatGLM2
https://github.com/THUDM/ChatGLM2-6B ChatGLM2-6B: An Open Bilingual Chat LLM | 开源双语对话语言模型 [2023/07/31] 发布 ChatGLM2-6B-32K 模型提升对于长文本的理解能力。 [2023/07/25] 发布 CodeGeeX2 基于 ChatGLM2-6B 的代码生成模型。 [2023/06/25] 发布 ChatGLM2-6BChatGLM-6B 的升级版本
ChatGLM2-6B (base)ChatGLM2-6BChatGLM2-12B (base)ChatGLM2-12B
可以通过如下代码调用 ChatGLM2-6B 模型来生成对话
from transformers import AutoTokenizer, AutoModel
tokenizer AutoTokenizer.from_pretrained(THUDM/chatglm2-6b, trust_remote_codeTrue)
model AutoModel.from_pretrained(THUDM/chatglm2-6b, trust_remote_codeTrue, devicecuda)
model model.eval()
response, history model.chat(tokenizer, 你好, history[])
print(response)2.2.2.3 ChatGLM3
https://github.com/THUDM/ChatGLM3 ChatGLM3 series: Open Bilingual Chat LLMs | 开源双语对话语言模型 ChatGLM3 是智谱AI和清华大学 KEG 实验室联合发布的对话预训练模型。ChatGLM3-6B 是 ChatGLM3 系列中的开源模型在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上.
ChatGLM3-6BChatGLM3-6B-BaseChatGLM3-6B-32KChatGLM3-6B-128K
可以通过如下代码调用 ChatGLM3 模型来生成对话
from transformers import AutoTokenizer, AutoModel
tokenizer AutoTokenizer.from_pretrained(THUDM/chatglm3-6b, trust_remote_codeTrue)
model AutoModel.from_pretrained(THUDM/chatglm3-6b, trust_remote_codeTrue, devicecuda)
model model.eval()
response, history model.chat(tokenizer, 你好, history[])
print(response)2.3 CodeGeeX 第二代CodeGeeX模型作为强大的AI编程助手支持超过100种编程语言具备代码生成与补全、续写、翻译、智能问答等能力。 2.3.1 模型简介
https://codegeex.cn/zh-CN https://zhipu-ai.feishu.cn/wiki/CuvxwUDDqiErQUkFO2Tc4walnZY CodeGeeX支持多种主流IDE如VS Code、IntelliJ IDEA、PyCharm、Vim等 同时支持Python、Java、C/C、JavaScript、Go等多种语言。
CodeGeeX是一款基于大模型的全能的智能编程助手。它可以实现代码的生成与补全、自动添加注释、代码翻译以及智能问答等功能能够帮助开发者显著提高工作效率。CodeGeeX支持主流的编程语言并适配多种主流IDE。 CodeGeeX插件对个人用户完全免费。 CodeGeeX面向企业提供CodeGeeX私有化部署服务。
2.3.2 开源代码
https://github.com/THUDM/CodeGeeX2
CodeGeeX2 是多语言代码生成模型 CodeGeeX (KDD’23) 的第二代模型。不同于一代 CodeGeeX完全在国产华为昇腾芯片平台训练 CodeGeeX2 是基于 ChatGLM2 架构加入代码预训练实现。基于 ChatGLM2-6B 基座语言模型CodeGeeX2-6B 进一步经过了 600B 代码数据预训练。 2.4 CogView CogView模型适用多种图像生成和增强任务通过对用户文字描述快速、精准的理解让AI的图像表达更加精确和个性化 2.4.1 模型简介
使用价格 Python 调用示例
from zhipuai import ZhipuAI
client ZhipuAI(api_key) # 请填写您自己的APIKeyresponse client.images.generations(modelcogview-3, #填写需要调用的模型名称prompt一只可爱的小猫咪,
)
print(response.data[0].url)2.4.2 开源代码
https://github.com/THUDM/CogView https://github.com/THUDM/CogView2 文本到图像生成。NeurIPS 2021 论文“CogView Mastering Text-to-Image Generation via Transformers”的存储库。 硬件建议使用配备 Nvidia A100 的 Linux 服务器。 论文 CogView2 Faster and Better Text-to-Image Generation via Hierarchical Transformers 2.5 CogVideo
2.5.1 模型简介
https://models.aminer.cn/cogvideo/ CogVideo是目前最大的通用领域文本到视频生成预训练模型含94亿参数。CogVideo将预训练文本到图像生成模型CogView2有效地利用到文本到视频生成模型并使用了多帧率分层训练策略。
2.5.2 开源代码
https://github.com/THUDM/CogVideo
文本到视频生成。ICLR023论文“CogVideo“CogVideo: Large-scale Pretraining for Text-to-Video Generation via Transformers”
结语
如果您觉得该方法或代码有一点点用处可以给作者点个赞或打赏杯咖啡╮(▽)╭ 如果您感觉方法或代码不咋地//(ㄒoㄒ)//就在评论处留言作者继续改进o_O??? 如果您需要相关功能的代码定制化开发可以留言私信作者(✿◡‿◡) 感谢各位童鞋们的支持( ´ ▽´ ) ( ´ ▽´)っ