移动 > 腾讯 > 腾讯游戏

【腾讯云 HAI域探秘】使用HAI+ChatGLM-6B复刻《完蛋,我被大模型包围了》

69人参与 2024-08-03 腾讯游戏

一、背景介绍1.1 chatgpt and chatglm-6b

chatgpt(全名:chat generative pre-trained transformer),是openai研发的一款聊天机器人程序,于2022年11月30日发布。chatgpt是人工智能技术驱动的自然语言处理工具,它能够基于在预训练阶段所见的模式和统计规律,来生成回答,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码,写论文等任务。

但是自己想要部署一套chatgpt的话,首先数据集没有开源,其次对于硬件的要求,不可估量。所幸清华大学知识工程和数据挖掘小组(knowledge engineering group (keg) & data mining at tsinghua university)发布的一个开源的对话机器人chatglm-6b。

chatglm 参考了 chatgpt 的设计思路,在千亿基座模型 glm-130b 中注入了代码预训练,通过有监督微调(supervised fine-tuning)等技术实现人类意图对齐。chatglm 当前版本模型的能力提升主要来源于独特的千亿基座模型 glm-130b。它是不同于 bert、gpt-3 以及 t5 的架构,是一个包含多目标函数的自回归预训练模型。2022年8月,我们向研究界和工业界开放了拥有1300亿参数的中英双语稠密模型 glm-130b,该模型有一些独特的优势:

2022年11月,斯坦福大学大模型中心对全球30个主流大模型进行了全方位的评测,glm-130b 是亚洲唯一入选的大模型。在与 openai、谷歌大脑、微软、英伟达、脸书的各大模型对比中,评测报告显示 glm-130b 在准确性和恶意性指标上与 gpt-3 175b (davinci) 接近或持平,鲁棒性和校准误差在所有千亿规模的基座大模型(作为公平对比,只对比无指令提示微调模型)中表现不错(下图)。

图1. 斯坦福大学基础模型中心对全球 30 个大模型的评测结果(2022年11月)

关于 glm-130b 的学术文章已被国际深度学习会议 iclr'23 接收。自2022年8月开放以来,收到53个国家369个研究机构(截至2023年2月1日)的下载使用需求,包括谷歌、微软、脸书、ai2、华为、阿里巴巴、百度、腾讯、头条、小冰、小度、小米以及斯坦福、麻省理工、伯克利、卡耐基梅隆、哈佛、剑桥、牛津、北大、浙大、上交、复旦、中科大、国科大等国内外人工智能研究机构和高校。

通过使用与 chatglm(chatglm.cn)相同的技术,chatglm-6b 初具中文问答和对话功能,并支持在单张 2080ti 上进行推理使用。具体来说,chatglm-6b 有如下特点:

因此,chatglm-6b 具备了一定条件下较好的对话与问答能力。当然,chatglm-6b 也有相当多已知的局限和不足:

二、腾讯云hai背景介绍

高性能应用服务 hai:澎湃算力,即开即用。以应用为中心,匹配gpu云算力资源,助力中小企业及开发者快速部署llm、ai作画、数据科学等高性能应用。是为开发者量身打造的澎湃算力平台。无需复杂配置,便可享受即开即用的gpu云服务体验。在 hai 中,根据应用智能匹配并推选出最适合的gpu算力资源,以确保您在数据科学、llm、ai作画等高性能应用中获得最佳性价比。

hai 服务优势

即插即用 · 轻松上手

基于腾讯云gpu云服务器底层算力,提供即插即用的高性能云服务。

智能选型

根据应用匹配推选gpu算力资源,实现最高性价比。同时,打通必备云服务组件,大幅简化云服务配置流程。

一键部署

分钟级自动构建llm、ai作画等应用环境。提供多种预装模型环境,包含如stablediffusion、chatglm等热门模型。

可视化界面

提供开发者友好的图形界面,支持jupyterlab、webui等多种算力连接方式,ai研究调试超低门槛。

横向对比 · 青出于蓝

大幅降低gpu云服务器使用门槛,多角度优化产品使用体验,开箱即用

应用场景

ai作画(视觉设计、游戏)

基于stablediffusion开源模型进行ai绘画

场景介绍

ai绘画是一种利用深度学习算法进行创作的绘图方式。广泛应用于数字媒体、游戏、动画、电影、广告等领域。

业务痛点

产品优势

ai对话/写作(agent、企业知识库)大语言模型

基于开源大语言模型,创作属于自己的agent、企业知识库

场景介绍

大语言模型在广泛的文本数据上进行训练,可以执行广泛的任务,包括文本总结、翻译、情感分析等等。

业务痛点

业务痛点

ai开发/测试(学术研究、论文)算法研发

学术研究、论文

场景介绍

面向高校、研究所等大量科研场景,需针对深度学习、机器学习等前沿算法进行开发探索。

业务痛点

业务痛点

三、动手实验

四、实操指导

1、申请高性能应用服务 hai

① . 点击链接进入 高性能应用服务 hai 申请体验资格

② . 等待审核通过后,进入 高性能应用服务 hai

③ . 点击前往体验hai,登录 高性能应用服务 hai 控制台

③ . 点击 新建 选择 ai模型,输入实例名称

④ . 等待创建完成 (预计等待3-8分钟,等待时间不计费)

⑤ . 创建完成,查看相关状态

⑥ . 查看配置详情

2、高性能应用服务hai 快速为开发者提供 chatglm2-6b api 服务

① .使用 jupyterlab 启动 chatglm2-6b 提供的 api 服务

(1) .在 算力管理 页面,选择进入 jupyter_lab 页面

选择 终端命令

输入命令 用于开启 api 服务:

cd ./chatglm2-6b

python api.py

(2) .新增服务器端口规则

选择 编辑规则

选择 入站规则 中的添加规则

添加入站规则 (来源: 0.0.0.0/0 协议端口: tcp:8000)

3、使用 cloud studio 快速调用测试 chatglm2-6b 提供的 api 服务

(1) .打开 cloud studio 并创建开发空间

新建工作空间 选择python源为空开发环境即可

等待数十秒 工作空间启动完成

(2) 编写调用代码并运行测试

代码并没有怎么修改,是直接使用的llm riddles复刻版的复刻版,感谢 haoqiang fan 的原始创意和题目:完蛋!我被llm包围了!以及llmriddles的huggingface项目:完蛋!我被llm包围了!把功能集成在了一起。我放在了我的github:

直接在cloud-studio的终端输入命令:

git clone https://github.com/enkilee/llm_is_around_question.git

在左侧资源管理器就能看到项目,需要更改的就是llm_chat.py中调用的代码:

核心代码在几个地方:

(1)服务端ip:

server_url = "http://43.139.138.88:8000"

(2)接口返回

def generate_response(input): 
    ask_json = {"prompt": input, "top_p": 0.7, "temperature": 0.9} 
    response= requests.post(server_url, json=ask_json) 
    result = response.json() 
    return result["response"]

在ask_json中的参数top_p和tenperature,可以参考https://open.bigmodel.cn/dev/api#model-parameter中表述:

temperature

采样温度,控制输出的随机性,必须为正数
取值范围是:(0.0,1.0],不能等于 0
值越大,会使输出更随机,更具创造性;值越小,输出会更加稳定或确定
建议您根据应用场景调整 top_p 或 temperature 参数,但不要同时调整两个参数

top_p

用温度取样的另一种方法,称为核取样
取值范围是:(0.0,1.0);开区间,不能等于 0 或 1
模型考虑具有 top_p 概率质量的令牌的结果。所以 0.1 意味着模型解码器只考虑从前 10% 的概率的候选集中取tokens
建议您根据应用场景调整top_p 或 temperature参数,但不要同时调整两个参数

最后,在终端运行命令:

python chatglm6b.gradio.py

即可预览游戏啦!

游戏截图如下:

各位也可以自己更改题目:

在代码‘challenges.json’里面修改即可,记得改完了要重新运行命令。

也可以单独使用浏览器打开,使用效果更好:

同时,在服务器端也能看到实时的调用和结果。

五、总结

通过hai创建chatglm-6b非常的方便,当然自身并没有改太多的代码,只是整合而已。或者可以用chatglm-6b官网的api-key,这个是需要收费的,而且费用不低。而且根据测试结果,如果用单卡30系列,提问到返回结果大概需要1分钟到2分钟,响应时间不太能够接受。

但是使用腾讯的hai,从搭设到开通服务接口,就是几分钟点击的事情,核心的开发就是针对应用的开发,极大地减少了部署的时间,而且可以搭设一套服务,多个应用一起使用,节约了经费,节省了时间。大家可以集思广益,利用chatglm做各种各样的小游戏。

(0)
打赏 微信扫一扫 微信扫一扫

您想发表意见!!点此发布评论

推荐阅读

腾讯云轻量云服务器、CVM云服务器内网互联方法教程

08-03

阿里云域名转移到腾讯云解析

08-03

【腾讯云HAI域探秘】通过ControlNet实现二维码美化应用

08-03

云原生技术精选:探索腾讯云容器与函数计算的最佳实践

08-03

腾讯云幻兽帕鲁服务器中,如何检查并确保所有必要的配置文件(如PalWorldSettings.ini和WorldOption.sav)正确配置?

08-03

【腾讯云Cloud Studio实战训练营】构建基于React的实时聊天应用

08-03

猜你喜欢

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论