了解完大语言模型的原理之后,你可能会好奇 TA 是如何开发的。开发大语言模型的关键是什么。
训练数据主要是所谓的语料库。今天的很多语言模型的语料库主要有以下几种:
Books:BookCorpus 是之前小语言模型如 GPT-2 常用的数据集,包括超过 11000 本电子书。主要包括小说和传记,最近更新时间是 2015 年 12 月。大一点的书籍语料库是 Gutenberg,它有 70000 本书,包括小说、散文、戏剧等作品,是目前最大的开源书籍语料库之一,最近更新时间是 2021 年 12 月。 CommonCrawl:这个是目前最大的开源网络爬虫数据库,不过这个数据包含了大量脏数据,所以目前常用的四个数据库是 C4、CC-Stories、CC-News 和 RealNews。另外还有两个基于 CommonCrawl 提取的新闻语料库 REALNEWS 和 CC-News。 Reddit links:简单理解 Reddit 就是外国版本的百度贴吧 + 知乎。目前开源的数据库有 OpenWebText 和 PushShift.io。 Wikipedia:维基百科是目前大模型广泛使用的语料库。 Code:一般包含 GitHub 上的开源公共代码库,或者是 StackOverflow 的数据,Google 之前发布过一个叫 BigQuery 的数据集。 实际上,训练大语言模型会混合使用不同的数据,一般不会只使用单一语料库。比如 GPT-3 用的混合数据集就包括 Books、CommonCrowl、Reddit links 和 Wikipedia。
从数据上看,你需要知道一个事实,中文语料在这上面占比很小。ChatGPT 能用中文回答你的问题,只是因为它的语料里有一些中英文对应的语料,然后模型就像是「懂中文了一样」,所以更可能的情况是,它先生成了英文内容,再翻译成中文。如果你去问 ChatGPT 3.5:请给我几个中文谐音梗,你应该就能理解我说的话了。
有了数据之后,你还需要有算法去做计算,目前最常用的开发大语言模型的算法库有:
Transformers:这是一个使用 Transformer 架构构建的开源 Python 库。 DeepSpeed:是由微软开发的深度学习优化库。 Megatron-LM:这是由 Nvidia 开发的深度学习库。 JAX:它是由 Google 开发的用于高新能机器学习算法的 Python 库。
简单理解,算力就是计算资源,或者说硬件,OpenAI 没有说它训练 GPT-3 语言模型花了多少计算资源。但 OpenAI 的 CEO 暗示硬件成本超过一亿美元,如果我们按照 1000 美元一个 GPU 计算,它大约使用了 10 万个 GPU,以 32 位运算为准,它能提供超过 100 PFLOPS 的算力,也就是每秒 10 亿亿次运算以上,这大约是阿里云最大的数据中心的四分之一的算力。
注意,这还是 GPT-3 时的花费。
模型训练完成后,如何确保其性能满足产品上线的标准呢?有效的模型评估是一个复杂的问题。开发者需要考虑多方面的因素,包括但不限于稳健性、泛化能力、偏差和方差、解释性等。对于大模型而言,评估的难度和成本都相对更高,因为每一次评估可能都需要大量的计算资源和时间。
除了训练模式和推断模式之外,还有模型的评估模式(evaluation mode)。
评估模式是指在训练完成后,用于对模型性能进行评估的模式。在评估模式下,模型对一组测试数据进行预测,并与相应的真实标签进行比较,从而评估模型在未见过的数据上的性能表现。
评估模式与推断模式类似,都是在模型训练完成后使用模型进行预测。但评估模式的目的是衡量模型的泛化能力和性能,而不是进行预测。 评估模式通常使用一些评估指标来量化模型的性能,如准确率、精确率、召回率、F1分数等。
评估模式的一般步骤包括:
-
准备评估数据集:从训练数据中独立选择一部分数据作为评估数据集。
-
加载训练好的模型:加载已经训练完成的模型参数和权重。
-
设置评估模式:将模型切换到评估模式,通常是通过设置某些标志或调用相关函数来实现。
-
对评估数据进行预测:使用评估数据集作为输入,模型进行预测得到输出结果。
-
计算评估指标:将模型的预测结果与真实标签进行比较,并计算评估指标,如准确率、精确率、召回率等。
-
分析和报告评估结果:根据评估指标的结果,分析模型的性能表现,并报告模型的评估结果。
大模型评估中的主要问题
-
泛化能力的评估:大模型在训练数据上可能表现出色,但它们在未见数据上的表现如何却是一个挑战。过度拟合是一个常见问题,特别是在大规模参数模型中。
-
稳健性和偏差:大模型可能对输入数据的微小变化敏感,这影响了其稳健性。同时,如果训练数据存在偏差,模型很可能继承甚至放大这些偏差。
-
解释性和可信赖度:由于其复杂性,大模型往往像一个“黑盒”,难以解释其决策过程。这在一些需要高度透明度和可解释性的应用中成为问题。
-
部署的实际考虑:将训练好的模型部署到生产环境中时,还需要考虑到实际运行成本、响应时间和资源利用效率。
应对策略
-
多元化的数据集和交叉验证:使用多样化的数据集和严格的交叉验证方法可以帮助评估模型的泛化能力,并减少过度拟合的风险。
-
健壮性测试和偏差分析:通过对模型进行压力测试和对抗性测试来评估其在极端情况下的表现。同时,进行偏差和公平性分析,确保模型不会无意中放大数据中的偏见。
-
解释性工具和方法:利用各种模型解释性工具(如LIME或SHAP)来理解和解释模型的决策过程。这对于提高模型的可信赖度和透明度至关重要。
-
性能和成本效益分析:在实际部署前,进行全面的性能测试,包括响应时间和资源消耗。此外,成本效益分析有助于决定是否部署模型,以及如何优化其运行。
如何学习AI大模型?
大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “?”“”等问题热议不断。
不如成为「」,毕竟AI时代,谁先尝试,谁就能占得先机!
想正式转到一些新兴的 AI 行业,不仅需要系统的学习AI大模型。同时也要跟已有的技能结合,辅助编程提效,或上手实操应用,增加自己的职场竞争力。
但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高
那么针对所有自学遇到困难的同学们,我帮大家系统梳理大模型学习脉络,将这份 分享出来:包括等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓
👉[CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)]()👈
学习路线
第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;
第二阶段: 在通过大模型提示词工程从prompts角度入手更好发挥模型的作用;
第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;
第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;
第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;
第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;
第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。
👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;
• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;
• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;
• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。
1.AI大模型学习路线图 2.100套AI大模型商业化落地方案 3.100集大模型视频教程 4.200本大模型PDF书籍 5.LLM面试题合集 6.AI产品经理资源合集
👉获取方式: 😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓