Skip to content

Commit

Permalink
Merge pull request #76 from kinfey/main
Browse files Browse the repository at this point in the history
update all translations folder
  • Loading branch information
koreyspace authored Nov 1, 2023
2 parents fdc0715 + 1c7ba6f commit 8d4da6c
Show file tree
Hide file tree
Showing 124 changed files with 50 additions and 8,311 deletions.
Original file line number Diff line number Diff line change
Expand Up @@ -22,7 +22,7 @@

在构建任何类型的应用程序时,确保 API Keys 的安全非常重要。 我们建议您不要将任何 API 密钥直接存储在您正在使用的代码中,因为将这些详细信息提交到公共存储库可能会导致不必要的费用成本和问题。

![Dialog showing buttons to create a codespace](./images/who-will-pay.webp)
![Dialog showing buttons to create a codespace](../images/who-will-pay.webp)

## 在您的设备上本地运行

Expand Down Expand Up @@ -102,4 +102,4 @@ jupyterhub

## 我们一起开始进入学习

现在您已经完成了完成本课程所需的设置步骤,让我们开始进入[生成式人工智能和 LLMs 简介](../cn/01-introduction-to-genai/README.md)
现在您已经完成了完成本课程所需的设置步骤,让我们开始进入[生成式人工智能和 LLMs 简介](../../01-introduction-to-genai/translations/README.zh-cn.md)
Original file line number Diff line number Diff line change
@@ -1,6 +1,6 @@
# 第一章 : 生成式人工智能和 LLM 介绍

[![Introduction to Generative AI and Large Language Models](./images/01-lesson-banner.png)](https://youtu.be/vf_mZrn8ibc)
[![Introduction to Generative AI and Large Language Models](../images/01-lesson-banner.png)](https://youtu.be/vf_mZrn8ibc)

*(点击该图片看本章导学视频)*

Expand Down Expand Up @@ -34,7 +34,7 @@

生成式人工智能有望彻底改变我们今天的学习和教学方式,学生可以每天 24 小时使用虚拟教师,虚拟教室不仅能提供大量信息和示例,也能够利用创新的工具来评估学生并提供反馈。

![Five young students looking at a monitor - image by DALLE2](./images/students-by-DALLE2.png)
![Five young students looking at a monitor - image by DALLE2](../images/students-by-DALLE2.png)

首先,让我们来学习一些将在整个课程系列中使用的基本概念和术语。

Expand All @@ -61,7 +61,7 @@

这就是我们今天提出生成式人工智能的原因,它可以被视为深度学习的一个子集。

![AI、ML、DL 和生成式 AI](./images/AI-diagram.png)
![AI、ML、DL 和生成式 AI](../images/AI-diagram.png)

经过人工智能领域数十年的研究,一种名为 *Transformer* 的新模型架构克服了 RNN 的限制,能够获得更长的文本序列作为输入。 Transformer 基于注意力机制,使模型能够为其接收到的输入赋予不同的权重,“更加专注于”关联信息集中的地方,不管它们在文本序列中的顺序如何。

Expand All @@ -73,7 +73,7 @@

* **分词器,文本到数字**:大型语言模型接收文本作为输入并生成文本作为输出。 然而,作为统计模型,它们对数字的处理效果对比起文本序列的处理效果要好得多。 这就是为什么模型的每个输入在被核心模型使用之前都由分词器处理。 标记是一段文本——由可变数量的字符组成,因此标记器的主要任务是将输入分割成标记数组。 然后,每个令牌都映射有一个令牌索引,该索引是原始文本块的整数编码。

![Example of tokenization](./images/tokenizer-example.png)
![Example of tokenization](../images/tokenizer-example.png)

* **预测输出标记**:给定 n 个标记作为输入(最大 n 因模型而异),模型能够预测一个标记作为输出。 然后,该标记会以扩展窗口模式合并到下一次迭代的输入中,从而获得一个(或多个)句子作为答案,生成结果有更好的用户体验。 这解释了为什么如果您曾经使用过 ChatGPT,您可能会注意到有时它在生成结果时在句子中间出现停顿。

Expand All @@ -91,24 +91,24 @@

1. 文章、书籍、产品评论等的总结,以及从非结构化数据中提取见解。

![摘要示例](./images/summarization-example.png)
![摘要示例](../images/summarization-example.png)


2. 文章、论文、作业等的创意构思和设计。

![创意写作示例](./images/creative-writing-example.png)
![创意写作示例](../images/creative-writing-example.png)

* **问题**,以与代理对话的形式提出。

![对话示例](./images/conversation-example.png)
![对话示例](../images/conversation-example.png)

* **文本补全**,这隐含着对写作帮助的请求。

![文本完成示例](./images/text-completion-example.png)
![文本完成示例](../images/text-completion-example.png)

* **代码**解释和记录需求,或者要求生成执行特定任务的一段代码的注释。

![编码示例](./images/coding-example.png)
![编码示例](../images/coding-example.png)

以上的例子非常简单,并不是对生成式人工智能功能的详尽演示。 只是想展示使用生成式人工智能的潜力,并不局限于教育领域。

Expand All @@ -133,6 +133,6 @@

## 继续您的学习旅程

想要了解更多关于不同的生成人工智能概念吗? 请到[进阶学习的页面](./cn/13-continued-learning/README.md) 查找有关此主题的其他学习资源。
想要了解更多关于不同的生成人工智能概念吗? 请到[进阶学习的页面](../../13-continued-learning/translations/README.zh-cn.md) 查找有关此主题的其他学习资源。

前往第二章,我们将了解如何[探索和比较不同的 LLM 类型](./cn/02-exploring-and-comparing- different-llms/README.md)!
前往第二章,我们将了解如何[探索和比较不同的 LLM 类型](../../02-exploring-and-comparing-different-llms/translations/README.zh-cn.md)
Original file line number Diff line number Diff line change
@@ -1,6 +1,6 @@
# 第二章 : 探索和比较不同的 LLMs

[![Exploring and comparing different LLMs](./images/02-lesson-banner.png)](https://youtu.be/J1mWzw0P74c)
[![Exploring and comparing different LLMs](../images/02-lesson-banner.png)](https://youtu.be/J1mWzw0P74c)

> *点击该图片看本章导学视频*
Expand Down Expand Up @@ -48,14 +48,14 @@ LLM 模型有许多不同类型,您选择的模型取决于您的用途、您
- **它们是非常大的模型**,基于经过数十亿参数训练的深度神经网络。
- **它们通常旨在作为其他模型的“基础”**,这意味着它们可以用作构建其他模型的起点,可以通过微调方式来完成。

![基础模型与 LLMs](./images/FoundationModel.png)
![基础模型与 LLMs](../images/FoundationModel.png)

图片来源:【基础模型和大语言模型基本指南| 巴巴尔·M·巴蒂 (Babar M Bhatti) | Medium
](https://thebabar.medium.com/essential-guide-to-foundation-models-and-large-language-models-27dab58f7404)

为了进一步阐明这种区别,我们以 ChatGPT 为例。 为了构建 ChatGPT 的第一个版本,名为 GPT-3.5 的模型作为基础模型。 这意味着 OpenAI 使用一些特定于聊天的数据来创建 GPT-3.5 的调整版本,专门用于在对话场景(例如聊天机器人)中让其有更好的表现。

![基础模型](./images/Multimodal.png)
![基础模型](../images/Multimodal.png)

图片来源:[2108.07258.pdf (arxiv.org)](https://arxiv.org/pdf/2108.07258.pdf)

Expand All @@ -73,15 +73,15 @@ LLMs 还可以根据其产生的输出进行分类。

嵌入是一组可以将文本转换为数字形式的模型,称为嵌入,它是输入文本的数字表示。 嵌入使机器更容易理解单词或句子之间的关系,并且可以用作其他模型的输入,例如分类模型或对数值数据具有更好性能的聚类模型。 嵌入模型通常用于迁移学习,其中为有大量数据的代理任务构建模型,然后将模型权重(嵌入)重新用于其他下游任务。 此类别的一个示例是 [OpenAI 嵌入](https://platform.openai.com/docs/models/embeddings)

![嵌入](./images/Embedding.png)
![嵌入](../images/Embedding.png)

图像生成模型主要是用来生成图像。 这些模型通常用于图像编辑、图像合成和图像翻译。 图像生成模型通常在大型图像数据集上进行训练,例如 [LAION-5B](https://laion.ai/blog/laion-5b/),并且可用于生成新图像或编辑现有图像 修复、超分辨率和着色技术。 如 [DALL-E-3](https://openai.com/dall-e-3)[StableDiffusion](https://github.com/Stability-AI/StableDiffusion)

![Image generation](./images/Image.png)
![Image generation](../images/Image.png)

文本或代码生成模型主要是生成文本或代码。 这些模型通常用于文本摘要、翻译和问答。 文本生成模型通常在大型文本数据集上进行训练,例如 [BookCorpus](https://www.cv-foundation.org/openaccess/content_iccv_2015/html/Zhu_Aligning_Books_and_ICCV_2015_paper.html),并且可用于生成新文本或回答问题。 代码生成模型,例如 [CodeParrot](https://huggingface.co/codeparrot),通常在大型代码数据集(如 GitHub)上进行训练,可用于生成新代码或修复现有代码中的错误。

![Text and code generation](./images/Text.png)
![Text and code generation](../images/Text.png)

### 了解编码-解码器与独立解码器

Expand Down Expand Up @@ -113,19 +113,19 @@ LLMs 还可以根据其产生的输出进行分类。
- 在目录中查找感兴趣的基础模型,按任务、许可证或名称进行过滤。 还可以导入尚未包含在目录中的新模型。
- 查看模型名片(包括详细描述和代码示例,并通过提供示例提示来测试结果),使用示例推理小部件对其进行测试。

![Model card](./images/Llama1.png)
![Model card](../images/Llama1.png)

- 使用特定工作负载和输入中提供的特定数据集的评估指标来评估模型性能。

![Model evaluation](./images/Llama2.png)
![Model evaluation](../images/Llama2.png)

- 利用 Azure 机器学习的实验和跟踪功能,根据自定义训练数据微调模型,以提高特定工作负载中的模型性能。

![Model fine-tuning](./images/Llama3.png)
![Model fine-tuning](../images/Llama3.png)

- 将原始预训练模型或微调版本模型部署到远程实时推理或批处理端点,以使应用程序能够直接使用。

![Model deployment](./images/Llama4.png)
![Model deployment](../images/Llama4.png)

## 提升 LLM 的输出结果准确度

Expand All @@ -143,7 +143,7 @@ LLMs 还可以根据其产生的输出进行分类。

- **微调模型**。 在这里,您根据自己的数据进一步训练模型,这使得模型更加准确并且能够响应您的需求,但可能成本高昂。

![LLMs deployment](./images/Deploy.png)
![LLMs deployment](../images/Deploy.png)

图片来源: [企业部署LLM的四种方式| Fiddler AI 博客](https://www.fiddler.ai/blog/four-ways-that-enterprises-deploy-llms)

Expand Down Expand Up @@ -196,6 +196,6 @@ A:3,如果您有时间和资源以及高质量的数据,微调是保持最

## 继续您的学习旅程

想要了解更多关于不同的生成人工智能概念吗? 转至[进阶学习的页面](./cn/13-continued-learning/README.md) 查找有关本章的其他重要资源。
想要了解更多关于不同的生成人工智能概念吗? 转至[进阶学习的页面](../../13-continued-learning/translations/README.zh-cn.md) 查找有关本章的其他重要资源。

前往第三章,我们将了解如何[负责任地使用生成式 AI 进行应用构建](./cn/03-using-generative-ai-responsible/README.MD)
前往第三章,我们将了解如何[负责任地使用生成式 AI 进行应用构建](../../03-using-generative-ai-responsibly/translations/README.zh-cn.MD)
Original file line number Diff line number Diff line change
@@ -1,6 +1,6 @@
# 第三章 : 负责任地使用生成式人工智能

[![Using Generative AI Responsibly](./images/genai_course_3[77].png)]()
[![Using Generative AI Responsibly](../images/genai_course_3[77].png)]()

> **导学视频即将上架,敬请期待**
Expand Down Expand Up @@ -76,7 +76,7 @@

现在我们已经确定了负责任的生成式人工智能的重要性,让我们看看我们可以采取的 4 个步骤来负责任地构建我们的人工智能解决方案:

![缓解循环](./images/mitigate-cycle.png)
![缓解循环](../images/mitigate-cycle.png)

### 衡量潜在危害

Expand All @@ -88,7 +88,7 @@

现在是时候寻找方法来预防或限制模型及其响应造成的潜在危害了。 我们可以从 4 个不同的层面来看待这个问题:

![缓解层](./images/mitigation-layers.png)
![缓解层](../images/mitigation-layers.png)

- **模型**。 为正确的用例选择正确的模型。 当应用于更小、更具体的用例时,更大、更复杂的模型(例如 GPT-4)可能会导致更大的有害内容风险。 使用训练数据进行微调还可以降低有害内容的风险。

Expand Down Expand Up @@ -128,7 +128,7 @@

## 继续学习

想要了解更多有关如何负责任地使用生成式 AI 进行构建的信息? 转至[进阶学习的页面](./cn/13-continued-learning/README.md) 查找有关本章的其他重要资源。
想要了解更多有关如何负责任地使用生成式 AI 进行构建的信息? 转至[进阶学习的页面](../../13-continued-learning/translations/README.zh-cn.md) 查找有关本章的其他重要资源。

前往第四章,我们将了解 [提示工程基础](./cn/4-prompt-engineering-fundamentals/README.md)
前往第四章,我们将了解 [提示工程基础](../../04-prompt-engineering-fundamentals/translations/README.zh-cn.md)

Original file line number Diff line number Diff line change
@@ -1,6 +1,6 @@
# 第四章:提示工程基础

[![Prompt Engineering Fundamentals](./img/04-lesson-banner.png)](https://youtu.be/r2ItK3UMVTk)
[![Prompt Engineering Fundamentals](../img/04-lesson-banner.png)](https://youtu.be/r2ItK3UMVTk)


如何撰写 LLM 的提示很重要,精心设计的提示可以比不精心设计的提示取得更好的结果。 但这些概念到底是什么,提示、提示工程以及我如何改进我发送给 LLMs 的内容? 诸如此类的问题正是本章和下一章想要解答的。
Expand Down Expand Up @@ -79,7 +79,7 @@ LLM 将提示视为标记序列,其中不同的模型(或模型的版本)

要直观地了解标记化的工作原理,请尝试使用如下所示的 [OpenAI Tokenizer](https://platform.openai.com/tokenizer) 等工具。 复制您的提示 - 并查看如何将其转换为标记,注意空白字符和标点符号的处理方式。 请注意,此例子显示的是较旧的 LLM (GPT-3) - 因此使用较新的模型尝试此操作可能会产生不同的结果。

![Tokenization](./img/4.0-tokenizer-example.png)
![Tokenization](../img/4.0-tokenizer-example.png)

### 概念: 基础模型

Expand All @@ -95,7 +95,7 @@ But what if the user wanted to see something specific that met some criteria or

但是,如果用户想要查看满足某些标准或任务目标的特定内容怎么办? 这就是通过 LLMs 进行指令调整发挥作用的地方。

![Base LLM Chat Completion](./img/4.0-playground-chat-base.png)
![Base LLM Chat Completion](../img/4.0-playground-chat-base.png)

### 概念: LLMs 中的指令调整

Expand All @@ -109,7 +109,7 @@ But what if the user wanted to see something specific that met some criteria or
看看现在如何调整结果以反映所需的目标和格式? 教育工作者现在可以直接在该课程的 ppt 中使用此结果。

![Instruction Tuned LLM Chat Completion](./img/4.0-playground-chat-instructions.png)
![Instruction Tuned LLM Chat Completion](../img/4.0-playground-chat-instructions.png)

## 为什么我们需要提示工程

Expand Down Expand Up @@ -138,15 +138,15 @@ But what if the user wanted to see something specific that met some criteria or

> **响应 1**: OpenAI Playground (GPT-35)
![Response 1](./img/4.0-hallucination-oai.png)
![Response 1](../img/4.0-hallucination-oai.png)

> **响应 2**: Azure OpenAI Playground (GPT-35)
![Response 2](./img/4.0-hallucination-aoai.png)
![Response 2](../img/4.0-hallucination-aoai.png)

> **响应 3**: : Hugging Face Chat Playground (LLama-2)
![Response 3](./img/4.0-hallucination-huggingchat.png)
![Response 3](../img/4.0-hallucination-huggingchat.png)

正如预期的那样,由于随机行为和模型能力变化,每个模型(或模型版本)都会产生略有不同的响应。 例如,一个模型针对八年级受众,而另一个模型则假设高中生。 但所有三个模型确实生成了可以让不知情的用户相信该事件是真实的响应

Expand Down Expand Up @@ -409,6 +409,6 @@ Wrap the section with a summary and resources for self-guided learning.

## 继续学习

想要了解更多有关不同提示工程概念的信息吗? 转至[进阶学习的页面](./cn/13-continued-learning/README.md) 查找有关此章节的其他重要资源。
想要了解更多有关不同提示工程概念的信息吗? 转至[进阶学习的页面](../../13-continued-learning/translations/README.zh-cn.md) 查找有关此章节的其他重要资源。

前往第五章学习,我们将了解[创建高级的提示工程技巧](./cn/05-advanced-prompts/README.md)
前往第五章学习,我们将了解[创建高级的提示工程技巧](../../05-advanced-prompts/translations/README.zh-cn.md)
Original file line number Diff line number Diff line change
@@ -1,6 +1,6 @@
# 创建高级的提示工程技巧

[![Creating Advanced Prompts](./images/05-lesson-banner.png)](https://youtu.be/32GBH6BTWZQ)
[![Creating Advanced Prompts](../images/05-lesson-banner.png)](https://youtu.be/32GBH6BTWZQ)

让我们回顾一下上一章的一些知识:

Expand Down Expand Up @@ -615,6 +615,6 @@ LLM 本质上是不确定的,这意味着每次运行相同的提示时都会

## 继续学习

想要了解有关创建高级提示的更多信息? 转至[进阶学习的页面](./cn/13-continued-learning/README.md) 查找有关此主章节的其他学习资源。
想要了解有关创建高级提示的更多信息? 转至[进阶学习的页面](../../13-continued-learning/translations/README.zh-cn.md) 查找有关此主章节的其他学习资源。

前往第六章,我们将应用提示工程知识[构建文本生成应用程序](./cn/6-text- Generation-apps/README.md)
前往第六章,我们将应用提示工程知识[构建文本生成应用程序](../../06-text-generation-apps/README.md)
Loading

0 comments on commit 8d4da6c

Please sign in to comment.