本帖最后由 小哪吒 于 7-4 14:58 编辑
得益于大型语言模型(LLM)的出现,人工智能在当今的平台转变中占据了主导地位。
人们在日常生活中迅速接受了使用自然语言处理 (NLP) 的人工智能,例如 OpenAI 的 GPT。对于产品经理来说,这是一个激动人心的时刻,因为它是定义下一代产品体验的机会。
什么是大型语言模型 (LLM)?大型语言模型 (LLM) 是人工智能的一个分支,它能够理解、解释和生成基于人类语言的文本。它们能够计算出输入句子后出现单词的可能性,从而模仿我们的语言。
通过使用大量且多样化的数据集,LLM 经过训练可以处理和生成内容。这些数据可以来自书籍、在线文本、文章、视频记录和其他形式的书面交流。
大型语言模型旨在细化复杂的人类语言,包括语义、句法、上下文和语法。
以 Open AI 的 GPT 为例。2022 年,该公司推出了一款基于其 GPT 模型构建的对话式聊天应用程序,并将其命名为 ChatGPT,让用户可以生成、总结和翻译内容,创建代码并获得问题的答案。
法学硕士 (LLM) 与生成式人工智能 (Generation AI) 之间的区别
大型语言模型是生成式人工智能的一个子集。
生成式 AI 是生成文本、图像、代码、视频和音乐等内容的人工智能功能的通用术语。一些最常见的生成式 AI 包括 ChatGPT、DALL-E 和 Adobe Firefly。 LLM 专注于处理和生成文本,这意味着所有 LLM 都是生成性 AI。
这些技术的运行原理是什么?
人工智能曾经严重依赖基于规则的编程,但当问题变得过于复杂时,这种编程就会失效。
如今,各种 AI 产品都使用机器学习来更好地处理复杂性和可扩展性。通过机器学习,模型可以通过训练从数据集中学习,随着时间的推移提高性能,而无需明确编程。
然后是深度学习。深度学习是一种更复杂的机器学习系统,涉及训练多层人工神经网络以识别海量数据集中的复杂模式。
通过深度学习,大型语言模型在文本生成、摘要、问答、情感分析等各种 NLP 任务中取得了显著的成功。
为什么大型语言模型对产品经理很重要?
LLM 正在不断改进。随着模型的不断改进,它们可以生成更高质量的内容,使其在不同产品和应用中具有价值。
由于产品经理不断构建新产品来解决新出现的用户问题,因此了解 LLM 将帮助您推动创新产品开发。
产品经理需要了解的有关法学硕士的知识
除了了解大型语言模型的工作原理的一般概念之外,科技行业的 PM 还需要了解具体的复杂细节。
1.神经网络
你的大型语言模型有多有效?
我们可以通过查看 LLM 基于 人工神经网络的架构规模来判断其性能。
神经网络是 LLM 的底层计算结构,其灵感来自人类大脑。它们旨在通过层层互联的“神经元”或节点(从数据训练中学习)来处理和生成自然语言文本。
神经元携带一组数字作为网络的参数,表示神经元之间的连接强度。每个神经元接收输入信号,使用加权连接和激活函数对其进行处理,并产生输出信号。
神经网络由输入层(接收数据)、隐藏层(执行计算)和输出层(创建预测)组成。 当隐藏层执行计算时,它们会学习现有输入和输出数据之间的模式和关系——这个过程称为训练。
在这些隐藏层中,每次计算都代表特定神经元与前一层神经元之间的关系。随着网络的训练,它会提高对数据的理解,从而增强其做出准确预测和决策的能力。 在 LLM 中,参数数量越多,语言模型的容量就越大。参数就像模型的构建块,充当在训练过程中调整以优化其性能的旋钮和刻度盘。
尽管规模庞大,但大型语言模型并不像硬盘那样存储信息。相反,它们通过训练来学习数据中的复杂模式和关系,从而使它们能够生成类似人类的文本并在复杂的层面上理解语言。
2. 网络架构
LLM 可以采用不同的架构构建,具体取决于其要完成的任务。
模型的架构是指模型的整体设计和结构。它定义了模型如何处理输入数据、捕获依赖关系以及生成输出。
不同的架构具有不同的优点和缺点,这使得它们比其他架构更适合某些任务。以下是几个例子:
A.循环神经网络(RNN)
RNN 允许将一次计算的输出作为未来评估的输入。它们在机器翻译等生成功能中最有用,因为模型可以从之前的输入和输出中学习。
RNN 还有另一个版本,称为长短期记忆 (LSTM)。与传统 RNN 相比,此变体可以容纳更多内存,能够处理更长的序列输出。
B.卷积神经网络(CNN)
CNN 是一种具有一个或多个卷积层的网络。它是一种深度学习模型,在图像相关任务(例如识别或分类)中特别有用,但也可用于 NLP 功能。
CNN 专门设计用于通过使用卷积层来挖掘图像中的空间结构,从输入数据的局部区域提取特征。
通过堆叠多个卷积层,CNN 可以捕捉视觉特征的分层表示,从而让它们学习图像中的复杂模式和关系。 C.生成对抗网络(GAN)
这是一种用于生成任务的神经网络架构,例如图像合成、图像转换和数据生成。
GAN 由两个相互关联的模型组成:生成器和鉴别器。生成器生成合成数据,例如图像或文本,而鉴别器则评估生成的数据是真实的还是虚假的。
通过对抗过程,生成器旨在生成与真实数据难以区分的数据,而鉴别器则努力更好地区分真实数据和虚假数据。这个过程鼓励两个模型随着时间的推移不断改进,从而生成越来越逼真的合成数据。
D.变压器
这是一种深度学习架构,在 NLP 任务中尤为突出,例如文本生成、问答、情感分析、摘要和翻译。
与按顺序处理数据的传统模型(例如循环神经网络)不同,Transformer 并行处理整个数据序列。这种架构选择提高了涉及大量数据序列的任务的效率和可扩展性。
OpenAI 的 GPT 建立在 Transformer 架构之上。它使用自注意力机制,让模型能够衡量序列中不同单词的重要性,从而捕捉上下文。
Transformer 架构在许多语言任务中表现出色,因为它可以有效地处理单词之间的长距离连接,并且可以使用 GPU 和 TPU 等强大的硬件在大型数据集上快速进行训练。
3. 及时工程
数据训练是大型语言模型产生良好结果的一个因素。但这并不是唯一因素——良好的提示同样至关重要。
LLM 在两个域之间进行映射:用户域(即用户的输入)和文档域(即模型训练的数据)。创建提示的做法称为“提示工程”,它在科技领域的需求越来越大。 作为产品经理,您可以深入研究提示工程,创建一个提示库,以提高 AI 模型的效率。
提示设计已用于创建聊天机器人、优化翻译服务和创建内容。通过设计有效的提示,PM 可以帮助培训 LLM 为其产品生成有针对性和相关的响应。
提示的构成要素
了解组成提示的基本组件至关重要,这样您才能有效地构建提示。提示的构成要素包括: - 指令:用户提供给模型执行的任务或命令。
- 背景:向模型提供的附加信息,帮助其生成更准确的响应。
- 输入数据:用户感兴趣的问题或输入。
- 输出指示器:提供给模型的指令,指示用户想要获得的输出类型或格式。
常见的提示类型
提示可以采用不同的形式,以便获得针对每种需求的独特响应。用户可以应用的一些常见类型包括: - 直接提示:提供上下文+说明
- 示例提示:提供用户想要获得的结果的清晰、说明性的示例
- 思路链 (CoT) 提示:让模型通过一系列提示解释其推理
- 角色提示:为模型分配一个角色,然后提出相应的问题。
提示最佳实践
随着开发人员和用户探索和优化模型,他们制定了 LLM 提示方面的最佳实践列表。其中包括: - 以对话的方式进行。(例如,不要问“给我一份产品计划……”,而要说“为推出一款名为……”的全新产品写一份详细的产品计划。”
- 提供清晰、简明且不含糊的说明。提及哪些信息最重要。
- 提示的结构如下:首先,定义目的,然后提供输入/上下文,最后陈述命令。
- 提供具体、多样化的例子,以帮助模型缩小关注范围并产生更准确的响应。
- 避免提供复杂的指令。将其分解为更直接的提示。
- 在获得最终结果之前,指示模型验证其答案。您可以说,“从 1 到 10 对您的工作进行评分”,或者“您认为这是正确的吗?”
4. Transformer 模型
传统上,LLM 使用循环神经网络 (RNN) 或卷积神经网络 (CNN) 按顺序或使用固定大小的窗口处理输入数据。
如今,现代 LLM 使用Transformer架构进行自然语言处理。Transformer 模型有何不同?
本质上,Transformer 可以一次性处理大量数据(并行化),而不是一次处理一个数据(顺序处理)。这种架构使得训练数据集比以前的架构大得多。 Transformer 架构擅长理解上下文,使其成为目前大多数语言模型的首选。
它基于两个关键组件:
词嵌入
在大量文本数据中,句子中的单词由一组数字表示。这些数字根据它们在数据集中的使用方式捕获其含义和上下文。这种表示称为词嵌入。
通过数字表示,系统可以理解单词之间的关系,从而做出更好的语言预测。 例如,句子“嘿,很高兴见到你!”中的每个单词都会被转换成模型可以理解的数字形式(如向量)。这些向量包含有关单词及其在句子中的位置的信息。
通过词嵌入,Transformer 模型可以寻找各个句子中每个单词与其他单词之间的关系模式。
注意力
注意力机制允许模型关注输入文本中具有不同重要程度的各个部分。
为此,Transformers 在神经网络中使用了自注意力层。这些层有助于它在理解和生成文本时专注于句子的重要部分。 让我们看一下这个句子,“一位女士去了商店”。如果你正在读这本书,你的大脑会自动关注关键词“女士”和“商店”。
类似地,自注意力层允许模型找出句子中哪些单词最重要。它通过为单词分配表示其相对重要性的分数来实现这一点。
然后,它会利用这些评分将短语中每个单词的信息结合起来,赋予最重要的单词更大的权重。这提高了机器理解句子上下文的能力,使其能够提高语言处理能力。
5. LLM能力
与更可预测和线性的计算机程序不同,LLM 的开发过程会产生意想不到的定性行为。
法学硕士能够:
A.文本生成、编辑和完成
LLM 可以生成与给定提示上下文相关的文本。许多人利用这一点来创建博客、社交媒体帖子、视频脚本和其他形式的内容。
这些模型还允许文本编辑和完成。例如,Jasper AI 是一款流行的文案助手,旨在解决写作障碍。Jasper AI 允许用户想出一个初始短语,然后它就可以继续写作。
B.文本摘要
摘要是研究和学术界的一个实际用例。用户可以向模型提供冗长的文档,并通过一次提示获得信息丰富的摘要,从而节省宝贵的时间和精力。
C.情绪分析
LLM 能够解释、理解和分类词语背后的情感基调。例如,情绪分析可用于改进针对特定产品的大量客户反馈。然后,公司可以使用结果来改进其营销策略和客户服务。
D. 语言翻译
LLM 最初的用途之一是语言翻译,而最新的模型让这一过程变得更加简单。许多公开的 LLM 只需简单的提示即可提供高精度的翻译。
E. 问答
LLM 利用其深刻的背景理解来为广泛领域的问题提供信息丰富且准确的答案。
F.聊天机器人和虚拟助手
由于 LLM 的改进,我们现在有了更智能的聊天机器人和虚拟助手,它们可以更自然地与客户交谈。利用 GPT-4 等模型的生成式 AI 和 NLP 功能,聊天机器人可以帮助用户完成各种任务,例如客户支持和预约安排。它还可以通过使用 RAG(检索增强生成模型)等流程来了解特定公司的背景,例如其内部文档、常见问题解答或网站信息。
G.角色扮演
LLM 可以模拟对话和互动,这对许多用户来说非常有帮助。它涉及指示 LLM“采用”特定的职位、职业或职能,然后人工智能会利用这些职位、职业或职能更有效地完成给定的工作。
H. 代码生成
各种 LLM 都经过数据集训练,使它们能够用不同的语言和场景创建代码,成为程序员的有用工具。
注意:值得注意的是,除了上述列表之外,法学硕士还有许多其他新兴用例。随着公司不断创新,法学硕士的新应用也在不断被探索和开发。
6. LLM风险
虽然LLM能够提供流畅、权威的文本,但也存在各种风险,包括:
幻觉
大量虚假信息被上传到互联网。LLM可能会接受不准确、不完整或矛盾的数据的训练,从而产生有偏见或虚构的事实,即所谓的“幻觉”。
公司已通过各种方式解决其产品中的幻觉问题,包括为用户提供预定义的提示模板以获得正确的结果、监督流程和结果以及微调。微调是优化预训练模型以更好地适应特定任务或数据集的过程。OpenAI还利用了一种称为“带人类反馈的强化学习”(RLHF)的方法。这涉及使用直接的人类反馈训练称为“奖励模型”的 AI 代理,并通过从人类反馈中学习来优化 AI 模型的性能。
传统的强化学习 (RL) 仅依靠反复试验系统来改善结果,而 RLHF 则通过人类的专业知识实现更快、更有针对性的学习。
为此,模型根据给定的提示或任务生成输出,然后由人类根据预定义的标准进行评估。
人类评估者根据模型的响应分配奖励或惩罚。这些奖励指导强化学习过程,其中 LLM 的参数会进行调整,以随着时间的推移最大化预期奖励。
偏见
如果模型使用的数据不够多样化,或者在代表某些群体方面缺乏权重,那么 LLM 生成的结果可能会出现偏差。这可能会引发道德问题。
语言模型会产生文本中可能存在的偏见,维持对年龄、种族、性别、社会经济地位等的刻板印象和歧视。
为了解决这个问题,产品团队必须使用严格的公平性指标进行主动评估,每次检测到偏见时减轻偏见并优化模型。
不适当或冒犯性内容
建立语言模型的另一个风险是可能会生成宣扬仇恨、歧视或伤害的文本。
如果是这样,该模型可能会被用于网络欺凌或对寻求聊天机器人情感支持的用户造成心理伤害。
攻击性内容的问题通常通过人工反馈和微调来解决。
版权问题
LLM可能会在不知情的情况下创作抄袭的文字或任何违反版权法的作品。
当人工智能生成的文章或文件与受版权保护的材料类似而未经正确引用而被分发时,可能会引起道德和法律问题。
在这种情况下,开发人员可以使用新颖的忘却学习技术,例如: - 数据过滤,包括从训练数据集中选择性地删除特定的数据点或模式,
- 梯度方法,使用优化算法,根据损失函数的梯度调整模型参数,以最小化预测误差,
- 以及上下文内去学习,即根据新的上下文或数据输入删除或调整以前学习的信息来更新模型。
然而,您只能想象重新训练模型以忘记可能受版权保护的内容有多么困难。大多数这些策略都需要大量资源和时间。
OpenAI 在版权诉讼后的一份声明中辩称,使用受版权保护的材料是一种“非表达性的中间复制”,并表示它具有开创性的目的。他们认为,其目的是利用这些数据让 LLM 学习“人类生成的媒体中固有的模式”,这与原创作品的“娱乐”目的不同。
业界对这个话题有很多争论。时间将告诉我们未来几年哪种观点将主导生态系统。
持续缓解仍然是必要的。
其他 LLM 滥用或风险- 隐私风险(LLM无意中复制潜在的个人身份信息);
- 更容易的恶意软件编程(使用 LLM 生成的代码)
- 社交媒体聊天机器人的风险;
- 使用生成的文本进行网络钓鱼或垃圾邮件等恶意行为;
- 心理伤害(例如,用户使用聊天机器人获取情感支持但却得到了有害的回应);
- 和更多。
结论
总体而言,LLM和人工智能的风险不只是错误的回答或虚假的信息。
几乎不可能预测所有可能的情况,尤其是在存在恶意滥用人工智能产品的情况下。
虽然互联网的双重用途并不是什么新鲜事,但产品经理需要不断寻找方法来确保大型语言模型不会被用于有害目的。
|