栏目分类

热点资讯

你的位置:韩国快三APP官方 > 新闻动态 >

生成式人工智能(Generative AI)领域:应用、模型、基础设施(了解人工智能)

发布日期:2025-03-07 14:54    点击次数:123
一、概述随着互联网、移动设备和云计算的兴起,生成式人工智能代表了技术的重大进步。其直接的实际效益,特别是在提高生产力和效率方面,比元宇宙、自动驾驶、区块链和Web3等其他新兴技术更为明显。生成式人工智能模型广泛应用于许多领域,这些系统的显着示例和应用出现在写作、艺术、音乐和其他创新领域。生成式人工智能是一项变革性技术,它利用神经网络来生成原始内容,包括文本、图像、视频等。ChatGPT、Bard、DALL-E 2、Midjourney 和 GitHub Copilot 等知名应用程序展示了这一突破的早期前景和潜力。深入了解生成式人工智能不断发展的世界,探索其机制、现实世界的例子、市场动态以及其多个“层”(包括应用程序、平台、模型和基础设施层)的复杂性。继续阅读,了解这项技术的潜力、它如何塑造行业,以及使其对最终用户发挥作用和变革的各个层面。二、什么是生成式人工智能?生成式人工智能是人工智能的一个子集,它利用算法来创建新内容,例如文本、图像、视频、音频、软件代码、设计或其他形式的内容。2.1、生成式人工智能如何运作?生成式人工智能模型的工作原理是利用神经网络来分析和识别所训练的数据中的模式和结构。利用这种理解,他们生成了新的内容,既模仿类人的创作,又扩展了训练数据的模式。这些神经网络的功能根据所使用的具体技术或架构而有所不同。这包括但不限于 Transformer、生成对抗网络 (GAN)、变分自动编码器 (VAE) 和扩散模型。2.1.1、Transformers Transformers 利用self-attention机制来处理和分析数据序列,比传统方法更高效。与仅关注单个句子的传统人工智能模型不同,transformers可以识别整个页面、章节或书籍中单词之间的联系。这使得它们非常适合在大规模、未标记的数据集上进行训练。2.1.2、生成对抗网络(GAN)GAN 由两部分组成:创建新数据的生成器和区分真实数据和计算机生成数据的鉴别器。两个组件同时训练。如果生成器产生不切实际的样本,则生成器会受到惩罚,而鉴别器如果错误地识别计算机生成的示例,则会受到惩罚。2.1.3、Variational Autoencoders (VAEs)VAE 由通过一组潜在变量连接的编码器和解码器组成。这些无监督学习模型致力于通过将数据集压缩为简化形式来使输入和输出尽可能相同。潜在变量允许通过将随机集输入解码器来生成新数据,从而促进输出的创造力和多样性。2.1.4、扩散模型这些模型是经过训练的算法,通过添加随机噪声然后巧妙地删除它来操纵数据。他们学习如何从噪声失真的版本中检索原始数据,这使得它们在图像生成应用程序中特别有用。通过剖析照片和艺术品的组成部分,扩散模型能够将随机噪声转换为特定且连贯的图像。Transformer 已成为自然语言处理的基石,也是目前最流行的生成式 AI 模型架构。其次是 GAN(广泛用于图像合成和增强)、VAE(通常用于数据生成和重建)以及扩散模型(因其有效生成图像和文本的能力而受到关注)。三、生成式人工智能的层次为了更全面地了解生成式人工智能领域,我们分析了该技术的价值链,将其分为四个相互关联的层,这些层共同创造新内容。这些层是应用层、平台层、模型层和基础设施层。其中每一个在整个过程中都发挥着独特的作用,增强了生成人工智能的强大能力。

图片

3.1、应用层生成式人工智能的应用层通过允许动态创建内容来简化人类与人工智能的交互。这是通过专门的算法实现的,这些算法提供定制和自动化的企业对企业 (B2B) 和企业对消费者 (B2C) 应用程序和服务,而用户无需直接访问底层基础模型。这些应用程序的开发可以由基础模型的所有者(例如 OpenAI 和ChatGPT)和包含生成式 AI 模型的第三方软件公司(例如Jasper AI)来承担。3.1.1 Generalized, Domain-Specific, and Integrated Applications

生成人工智能的应用层由三个不同的子组组成:通用应用程序、特定领域应用程序和集成应用程序。

通用应用程序:此类别包括旨在执行广泛任务的软件,以各种形式生成新内容,包括文本、图像、视频、音频、软件代码和设计。此类别中的示例包括 ChatGPT、DALL-E 2、GitHub Copilot、Character.ai(一种聊天机器人服务,允许用户创建 AI 角色并与之交谈)和Jasper AI(一种 AI 驱动的写作工具)。

特定领域的应用程序:这些是为满足特定行业(例如金融、医疗保健、制造和教育)的特定需求和要求而量身定制的软件解决方案。这些应用程序在各自的领域更加专业化和响应更快,特别是当公司对它们进行高质量、独特和专有数据的培训时。例子包括BloombergGPT,一个由 Bloomberg 开发的用于金融数据分析的法学硕士,以及 Google 的Med-PaLM 2,一个接受医疗数据训练以回答医疗查询的法学硕士。

集成应用程序:该子组由现有软件解决方案组成,这些解决方案融入了生成式人工智能功能以增强其主流产品。主要参与者包括 Microsoft 365、Salesforce CRM 和 Adobe Creative Cloud。集成生成式 AI 工具的示例包括Microsoft 365 Copilot(适用于各种 Microsoft 产品的 AI 驱动助手)、Salesforce 的Einstein GPT(生成式 AI CRM 技术)以及 Adobe与 Photoshop 的生成式 AI 集成。3.2、生成式人工智能的平台层

生成式人工智能的平台层主要致力于通过托管服务提供对大型语言模型(LLMs)的访问。这项服务简化了通用预训练基础模型(如OpenAI的GPT)的微调和定制过程。尽管领先的LLMs,如GPT-4,可以仅使用其经过训练的锁定数据集立即回答大多数问题,但通过微调,可以显著提升这些LLMs在特定内容领域的能力。

微调涉及解锁现有LLM的神经网络,使用新数据进行额外的训练。最终用户或公司可以将其专有或客户特定的数据无缝集成到这些模型中,以用于定向应用。

平台层的最终目标是简化LLMs的使用,降低最终用户或公司的相关成本。这种方法消除了独立从零开始开发这些模型的必要性,而无需投资数十亿美元和数年的努力。相反,用户可以支付月度订阅费用或将其捆绑到基础设施即服务(IaaS)的提供中。与此同时,用户还可以访问诸如安全性、隐私性和各种平台工具等有价值的功能,所有这些都以一种简化的方式进行管理。

AI模型微调云平台

云服务提供商 (CSP)开发了平台服务,允许公司访问必要的基础模型,并针对特定应用程序训练和定制自己的模型。平台服务包括:

Azure OpenAI 服务:这种基于云的服务提供对 OpenAI 基础模型的访问,允许用户在 Azure 门户中创建应用程序。其中包括用于文本生成的 GPT 系列 LLM 和用于代码生成的 Codex

Amazon Bedrock:一个支持构建和扩展生成式 AI 应用程序的平台,使用 Anthropic 的 Claude、Stability AI 的 Stable Diffusion 和 Amazon Titan 等基础模型

Google Cloud 的 Vertex AI:一个托管 ML 平台,提供用于构建、训练和部署生成式 AI 模型的工具和服务,包括用于文本生成的 PaLM 和用于图像生成的 Imagen

用于 AI 模型微调的开源平台

开源解决方案还可帮助通用和预训练基础模型的微调和定制。这些包括:

Hugging Face:Hugging Face 被认为是“模型中心”,允许访问超过 120,000 个预先训练的 Transformer 模型,并提供工具来针对问答、文本分类和文本生成等 NLP 任务对其进行微调

TensorFlow:TensorFlow 由 Google 创建,是一个用于深度学习的开源库。它有助于人工智能模型的构建、训练和部署,具有图像识别、机器翻译和各种决策应用的功能

PyTorch:PyTorch由 Meta(以前称为 Facebook)Research 开发,是一个基于 Python 的 ML 框架。它的独特之处在于强大的GPU支持以及通过反向模式自动微分实时修改模型的能力。

3.3、生成式人工智能的模型层

生成式人工智能的模型层启动了所谓的基础模型。这种大规模机器学习模型通常通过使用 Transformer 算法对未标记数据进行训练。训练和微调过程使基础模型能够发展成为一种多功能工具,可以适应各种任务,以支持各种生成式人工智能应用程序的功能。

图片

来源:英伟达

基础模型可以大致分为两大类:闭源(或专有)模型和开源模型。

闭源模型:这些模型由 OpenAI 等特定组织拥有和控制,底层源代码、算法、训练数据和参数均保密。

开源模型:相比之下,每个人都可以不受限制地访问这些模型。他们鼓励社区协作和开发,允许透明地检查和修改代码。

闭源基础模型

闭源(或专有)基础模型可通过应用程序编程接口(API)向公众开放。第三方可以在其应用程序中使用此 API,查询和呈现基础模型中的信息,而无需在训练、微调或运行模型上花费额外的资源。

这些模型通常可以访问专有的训练数据,并可以优先访问云计算资源。大型云计算公司通常会创建闭源基础模型,因为训练这些模型需要大量投资。闭源模型通过向客户收取 API 使用或基于订阅的访问费用来产生收入。

OpenAI 的 GPT-4和Google 的 PaLM 2等大型语言模型 (LLM)是专注于自然语言处理的特定闭源基础模型。它们针对聊天机器人等应用程序进行了微调,例如ChatGPT和Gemini。一个非语言的例子是 OpenAI 的DALL-E 2,这是一种识别和生成图像的视觉模型。

开源基础模型

开源基础模型是协作开发的。它们可以免费重新分发和修改,从而提供训练数据和模型构建过程的完全透明度。许多甚至是免费分发的,具体取决于许可证和数据。

使用开源模型的好处包括:

对数据的完全控制和隐私;与 OpenAI 的 GPT 等闭源模型共享不同

通过特定提示、微调和过滤改进定制,以针对各个行业进行优化

具有成本效益的特定领域模型的训练和推理(较小的模型需要较少的计算)

开源模型的例子包括Meta的Llama 2、Databricks的Dolly 2.0、Stability AI的Stable Diffusion XL以及Cerebras-GPT。要获取全面且最新的列表,请参考Hugging Face的Open LLM Leaderboard,该榜单跟踪、排名和评估开源的LLMs和聊天机器人。

3.4、生成式人工智能的基础设施层生成式人工智能的基础设施层包含大规模基础模型的重要组成部分。这一过程涉及的关键资源是半导体、网络、存储、数据库和云服务,所有这些资源在生成式人工智能模型的初始训练和持续的微调、定制和推理中都发挥着至关重要的作用。生成式人工智能模型通过两个主要阶段发挥作用。

图片

来源:英伟达

训练阶段:这是学习发生的阶段,通常在云数据中心的加速计算集群中进行。在这个计算密集型阶段,大型语言模型(LLM)从给定的数据集中学习。参数是模型调整以表示训练数据中潜在模式的内部变量。令牌指的是模型处理的文本的个体部分,如单词或子词。例如,GPT-3是在3000亿个令牌上进行训练的,其中一个令牌等于1.33个单词,主要来自互联网的Common Crawl、维基百科、书籍和文章。

推断阶段:这是实际使用经过训练的AI模型生成用户响应的过程。在这里,新的文本输入被标记为单独的单位,模型使用训练过程中学到的参数来解释这些令牌并生成相应的输出。这些经过训练的AI模型需要大量的计算能力,并且必须部署在靠近最终用户的地方(在边缘数据中心),以最小化响应时延(延迟),因为实时交互对于保持用户参与至关重要。

总体而言,生成式人工智能的准确性取决于LLM的规模和使用的训练数据量。这些因素反过来需要一个由半导体、网络、存储、数据库和云服务组成的强大基础设施。

资料来源:dgti infra

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报。

我的网站