生成式人工智能(Generative AI)领域:应用、模型、基础设施(了解人工智能)
图片
3.1、应用层生成式人工智能的应用层通过允许动态创建内容来简化人类与人工智能的交互。这是通过专门的算法实现的,这些算法提供定制和自动化的企业对企业 (B2B) 和企业对消费者 (B2C) 应用程序和服务,而用户无需直接访问底层基础模型。这些应用程序的开发可以由基础模型的所有者(例如 OpenAI 和ChatGPT)和包含生成式 AI 模型的第三方软件公司(例如Jasper AI)来承担。3.1.1 Generalized, Domain-Specific, and Integrated Applications生成人工智能的应用层由三个不同的子组组成:通用应用程序、特定领域应用程序和集成应用程序。
通用应用程序:此类别包括旨在执行广泛任务的软件,以各种形式生成新内容,包括文本、图像、视频、音频、软件代码和设计。此类别中的示例包括 ChatGPT、DALL-E 2、GitHub Copilot、Character.ai(一种聊天机器人服务,允许用户创建 AI 角色并与之交谈)和Jasper AI(一种 AI 驱动的写作工具)。
特定领域的应用程序:这些是为满足特定行业(例如金融、医疗保健、制造和教育)的特定需求和要求而量身定制的软件解决方案。这些应用程序在各自的领域更加专业化和响应更快,特别是当公司对它们进行高质量、独特和专有数据的培训时。例子包括BloombergGPT,一个由 Bloomberg 开发的用于金融数据分析的法学硕士,以及 Google 的Med-PaLM 2,一个接受医疗数据训练以回答医疗查询的法学硕士。
集成应用程序:该子组由现有软件解决方案组成,这些解决方案融入了生成式人工智能功能以增强其主流产品。主要参与者包括 Microsoft 365、Salesforce CRM 和 Adobe Creative Cloud。集成生成式 AI 工具的示例包括Microsoft 365 Copilot(适用于各种 Microsoft 产品的 AI 驱动助手)、Salesforce 的Einstein GPT(生成式 AI CRM 技术)以及 Adobe与 Photoshop 的生成式 AI 集成。3.2、生成式人工智能的平台层生成式人工智能的平台层主要致力于通过托管服务提供对大型语言模型(LLMs)的访问。这项服务简化了通用预训练基础模型(如OpenAI的GPT)的微调和定制过程。尽管领先的LLMs,如GPT-4,可以仅使用其经过训练的锁定数据集立即回答大多数问题,但通过微调,可以显著提升这些LLMs在特定内容领域的能力。
微调涉及解锁现有LLM的神经网络,使用新数据进行额外的训练。最终用户或公司可以将其专有或客户特定的数据无缝集成到这些模型中,以用于定向应用。
平台层的最终目标是简化LLMs的使用,降低最终用户或公司的相关成本。这种方法消除了独立从零开始开发这些模型的必要性,而无需投资数十亿美元和数年的努力。相反,用户可以支付月度订阅费用或将其捆绑到基础设施即服务(IaaS)的提供中。与此同时,用户还可以访问诸如安全性、隐私性和各种平台工具等有价值的功能,所有这些都以一种简化的方式进行管理。
AI模型微调云平台云服务提供商 (CSP)开发了平台服务,允许公司访问必要的基础模型,并针对特定应用程序训练和定制自己的模型。平台服务包括:
Azure OpenAI 服务:这种基于云的服务提供对 OpenAI 基础模型的访问,允许用户在 Azure 门户中创建应用程序。其中包括用于文本生成的 GPT 系列 LLM 和用于代码生成的 Codex
Amazon Bedrock:一个支持构建和扩展生成式 AI 应用程序的平台,使用 Anthropic 的 Claude、Stability AI 的 Stable Diffusion 和 Amazon Titan 等基础模型
Google Cloud 的 Vertex AI:一个托管 ML 平台,提供用于构建、训练和部署生成式 AI 模型的工具和服务,包括用于文本生成的 PaLM 和用于图像生成的 Imagen
用于 AI 模型微调的开源平台开源解决方案还可帮助通用和预训练基础模型的微调和定制。这些包括:
Hugging Face:Hugging Face 被认为是“模型中心”,允许访问超过 120,000 个预先训练的 Transformer 模型,并提供工具来针对问答、文本分类和文本生成等 NLP 任务对其进行微调
TensorFlow:TensorFlow 由 Google 创建,是一个用于深度学习的开源库。它有助于人工智能模型的构建、训练和部署,具有图像识别、机器翻译和各种决策应用的功能
PyTorch:PyTorch由 Meta(以前称为 Facebook)Research 开发,是一个基于 Python 的 ML 框架。它的独特之处在于强大的GPU支持以及通过反向模式自动微分实时修改模型的能力。
3.3、生成式人工智能的模型层生成式人工智能的模型层启动了所谓的基础模型。这种大规模机器学习模型通常通过使用 Transformer 算法对未标记数据进行训练。训练和微调过程使基础模型能够发展成为一种多功能工具,可以适应各种任务,以支持各种生成式人工智能应用程序的功能。
图片
来源:英伟达
基础模型可以大致分为两大类:闭源(或专有)模型和开源模型。
闭源模型:这些模型由 OpenAI 等特定组织拥有和控制,底层源代码、算法、训练数据和参数均保密。
开源模型:相比之下,每个人都可以不受限制地访问这些模型。他们鼓励社区协作和开发,允许透明地检查和修改代码。
闭源基础模型闭源(或专有)基础模型可通过应用程序编程接口(API)向公众开放。第三方可以在其应用程序中使用此 API,查询和呈现基础模型中的信息,而无需在训练、微调或运行模型上花费额外的资源。
这些模型通常可以访问专有的训练数据,并可以优先访问云计算资源。大型云计算公司通常会创建闭源基础模型,因为训练这些模型需要大量投资。闭源模型通过向客户收取 API 使用或基于订阅的访问费用来产生收入。
OpenAI 的 GPT-4和Google 的 PaLM 2等大型语言模型 (LLM)是专注于自然语言处理的特定闭源基础模型。它们针对聊天机器人等应用程序进行了微调,例如ChatGPT和Gemini。一个非语言的例子是 OpenAI 的DALL-E 2,这是一种识别和生成图像的视觉模型。
开源基础模型开源基础模型是协作开发的。它们可以免费重新分发和修改,从而提供训练数据和模型构建过程的完全透明度。许多甚至是免费分发的,具体取决于许可证和数据。
使用开源模型的好处包括:
对数据的完全控制和隐私;与 OpenAI 的 GPT 等闭源模型共享不同
通过特定提示、微调和过滤改进定制,以针对各个行业进行优化
具有成本效益的特定领域模型的训练和推理(较小的模型需要较少的计算)
开源模型的例子包括Meta的Llama 2、Databricks的Dolly 2.0、Stability AI的Stable Diffusion XL以及Cerebras-GPT。要获取全面且最新的列表,请参考Hugging Face的Open LLM Leaderboard,该榜单跟踪、排名和评估开源的LLMs和聊天机器人。
3.4、生成式人工智能的基础设施层生成式人工智能的基础设施层包含大规模基础模型的重要组成部分。这一过程涉及的关键资源是半导体、网络、存储、数据库和云服务,所有这些资源在生成式人工智能模型的初始训练和持续的微调、定制和推理中都发挥着至关重要的作用。生成式人工智能模型通过两个主要阶段发挥作用。图片
来源:英伟达训练阶段:这是学习发生的阶段,通常在云数据中心的加速计算集群中进行。在这个计算密集型阶段,大型语言模型(LLM)从给定的数据集中学习。参数是模型调整以表示训练数据中潜在模式的内部变量。令牌指的是模型处理的文本的个体部分,如单词或子词。例如,GPT-3是在3000亿个令牌上进行训练的,其中一个令牌等于1.33个单词,主要来自互联网的Common Crawl、维基百科、书籍和文章。
推断阶段:这是实际使用经过训练的AI模型生成用户响应的过程。在这里,新的文本输入被标记为单独的单位,模型使用训练过程中学到的参数来解释这些令牌并生成相应的输出。这些经过训练的AI模型需要大量的计算能力,并且必须部署在靠近最终用户的地方(在边缘数据中心),以最小化响应时延(延迟),因为实时交互对于保持用户参与至关重要。
总体而言,生成式人工智能的准确性取决于LLM的规模和使用的训练数据量。这些因素反过来需要一个由半导体、网络、存储、数据库和云服务组成的强大基础设施。
资料来源:dgti infra
本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报。