生成式人工智能不仅仅是一项技术或一个商业案例——它是人类和机器协同工作的社会的关键组成部分。
生成式人工智能可以从现有的人工制品中学习,以生成新的、现实的人工制品(大规模),这些人工制品反映了训练数据的特征,但不会重复它。它可以产生各种新颖的内容,如图像、视频、音乐、语音、文本、软件代码和产品设计。
自2010年代初以来,生成式人工智能一直是人工智能创新的一个重点领域,当时研究人员开始更广泛地试验大型语言模型(llm),并将自然语言技术(NLT)解决方案应用于非结构化数据。生成式人工智能使用了许多不断发展的技术。最重要的是人工智能基础模型,它是在广泛的未标记数据集上进行训练的,这些数据可以用于不同的任务,并进行额外的微调。
创建这些训练有素的模型需要复杂的数学和巨大的计算能力,但它们本质上是预测算法。
今天,生成式人工智能最常见的是根据自然语言请求创建内容——它不需要知识或输入代码——但是企业用例包括药物和芯片设计以及材料科学发展方面的创新。(另见“生成式人工智能有哪些实际用途?”)
除了商业应用,生成式人工智能也给社会带来了巨大的风险和机遇。它提出了关于人类意味着什么以及人类如何能够和应该与机器合作的存在问题。它以我们刚刚发现的方式颠覆了行业和商业模式。当我们学会负责任地使用数字技术时,所有的数字技术都会经历不同的阶段,生成式人工智能也不例外。组织将需要开发最佳实践和治理来管理风险,并遵守可能出现的法规。
高德纳(Gartner)一直在其网站上追踪生成式人工智能炒作周期™为人工智能自2020年以来(此外,生成式人工智能是我们2022年的顶级战略技术趋势之一),该技术已经从创新触发阶段进入了膨胀预期的顶峰。但直到2022年底,随着ChatGPT的推出,生成式人工智能才成为主流新闻,ChatGPT是一种能够进行非常人性化互动的聊天机器人。
ChatGPT,一夜之间大受欢迎,引起了公众的关注。(OpenAI的DALL·e2工具在相关的生成式人工智能创新中也同样从文本生成图像。)
Gartner认为,生成式人工智能将成为一种通用技术,其影响与蒸汽机、电力和互联网类似。随着实现现实的到来,炒作将会消退,但随着人们和企业在日常工作和生活中发现更多创新的人工智能应用,生成式人工智能的影响将会增长。
基础模型,包括生成预训练的变压器(驱动ChatGPT),是人工智能架构创新的一部分,可用于自动化,增强人类或机器,并自主执行业务和IT流程。
生成式人工智能的好处包括更快的产品开发、增强的客户体验和提高的员工生产力,但具体情况取决于用例。终端用户应该对他们希望实现的价值保持现实的态度,尤其是在按原样使用服务时,这有很大的局限性。生成式人工智能创建的工件可能不准确或有偏见,使人工验证变得必不可少,并可能限制它为工人节省的时间。Gartner建议将用例与kpi联系起来,以确保任何项目都能提高运营效率或创造净收入或更好的体验。
在Gartner最近对2500多名高管进行的网络研讨会调查中,38%的高管表示,客户体验和留存是他们投资生成式人工智能的主要目的。其次是收入增长(26%)、成本优化(17%)和业务连续性(7%)。
与生成式人工智能相关的风险是巨大的,并且正在迅速演变。各种威胁行为者已经使用该技术制造“深度伪造”或产品副本,并生成人工制品以支持日益复杂的骗局。
ChatGPT和其他类似的工具都是在大量公开数据上进行训练的。它们的设计不符合通用数据保护条例(GDPR)和其他版权法,因此必须密切关注您的企业对这些平台的使用。
需要监控的监管风险包括:
缺乏透明度。生成式人工智能和ChatGPT模型是不可预测的,甚至它们背后的公司也不是总是了解它们是如何工作的。
准确性。生成式人工智能系统有时会产生不准确和捏造的答案。在依赖或公开分发信息之前,评估所有产出的准确性、适当性和实际有用性。
偏见。您需要适当的政策或控制来检测有偏见的输出,并以符合公司政策和任何相关法律要求的方式处理它们。
知识产权和版权。目前还没有关于机密企业信息的可验证的数据治理和保护保证。用户应假定他们输入ChatGPT及其竞争对手的任何数据或查询将成为公共信息,我们建议企业实施控制以避免无意中暴露IP。
网络安全和欺诈。企业必须为恶意行为者使用生成式人工智能系统进行网络和欺诈攻击做好准备,例如那些使用深度伪装进行人员社会工程的攻击,并确保实施缓解控制措施。与您的网络保险提供商协商,以验证您现有的政策涵盖与人工智能相关的违规行为的程度。
可持续性。生成式人工智能使用大量的电力。选择能够降低能耗和利用高质量可再生能源的供应商,以减轻对可持续发展目标的影响。
Gartner还建议考虑以下问题:
谁定义负责任地使用生成式人工智能,特别是随着文化规范的演变和不同地区的社会工程方法的不同?谁来确保遵从性?不负责任的使用会带来什么后果?
如果出现问题,个人如何采取行动?
用户如何给予和删除同意(选择加入或选择退出)?我们能从隐私争论中学到什么?
使用生成式人工智能会帮助还是损害你的组织和整个机构的信任?
我们如何确保内容创造者和所有者能够控制他们的IP并获得公平的补偿?新的经济模式应该是什么样的?
谁将确保在整个生命周期中正常运作,他们将如何做到这一点?例如,董事会需要人工智能道德主管吗?
最后,重要的是要不断监测有关生成人工智能的监管发展和诉讼。中国和新加坡已经就生成式人工智能的使用制定了新的规定,而意大利则是暂时的。美国、加拿大、印度、英国和欧盟目前正在塑造各自的监管环境。
生成人工智能领域将在科学发现和技术商业化方面取得快速进展,但在创意内容、内容改进、合成数据、生成工程和生成设计方面,用例正在迅速涌现。
目前正在使用的高级实际应用程序包括以下内容。
书面内容扩充和创作:以所要求的风格和长度生成文本的“草稿”输出
问答和发现:使用户能够根据数据和提示信息找到要输入的答案
基调:文本操作,软化语言或使文本专业化
总结:提供对话、文章、电子邮件和网页的缩短版本
简化:分解标题,创建大纲,提取关键内容
针对特定用例的内容分类:按情感、话题等排序。
聊天机器人性能提升:改进“情感”提取、全会话情感分类和从一般描述生成旅程流
软件编码:代码生成,翻译,解释和验证
具有长期影响的新兴用例包括:
创建显示疾病未来发展的医学图像
合成数据有助于增加稀缺数据,减轻偏见,保护数据隐私和模拟未来情景
应用程序主动向用户建议额外的操作并向他们提供信息
遗留代码现代化
生成式人工智能为增加收入、降低成本、提高生产力和更好地管理风险提供了新的颠覆性机会。在不久的将来,它将成为竞争优势和差异化因素。
高德纳将这些机会分为三类。
产品开发:生成式人工智能将使企业能够更快地创造新产品。这些可能包括新药、毒性更低的家用清洁剂、新口味和香味、新合金,以及更快更好的诊断。
新的收入渠道:Gartner的研究表明,人工智能成熟度更高的企业将获得更大的收益。
工人增加:生成式人工智能可以增强工人起草和编辑文本、图像和其他媒体的能力。还可以对内容进行总结、简化和分类;生成、翻译和验证软件代码;提高聊天机器人的性能。在这个阶段,该技术在快速和大规模地创建广泛的工件方面非常精通。
长期人才优化:员工将通过构思、执行和完善与人工智能合作的想法、项目、流程、服务和关系的能力而脱颖而出。这种共生关系将加快熟练掌握的时间,并大大扩展员工的范围和能力。
过程改进:生成式人工智能可以从大量内容中获得真实的、情境中的价值,而这些价值到目前为止可能还没有得到充分利用。这将改变工作流程。
降低风险:生成式人工智能能够分析并提供更广泛、更深入的数据可见性,例如客户交易和潜在错误的软件代码,从而增强模式识别能力,并更快地识别企业潜在风险。
可持续性:生成式人工智能可以帮助企业遵守beplay.asp 法规,减轻搁浅资产的风险,并将可持续性纳入决策,产品设计和流程。
生成式人工智能将通过人工智能模型增强核心流程,影响制药、制造、媒体、建筑、室内设计、工程、汽车、航空航天、国防、医疗、电子、能源等行业。它将通过扩展跨许多组织的支持过程来影响营销、设计、企业通信、培训和软件工程。例如:
我们认为,到2025年,超过30%的新药物和新材料将通过生成式人工智能技术被系统地发现,而目前这一比例为零。鉴于有机会降低药物发现的成本和时间,生成式人工智能对制药行业来说很有希望。
我们预测,到2025年,大型组织30%的对外营销信息将由人工合成产生,而2022年这一比例还不到2%。像GPT-3这样的文本生成器已经可以用于创建营销文案和个性化广告。
在制造业、汽车、航空航天和国防工业中,生成式设计可以创建优化的设计,以满足特定的目标和约束,如性能、材料和制造方法。这通过产生一系列可供工程师探索的潜在解决方案来加速设计过程。
提供以下功能的技术人工智能的信任和透明度将成为生成式人工智能解决方案的重要补充。此外,高管应该遵循以下指导原则,以合乎道德地使用法学硕士和其他生成式人工智能模型:
开始在里面。在使用生成式人工智能创建面向客户或其他外部的内容之前,请与内部利益相关者和员工用例进行广泛测试。你可不想让幻觉影响到你的生意。
奖的透明度。无论人们是员工、客户还是市民,都要坦率地告诉他们,他们正在与机器进行互动,并在整个过程中多次清楚地标记任何对话。
做你的尽职调查。建立流程和护栏来追踪偏见和其他值得信赖的问题。通过验证结果和不断测试偏离轨道的模型来做到这一点。
解决隐私和安全问题。确保敏感数据既不输入也不导出。与模型提供者确认此数据不会用于您组织以外的机器学习。
你的员工可能已经在使用生成式人工智能,要么是在实验基础上,要么是为了支持他们的工作相关任务。为了避免“影子”使用和一种错误的合规意识,Gartner建议制定一项使用政策,而不是完全禁止。
保持策略简单-如果使用ChatGPT或其他现成的模型,它可以简化为三个不要和两个要:
不输入任何个人身份信息。
不输入任何敏感信息。
不输入任何公司的IP。
做如果使用启用该选项的外部工具(如ChatGPT),则关闭历史记录。
做密切监测产出,这些产出有时会产生微妙但有意义的幻觉、事实错误以及有偏见或不适当的陈述。
如果公司正在使用自己的大型语言模型实例,那么通知限制输入的隐私问题就会消失。但是,仍然需要密切关注产出。
在商业中,许多人都是某种形式的内容创造者。生成式人工智能将极大地改变他们的工作,无论是通过创建文本、图像、硬件设计、音乐、视频还是其他东西。因此,工人需要成为内容编辑,这需要一套不同于内容创建的技能。
与此同时,随着应用程序变得具有对话性、主动性和交互性,员工与应用程序交互的方式将发生变化,这需要重新设计用户体验。在短期内,生成式人工智能模型将超越对自然语言查询的响应,并开始建议你没有要求的事情。例如,您对数据驱动的条形图的请求可能会得到模型怀疑您可以使用的替代图形的回答。至少在理论上,这将提高工人的生产率,但它也挑战了传统思维,即需要人类主导发展战略。
劳动力的净变化将根据行业、地点、规模和企业提供的产品等因素而有很大差异。
许多企业正在进行代码生成、文本生成或视觉设计的生成式人工智能试点。要建立一个试点,您可以采取以下三种路线之一:
现成的。通过输入提示符直接使用现有的基础模型。例如,您可以要求模型为软件工程师创建一个职位描述,或者为营销电子邮件建议其他主题行。
促使工程。编程和连接软件到一个基础模型,并利用它。这种技术是三种技术中最常见的,它允许您在使用公共服务的同时保护IP并利用私有数据来创建更精确、更具体和更有用的响应。建立一个人力资源福利聊天机器人,回答员工关于公司特定政策的问题,就是一个即时工程的例子。
生成式人工智能的成本从微不足道到数百万美元不等,具体取决于公司的用例、规模和需求。中小型企业可以从公共的、公开托管的应用程序(如ChatGPT)的免费版本或通过支付较低的订阅费获得重要的业务价值。例如,OpenAI目前的价格是每个用户每月20美元。但是,免费和低成本选项对企业数据和相关输出风险的保护程度最低。
大型企业和那些希望对自己的企业数据进行更多的分析或使用,并具有更高级别的安全性、IP和隐私保护的企业,将需要投资于一系列定制服务。这可能包括使用数据和机器学习平台构建许可的、可定制的和专有的模型,并且需要与供应商和合作伙伴合作。在这种情况下,成本可能高达数百万美元。
同样值得注意的是,生成式人工智能功能将越来越多地内置到你可能每天使用的软件产品中,比如必应(Bing)、Office 365、Microsoft 365 Copilot和谷歌工作区。这实际上是一个“免费”层,尽管供应商最终会将成本转嫁给客户,作为其产品捆绑增量价格上涨的一部分。
未来五年,生成式人工智能将对企业产生越来越大的影响。Gartner预测:
到2024年,40%的企业应用程序将嵌入对话式人工智能,而2020年这一比例还不到5%。
到2025年,30%的企业将实施人工智能增强开发和测试战略,高于2021年的5%。
到2026年,生成式设计AI将自动化60%的新网站和移动应用程序设计工作。
到2026年,超过1亿人将雇佣机器人同事为他们的工作做出贡献。
到2027年,近15%的新应用程序将由人工智能自动生成,而无需人工参与。今天根本不会发生这种事。
生成式人工智能市场正火起来。除了大型平台公司,还有数百家专业提供商,它们得到了充足的风险资本和一波新的开源模型和功能的资助。企业应用程序提供商,如Salesforce和SAP,正在将LLM功能构建到他们的平台中。微软(Microsoft)、谷歌(Google)、亚马逊网络服务(Amazon Web Services)和IBM等公司已经投入了数亿美元和强大的计算能力来构建ChatGPT等服务所依赖的基础模型。
Gartner认为目前的主要参与者如下:
谷歌有两个大的语言模型,Palm是一个多模态模型,Bard是一个纯语言模型。他们正在将他们的生成式人工智能技术嵌入到他们的工作场所应用程序套件中,这些应用程序将立即让数百万人掌握。
微软和OpenAI正步调一致地前进。与谷歌一样,微软正在将生成式人工智能技术嵌入其产品中,但它拥有先发优势和ChatGPT的嗡嗡声。
亚马逊与拥抱的脸它有许多基于开源的法学硕士,以构建解决方案。亚马逊还拥有Bedrock,它通过AWS提供对云上生成式人工智能的访问,并宣布了Titan的计划,这是一套两种人工智能模型,可以创建文本,改善搜索和个性化。
这要看你问谁。人工智能(AGI),即机器匹配或超越人类智能并解决它们在训练中从未遇到过的问题的能力,引发了激烈的辩论,以及敬畏和反乌托邦的混合。人工智能当然会变得越来越有能力,有时会表现出人类无法编程的令人惊讶的突发行为。
可能的路径是机器智能的进化,它模仿人类的智能,但最终目的是帮助人类解决复杂的问题。这将需要治理、新的监管和广泛的社会参与。