人工智能技术导论(微课版)课件 第六章 AIGC基础与应用_第1页
人工智能技术导论(微课版)课件 第六章 AIGC基础与应用_第2页
人工智能技术导论(微课版)课件 第六章 AIGC基础与应用_第3页
人工智能技术导论(微课版)课件 第六章 AIGC基础与应用_第4页
人工智能技术导论(微课版)课件 第六章 AIGC基础与应用_第5页
已阅读5页,还剩59页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

第六章AIGC基础与应用学习目标

了解AIGC的概念。

了解AIGC的发展历程。

了解AIGC的关键技术。

了解AIGC的典型应用。

掌握AIGC工具的使用。6.1初识AIGC6.2AIGC技术的典型应用6.3AIGC工具的使用6.1初识AIGC6.1.1AIGC的简介

AIGC是一种通过学习大规模数据集来生成新内容的新型人工智能技术。它利用复杂的算法和模型,从海量数据中提取特征和规律,进而生成具有逻辑性和连贯性的新内容。这种技术不仅限于简单的数据复制或变换,而是能够模拟和创造出与原始数据相似但全新的内容。与传统的分析式人工智能相比,AIGC不仅可以通过学习现有数据来提炼信息、预测趋势,还可以通过学习现有数据的规律和模式,生成类似现有数据的新内容。AIGC的特点:1.创造性AIGC基于学习到的模式和特征,能够创造出全新的内容。这种创造性使得人工智能能够在内容创作等领域展现出巨大的潜力。2.交互性AIGC能够与用户进行交互,根据用户的具体需求、偏好等信息,生成个性化的内容,并接收用户的反馈。这种交互性使得AIGC能够不断提升其生成内容的质量和效果,以满足用户的期望和需求。6.1.1AIGC的简介3.泛化能力

传统人工智能所构建的模型依赖于人为定义的规则和有限的数据集进行训练,模型对于复杂和未知情境的应变能力较弱。而AIGC则采用深度学习等先进技术,通过大量数据对模型进行训练,让模型能够学习到数据更深层次的模式和特征,增强了模型对复杂和未知情境的应变能力。

4.多模态AIGC不仅限于生成单一类型的内容(如文本或图像),它还能够跨越多个模态,生成包括文本、图像、音频、视频在内的多种类型内容。多模态极大地拓宽了人工智能技术的应用场景。

5.自我学习与优化AIGC通过不断自我学习与优化,改进算法和模型,提升其生成内容的质量。随着数据量的增加和算法的改进,模型的生成能力将不断提升,生成的内容也将更加接近或超越人类所创作的内容。6.1.2AIGC的发展历程

AIGC起源于20世纪50年代,发展历程大体可以分为几个阶段:早期萌芽阶段、沉淀累积阶段、快速发展阶段。

1.早期萌芽阶段(20世纪50年代—20世纪90年代)

在这一阶段,AIGC主要处于实验阶段。随着隐马尔可夫模型和高斯混合模型的出现,人们开始探索如何利用生成模型来生成各种类型的内容(例如新闻、音乐、诗歌等)。这一阶段的生成模型大多是基于规则实现的,通过预先设定的规则和算法来生成内容。因此,模型生成的内容往往缺乏创意性,技术尚未达到真正的智能化和自主化水平,但是这些早期的尝试为AIGC的发展奠定了基础。这一阶段的标志性成果是在1957年出现的首个由计算机制作的音乐作品《依利亚克组曲》和在1966年出现的世界第一个人机对话系统“ELIZA”。6.1.2AIGC的发展历程2.沉淀累积阶段(20世纪90年代—21世纪10年代)

随着深度学习算法的改进和设备计算能力的提升,AIGC逐渐从实验转向实用。2006年前后,卷积神经网络等深度学习算法的研究取得进展,GPU和CPU等算力设备日益精进,为生成模型的训练提供了便利。在这一阶段,AIGC技术开始在图像、音乐、视频等领域得到小范围的应用,为后续的快速发展积累了重要的技术和经验。

3.快速发展阶段(21世纪10年代至今)

进入20世纪10年代,随着深度学习算法的迭代更新,AIGC技术进入了快速发展阶段。2018年6月,OpenAI基于Transformer架构推出生成式预训练转换器(GenerativePre-trainedTransformer,GPT)-1模型(1.17亿参数),首次通过自监督预训练学习语言表征。

2019年2月发布的GPT-2(15亿参数)显著提升了文本生成能力,并具备零样本多任务迁移能力。2020年5月推出的GPT-3(1750亿参数)通过更大规模训练,在自然语言处理领域实现突破。6.1.2AIGC的发展历程

OpenAI于2021年1月发布基于Transformer架构的DALL-E模型,实现文本到图像的生成;同年2月推出CLIP模型,通过对比学习建立文本与图像的关联。2022年4月发布的DALL-E2结合CLIP与扩散模型(DiffusionModel),采用两阶段生成机制:先通过CLIP理解文本语义生成粗略图像,再利用扩散模型优化细节,显著提升生成质量。2022年11月,OpenAI发布基于GPT-3.5的ChatGPT,通过强化学习优化对话能力,支持多轮交互与个性化响应。

2023年起,扩散模型因其生成质量优势逐渐取代生成对抗网络(GenerativeAdversarialNetwork,GAN),成为图像生成主流技术。2023年3月,OpenAI推出GPT-4,采用混合专家模型(MixtureofExperts,MoE)架构,显著提升了模型效率与多模态处理能力。同年9月,OpenAI发布DALL-E3图像生成模型,通过与ChatGPT深度融合,可精准理解复杂文本描述并生成高质量图像,显著提升了图像细节还原度与用户意图的匹配精度。6.1.2AIGC的发展历程

近年来,国内大模型技术在多模态融合、复杂推理和行业赋能等方向也实现了突破。头部企业通过开源共享和生态构建加速技术普及。DeepSeek推出的R1模型采用混合专家系统架构,经过深度推理优化后,其编程任务与长文本处理能力已逼近国际先进水平。百度文心一言实现多模态生成能力跃升,阿里通义千问系列大模型采用包含不同参数规模的开源策略。科大讯飞星火完成全国产化算力适配,日均调用量超2亿次。字节跳动豆包通过稀疏混合专家系统架构降低训练成本,其视频生成模型Seedance1.0pro在各项指标上超越同期产品。6.1.3AIGC的关键技术1.GANGAN于2014年被提出,是早期的生成模型,在图像生成中应用广泛。GAN由生成器和判别器两个部分组成。生成器用于生成样本数据,判别器用于判别样本数据是真实的还是生成器生成的。这两个部分通过不断的对抗训练来提升各自的能力。GAN的对抗训练过程如下:生成器根据一段带有随机噪声的数据生成样本数据,然后将生成样本和真实样本数据输入判别器,由判别器区分这些样本数据是真实的还是生成的。一开始,判别器的判别结果与实际情况相比有很大的误差,随后模型根据误差来优化判别器,提升判别器的判别准确度。当判别器被优化后,生成器生成的样本数据很难再骗过判别器,模型又反过来优化生成器,提升生成器生成样本数据的逼真度。优化后的生成器生成更逼真的样本数据,促使判别器进一步提升判别准确度。判别器判别准确度的提升又会反过来促使生成器生成更逼真的样本数据,如此循环往复,直到生成器生成的样本数据足够逼真,达到“以假乱真”的效果,判别器无法判别样本数据是真实的还是生成的,训练过程就结束了。6.1.3AIGC的关键技术

2.Transformer模型Transformer模型是谷歌于2017年在“AttentionIsAllYouNeed”论文中提出的,它是一种基于自注意力机制的神经网络模型,用于处理序列数据。Transformer模型的核心是自注意力机制,该机制允许模型在处理序列数据时,能够聚集于输入序列的某些部分,同时忽略其他部分,从而更好地理解上下文。自注意力机制使得Transformer模型在自然语言处理领域中大放异彩。Transformer模型由编码器和解码器两部分组成,每个部分都由多层网络结构组成。编码器的主要作用是将输入序列编码成高维特征向量,而解码器则将该向量解码成目标序列。相较于传统的循环神经网络模型,Transformer模型具有更好的并行性能和更短的训练时间,能够更好地捕捉长距离依赖关系。这些优点使得它在机器翻译、文本摘要、语言生成等场景得到了广泛应用。6.1.3AIGC的关键技术

3.GPT模型GPT模型由OpenAI于2018年提出,它基于Transformer模型,通过无监督学习的方式对大规模文本进行学习和抽象概括,进而通过微调的方式应用于各种特定的自然语言处理任务。GPT模型的特点在于其使用了自注意力机制,通过理解上下文语义,生成符合语境的文本。此外,GPT模型还结合了深度生成网络和掩码语言模型等技术,从而提升了生成文本的质量。当前GPT模型已经衍生出多个版本,包括GPT-1、GPT-2、GPT-3和GPT-4等。每个版本都在前一个版本的基础上进行了改进和优化,提升了模型的性能。

截至完稿时,GPT模型的最新版本为GPT-4o,“o”代表“omni”,在英语中“omni”常被用作词根,用来表示“全部”或“所有”的概念。这意味着GPT-4o模型是一个支持文本、音频和图像等多种输入和输出的多模态大模型。6.1.3AIGC的关键技术

4.CLIP模型CLIP模型由OpenAI于2021年提出的多模态预训练模型,其核心目标是实现文本与图像之间的跨模态理解。CLIP模型的训练数据集包含从互联网上收集上亿个文本—图像对,通过对比文本和图像的特征向量表示来学习它们之间的匹配关系。在训练阶段,CLIP模型接收一批文本图像对作为输入,使匹配的图像和文本向量在共同的语义空间中靠近,同时将不匹配的向量推远。这种训练方式使得CLIP模型能够捕捉图像和文本之间的深层语义联系,实现跨模态理解。当前CLIP模型在图像检索、图文匹配、文生图等任务中广泛应用。6.1.3AIGC的关键技术

5.Diffusion模型Diffusion模型是一种基于概率论的生成模型,主要用于图像生成。与GAN相比,Diffusion模型能够生成更高质量、更逼真的图像。Diffusion模型的工作机制分为正向扩散过程和逆向扩散过程。在正向扩散过程中,模型逐步向数据中添加噪声,直到数据完全随机化(变成纯噪声)。逆向扩散过程则是从纯噪声开始,逐步去除噪声,最终恢复为原始数据。当前Diffusion模型广泛应用在艺术创作、数据增强、模型训练等领域。6.1.3AIGC的关键技术

6.DALL·E系列模型DALL·E是OpenAI于2021年推出的文生图系列模型,它能够根据自然语言描述生成相应的图像。DALL·E模型基于Transformer架构,结合了文本与图像生成能力,能根据复杂描述生成高分辨率图像。DALL·E2模型将生成图像的分辨率提升至1024像素×1024像素,显著优化了生成质量。与DALL·E2相比,DALL·E3在易用性和功能性上都得到了显著提升。例如,它允许用户直接在ChatGPT的输入框中输入需要生成的图片的相关提示文字,让用户可以更方便地通过文本描述来创建图像。DALL·E3还支持为生成的图像添加内容来源水印,以帮助用户识别该内容是否为模型生成的。当前,DALL·E模型已在教育、市场营销等多个领域中广泛应用。6.26.2AIGC技术的典型应用6.2.1AIGC在城市治理领域的应用

1.政务层面2023年7月,中国电子云在2023世界人工智能大会(WorldArtificialIntelligenceConference,WAIC)上正式发布“星智”政务垂直大模型。该模型基于中国电子云自主研发的星智行业智能平台(星智2.0)构建,通过接口连接政务专题库(如城市建设、交通、教育等数据资源库),实现对政务相关事项的查询、推理、分析及问答能力,并与现有政务业务系统、数据仓库、知识库等深度集成,支撑城市政务管理的智能化升级。

当前,“星智”政务垂直大模型以行业大语言模型为基础,以中国电子云“小鲸”数字人为交互载体,已在武汉、郑州、德阳、大理等城市开展试点应用。在政务大屏解读场景中,“小鲸”数字人可针对城市经济发展、运行指标等复杂问题,快速完成数据查找、分类分析、图表生成及逻辑推演,生成可视化分析报告并提供决策建议。模型能结合政务知识库(如政务服务事项清单、城市事件清单)为决策者提供动态、精准的智囊服务。在民生服务场景中,“小鲸”可结合政务知识库与外部工具(如政策数据库),精准解答户口迁移、路灯报修、养老政策等高频民生问题。通过多轮对话和个性化服务,显著提升基层政务咨询效率与服务质量,助力“一网通办”“一网统管”等场景落地。6.2.1AIGC在城市治理领域的应用2.交通层面2023年9月,百度发布了ACE智能交通引擎3.0。ACE3.0基于百度交通大模型强大的知识压缩能力,将车、路、云、图与交通全要素进行聚合和泛化升级,从底层实现了对交通行业人工智能应用的原生重构。ACE3.0整体架构包含基础层、模型层、应用层。基础层依托百度Apollo车端系统、路侧感知系统、百度智能云平台、百度地图,实现了车、路、云、图全栈核心技术闭环,为模型层提供了底层数据支持。模型层为交通行业大模型,该大模型基于文心NLP语言大模型、文心CV视觉大模型和文心跨模态大模型构成,训练参数超过百亿。应用层则涉及交通行业的智慧网联、智慧交管、智慧高速、智慧停车等主要应用场景,让交通更安全、更高效、更便捷。6.2.1AIGC在城市治理领域的应用

3.环境层面2024年,北京市生态环境部门在全国率先推出了“监管-监测-监察”联动大模型(下文简称“三监”大模型)。该大模型利用大数据、人工智能等技术,依托新型的监测网络、智慧的分析技术、高效运转的调度系统,助力改善北京的空气质量。自投入应用以来,“三监”大模型已智能挖掘、推送了1万余条问题线索,在污染过程应对、常态化应用中发挥实效。

在数据采集层面,“三监”大模型融合了20多万个智能感知端设备,实现每日上亿条数据的汇聚。包括利用遥感卫星智能识别裸地、黑臭水体等10余类目标数据,利用大量城市巡逻走航车实时采集空气质量数据传。除此之外,“三监”大模型还接入了空气质量监测、各类污染源数据等50余类多源数据库以及包含环保领域的标准、法规、研究报告、论文等超过100万份文件的环保专业知识库。6.2.1AIGC在城市治理领域的应用

在算法层面,北京市生态环境监测中心基于海量数据构建了智能识别算法库,自主研发了单车排放超标、企业产治不同步等多类问题线索挖掘算法,动态追踪高值冒泡、超标排放等情况。例如,在监测超标排放方面,“三监”大模型系统能够通过汽车车载诊断系统远程在线监控技术,监控北京市内在用的18万辆重型柴油车的行驶路线和排放状况。若发现问题会记录下车辆的所属公司、车牌号等信息,并通过地图清晰显示车辆的行驶轨迹。在监测企业产治不同步方面,“三监”大模型对市内千余家排放大气污染物的重点企业和6000余个监测点位进行监测,对采集的数据进行模型智能匹配分析,捕捉并记录企业生产设施电表在运行而治污设施电表未运行的情况。6.2.1AIGC在城市治理领域的应用

4.公共安全层面2024年8月,应急管理部发布应急管理领域的“久安”大模型,以科技创新发展落实全面深化改革,全力推动新质生产力赋能形成应急管理新质战斗力。“久安”大模型吸收危险化学品、煤矿、森林火灾和安全生产执法等业务领域海量专业知识,依托国产大模型和应急云的基础算力进行增强训练,可以从大量视频监控中自动识别危险化学品企业厂区人员聚集、工业贸易企业作业场所粉尘积聚、强降雨地区城市内涝等安全风险,帮助基层执法人员通过拍照识别隐患并生成检查清单,为危险化学品和森林火灾应急处置提供智能辅助,满足应急管理人员问知识、问数据、问图像、问视频等多种需求,有效提升了监测预警、监管执法、应急救援和辅助决策方面的科技支撑能力。6.2.2AIGC在教育领域的应用

1.北京邮电大学“码上”智能编程教学应用平台“码上”智能编程教学应用平台由北京邮电大学研发,依托北京邮电大学网络智能研究中心的技术指导和新讯数字科技有限公司的技术支撑,基于科大讯飞的讯飞星火大模型实现,为教师提供数据统计、学情分析等教学服务,为学生提供实时、智能、个性化、启发式的编程辅导服务,有力地支撑了学校编程类课程的教学工作,提升学生学习效率,减轻教师工作负担,实现了以学生自主探究学习为主,教师答疑为辅的教学模式。该平台的提供了核心功能包括1对1辅导、代码纠错、问题答疑、代码解释等。数据统计显示,该平台对于常见的编程问题能够提供较高质量且准确的辅导,能够有效地减轻教师的教学、辅导工作压力,提升学生的学习兴趣和效率。6.2.2AIGC在教育领域的应用

2.华东师范大学“水杉在线”大规模个性化全民数字素养在线学习提升平台“水杉在线”是华东师范大学推出的全民数字素养在线学习提升平台,是集“学”“练”“测”“创”于一体的综合性学习社区。目前,“水杉在线“已上线“水杉学堂”“水杉工坊”“水杉校场”“水杉码园”4个核心模块,其中,“水杉课堂”提供开放式全民计算机科学教育课堂服务,“水杉工坊”提供交互式在线实训服务,“水杉校场”提供个性化在线编辑学习的自动评测服务,“水杉码园”提供智能代码托管和项目协作平台服务。基于该平台积累的学习行为数据,结合云计算、大数据、人工智能等技术手段,可满足个性化导学、自适应学习、人工智能助教等智能教育应用场景的需求。6.2.2AIGC在教育领域的应用

3.华中农业大学“有教灵境”智慧实践教学一体化平台“有教灵境”是华中农业大学搭建的、融合虚拟仿真教学、智慧实验教学、智慧实习、智慧实验室等于一体智慧实验室管理系统。通过该系统,教师可将教台画面及课件资料推送至大屏及学生交互终端展示,也可实时查看各学生实验台实验画面,掌握学生实操水平,并给予针对性指导。在教学过程中,系统会实时采集师生实验课堂教学活动行为数据,通过人工智能技术实现实验教学视频回溯、师生行为统计、教学过程分析、教学风格分析等操作,最终生成课堂大数据智能分析报告,实现了对实验教学“教”“学”“管”“评”“测”等方面的智能化管理。6.2.2AIGC在教育领域的应用

4.希沃大模型产品助力中小学教育

希沃基于自有教学大模型推出了第七代交互智能平板和课堂智能反馈系统,提供课件生成、智能反馈、学情分析、作业批改等功能。交互智能平板能够在屏幕上以绘画的形式形象地表示知识点,并结合3D渲染技术打造沉浸式、交互式和协作式的学习过程,激发学生的逻辑思维能力,使学生能更深入地理解和运用知识。课堂智能反馈系统通过实时采集和分析课堂教学场景数据,在结束授课后生成课堂教学分析报告,有效辅助教师对教学内容、教学方式、教学效果进行科学评估和反思。6.2.3AIGC在工业领域的应用

1.中工互联智工·工业大模型

智工·工业大模型是中工互联推出的工业领域专业大模型产品。它通过深度学习和大数据分析,能够理解和处理复杂的工业数据和工业任务,为企业提供智能决策支持,提高企业生产效率和产品质量,实现智能制造。基于智工·工业大模型,中工互联推出了三大核心产品,实现了工业核心场景的应用覆盖,这三大产品分别是智工AI-SCADA(SupervisoryControlAndDataAcquisition,监控与数据采集系统)、智工知语和工业互联网平台。6.2.3AIGC在工业领域的应用

2.羚羊工业大模型

在2023世界制造业大会期间,羚羊工业互联网公司正式推出羚羊工业大模型。羚羊工业大模型以讯飞星火认知大模型的通用能力为核心技术底座,结合工业场景实际需求打造,具有工业文本生成、工业知识问答、工业理解计算、工业代码生成、工业多模态五大核心能力。其中,工业文本生成支持生成生产交接班报告、设备点检记录、生产准备记录、首件检验记录、生产完工报告等内容。工业知识问答支持对设备维修查询、设备故障诊断、生产质检规程、安全生产规程、工业标准知识等问题进行回答。工业理解计算支持对物料齐套检查、设备物料选型、订单延期推算、产品不良率统计分析、辅助产品研发等工业场景进行语义理解和计算。工业代码生成支持SQL(StructureQueryLanguage,结构查询语言)代码生成、PLC(ProgrammableLogicController,可编程逻辑控制器)代码生成、工业协议对接、生产设备操控、零代码工业应用开发。工业多模态支持工业视觉质检、安全生产检测、产品图片生成、精益生产管理、辅助工业设计等工业场景的任务。6.2.3AIGC在工业领域的应用

2.羚羊工业大模型

在2023世界制造业大会期间,羚羊工业互联网公司正式推出羚羊工业大模型。羚羊工业大模型以讯飞星火认知大模型的通用能力为核心技术底座,结合工业场景实际需求打造,具有工业文本生成、工业知识问答、工业理解计算、工业代码生成、工业多模态五大核心能力。其中,工业文本生成支持生成生产交接班报告、设备点检记录、生产准备记录、首件检验记录、生产完工报告等内容。工业知识问答支持对设备维修查询、设备故障诊断、生产质检规程、安全生产规程、工业标准知识等问题进行回答。工业理解计算支持对物料齐套检查、设备物料选型、订单延期推算、产品不良率统计分析、辅助产品研发等工业场景进行语义理解和计算。工业代码生成支持SQL(StructureQueryLanguage,结构查询语言)代码生成、PLC(ProgrammableLogicController,可编程逻辑控制器)代码生成、工业协议对接、生产设备操控、零代码工业应用开发。工业多模态支持工业视觉质检、安全生产检测、产品图片生成、精益生产管理、辅助工业设计等工业场景的任务。

基于羚羊工业大模型,羚羊工业互联网公司发布了五大产品:羚羊数字工匠、羚羊iMOM(大企业版)、羚羊iMOM(SaaS2.0版)、羚羊智能企服助手、羚机一动。6.2.3AIGC在工业领域的应用

3.中国联通元景大模型MaaS平台2024年5月,在第七届数字中国建设峰会上,中国联通发布了元景大模型模型即服务MaaS平台,该平台覆盖产品辅助设计、质量检测、合规监管、设备预测性维护等场景,助力工业领域的企业快速构建大模型应用。元景大模型MaaS平台内部提供模型库、工具箱、原生应用商店三大服务:模型库中内置了超150个模型,涵盖通用大模型、工业领域大模型、工业场景模型、基础小模型等;工具箱中内置超100个开箱即用的工具,覆盖大模型选模型、改模型、用模型全流程,帮助用户实现零代码、低门槛快速定制;原生应用商店提供产品辅助设计、操作工序监测、安全生产合规、智能客服、编程助手等原生应用,方便用户直接使用或进行二次开发。

目前,中国联通利用元景大模型MaaS平台与服装、汽车、装备制造、电力、钢铁、纺织轻工、化工等行业的企业开展合作,共同研发行业大模型。6.2.4AIGC在传媒领域的应用

1.浙报集团传播大模型

浙江日报报业集团(下文简称浙报集团)是一家媒体经营性资产企业,2023年5月,浙报集团联合传播大脑科技(浙江)股份有限公司基于开源大模型打造了一款聚焦传媒领域的垂直大模型——传播大模型,并在集团内部多个业务场景中应用,传播大模型提供人工智能对话、资源检索、智能写稿、创意设计等方面的70余项AIGC功能,支持内容生产、资源盘活、传播优化等业务场景。基于传播大模型,浙江全省构建了融媒“一张网”,形成一站式、智能化、视频化、社群化的一体化传播体系。6.2.4AIGC在传媒领域的应用

2.长安启源智能营销

长安启源协同迪思传媒使用AIGC技术来生成高质量的营销内容。首先将长安启源车型加入模型库,借助迪思人工智能智链平台,基于汽车棚拍图,输出核心创意关键词并智能匹配。然后通过算法从模型库中提取元素,根据指令批量生成图片,定制背景并进行细节调整优化,快速制作大批量可直接用于营销的精修汽车照片,提升了营销内容的创作效率和质量。在用户参与方面,迪思传媒邀请用户利用AIGC技术围绕A07进行内容共创,促进车企与用户直接对话,使营销变得更具个性化、趣味性、互动性,吸引用户参与产品研发、深入倾听用户对产品的创想,将用户价值真正融入产品之中。6.3AIGC工具的使用6.3.1提示词

在使用AIGC工具时,首先要告诉工具需要生成什么内容。因此用户需要向工具发送一些指令,用以描述自己的需求,这些指令就是提示词。提示词的形式有多种,例如文字、语音、图片或文档等。合适的提示词能够使生成的内容更加精准,因此在使用AIGC工具时(尤其在生成图像和视频时),写好提示词就显得至关重要。假如用户需要用工具生成图片。如果提示词为“海边漫步、国画风”,工具会生成效果一般的图片。但如果在提示词中加入更多细节描述,例如“3D渲染效果,奇幻风格,人物头发发光,冰霜风雪背景,人物皮肤真实、细腻,五官立体,高光和光影”,工具生成的图片将更有质感和艺术感。好的提示词应尽量详细,给工具提供尽可能多的信息。6.3.1提示词

一般地,提示词应该包括对象角色、目标任务、操作要求和输出效果4个方面的内容。1.对象角色

提示词应明确内容的受众,这样工具生成的内容才更易于理解、可操作性更强。例如要给小学生科普生物知识,如果提示词为“写一篇科普短文”,工具会生成一篇科普短文,但它的内容可能太宽泛,语句比较枯燥乏味,不太适合小学生阅读。如果把提示词改为“请生成一篇面向小学生的、介绍生物知识的科普短文”,工具将生成一篇内容明确,语句生动、活泼的文章。

2.目标任务

提示词应尽量明确描述生成任务的背景内容和关键细节,这样工具才能获取更多的信息。例如要使用工具生成一份简历,如果提示词为“请写一份简历”,工具并不知道用户要应聘什么岗位,生成的简历只是一个通用的模板。如果把提示词改为“请写一份用于应聘Java工程师岗位的简历,简历中要突出技能和项目经验”,工具将生成更加有目的性,能够突出求职者自身优势的简历。6.3.1提示词3.操作要求

提示词应尽量描述生成内容的操作步骤或列出全部要求,让工具明确输出内容的规范。例如要使用工具生成一份游记,如果提示词为“请写一份游记”,工具并不知道游记针对的地点和游记的具体格式,生成的内容不一定符合用户的需求。如果把提示词改为“请模仿×××游记写一份广州游记,游记内容包括旅游路线、旅游景点风貌、旅游感想3部分”,生成的游记在内容和格式上能更加匹配用户的需求。4.输出效果

提示词应尽量描述生成内容的格式、文风、字数等,让工具输出的内容符合格式、字数等要求,更加贴近用户的实际需求。例如要使用工具生成一份影评,如果提示词为“请写一篇×××电影的影评”,工具并不知道影评的格式和字数,生成的影评不一定符合要求。如果把提示词改为“请写一篇×××电影的影评,字数不少于800字,影评采用“总分总”三段式结构,要求风格幽默,观点独特”,工具将生成一篇符合用户需求的影评。6.3.1提示词应用场景类别提示词文案主题与风格主题(科普文章、魔幻小说、日常趣事等)、风格(正式、轻松、幽默、严肃等)内容要求长度(××字以上、××字以内等)、关键字(环保、科技、教育、健康等)具体细节开头(引人入胜)、主体(详细论述、举例说明)、结尾(总结观点、呼吁行动)图片画面质量高细节、高质量、高清、超高清、4K、8K、16K、1080P等绘画风格中国风、卡通、水墨、3D、动漫、梦幻、抽象、沙画、极简主义、现实主义、浪漫主义、印象主义等具体细节人物(长发、红衣、面带微笑等)、场景(森林、城市夜景、海边)、情感(快乐、悲伤、平静等)、光线(明暗对比、柔和光、自然光、冷色光、室内照明等)、视角(仰视、俯视、近景、远景、全景等)视频视频类型教程视频(软件操作、烹饪教程)、纪录片(自然风光、历史回顾)、短视频(搞笑片段、生活VLOG等)内容要求时长(××分钟)、分辨率(4K、8K、16K、高清、1080P等)、帧率(每秒××帧等)风格与特效风格(复古、现代、科幻等)、特效(转场效果、滤镜、动画等)具体细节人物(长发、红衣、面带微笑等)、场景(森林、城市夜景、海边)、情感(快乐、悲伤、平静等)、光线(明暗对比、柔和光、自然光、冷色光、室内照明等)、视角(仰视、俯视、近景、远景、全景等)6.3.2文心一言

文心一言是百度全新一代知识增强大语言模型,能够与人对话互动、回答问题,协助创作,高效便捷地帮助人们获取信息、知识和灵感。它可以生成的内容包括脚本、论文、代码等文本内容和图片等数字化资源。

文心一言的使用非常简单,在页面下方的输入框内输入文本、粘贴图片、上传文件,以描述自己的需求,单击右下角按钮后,文心一言会自动生成对应的结果。6.3.2文心一言1.联网搜索

文心一言能够根据用户输入的提示词进行联网搜索,并智能整理以生成答案。例如要了解国产大模型工具有哪些,可以在输入框中输入“国产大模型有哪些?”单击右下角按钮后,文心一言会给出对应的回答。6.3.2文心一言

在回答结束后,文心一言还会基于上下文内容引导用户继续进行提问,直到用户获得满意的回答。6.3.2文心一言2.文本创作

文心一言能够根据用户输入的提示词生成诗歌、小说、简历、报告、合同等文本内容。例如要生成一段人工智能技术与应用专业的专业介绍,可以在输入框中输入“写一段人工智能技术与应用专业的专业介绍,从专业培养目标、专业学习课程、专业就业岗位等方面进行介绍,字数控制在500字以内。”,单击右下角按钮后,文心一言会创作专业介绍。6.3.2文心一言

利用文心一言写一份应聘Java工程师的简历。6.3.2文心一言

文心一言允许用户直接在输入框粘贴图片,它可根据图片内容创作作文。6.3.2文心一言

3.知识推理

文心一言可以进行逻辑、常识和数学推理,辅助用户解决学习难题。例如求解数学题“观察下面一列数1、4、7、10、13、19…,第100个数是什么?写出简略计算过程。”通过文心一言可以求解括号中的数值为65,文心一言会提供计算推理过程。6.3.2文心一言

4.生成代码

文心一言可以根据用户输入的提示词生成代码。在输入框中输入“利用Java编程实现冒泡排序”,单击右下角按钮后,生成的冒泡排序代码。6.3.2文心一言

5.制作PPT

文心一言本身不提供制作PPT的功能,可通过其智能体“PPT助手”来实现。单击左侧“智能体广场”,在右侧窗口展示的列表中,找到PPT助手。单击“PPT助手”按钮,进入该功能。6.3.2文心一言

要制作一份毕业答辩PPT,可以在输入框中输入“帮我制作一份毕业答辩PPT”,单击右下角按钮。等待一段时间即可看到PPT大纲,单击右下角“查看”按钮即可跳转到百度文库对应的页面开始生成PPT。6.3.2文心一言

等待一段时间即可看到生成完毕的PPT。可以直接单击页面右下角的“下载PPT”按钮进行下载,也可以在当前页面对PPT进行进一步的编辑、修改。6.3.2文心一言

6.生成图片

除了生成文本外,文心一言还可以生成图片。例如,要画一幅记录海滩风景的油画,可以在文心一言的输入框中输入“画一幅俯瞰海滩的油画,写实风格。”,单击右下角按钮。6.3.2文心一言

文心一言还提供了两个专门生成特定图片的智能体,分别是“E言易图”和“AI词云图生成器”,可在文心一言首页左侧单击“智能体广场”进入对应的页面进行选择。“E言易图”是一个专门生成柱状图、折线图、饼图等图表的工具,“AI词云图生成器”是一个专门生成词云图的工具。它们能够根据用户输入的提示词从网络检索相关数据,自动生成各种图表,在撰写一些文档、报告时非常有用。6.3.2文心一言

要以图表形式展现最近一个月北京温度的情况,就可以进入“E言易图”智能体页面,在其输入框中输入“请帮我生成2024年9月1日至2024年9月10日的北京温度统计图”,单击右下角按钮。6.3.2文心一言

要将广州的著名景点以词云图的形式展现,可以进入“AI词云图生成器”智能体页面,在输入框中输入“根据广州著名景点生成词云图”,单击右下角按钮后。6.3.3讯飞星火2023年5月,科大讯飞发布了讯飞星火大模型人工智能聊天机器人。该聊天机器人基于讯飞星火认知大模型研发,具有文本生成、语言理解、知识问答、逻辑推理、数学能力、代码能力、多模交互七大核心能力。6.3.3讯飞星火

讯飞星火基于对话交互,针对不同使用场景推出了内容写作、PPT生成、图像生成、文本润色、中英翻译、旅游攻略、学习计划、居家健身、网页摘要、儿童教育、短视频脚本、广告语创意、代码生成、代码纠错等多个功能,引导用户快速选择使用场景。使用时,讯飞星火支持用户输入文本、语音、图片、视频等格式的提示词,并且为每个使用场景都预置了一些提示词,进一步降低用户的使用门槛。6.3.3讯飞星火1.内容写作

讯飞星火能够帮用户创作诗歌、作文、宣传文案、总结汇报等各种类型的文案。假设用户需要创作一首热情洋溢的诗歌,可以在输入框下方选择“内容写作”命令,在弹出的“内容写作”面板的“类型”下拉列表中选择“诗歌”,在“语气”下拉列表中选择“热情

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论