人工智能-历史现在和未来_第1页
人工智能-历史现在和未来_第2页
人工智能-历史现在和未来_第3页
人工智能-历史现在和未来_第4页
人工智能-历史现在和未来_第5页
已阅读5页,还剩68页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

XXX一

三起两落:

人工智能发展史二

智能涌现:

大模型时代五

百花齐放:

人工智能应用场景四

数据为王:

低空感知平台·三

·

东数西算:算力基础设施·六

·

未来已至:拥抱智能时代

汇报提纲:一

三起两落:

人工智能发展史·五

·

百花齐放:人工智能应用场景·三

·

东数西算:算力基础设施·

·

数据为王:低空感知平台·六

·

未来已至:拥抱智能时代·二

·

智能涌现:大模型时代

汇报提纲:美国达特茅斯DartmouthCollege达特茅斯会议首次正式提出人工智能一词

ArtificialIntelligence

AI

一直被沿用至今

因此

1956年也就成为了人工智能元年。图灵测试:

如果机器能回答由人类测试者提出的一系列问题

且其超过30%的回答让测试者误认为是人类所答

,则机器通过测试

,并被认为具有人类智能。达特茅斯会议(1956)DartmouthConference达特茅斯会议

1956年8月

在美国汉诺斯小镇宁静的达特茅斯学院中

,约翰·麦卡锡、

马文·闵斯基(人工智能与认知学专家)

克劳德·香农

(信息论的创始人)

艾伦·纽厄尔(计算机科学家)

、赫伯特·西蒙(诺贝尔经济学奖得主)

等科学家正聚在一起

讨论用机器来模仿人类学习以及其他方面的智能。人工智能的诞生图灵测试至今仍然被当做人工智能水平的重要测试标准之一人工智能发展史经历了三起两落人工智能经历了半个多世纪的发展历程

涌现出了众多影响深远的技术、

产品人工智能的黄金时代(1956—1974)达特茅斯会议之后

人工智能研究进入了20年的黄金时代亚瑟塞缪尔1901-1990Arthur

LeeSamuel机器学习之父1959年开发的西洋跳棋程序打败了当时的西洋棋大师日本早稻田大学Waseda

University1972年完成了WABOT-1机器人原型,搭载着机械手脚、人工视觉、听觉装置美国国防高级研究计划署

DARPA/ARPADefenseAdvanced

Research

ProjectsAgency机器人Shakey第一个自主移动机器人1958年麦卡锡开发LISP语言人工智能的第一次寒冬(1974—1980)各国政府和机构停止或减少了资金投入

人工智能在70年代陷入了第一次寒冬计算量爆炸

计算能力有限莱特希尔报告1973James

Light

hill揭开人工智能寒冬序幕人类的高级逻辑思维需要运算量较少

,而本能和直觉相关的能力却需要巨大运算量即使3岁婴儿也已经观看过数亿张围像

,听过数万小时的声音模拟人类视觉需要1000MIPS计算力超过当时最强计算机运算力的10倍每多一个路口可能路线计算量翻倍缺乏大量的常识数据就如同飞机需要足够动力才能起飞西洋跳棋每步可能棋局1020国际象棋每步可能棋局1040莫拉维克悖论人工智能需要算力人工智能繁荣期(1980—1987)专家系统开始在特定领域发挥威力

也带动整个人工智能技术进入了一个繁荣阶段神经网络复兴1982约翰·霍普菲尔德John

Hopfield发明了具有全新学习能力的Hopfield网络杰弗里·辛顿GeoffreyHinton和大卫·鲁梅哈特David

Rumelhart发明了可以训练的反向传播神经网络专家系统ExpertSystem模拟人类专家决策能力的计算机软件系统根据人类专家编写的知识库

,依照计算机程序设定的推理规则

,回答专业特定领域的问题或提供知识VaMORs德国慕尼黑联邦国防军大学1986年真正意义上第一辆自动驾驶汽车CYC汇集人类全部常识的专家系统www.cyc.comXCON专家系统创造商业价值人工智能第二次寒冬(1987—1993)LISP机器市场崩溃和弗诺·芬奇技术奇点理论使得人工智能领域再一次进入寒冬雅恩·乐昆1960~Yann

LeCun卷积神经网络创始人美国国家工程院院士1989年

,AT&

T贝尔实验室的雅恩·乐昆和团队使用卷积神经网络技术

,实现了人工智能识别手写的邮政编码数字图像朱迪亚·皮尔Judea

Pearl1936~贝叶斯网络Bayesian

networks算法发明人1988年将概率论方法引入人工智能推理2011年图灵奖得主Elephants

Don.t

PlayChess专家系统并不是人工智能的正确路径人工智能应该具有身体从对世界的感知中学习智慧人工智能的技术奇点1993弗诺·芬奇Vernor

Vinge随着算力和数据的飞速发展

人工智能在各个专业领域进入稳健发展的时代人工智能稳健发展期(1993—2015)2006年

,杰弗里辛顿奠定了深度学习的核心技术

,出版了《Learning

Multiple

Layersof

Representation》2009年

,吴恩达及其团队开始研究使用图形处理器进行大规模无监督式机器学习

自主识别图形中的内容1997年

I

MB的计算机深蓝Deep

blue战胜了人类世界象棋冠军卡斯帕罗夫2007年

,李飞飞发起了ImageNet

,在挑战赛上设计的深度卷积神经网络

,被认为是深度学习革命的开始随着大模型的出现

逐渐进入具备人类基本认知和判断能力的通用人工智能新时代人工智能新时代(2016—至今)2016年和2017年

,谷歌研发的AlphaGo连续战胜曾经的围棋世界冠军韩国李世石和中国的柯洁2024年

,以Sora为代表的文本视频生成大模型展现了创建现实和富有想象力场景的能力2018年

,波士顿动力公司生产的机器人Atlas具有超强的环境适应和行动能力2024年

,以ChatGPT和Kimi为代表的大语言模型涌现出强大的学习能力·五

·

百花齐放:人工智能应用场景·一

·

三起两落:人工智能发展史·三

·

东数西算:算力基础设施·

·

数据为王:低空感知平台·六

·

未来已至:拥抱智能时代

汇报提纲:二

智能涌现:

大模型时代萌芽期(1950-2005)

以CNN为代表的传统神经网络模型阶段。探索沉淀期

(2006-2019)

以Transformer为代表的全新神经网络模型阶段迅猛发展期(2020-至今)

以GPT为代表的预训练大模型阶段大模型发展的三个阶段和三次飞跃大模型发展简史19502005201420182019202020212022

2023

2024

时间月之暗面Kimi1000亿语言模型多模态模型OpenAIGPT-5即将发布GoogleGemini

1.560000亿OpenAISora60000亿NVIDIA

MT-NLG

5300亿OpenAI

DALL-E

120亿微软Turning-NLG170亿GoogleT5110亿浪潮源1.02457亿OpenAI

GPT3

1750亿盘古大模型10850亿

OpenAI

GPT4GoogleSwitchtransformer百度文心大模型2600亿阿里巴巴M6100000亿OpenAI

GTP215亿基于规则的少量数据处理Google

PaIM-E

5660亿Google

Bert3亿GAN百万-千万级探索沉淀期迅猛发展期10000亿(估计)LeNet-5

6万萌芽期16000亿性能华为支持模态重点领域BERT模式Transformer大模型谱系图参数规模、

技术架构、

支持模态、

应用领域都在迅速的发展行业大模型通用大模型工业大模型医疗大模型金融大模型

内容生成C端应用

AI图片

单模态大模型多模态大模型自然语言大模型文生图大模型视觉大模型其他大模型基础

构应用

场景GPT模式混合模式ChatGPT的发展历程主流预训练大模型参数量和性能都在飞跃的提升2023年GPT-4是生成式预训练模型,其参数量达到了100万亿。其是一个多模态预训练大模型

,可对图文多模态输入生成应答文字

,以及对视觉元素的分类、分析和隐含语义提取

,并表现出优秀的应答能力

,成为跨时代意义的里程碑。2020年GPT-3作为一个无监督模型拥有1750亿个参数。它在CommonCrawl等数据集(45TB)进行训练。在两位数的加减运算任务上达到几乎100%的正确率。甚至可以执行编写代码片段

,生成类似人类的文本。2019年GPT-2是在WebText数据集

(40GB)上训练的

,有超过15亿个参数。GPT-2在生成方面第一次表现出了强大的天赋在阅读理解、翻译、问答等任务时表现出强大的性能。2018年OpenAl推出初代GPT模型

,该模型的核心Transformer结构

,其参数量达到1.17亿。BookCorpus数据集(5G)上

进行训练

,再通过特定下游

任务来微调和推广模型。GPT-1GPT-2GPT-3GPT-4厂商大模型厂商大模型厂商大模型OMeta

MetaLlaMA华为盘古微软亚研NUWAGoogle

GooglePaLM阿里巴巴

阿里巴巴M6、通义北京智源悟道商汤科技书生清华大学GLM1308中国科学院紫东太初NVIDIANeMoLLM

IDEA研究院二郎神腾讯混元in

spurT浪潮

浪潮源DeepMindGopher百度文言一心奇点智源SkyCode像open

Al

OpenAIGPT-4云从SemBERT追一科技RoFormerLINKER联汇

联汇科技OmModel

OPPOOBERT市场上可见的大模型日益丰富国内外的公司纷纷推出了大量的大模型争抢市场国内大模型投资生态大模型吸引了大量的投资

,产业发展迅速国家政策对大模型的关注与引导《杭州市人民政府办公厅关于加快推进人工智能产业创新发展的实施意见》杭州市人民政府办公厅2023年7月《安徽省人民政府关于印发打造通用人工智能产业创新和应用高地若干政策的通知》安徽省人民政府办公厅2023年10月《北京市加快建设具有全球影响力的人工智能创新策源地实施方案(2023-2025年》北京市人民政府2023年5月《广东省人民政府关于加快建设通用人工智能产业创新引领地的实施意见》广东省人民政府办公厅2023年11月《上海市推动人工智能大模型创新发展若干措施(2023-2025)》上海市经济和信息化委员会等部门2023年10月《成都市加快大模型创新应用推荐人工智能产业高质量发展的若干措施》成都市经济和信息化局等部门2023年8月2024年《政府工作报告》

中提出开展“人工智能+”行动第十四届全国人大第二次会议2024年3月国务院国资委召开“AI赋能产业焕新”中央企业人工智能专题推进会。国务院国资委2024年2月国内外最新的模型--MidjourneyAI

GC可以生成高质量的海报、

广告等逼真的图像

对设计行业造成巨大的冲击DiscardMidjourney积累丰富用户数据用户生成图片优化模型国内外最新的模型--SoraAI

GC卓越的生成视频能力对电影和广告行业也影响深远提示词:

a

dragon

made

of

bubbles,perfectly

rendered8k可缩放的Transformers扩散模型架构视频压缩网络教学设计用C++写一段爬虫代码产品设计国内外最新的模型-GPT4最新的大模型展现出来的问答能力接近人类

对教育和创作都是革命性工具歌曲创作

回答生成作文国内外最新的模型-FIGUREFIGURE与大模型的结合引爆了对具身智能的重新思考OpenAI视觉语言大模型VLM的引入

FIGURE01机器人可以与人进行完整的对话·五

·

百花齐放:人工智能应用场景·一

·

三起两落:人工智能发展史·三

·

东数西算:算力基础设施·

·

数据为王:低空感知平台·六

·

未来已至:拥抱智能时代·二

·

智能涌现:大模型时代

汇报提纲:算力大规模部署和应用已经成为必然趋势算力大规模部署和应用是当前国家重大战略和科学前沿2022年2月

,“东数西算”工程批复完成

,在京津冀、长三角、粤港澳大湾区、成渝、

内蒙古、贵州、甘肃、宁夏8地启动建设国家算力枢纽

,并

设立10个国家数据中心集群

,构建全国一体化大数据中心协同创新体系,推动我国算力统筹布局

,高质量发展。到2025年

,算力规模超过

300EFLOPS

,智能算力占比达到

35%

,东西部算力平衡协调发展。应用赋能方面

围绕工业、金融、

医疗、交通、能源、教育等重点领域

,各打造

30个以上应用标杆。提出要推进AI领域的模型与算法创新工作

,加快推动国家新一代人工智能公共算力开放创新平台建设

,支持高性能计算中心与智算中心异构融合发展。

科技部关于印发《国家新一代人工智能开放创新平台建设工作指引》的通知李正茂“算力时代三定律”指出

,算力每投入1元

带动3~4元GDP经济增长。据IDC和清华大学等联合编制的计算力指数指出

,该指数平均每提高1点

国家的数字经济和GDP将分别增长3.6%和1.7%。截至目前

,全国在用数据中心机架总规模超过760万标准机架

,算力总规模达到197EFLOPS(每秒浮点运算次数)

,位居全球第二。算力是国家经济增长的主要驱动力

,我国算力规模处于领跑位置算力规模1——国家层面上海市、

江苏省、

广东省、

河北省、

北京市位于第一梯队

,在用算力规模均超过13EFLOPS

,第一梯队算力规模全国占比超过45%。山东省、

贵州省、

浙江省、

内蒙古自治区、

山西省位于第二梯队

,在用算力规模均超过5EFLOPS。从在建算力来看

,江苏省、

河北省、

山西省处于绝对领先位置。东部地区算力规模较短时问内难以被西部地区超越当前

,在国家统筹规划下

已有超过30个城市在规划和建设人工智能计算中心

,为企业、

高校、

科研单位等提供算力服务。目前

智算中心的规划门槛为100PFLOPS

,布局方面以东部为主

,但在“东数西算”的大战略下

,未来西部也将成为重要的算力布局区域。算力规模2——省份层面中国移动优化“4+N+31+X”算力集约化梯次布局

2023

年累计投产算力服务器超80.4万台

,净增超9.1万台

,算力

规模达到9.4EFLOPS

,预计2023年资本开支合计约为1832

亿元。中国电信优化“2+4

+31+X+O”算力布局

2023上半年智

算新增1.8EFLOPS

,达到4.7EFLOPS

,增幅62%

,扩大通

用算力

,通算新增0.6EFLOPS

,达到3.7EFLOPS

,增幅19%

,算力投资将达195亿元。中国联通资本开支重点聚焦5G、

宽带、

政企、

算力四张精品

网建设。

算力精品网方面

,联通云池覆盖200多个城市

,资

本开支水平达769亿元

其中算网投资占比将超过19%

比增长超过20%。三大运营商的机架数和算力规模大幅提升算力规模3——企业层面一些互联网大厂在全球范围内也拥有大量的数据中心和算力资源

用于支持其搜索引擎、

云计算和其他人工智能应用。例如

阿里云智能计算平台飞天就为全球数百万企业提供超过1000万台服务器的算力资源。阿里、

百度、

华为、

腾讯等中国顶级的科技企业锻造这些模型

需要大量的数据、

较长的周期、

巨大的成本

因此这些企业在未来很长时间内

,依然会是中国算法算力产业的核心巨头

,几乎不可能被替代。互联网大型企业拥有大量的数据中心和算力资源算力规模3——企业层面上海交通大学“思源一号”高性能计算集群总算力6PFLOPS,是目前国内高校第一的超算集群

,TOP500榜单排名第132

GPU

A100显卡92张

张量算力达到44PFLOPS

,算力超过哈佛、

剑桥等国际名校。

“思源一号”累计服务一级学

科30多个

,支撑发表高水平论文600多篇。北京大学“未名一号”现有的计算总核心数达33584个

,理论计算峰值高达4.39PFLOPS。

截至2023年

11月

已助力北京大学发表论文超过1600篇

平台支撑北京大学545项科研课题

部分项目(447个)

总金额累计31.36亿元。一些高校已建设自己的算力中心算力规模4——高校层面上海交通大学“思源一号”北京大学“未名一号”学部已建立智能计算集群算力规模5——学部层面天津大学智能与计算学部搭建了136张A800组成的计算集群

张量算力达到65PFLOPS

可开放给所有师生申请使用。课题组平均每名学生算力仅有0.067PFLOPSGPU型号张数A600083090392080ti16Titanxp81080ti11总计82课题组在读硕士生21名

博士生9名

,拥有包括A6000和3090GPU在内的80余张显卡

张量算力为2PFLOPS,同时从AutoDL购买了在线算力作为缓冲算力资源池

,购买服务器费用花费100万左右。算力规模6——课题组层面训练:

参考业界流行的视频训练算法

训练一个模型需要2560TFLOPS

FP16算力(8卡/周

单卡算力为320TFLOPSFP16)

,运算时间为7天左右

,且通常需要训练大于8~10次才能找到一个满意的模型。

考虑2天的调测

,安装和模型更新时间,则一个模型的训练周一为10天。

综上

至少需占用要2560*8

=20480TFLOPS

FP16算力

才能在10天内找到一个

满意的训练模型;按照目标检测

,分割

,跟踪等常规模型统计

,预计一年有30+任务需要分别训练

,总算力需求20PFLOPS

FP16。推理:

如当前业务需要接入3000路视频的需求来计算

,共需要的AI推理卡的数量为:

3000/16≈188块。

考虑到数据加工集群建模的并行效率(一般集群的并行效率为90%左右)

留出适

当的资源后需要的GPU卡的数量为:

188/0.9≈209块。小模型训练推理需要一定的算力支持算力需求——小模型训练、

推理参数量达到1750亿的GPT-3模型

需要3.14×

1023FLOPS的计算能力进行训练。

如果设定训练时间为30天

,那么预估将需要

758个A100GPU。

ChatGPT3.5与ChatGPT4.0没有公开具体的参数

可以假定与GPT-3的规模相当

需要1000个以上的A100GPU的算力才能在可以接受的时间里获得训练结果

其单

次训练成本大概为500万美元。以微软与英伟达合作推出的Megatron

Turing-NLG(MT-NLG)模型为例

,该模型拥有5300亿参数

其训练过程消耗了4480块A100GPU。OpenAI在GPT-4的训练中

,动用了大约25000

个A100GPU

,历时近100天。

以Llama2和GPT-3*为例

训练所使用的算力如下:算力需求——大模型训练注

:ChatGPT训练所用的模型是基于13亿参数的GPT-3.5模型微调而来大模型训练时算力需求大、

时间长、

成本高大模型微调时仍对算力有很大需求算力需求——大模型训练、

微调对于细分行业在大模型的使用需求

,更多的是大模型微调和优化昇思和业界开源大模型关于算力、

训练时长不同参数量下大模型算力需求层面算力(PFLOPS)≈A100显卡数大模型训练

(盘古、

GPT3)大模型推理大模型微调(ChatGLM2-6B)国家197,000411,909训练54个GPT3

训练1,791个盘古运行411,909个推理运行411,909个LoRA微调;运行205,954个全参数微调省份13,00027,182训练3个GPT3;训练118个盘古运行27,182个推理运行27,182个LoRA微调;运行13,591个全参数微调企业(大型)4,7009827训练1个GPT3;训练43个盘古;运行9,827个推理运行9,827个LoRA微调;运行4913个全参数微调企业(中小微)24否运行4个推理运行4个LoRA微调;运行2个全参数微调高校300627训练3个盘古运行627个推理运行627个LoRA微调;运行313个全参数微调学部65136勉强训练1个盘古运行136个推理运行136个LoRA微调;运行68个全参数微调课题组24否运行4个推理运行4个LoRA微调;运行2个全参数微调不同层面算力训练推理微调大模型的能力不同不同层面算力训练、

推理、

微调大模型根据工信部发言

2024-2025年我国算力规模规划增长将超100EFLOPS

,对应AI算力芯片市场规模超2600

亿元

其中智能算力将成为主要增量部分。

赛道空间巨大但国产化率极低

目前GPU国产化率不足10%

联网等商用AI芯片几乎完全依赖进口。大国AI竞争背景下

,美国出口管制进一步升级

2023

年10月17日

,美国商务部出台出口管制清单的ECNN3A090和4A090要求

,进一步限制高性能AI芯片的出

同时将13家中国公司列入实体清单。美国加强限制规则

海外高性能芯片进口受限

将反向驱动我国产业发展我国算力需求大、

国产化率极低

,替代空间广阔华为昇腾910芯片FP16算力已达376TFLOPS、

INT8算力达到640TOPS

与英伟达A10080GB版本旗鼓相当

并已落地千卡集群项目

,且2023年9月发布的Atlas900SuperCluster利用华为全新星河AI智算交换机Cloud

Engine

XH16800

可实现等效18,000张卡的超大规模无收敛集群组网。以华为昇腾为首的国产算力与组网能力可以满足国内智算网络的建设需求英伟达GPU出口管控趋严

以华为昇腾为首的国产AI芯片迅速填补需求空缺中国电子云是深桑达以中国电子PKS自主安全计算体系为底座建立的数据基础设施

,包含国产化自研可信的计算架构和分布式云原生操作系统

,名称中的“

P”代表飞腾CPU

K”指麒麟操作系统

“S”即安全

,体系中使用的飞腾CPU和麒麟操作系统均为中国电子自主研发

中国电子云交付的60%硬件设备基于国产芯片

防范过度依赖进口芯片带来的断供危险。人工智能云计算平台提供稳定高效算力

,基于云计算的AI能力逐步得到验证众多厂商积极布局“云上”AI算力曙光人工智能云计算平台提供一站式深度学习训练与实时推理

,提供基于云的GPU计算服务。

该系统以主流深度学习框架为基础

,支持TensorFlow、

Caffe等多种主流深度学习框架。华为昇腾910B和英伟达A100相当

,预计24年出货超40万片

,在FP32高精度训练推理中

昇腾910B具有很大的优势

而在卡与卡之间的数据传输中

,A100具有优势。考虑到组网技术、

软件生态等竞争壁垒

国内GPU产品较英伟达方案在实际有效算力层面仍存在较大差距。且考虑到英伟达H系列算力性能更强、

下一代B系列产品也已发布规划

国产GPU仍需加速追赶海外步伐。国产GPU性能较英伟达先进产品仍有差距算力国产化是长期发力方向四

数据为王:

低空感知平台·五

·

百花齐放:人工智能应用场景·一

·

三起两落:人工智能发展史·三

·

东数西算:算力基础设施·六

·

未来已至:拥抱智能时代·二

·

智能涌现:大模型时代

汇报提纲:智能无人集群协同是大国博弈的主战场

是战场攻防与应急救援等关键领域的核心智能无人集群协同是保障国家安全、

人民生命财产安全的关键抓手美军无人机作战任务从侦察向多任务拓展

,并考虑平台自主到多平台协同的自主发展方向。——美国国防部《小型无人机系统飞行计划:2016-2036》人工智能、无人系统与空天科技相结合

,实现跨域一体化融合发展。智能无人系统将会成为下一研究热点。——中国十四五报告科技前沿领域攻关乌克兰9架无人机集群和7艘无人舰艇集群攻击俄罗斯黑海舰队无人机集群携应急物资及救援装备助力北京房山、

河北涿州抗洪搜救俄罗斯“见证者-136”无人机集群袭击基辅智能无人系统呈现环境动态性强、

多模态配准融合难、

多机协同进化难的特点42智能无人系统协同学习面临的挑战依旧艰巨

亟需突破这三大关键难题多机协同进化难多模态配准融合难复杂环境感知难感知高动态-变尺度-多任务多机协作响应延迟高-泛化难多传感器难配准-协同复杂机载受限算力下多系统响应延迟高新任务-新场景-新类别泛化难多源多传感器配准难多传感器动态协同多模态感知复杂感知任务多样场景高度动态目标尺度多变围绕三个创新点交叉融合

,形成一套完整的智能无人集群协同技术体系多智能体协同进化不确定性引导多模态混合专多模态双向动分布不确定性诱导多模态融合家动态融合态提示学习动态特征迁移网络复杂环境感

知难多模配准融

合难多机协同进

化难

复杂场景低

多传感器动

态协同感知创新点2多模态动态协同感知技术多模态协同学习复杂环境协同感知数据平台与低代价感知技术多智能体协同学习与进化技术水利监测电力巡检光伏巡检联防联控巡检智能无人协同学习关键技术成果应用成果服务于军民融合场景多机协同单目标追踪多机互提示协同学习多机协同多目标追踪多机协同感知与进化任务定制混合Adapter复杂环境协同视觉开放数据平台代价感知

Moment

Probing低空感知基座模型AMU-Tuning创新点1创新点3I历时5年全国14个城市采集2000万+图像/视频帧2000万+

目标标注VisDrone数据累计下载次数2万+在Git

hub获得1500个星在ECCV和ICCV连续举办

五届VisDrone竞赛全球包括卡耐基梅隆大学等在内的700+参赛队伍1555篇论文使用并引用构建了大规模多源、多模态、多任务、非完备复杂环境协同感知数据平台VisDrone

,覆盖单机和多机协同感知任务。国内外广泛使用的无人机视觉基准数据平台>

关键平台:

建立了复杂环境协同感知数据平台AnimalDrone-TJUDroneVehicle-TJUDroneCrowd-TJUDroneRGBT-TJUMultiDrone-TJUVisDrone-TJU>

关键平台:

建立了复杂环境协同感知数据平台>

行业应用:

基于人机协同的视觉数据自动标注技术研究与应用天津市重点研发计划科技支撑重点项目.基于深度学习的智能网联典型驾驶场景数据库建设与应用开发.2017.1-2018.12获得天津市科技进步二等奖(2022年度)

,被基金委信息学部推荐为有转化潜力的重点宣传推广对象

,纳入基金委成果转化信息服务平台成果库>

行业应用:

面向多领域的智能遥感影像解译技术及应用天津市重点研发计划科技支撑重点项目.基于人工智能的遥感图像分类研究.2017.1-2018.12相关成果获得天津市科技进步二等奖(2023年度)基础平台建设成效构建了国内外广泛使用的无人机视觉基准数据平台空天地水协同进化智能无人集群感知平台理论研究成效发表论文56篇(其中SCI一区/CCF-A论文52篇)授权发明专

利30项成果支撑团队获得多项国际竞赛冠军和最佳论文奖应用实践成效空军“无人争锋”挑战赛冠军成果应用天津警航总队抗洪救灾、水文局抗洪水情监测任务团队围绕“无人机+AI”在基础平台建设、理论研究、应用实践三方面取得显著成效智能无人机协同感知技术成果展示空空协同巡检侦察应用五

百花齐放:

人工智能应用场景·一

·

三起两落:人工智能发展史·三

·

东数西算:算力基础设施·

·

数据为王:低空感知平台·六

·

未来已至:拥抱智能时代·二

·

智能涌现:大模型时代

汇报提纲:IBM结合的丰富气象数据和强大计算

能力

推出了全球高分辨率大气预报

系统

“GRAF

”。

该系统每小时更新

气象信息

,预测范围从13平方公里缩

减至3平方公里

,分辨率提升333%。基于非线性回归模型的集成系统准确预测了美国西部的温度和降水

赢得

了“次季节气候预测挑战赛”的冠军

,将温度预测的准确性提高了40-50%

,降水预测的准确性提高了129-169%。

谷歌“GraphCast”

谷歌DeepMind推出气象AI预测模

型--

“Graph

Cast”

--基于

“编码器

-处理器-解码器”的图神经网络模型

,能够在1分钟内以0.25°的分辨率预测

全球未来10天的数百个天气变量。IBM“GRAF”AI集成模型夺冠国外利用先进AI技术显著提升了气象预测的精度和速度人工智能应用场景(一)

——气象预测《中国气象报》

报道称

国家气象中

心应用华为的AI快速增强识别技术

“盘古气象

”模型在台风

“玛娃

”轨

迹预测上表现卓越

成功提前5天预

测出其在台湾东部海域的转弯路径。“盘古气象

”模型核心采用适应地球坐标系统的三维神经网络

有效处理

复杂的三维气象数据。

该模型还运用

层次化时域聚合策略

以减少预报迭

代次数并降低误差

,提高预测精度。2023年7月6日

2023世界人工智能

大会在上海世博中心拉开帷幕。

人们

在场观看

“盘古气象

”模型。

气象预

测结果包括湿度、

风速、

温度气压等

,可直接在气象研究的多个场景应用。模型训练和推理策略大会展示“盘古气象”模型华为“盘古气象”是首个精度超过传统数值预报方法的AI模型

能提供秒级全球气象预报人工智能应用场景(一)

——气象预测台风“玛娃”轨迹预测国家电网山东电力公司设计仿线飞行智能巡检技术无人

通过激光雷达设备

结合双目视觉识别技术

部署

深度卷积神经网络的算法

可实现基于仿线飞行的线路

巡检、

异物检测的精细化巡检

,缺陷发现率约为80%。虚拟电厂是AI在电力领域的最佳落地场景

是解决电网

负荷的最具经济性选项之一。

AI大模型可以将海量历史

数据进行有效分析

提升电力预测精准度

促进电力资

源优化配置

帮助用电方或售电方以合理的价格交易。虚拟电厂无人巡检人工智能赋能电力行业人工智能应用场景(二)——电力行业国产阿尔法巴无人驾驶系统已实现自动驾驶落地人工智能应用场景(三)

——无人驾驶2023年12月2日

国产自主研发的阿尔法巴无人驾驶电动公交车在深圳首次试运行。这款公交车融合人工智能和视觉计算技术,标志着中国无人公交系统的历史性突破。绕行障碍物拥堵路口灵活通过面对违章车辆

,安全绕行夜间遇到施工

,借道绕行无保护左转

,安全智能低矮障碍物识别百度Apollo采用高精度的视觉检测AI技术

实现了复杂路况下的自动驾驶人工智能应用场景(三)

——无人驾驶利用AI辅助心电图识别ALVD无症状左心室功能障碍(ALVD)

的发病率为总人口的3-

6%

与寿命缩短相关。

目前缺乏一种廉价的筛查工具用于医生办公中的ALVD筛查。

美国Jacksonville健康科学研究中心证实可将卷积神经网络应用于心电图中可识别ALVD

,使得心电图成为识别ALVD的有力筛查工具。遗传病影响8%的人口

面部分析技术对识别遗传病有潜力

但在临床环境中受到诊断多样性的限制。

美国FDNA公司利用AI技术和大规模数据学习面部表征迁移学习

设计了面部图像分析框架“

DeepGestalt”

提高了描述遗传疾病特征的能力

,有助于新型遗传疾病的鉴定。人工智能技术已经融入医疗健康研究

并展现出广阔的应用前景人工智能应用场景(四)

——辅助医疗利用AI识别遗传病的面部表型AI生物科技公司英矽智能开创生成式AI加速药物发现

设计了全球首款TNIK抑制剂

INS018_055

使用了多个AI引擎

包括生成式预训练Transformer

用于靶点识别;并行应用多个生成模型生成化合物结构

生成模型之间共享参数和结构

,筛选优化后得到最理想药物INS018_055医学影像分割在临床实践中扮演重要角色

可帮助准确诊断和监测疾病。

然而

现有方法只适用于特定疾病类型

,缺乏通用性。

加拿大多伦多市大学健康网络心脏中心引入了Med

SAM

旨在实现通用医学影像分割。

实验结果证实了Med

SAM作为多功能医学图像分割新方法的潜力。人工智能技术已经融入医疗健康研究

并展现出广阔的应用前景人工智能应用场景(四)

——辅助医疗利用AI技术研发新药进入人体获得良好反馈利用AI实现通用医学影像分割Hi!

How

can

I

be

of

assistance?询问旅游时节Amazon

Alexa是一个AI智能语音交互助手

能够通过语音命令执行多种任务

如播放音乐、

提供信息、

控制智能家居等。AmazonAlexaAI大语言模型赋能人机语音交互人工智能应用场景(五)

——语音交互Itwarmsyour

heartandlightsyouractually.

Whatisthe

besttimetotravel

to

puerto

rico?The

besttimestovisit

puertorico

is

betweenAprilandOctober.The

following

is

a

poem

about

love

Canyouwriteusa

poem

about

love?Love

is

a

feeling

bright

and

true

Alexa.

唤起Alexa根据要求写诗ReALM模型解决了自然语言处理中

“指代不明”的问题

,从而更好地解决人们提出的问题ReALM将当前屏幕上可交互对象的视觉属性编码成文本

,整合用点提问后作为上下文一起处理JReALM不直接处

理图像数据

iPhone本地运行AI大语言模型赋能人机语音交互人工智能应用场景(五)

——语音交互最小模型追平万亿参数GPT4基于Google

Flan-T5模型Apple公司公布ReALM模型利用高通量计算可以大规模地识别有应用前景的新材料

谷歌DeepMind团队将人工智能驱动的数据解释与机器

人技术结合创造了全新材料的自主系统--

“A-Lab”

优化新型无机材料的合成。

合成过程完全无需人工干预。如今

化学家已经合成了数十万种无机化合物

但研究显示

还有数十亿种无机材料有待发现。

该团队采用图

神经网络

,设计AI系统“材料探索图网络”(GNoME)

,成功预测出了数十万种可以在自然界稳定存在的材料。AI探索模型可以预测自然界稳定存在的新材料AI技术不仅能预测新材料的存在

,还能实际在实验室中制造出这些材料人工智能应用场景(六)

——新材料探索和合成AI驱动的自主研发系统可以显著加快材料研究的步伐海豚跃出水面溅起水花野生狮子AArt

breeder由Joel

Simon创立的Morph

ogen工作室开发的一款在线AI合成创意工具人工智能实现图像合成人工智能应用场景(七)

——图像合成AlVA(Artificial

Intelligence

Virtual

Artist)

是一款Al音乐生成助手

可在几秒钟内生成250多种不同风格的新歌曲。

无论是初学者还是经验丰富的专业音乐制作人

,都可

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论