智能网联乘用车教学实训平台需求说明_第1页
智能网联乘用车教学实训平台需求说明_第2页
智能网联乘用车教学实训平台需求说明_第3页
智能网联乘用车教学实训平台需求说明_第4页
智能网联乘用车教学实训平台需求说明_第5页
已阅读5页,还剩7页未读 继续免费阅读

付费下载

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

智能网联乘用车教学实训平台需求说明序号具体技术(参数)要求1智能网联乘用车教学实训平台搭载自动驾驶教学套件,包含线控乘用车底盘、多类别传感器(激光雷达、相机、毫米波雷达、超声波雷达、组合导航系统等)、高性能域控制器、操作系统、开发库、人机交互软件、源码等内容;具体功能和参数如下:1.自动驾驶乘用车线控底盘参数(1)车长*宽*高(含覆盖件)≥4600*1800*1500mm;(2)轴距≥2700mm,轮距(前/后)≥1570mm/1570mm;(3)整备质量≥1500kg,满载质量≥2000kg;(4)电动机最大功率:不低于120kW;(5)电动机最大扭矩:不低于280N·m;(6)具备完善线控功能(方向盘、油门、刹车、挡位、转向灯等),并开放车辆底层CAN协议;(7)具备完善的手自动切换策略与装置,如方向盘应力感知系统、手自动快捷切换按钮、急停按钮等;2.智能网联乘用车教学实训平台搭载高性能车载域控制器,AI算力≥200TOPS(INT8),CPU核心数≥8核,CPU主频≥2.2GHz,包含CUDA核数≥1792,内存容量≥32GB,存储容量≥64GB,I/O接口应至少包括千兆以太网,GMSL相机接口,HDMI视频接口,USB3.0接口,通用GPIO,CAN/CANFD接口,支持12V外接供电,工作温度-25℃~70℃,存储温度-40℃~80℃,防护级别≥IP5X;3.自动驾驶乘用车搭载集成式、一体化感知平台,包含激光雷达、毫米波雷达、超声波雷达、环视相机、双目相机、组合导航,满足传感器拆装、调试、测试、故障诊断、标定等教学实训任务,支持高精定位、激光建图、数据融合、目标检测、目标跟踪、全局规划、自主避障、精准控制、人机交互等多类算法开发、测试、联调;4.自动驾驶乘用车可作为独立的实验台架用于自动驾驶硬件调试、软件开发、算法测试等教学实训项目,可独立支持覆盖自动驾驶及人工智能开发全流程,基于车载多源传感器及高性能车载计算机,实现多源数据采集、轨迹录制、多源数据联合标注、路网地图构建,实现深度神经网络与机器学习模型开发、模型训练、模型部署,支持至少一种端到端模型(包括大语言模型或世界模型)的开发与部署;5.支持多功能人机交互系统,系统包括实时显示车辆运行状态,包括转向灯、电量、油门刹车踏板开度、方向盘转角、挡位、工作模式、经度纬度航向等信息;支持通过红绿灯状态指示展示传感器及总线工作情况,可显示车载电气、CAN总线、GPS、惯导、光学相机、毫米波雷达、激光雷达等的实时状态,以及CPU、GPU、RAM、DISK使用率;同时系统菜单栏支持传感器选项卡、跟踪调试选项卡、地图录制选项卡和可视化选项卡,可进行多传感器管理与状态信息输出,记录GPS和惯导轨迹,并支持地图加载显示、全局路径规划与控制启动等功能;6.自动驾驶乘用车可作为智能网联多车协同开发与测试平台组成部分,通过车载OBU设备实现多车间通信,支持车辆状态共享、多车协同、集中调度、分布控制,提供上位机与云服务平台实现多车数据上报、统一调度、任务下发、实时监管;7.车辆搭载智能网联及云控制系统并支持车载OBU与V2V通信设备,可实现网联汽车间信息的实时收发,支持LTE-V2XPC5和4G/5GU双模通信,并具备高精度定位与导航功能,同时支持标准V2X协议的扩展应用;系统内置智能网联系统,提供高效、安全、完整的车车、车路通信协议,以及数据接收、发送、加解密等算法,保障V2X通信资源调度与传输有效性;此外,系统支持多车编队控制与群体智能算法,能够在复杂城市道路环境下实现高水平的智能车队协同,具备队伍活跃性、鲁棒性与自组织能力,满足实际路况需求;同时支持多车智能控制算法;系统支持实车平台与云端的真实平台对接,实现跨平台无缝迁移,并能快速进行参数调整;8.系统提供云端数字仿真测试平台,支持多种车辆动力学与运动学建模,具备复杂场景生成和模拟能力,能够在不同道路环境、天气条件和交通流量下开展虚拟仿真测试;平台支持多车并行数字仿真场景模拟,可进行自动驾驶车队协同和交通流量测试,可对感知算法、决策算法与控制算法在复杂路况中的可靠性与鲁棒性进行全面验证;系统提供云端数据库与接口,支持车辆ID、位置等数据记录,具备数据可视化展示能力,并通过标准API提供查询、分析与仿真扩展,为智能网联与车路协同应用提供云端支撑;9.平台软件基于嵌入式Linux系统,预装深度学习框架,支持Caffe、TensorFlow、Pytorch、ONNX等训练框架模型直接部署;内置完整的开发套件,包含用于深度学习、计算机视觉、加速计算和多媒体的开发库,满足图像分类、语义分割和目标检测等神经网络的高性能深度学习边端推理运行;10.提供3D目标检测算法,输入为单帧激光雷达点云,输出为3D包围框,能够对车辆、行人和骑行者实现高精度检测,提供完整的模型训练流程,编程语言为Python,框架基于Pytorch,输出包括类别、空间位置(X、Y、Z)、尺寸(长、宽、高)、航向及置信度等,可精准检测运动物体与远处小目标;其中0–30m范围内障碍物召回率不低于75%;提供完整的推理优化流程,利用CUDA与TensorRT进行加速,要求在车载计算平台上的推理时间小于100ms;11.支持建图导航:支持使用激光SLAM实现2D和3D建图导航,3D建图包含点云图层及2D地图图层,地图支持可视化浏览;12.系统提供多目标追踪算法,能够在不同目标类别与复杂场景环境下实现精确跟踪,具备生命周期管理功能,平均身份切换次数不超过2次,有效解决3D目标检测框抖动带来的度量不准问题;多目标跟踪准确度不低于80%,精度不低于75%;系统提供完整的模型优化与推理流程,利用CUDA与SIMD指令集对算法进行加速,在车载计算平台上的推理时间不超过100ms,满足实时性需求;13.支持实现自动驾驶、自动避障、紧急停障、自动规划行驶路径等功能的完整条件;14.支持基于GSML摄像头的2D目标检测,实现支持实现障碍物、物体类别检测及车道线信息识别功能;15.支持高性能GPU计算单元作为上位机,与作为下位机的控制主控进行通信,可实时获取IMU三轴姿态信息控制机器人进行直线运动、转弯运动、速度控制等;16.支持实现结合车辆位姿及障碍物信息,创建周边障碍物地图;17.支持基于前置毫米波雷达的目标检测以及障碍物可视化功能;18.系统提供多传感器联合标定功能,具备基于配准的校验匹配算法,能够对传感器数据间的齐情况进行评估,实时反馈并调整标定结果,及时发现并修正误差,确保传感器数据在融合时的高精度;同时,系统配备可视化的多传感器联合标定软件,界面简洁美观,支持数据采集、雷达标定、相机内参和畸变标定及雷达与相机的联合标定,并具备数据展示功能,帮助用户在标定过程中快速调整参数并查看效果,从而有效提升标定效率;19.源代码开放,提供自动驾驶与无人车智能感知、智能控制相关的实验与教学支持;内容涵盖自动驾驶实训资源,包括车辆智能感知、运动控制、云控制等课程的教学与实验;无人车智能感知实训资源,如多传感器联合标定算法、3D目标检测、多目标识别追踪及基于匈牙利匹配的多目标识别跟踪等;无人车智能控制实训资源,包括基于自抗扰的纵向控制、基于模型预测的横向控制、纵向队列分层控制、横向编队控制及多车智能控制算法等;系统同时提供车辆线控CAN协议与ROS2全部话题接口,所有功能算法均开源,支持Linux和ROS2系统,支持C++和Python二次开发;并提供基于Docker镜像的一键部署方案和详细部署指南,帮助用户快速完成环境搭建与实验操作;20.车载高性能域控制器参数(1)AI算力≥200TOPS(INT8);(2)GPU:≥1792个CUDA核心+56个TensorCore,,最高频率≥930MHz;(3)CPU:≥8核64位,2MBL2+4MBL3,最高频率≥2.2GHz;(4)内存:32GB256-bitLPDDR5,带宽204.8GB/s;(5)深度学习加速器:2×NVDLAv2.0,最高频率1.4GHz;(6)视频加速器:PVAv2.0;(7)存储:64GBeMMC5.1;(8)视频编码能力:1×4K@60fps、3×4K@30fps、6×1080p@60fps、12×1080p@30fps(H.264、AV1);(9)视频解码能力:1×8K@30fps、2×4K@60fps、4×4K@30fps、9×1080p@60fps、18×1080p@30fps(H.265、H.264、VP9、AV1);21.毫米波雷达(1)测量范围:一般目标(反射目标)≥200m(长距离模式),≥60m(短距离模式,±45°俯仰),≥20m(短距模式,±60°俯仰);距离分辨率:≤1.8m(长距),≤0.4m(短距),≤0.2m(静止);距离测量精度:±0.40m(长距),±0.10m(短距),±0.05m(静止);(2)水平角分辨率:≤1.8°(长距),≤3.5°(短距);可在±60°范围内分辨多个目标;(3)水平角精度:±0.1°(长距),±0.3°(短距);(4)速度范围:-400km/h~+200km/h;(5)速度分辨率:0.37km/h(长距),0.43km/h(短距);(6)速度精度:±0.1km/h;(7)天线通道数:24通道(12T/12R或6T/6R不同组合),支持波束赋形;(8)扫描周期:长距和短距模式均为60ms;(9)电气规格:•工作电压:8V~32VDC;•功耗:典型值6.6W(550mA),峰值12W(1.0A);•接口:1×CAN-FD,速率500kbit/s;(10)环境适应性:•工作温度:-40℃~+85℃;•存储温度:-40℃~+90℃;•抗冲击:500m/s²,6ms半正弦波;•抗振动:20m/s²@10Hz–0.14(m/s²)²/Hz@1000Hz;•防护等级:IP6K9K,IP6K7;22.组合导航设备参数:(1)信号跟踪:支持北斗、GPS、GLONASS、Galileo和QZSS等多种全球卫星导航系统;(2)定向精度:不低于0.1°/2米基线;(3)测速精度:不低于0.03m/s;(4)陀螺量程:±300°/s;(5)加速度计量程:±6g;(6)加速度计零偏不稳定性:15μg;(7)输出频率:不低于100Hz;(8)输入电压:9–32VDC(宽电压范围9–36V,支持过压保护);23.配套资料(1)实训指导文件:1套,包括各个传感器模块的装调、测试、故障排查方法,自动驾驶系统软件功能介绍,实训内容指导,支持实训任务≥50个;(2)操作指导视频:1套,包括各个模块的装配与调试的操作指导视频,指导视频≥50个;24.支撑实训任务1.可完成激光雷达品质检查项目实训;2.可完成毫米波雷达品质检测项目实训;3.可完成RTK组合导航品质检测项目实训;4.可完成超声波雷达品质检测项目实训;5.可完成环视相机品质检测项目实训;6.可完成双目摄像头品质检测项目实训;7.可完成激光雷达安装与调试项目实训;8.可完成毫米波雷达安装与调试项目实训;9.可完成RTK组合导航安装与调试项目实训;10.可完成超声波雷达安装与调试项目实训;11.可完成环视相机安装与调试项目实训;12.可完成双目摄像头安装与调试项目实训;13.可完成整车硬件故障检测与维修项目实训;14.可完成激光雷达故障检测与维修项目实训;15.可完成毫米波雷达故障检测与维修项目实训;16.可完成超声波雷达故障检测与维修项目实训;17.可完成环视相机故障检测与维修项目实训;18.可完成双目摄像头故障检测与维修项目实训;19.可完成RTK组合导航故障检测与维修项目实训;20.可完成运动底盘开发教学实训;21.可完成CAN数据解析项目实训;22.基于CAN实现线控底盘控制项目实训;23.可完成多激光雷达相互标定项目实训;24.可完成多激光雷达联合数据输出项目实训;25.可完成RTK组合导航初始化静态标定项目实训;26.可完成RTK组合导航初始化动态标定项目实训;27.可完成RTK组合导航数据解析项目实训;28.可完成Ubuntu系统配置使用实训;29.可完成TF坐标变换配置实训;30.可完成超声波雷达串口通信项目实训;31.可完成毫米波雷达数据可视化项目实训;32.可完成环视相机信息数据获取项目实训;33.可完成双目摄像头数据采集项目实训;34.可完成激光雷达与摄像头联合标定项目实训;35.可完成环视相机联合标定项目实训;36.可完成激光雷达数据采集项目实训;37.可完成道路数据采集项目实训;38.可完成激光雷达3D点云地图创建项目实训;39.可

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论