精华内容
下载资源
问答
  • 2022-02-05 18:04:33

    下面是该类的一些题目:

    题目
    交通标志检测与识别研究
    交通路口异常事件检测及识别技术研究
    城市道路交通信号区域均衡控制方法及应用研究
    城市道路交通网络动态特征分析关键技术研究
    基于卷积神经网络的交通密度估计及车辆检测方法研究
    基于图傅里叶变换和深度学习的短时交通流预测方法研究
    基于深度学习的交通时间预测模型与方法研究
    基于深度学习的交通流运行风险评估方法研究
    基于深度学习的交通流量预测及乳糜泻病定量分析研究与应用
    基于深度学习的复杂交通环境下目标跟踪与轨迹预测研究
    基于深度时空模型的交通流预测方法研究
    基于相关向量机的短时交通流预测研究
    基于老年人出行能力的高铁交通枢纽换乘系统评价及仿真
    基于航空遥感的交通信息监测关键技术研究
    复杂交通场景下多目标检测跟踪问题研究
    复杂交通场景下车牌检测算法的研究
    对象检测与识别及在交通场景中的应用
    常态和异常条件下交通流速度估计与预测
    异质性城市路网交通拥堵传播模式发现与可视化研究
    综合深度特征的异常交通事件视频解析及应用系统
    自然环境下交通标志检测若干关键问题研究
    道路交通环境感知及行车风险评价方法研究
    面向交通场景理解的视觉目标检测与场景分割方法研究
    面向交通场景的空间布局理解和语义分割方法研究
    面向智能交通大数据的特征提取和流量预测算法优化与改进研究
    面向智能交通的目标检测与跟踪
    YOLOv3算法在智能交通领域的研究与应用
    一种基于深度学习的交通标志识别算法研究
    一种基于深度学习的缺失交通流量数据恢复方法
    交通场景中基于深度学习的视频图像处理算法及应用研究
    交通场景中的车辆跟踪算法研究
    交通场景语义理解算法研究
    交通大数据时空因果关系分析及其在交通流预测中的应用
    交通枢纽寻路任务导向下的人眼注视点预测模型
    交通标志检测与识别技术的研究与应用
    交通标志识别与检测的算法研究
    交通标志识别及其目标检测深度学习算法研究
    交通监控中车辆属性的识别方法研究
    交通监控视频中的车辆检测技术研究
    交通监控视频中车辆重识别技术研究与实现
    交通视频数据在线结构化特征提取研究
    交通道路信号灯智能化控制系统设计与实现
    使用卷积神经网络对自动驾驶汽车进行自动交通标志识别
    公共交通管理系统中车牌识别算法的研究与设计
    动态场景中交通标志物重建和相机轨迹闭环矫正算法研究
    区域路网短时交通流预测研究与应用
    卷积神经网络在交通标志识别中的研究
    城市交叉口短时交通流的配时优化方案研究与应用
    城市交通拥堵环境下的车辆低速跟驰技术研究
    城市交通路口信号灯自适应控制研究
    城市道路短时交通流预测方法研究
    基于AFC数据的城市轨道交通站点短时客流预测
    基于CNN和LSTM的城市区域交通流量预测
    基于CNN的轨道交通拥堵预测算法研究
    基于Faster R-CNN的路边交通标志检测研究
    基于GPR与KRR的城市轨道交通短时客流预测研究
    基于Inception模型和超分辨率迁移学习的交通信号识别
    基于LSTM和灰色模型集成的短期交通流预测
    基于LSTM深度神经网络的短期交通流预测
    基于SSD模型的交通标志识别
    基于SSD的交通场景下多目标检测算法研究
    基于SSD算法的交通场景行人检测研究
    基于YOLOv3和多目标跟踪的智能交通视频监控系统
    基于YOLOv3的国内交通标志识别及嵌入式实现
    基于YOLOv3的道路交通环境行人检测技术研究
    基于YOLO网络的智能交通车流量统计研究
    基于交通态势认知的车联网高效数据分发方法的研究与仿真
    基于交通流量预测的车联网技术研究
    基于交通视频的车流量检测研究
    基于优化的VGG模型道路交通标志识别研究
    基于全景立体视觉的交通危险预警系统设计及算法研究
    基于共享卷积神经网络的交通标志检测与识别研究
    基于动态时空网络的城市交通流量预测算法研究
    基于区域卷积和弱边缘的小尺寸交通标志检测
    基于单智能体强化学习的交通信号控制方法研究与应用
    基于单目视觉的交通场景感知
    基于卷积神经网络交通标志识别方法研究
    基于卷积神经网络压缩的交通标志识别算法
    基于卷积神经网络图像识别的交通流量信息采集终端的设计与实现
    基于卷积神经网络的交通场景行人检测
    基于卷积神经网络的交通标志图像识别研究
    基于卷积神经网络的交通标志检测与识别研究
    基于卷积神经网络的交通标志检测与识别研究
    基于卷积神经网络的交通标志检测方法研究
    基于卷积神经网络的交通标志检测算法研究
    基于卷积神经网络的交通标志检测算法研究
    基于卷积神经网络的交通标志识别方法研究
    基于卷积神经网络的交通速度预测算法研究
    基于卷积神经网络的快速路交通流预测研究
    基于卷积网络的交通标志检测与识别算法研究
    基于图像视频的行车环境交通对象检测与识别算法研究
    基于图神经网络的交通流量预测
    基于场景理解和深度学习的交通标志牌识别
    基于多信息融合的交通流预测及控制诱导协同方法研究
    基于多分类单杆检测器的交通标志识别算法研究
    基于多域卷积神经网络的交通车辆跟踪算法研究
    基于多学习器集成的城市交通流量预测模型研究与实现
    基于多尺度小波分解融合深度学习的短时交通流预测研究
    基于多尺度特征融合网络的交通标志检测
    基于多层次融合与卷积神经网络的道路交通标线检测与识别
    基于多模型长短时记忆和时空关联的短时交通流预测
    基于多源数据融合的交通知识图谱构建及应用
    基于对抗深度学习的交通流预测研究
    基于小目标检测的自然场景交通标志识别
    基于微波数据的连续交通流预测方法研究
    基于手机传感器的交通状态识别研究与系统实现
    基于改进IndRNN的高速公路交通流预测算法研究
    基于改进的CNN交通标志识别研究
    基于改进的LSTM网络的交通流预测
    基于数据增强和双模型结构的交通标志检测与识别
    基于数据挖掘技术的交通流量分析与预测
    基于数据挖掘的交通信息预测机制研究
    基于数据融合的交通拥堵预测方法研究
    基于数据融合的道路交通元素检测算法研究
    基于无人车辅助系统的交通标志检测与识别研究
    基于无线网络信令的交通模型研究与实现
    基于时空关联混合模型的交通流预测方法研究
    基于时空图卷积网络的城市路网交通流预测研究
    基于时空多图卷积网络的交通站点流量预测方法研究
    基于时空数据的交通特征分析及交通流预测
    基于时空相关的短时交通流预测研究
    基于显著性与卷积神经网络的交通标志检测与识别研究
    基于机器学习的交通场景目标检测
    基于机器学习的交通标志检测与分类方法研究
    基于机器学习的交通标志识别方法研究
    基于机器学习的交通标志识别研究
    基于机器学习的交通流检测技术研究
    基于机器学习的短时交通流预测方法研究
    基于机器视觉的交通标志检测与识别算法研究
    基于机器视觉的车道线检测和交通标志识别方法研究
    基于机器视觉的车道线检测和交通标志识别研究
    基于栈式自编码器的交通流预测和目标分配方法研究
    基于正交参数优化的DFT-KNN-LSTM短时交通流预测
    基于气象大数据的城市交通路况分析与研究
    基于注意力机制的短时交通流速度预测模型研究
    基于注意力机制的路段交通态势智能预测技术研究与实现
    基于浮动车数据的城市道路交通事件自动检测技术研究
    基于浮动车数据的短时交通流预测研究
    基于深层神经网络的交通标志识别方法研究
    基于深度信念网络的短时交通流预测
    基于深度卷积神经网络的交通标志识别
    基于深度卷积网络的道路交通场景感知
    基于深度学习和边缘任务卸载的交通流量检测研究
    基于深度学习的ITS短时交通流量预测算法研究
    基于深度学习的交通事故风险预测研究与实现
    基于深度学习的交通信号检测方法研究
    基于深度学习的交通信号灯检测与识别方法研究
    基于深度学习的交通信号灯识别算法研究
    基于深度学习的交通信息预测模型研究及系统实现
    基于深度学习的交通出行大数据分析与应用
    基于深度学习的交通出行方式识别研究
    基于深度学习的交通场景图像语义分割方法研究
    基于深度学习的交通场景多目标检测
    基于深度学习的交通场景多目标检测与分割研究
    基于深度学习的交通场景多目标检测与分类研究
    基于深度学习的交通场景多目标检测算法研究
    基于深度学习的交通场景理解方法研究
    基于深度学习的交通场景目标检测方法研究
    基于深度学习的交通场景目标检测研究
    基于深度学习的交通场景目标检测算法研究
    基于深度学习的交通场景目标检测算法研究
    基于深度学习的交通场景要素检测研究
    基于深度学习的交通场景视觉显著性区域目标检测
    基于深度学习的交通大数据修复与预测研究
    基于深度学习的交通对象检测与识别
    基于深度学习的交通标志图像识别方法研究
    基于深度学习的交通标志图像识别研究
    基于深度学习的交通标志检测
    基于深度学习的交通标志检测与识别
    基于深度学习的交通标志检测与识别优化研究
    基于深度学习的交通标志检测与识别方法研究
    基于深度学习的交通标志检测与识别方法研究
    基于深度学习的交通标志检测与识别的研究
    基于深度学习的交通标志检测与识别研究
    基于深度学习的交通标志检测与识别研究
    基于深度学习的交通标志检测与识别研究
    基于深度学习的交通标志检测与识别算法研究
    基于深度学习的交通标志检测与识别算法研究
    基于深度学习的交通标志检测及识别
    基于深度学习的交通标志检测及识别技术的应用研究
    基于深度学习的交通标志检测平台的研究与实现
    基于深度学习的交通标志检测技术研究
    基于深度学习的交通标志检测服务平台研究与实现
    基于深度学习的交通标志检测算法研究
    基于深度学习的交通标志检测算法研究
    基于深度学习的交通标志检测算法研究
    基于深度学习的交通标志检测算法研究
    基于深度学习的交通标志检测识别算法研究
    基于深度学习的交通标志牌识别算法的设计
    基于深度学习的交通标志识别
    基于深度学习的交通标志识别
    基于深度学习的交通标志识别及实现
    基于深度学习的交通标志识别技术研究
    基于深度学习的交通标志识别技术研究
    基于深度学习的交通标志识别方法研究
    基于深度学习的交通标志识别研究
    基于深度学习的交通标志识别研究
    基于深度学习的交通标志识别研究
    基于深度学习的交通标志识别研究
    基于深度学习的交通标志识别算法研究
    基于深度学习的交通标识检测及识别方法研究
    基于深度学习的交通模糊图像复原算法研究
    基于深度学习的交通流模糊预测算法
    基于深度学习的交通流量预测
    基于深度学习的交通流量预测与可视化方法研究
    基于深度学习的交通流预测
    基于深度学习的交通流预测和拥堵预防
    基于深度学习的交通流预测方法研究及应用
    基于深度学习的交通物体参与物实时识別研究
    基于深度学习的交通状态判别和短时交通流量预测方法研究
    基于深度学习的交通监控图像目标检测系统设计与实现
    基于深度学习的交通街景识别
    基于深度学习的交通视频分析系统的设计与实现
    基于深度学习的交通视频检测及车型分类研究
    基于深度学习的交通路口视频分析系统研究与应用
    基于深度学习的交通车辆检测与识别算法研究
    基于深度学习的交通通行时间预测研究
    基于深度学习的交通道路信息检测方法研究
    基于深度学习的交通预测技术及其在通信中的应用研究
    基于深度学习的人体交通指挥姿势识别方法研究
    基于深度学习的公共交通客流量预测方法研究
    基于深度学习的公共交通监控视频客流统计系统研究
    基于深度学习的区域交通流预测及单交叉口信号的多目标联合优化研究
    基于深度学习的城市交通事故风险预测算法研究
    基于深度学习的城市交通场景目标检测算法研究
    基于深度学习的城市出行交通流和车道占用率预测研究
    基于深度学习的城市短时交通流拥堵预测研究
    基于深度学习的城市路网中长期交通状态预测研究
    基于深度学习的城市车辆交通流量分析算法研究
    基于深度学习的城市轨道交通客流短时预测方法
    基于深度学习的城市轨道交通客流预测研究
    基于深度学习的城市道路交通信号灯检测方法研究
    基于深度学习的复杂交通场景下车牌识别算法研究与实现
    基于深度学习的复杂交通场景多目标检测
    基于深度学习的复杂交通视频的多目标跟踪
    基于深度学习的复杂环境下交通信号灯检测算法研究
    基于深度学习的多类交通标识检测研究
    基于深度学习的嵌入式交通标志识别系统的设计与实现
    基于深度学习的智能交通元素检测与识别
    基于深度学习的智能交通视频处理框架的研究
    基于深度学习的智能交通车辆检测与跟踪
    基于深度学习的混合交通场景行人检测研究
    基于深度学习的现实交通场景下目标检测算法研究
    基于深度学习的短时交通拥堵预测模型
    基于深度学习的短时交通流量分析与预测方法研究
    基于深度学习的短时交通流量预测
    基于深度学习的短时交通流量预测技术研究
    基于深度学习的短时交通流量预测技术研究
    基于深度学习的短时交通流量预测方法研究
    基于深度学习的短时交通流量预测研究
    基于深度学习的短时交通流量预测研究
    基于深度学习的短时交通流预测
    基于深度学习的短时交通流预测及信号控制研究
    基于深度学习的短时交通流预测方法研究
    基于深度学习的短时交通流预测方法研究
    基于深度学习的短时交通流预测研究
    基于深度学习的短时交通流预测研究
    基于深度学习的短时交通流预测研究
    基于深度学习的短时交通流预测研究
    基于深度学习的短时交通流预测研究
    基于深度学习的短时交通状态预测方法研究
    基于深度学习的短时城市交通流预测模型研究
    基于深度学习的短期交通预测算法研究
    基于深度学习的自然场景下道路交通标志检测
    基于深度学习的自然场景中交通标志识别研究
    基于深度学习的自然场景交通标志识别算法研究
    基于深度学习的路网短时交通流分析与预测研究
    基于深度学习的路网短时交通流预测
    基于深度学习的路面交通标志识别研究
    基于深度学习的车道线检测和交通标识识别研究
    基于深度学习的轨道交通场景客流计数方法研究
    基于深度学习的道路交通场景下的行人检测算法研究
    基于深度学习的道路交通标志检测方法研究
    基于深度学习的道路交通标志识别方法研究
    基于深度学习的道路交通标志识别系统研究
    基于深度学习的道路交通流预测方法研究
    基于深度学习的重庆市轨道交通多空间尺度客流预测研究
    基于深度学习的雨雾交通图像增强方法研究
    基于深度学习的高速公路交通检测算法研究
    基于深度属性学习的交通标志识别方法研究
    基于深度强化学习的交通控制优化方法研究及实现
    基于深度强化学习的交通灯配时优化技术的研究
    基于深度强化学习的交通监控车辆路线推理方法研究
    基于深度强化学习的交通配时优化技术研究
    基于深度强化学习的城市道路交通控制算法研究
    基于深度模型的实时交通灯检测
    基于深度残差全卷积神经网络的交通图像分割方法研究
    基于深度神经网络的交通场景图像语义分割研究
    基于深度置信网络的城市道路交通流预测研究
    基于深度高斯过程的交通流预测
    基于特征融合与深度卷积神经网络的交通标识识别
    基于状态预测的交通拥堵控制研究与应用
    基于生成对抗网络的交通场景视觉显著性区域预测
    基于生成对抗网络的交通标志检测研究
    基于目标检测与跟踪的交通视频智能分析系统研究
    基于神经网络的交通标识检测与识别算法研究
    基于移动终端的交通情境识别技术研究
    基于移动视觉的交通场景感知关键技术研究
    基于组合模型的交通流量预测
    基于组合模型的路网短时交通流预测研究
    基于组合长短时神经网络的交通流量长时预测
    基于群体智能的高速公路交通状态预测方法研究
    基于融合SNN模型深度学习算法的交通状态预测研究
    基于行车视频的道路交通标志识别研究与实现
    基于街景影像的交通指路牌变化检测
    基于视觉传感技术的智能交通信号控制系统研究
    基于视觉图像与激光点云融合的交通车辆检测
    基于视频图像识别的村镇智能交通灯设计
    基于视频处理的道路交通流跟踪统计系统设计与实现
    基于视频的交通场景下运动目标检测研究
    基于计算机视觉的交通标志识别研究
    基于计算机视觉的城市轨道交通弓网磨耗病害检测技术研究
    基于车载摄像头的路面交通标志识别研究
    基于车辆轨迹分析的交通场景感知与预测
    基于轻量级卷积神经网络的交通场景目标检测算法研究
    基于轻量级神经网络的交通场景的目标检测方法研究
    基于边缘计算的交通目标检测与识别
    基于运动模式挖掘的路网移动对象交通流预测
    基于选择性搜索和改进卷积神经网络的交通标志识别
    基于道路交通场景的目标跟踪方法研究与实现
    基于重点营运车辆数据的高速公路交通状态识别与行程速度预测
    基于集成卷积神经网络的交通标志识别研究
    基于领域知识库的智能交通客服系统的研究与实现
    基于高空视频深度学习的城市干道交通状态判别方法研究
    复杂交通场景下的视频目标检测
    复杂交通环境下的车辆检测算法研究
    复杂场景下的车道线和交通标志检测方法研究
    复杂环境下交通标志牌的检测和识别
    复杂环境下的交通标志识别方法研究
    复杂环境下的道路交通标志检测方法研究
    复杂背景下交通标志的检测与识别研究
    多层域异构交通数据融合模型及应用研究
    改进YOLOv3的交通车辆检测
    智能交通中的目标检测技术研究
    智能交通中部分遮挡车辆检测方法的研究
    智能交通场景中的多目标跟踪算法研究
    智能交通系统中位置信息的协作获取与深度挖掘
    智能交通系统中基于机器视觉的交通流量统计研究
    智能交通系统中机器视觉与深度学习技术的研究
    智能交通系统中行人检测算法的研究
    智能算法在智能交通信号控制中的应用与研究
    智能网联交通环境下高速公路车辆位置估计方法研究
    智能驾驶系统的交通标志识别技术研究
    武汉市智能交通系统路口检测子系统的设计与实现
    深度学习在短时交通流预测中的应用研究
    深度学习技术在轨道交通轴承故障诊断中的应用研究
    深度异步残差网络及在路网交通流预测中的应用
    激光与视觉信息融合的复杂交通环境感知方法研究
    用于交通对象检测的轻量化系统的研究与实现
    用于交通标志检测的改进SSD深度神经网络方法研究
    组合知识图谱和深度学习的城市交通拥堵区域预测研究
    结合交通环境信息的语义SLAM算法研究
    自动驾驶交通道路环境感知系统研究
    自动驾驶汽车道路交通致害犯罪的刑事责任研究
    自然场景下交通标志的检测与识别
    自然场景下智能驾驶汽车的交通标志检测与识别
    自然场景中的交通标志检测与识别
    自然环境下交通标志的检测与识别算法研究
    融合多因素的短时交通流预测方法研究
    融合多尺度卷积网络与域适应策略的交通标志识别
    融合天气因素的短时交通流深度预测算法
    行车视频中交通标志识别技术研究及其安卓应用开发
    视听觉融合的交通场景智能感知技术研究
    路口场景下交通标识检测方法研究与实现
    车联网环境下基于深度学习的路网交通优化方法研究
    车联网环境下路网交通态势预测方法研究
    车联边缘网络中基于深度学习的交通事故风险预测算法研究
    适用于不同尺度的交通标志检测算法
    道路交通标志检测与识别研究
    道路前方交通标志识别算法研究
    雨天环境下的交通拥堵状态识别与实验
    雨天环境下高速公路交通流特性分析及预测研究
    雾霾天气下交通限速标志识别技术研究
    雾霾天气下道路交通标志识别和车道线检测研究
    雾霾条件下交通标志的检测与识别
    面向交通图像场景理解的深度学习算法研究
    面向交通标志识别的卷积神经网络研究
    面向交通流预测的深度神经网络建模与应用研究
    面向交通监控的驾驶员人脸检测技术研究
    面向交通视频的车辆检测技术研究
    面向复杂自然场景的交通标识文本检测研究
    面向智能交通的海量数据处理与存储分配策略研究
    面向智能交通系统的车辆目标跟踪算法研究与实现
    面向自动驾驶场景的交通标志检测技术研究
    面向自然场景的交通标志文字检测算法研究
    面向轨道交通规范的命名实体识别方法研究
    面向高速公路的交通流预测算法研究
    高速路网交通流预测分析方法的研究与实现
    更多相关内容
  • 它不仅能够解决交通网络建模和预测问题,而且可以应用于更一般的时空序列学习任务。 时空卷积块结合了图卷积和门控时间卷积,能够提取出最有用的空间特征,并连贯地捕捉到最基本的时间特征。 该模型完全由卷积结构...
  • 机器学习 预测 交通Road accidents constitute a significant proportion of the number of serious injuries reported every year. Yet, it is often challenging to determine which specific conditions lead to ...

    机器学习 预测 交通

    Road accidents constitute a significant proportion of the number of serious injuries reported every year. Yet, it is often challenging to determine which specific conditions lead to such events, making it more difficult for local law enforcement to address the number and severity of road accidents. We all know that some characteristics of vehicles and the surroundings play a key role (engine capacity, condition of the road, etc.). However, many questions are still open. Which of these factors are the leading ones? How much are the external factors to blame, compared to the driver skills?

    [R OAD事故属严重受伤人数的显著比重逐年报道。 然而,确定导致这些事件的具体条件通常是具有挑战性的,这使得地方执法部门更难以解决交通事故的数量和严重性。 我们都知道,车辆和周围环境的某些特征起着关键作用(发动机容量,道路状况等)。 但是,许多问题仍然悬而未决。 哪些因素是主要因素? 与驾驶员的技能相比,应归咎于多少外部因素?

    We leveraged Machine Learning and the United Kingdom’s road accidents database to clarify these questions and specifically provide impact on two major areas:

    我们利用机器学习和英国的道路事故数据库来澄清这些问题,并特别对两个主要领域产生影响:

    1. First, we developed a risk score that quantifies the likelihood of a driver having a fatal/serious accident solely based on inputs gathered from individual and vehicle data. This score can be used both to influence driving rules and regulation and inform drivers on the factors that increase their accident risk.

      首先, 我们开发了一个风险评分,仅根据从个人和车辆数据中收集的输入数据来量化驾驶员发生致命/严重事故的可能性 。 此分数可用于影响驾驶规则和法规,并告知驾驶员增加其事故风险的因素。

    2. Second, we analysed situational information (such as road type, weather conditions, etc.) to estimate the severity of an accident. Such insights would help governments to better understand the sources of accidents and act to reduce them.

      其次, 我们分析了情况信息 (例如道路类型,天气条件等)以估计事故的严重性。 这些见解将有助于政府更好地了解事故的根源并采取行动减少事故。

    数据 (Data)

    We use 220k+ accident reports from the Department for Transport of the United Kingdom, covering 2018. For each report, we have the information collected at the scene of the accident including:

    我们使用了英国运输部提供的超过22万起事故报告,涵盖了2018年。对于每份报告,我们都有在事故现场收集的信息,包括:

    • Casualty characteristics (e.g. gender, age and home area type)

      伤亡特征 (例如性别年龄居住地区类型 )

    • Situational variables (e.g. weather, road type and light conditions)

      情景变量 (例如天气道路类型光照条件 )

    • Accident descriptors (e.g. severity, presence of police)

      事故描述符 (例如严重程度警察在场 )

    • Vehicle descriptors (e.g. age, power, type, model)

      车辆描述符 (例如, 年龄功率类型型号 )

    Overall, the data provided by the Department for Transport can be grouped into driver information, which can be further broken down into vehicle and individual data, and external information ( e.g. accident location and light conditions).

    总体而言,运输部提供的数据可以分为驾驶员信息,这些信息可以进一步细分为车辆和个人数据,以及外部信息(例如, 事故地点光照条件 )。

    驾驶员评分 (Driver Score)

    To understand driver risk factors, we created a Driver Score, using each driver’s unique characteristics. Every driver would be able to input information including their age and vehicle type to get back a value describing their risk of having a severe accident. In addition, the model is able to inform that driver about the major factors of their risk.

    为了了解驾驶员风险因素,我们利用每个驾驶员的独特特征创建了驾驶员分数。 每个驾驶员将能够输入包括他们的年龄和车辆类型的信息,以获取一个描述他们发生严重事故风险的值。 此外,该模型还可以告知驾驶员有关其风险的主要因素。

    For example, it might be that for some drivers the major cause of risk is having an old vehicle, while for others it might be that they live in a rural area common for having poor road conditions. By having this information, individual drivers can make more informed decisions going forward, for instance, purchasing vehicles that pose a lower risk.

    例如,对于某些驾驶员来说,主要的风险原因是旧车,而对于另一些人来说,则可能是他们生活在因路况不佳而偏僻的农村地区。 通过获得此信息,各个驾驶员可以做出更明智的决定,例如,购买风险较低的车辆。

    To develop a model estimating this score, we focused on ex-ante features only, which are known prior to an accident occurring. We defined the target variable as 0 if an observed accident has low severity or resulted in no casualty, and as 1 if it has severe or fatal consequences (For more information on how to develop a Risk Score, check this article). We trained multiple models on the driver and vehicle features, in order to be able to compare their performance.

    为了开发一个评估该分数的模型,我们仅关注事前特征,这些特征在发生事故之前是已知的。 如果观察到的事故严重程度较低或没有造成人员伤亡,则将目标变量定义为0,如果将其造成严重或致命的后果,则将目标变量定义为1(有关如何制定风险评分的更多信息,请参见本文 )。 为了能够比较它们的性能,我们对驾驶员和车辆特征训练了多个模型。

    The models used were:

    使用的模型是:

    Image for post
    Comparison of the models performance. Due to the heavily unbalanced distribution of the classes, we used the Area Under ROC Curve (AUC) to compare the models performance.
    型号性能比较。 由于类的分布严重不平衡,我们使用了ROC曲线下面积(AUC)来比较模型的性能。

    As it can be seen from the table above, Optimal Classification Trees achieved the highest out-of-sample performance. In addition, OCTs provide near full interpretability since it is not an ensemble method, unlike Random Forest and XGBoost. In the figure below, we can see a branch of the OCT Decision Tree, which provides criteria that are sensible and similar to what a human would intuitively expect. In this example, indeed, the model shows that if the accident involves a motorcycle with engine capacity higher than 200cc, and the vehicle is more than 20 years old, then the accident is likely to be severe.

    从上表可以看出,最佳分类树获得了最高的样本外性能。 另外,与随机森林和XGBoost不同,OCT并不是一种整体方法,因此几乎可以完全解释。 在下图中,我们可以看到OCT决策树的一个分支,该分支提供了明智的标准,并且类似于人类的直觉期望。 实际上,在此示例中,模型显示,如果事故涉及引擎容量高于200cc的摩托车,并且车辆使用时间超过20年,则事故很可能是严重的。

    Image for post
    One of the top branches of the Decision Tree. Predict 1 refers to a fatal accident, while 0 means non-fatal.
    决策树的顶级分支之一。 预测1表示致命事故,而0表示非致命事故。

    By predicting the probability of getting in a severe accident, we can use the probability as a risk score that becomes the Driver Score. Through this score, we are able to highlight riskier and less risky drivers. By using a highly interpretable model, we can understand the features that drive most of the score by inspecting the decision tree and the variable importance.

    通过预测发生严重事故的概率,我们可以将该概率用作风险评分,成为驾驶员评分。 通过此分数,我们可以重点介绍风险较高和风险较小的驾驶员。 通过使用高度可解释的模型,我们可以通过检查决策树和变量的重要性来理解驱动大部分得分的功能。

    描述性统计 (Descriptive Statistics)

    However, driver risk only tells part of the story. We then moved on to analyse descriptive statistics related to the accidents. In particular, we used ex-post information such as the weather condition at the time of the accident, the lighting condition on the road and the road condition itself to better understand the drivers of accidents across the UK. By doing so, we would be able to understand not only how drivers can mitigate their risk (partly using their Driver Score), but also how external factors come into play.

    但是,驾驶员的风险只能说明部分情况。 然后,我们继续分析与事故相关的描述性统计数据。 尤其是,我们使用事后信息,例如事故发生时的天气状况,道路上的照明状况以及道路状况本身,以更好地了解整个英国的事故驾驶员。 这样,我们不仅可以了解驾驶员如何降低风险(部分使用驾驶员评分),还可以了解外部因素如何发挥作用。

    By understanding the external factors driving the risk of an accident, the government can prioritise spending by targeting first the major drivers of accidents. For instance, if we find that the light condition is more important than the road condition itself, the Department of Transport can allocate its limited budget prioritising lighting conditions first and then the quality of roads.

    通过了解导致事故风险的外部因素,政府可以通过首先确定事故的主要驱动因素来优先考虑支出。 例如,如果我们发现光照条件比道路条件本身更重要,那么交通运输部可以分配有限的预算,首先分配照明条件,然后再优先道路质量。

    We used the same target variable, but this time not in a predictive setting, as well as different models. Similarly to the previous section, we performed stratified sampling when training our models using 5-fold Cross-Validation:

    我们使用了相同的目标变量,但是这次没有使用预测性变量,而是使用了不同的模型。 与上一节类似,我们在使用5倍交叉验证训练模型时执行了分层抽样:

    逻辑回归 (Logistic Regression)

    • Lasso and Ridge regularisers with hyper-parameter grid between 1.0 and 3.0 in steps of 0.1.

      具有超参数网格的LassoRidge正则化器在1.0和3.0之间,步长为0.1。

    大车 (CART)

    • Minimum Samples Split varied between 3 and 11

      最小样本分割在3到11之间变化

    • Minimum Samples Leaf between 5 and 13

      最小样本叶子介于5到13之间

    • Maximum Number of Features at each split either “None”, “sqrt”,or “log2”.

      每个拆分的最大功能数( “无”,“ sqrt”或“ log2”)。

    随机森林 (Random Forest)

    • Bootstrap equal to “True”

      引导程序等于“ True”

    • Maximum Features either “sqrt” or “log2”

      最大功能为“ sqrt”或“ log2”

    • Minimum Samples Leaf either 5 or 10

      最少取样 5或10

    • Number of Trees either 400, 800, or 1000.

      树的数量为400、800或1000。

    XGBoost (XGBoost)

    • Learning Rate in 0.001, 0.01 and 0.1

      0.001、0.01和0.1的学习率

    • Number of Trees in 2500, 2000 and 1500, respectively

      树木数量分别为2500、2000和1500

    • Minimum Samples Leaf in 4, 8, or 12.

      最少采样数为 4、8或12。

    After having trained the models, we chose to use a Gradient Boosting Classifier with Out-of-Sample AUC of 0.72 and Accuracy of 0.87, which achieved the best performance. Analysing the decision tree and the insights derived from it, we can highlight some key aspects. First of all, as can be seen from the following image, light accidents vary depending on the time of the day, occurring more often during rush hours. Differently, severe or fatal accidents are somewhat uniformly distributed regardless of the hour of the day.

    在对模型进行训练之后,我们选择使用具有0.72的样本外AUC和0.87的精度的梯度提升分类器,从而获得了最佳性能。 通过分析决策树和从中得出的见解,我们可以重点介绍一些关键方面。 首先,从下图可以看出,轻度事故随一天中的不同时间而变化,在高峰时段更常见。 不同的是,无论一天中的小时数如何,严重或致命的事故在某种程度上都是均匀分布的。

    Image for post
    Histogram of accident severity across the day.
    全天事故严重程度的直方图。

    Furthermore, we reported the ratio of severe to light accidents across the UK for each Police Force area, highlighting in blue rural areas and in red metropolitan areas. Locations with larger circles have more severe accidents relative to the number of minor accidents and vice versa. Intuitively, cities like London have larger than average circles, because the level of traffic and congestion in such a large city is higher, leading to more severe accidents.

    此外,我们报告了整个英国每个警区的严重事故与轻度事故的比率,突出显示在蓝色的农村地区和红色的大都市地区。 相对于小事故,具有较大圆圈的位置发生的事故更为严重,反之亦然。 直觉上,像伦敦这样的城市圈数大于平均水平,这是因为这样一个大城市的交通和拥堵程度更高,从而导致更严重的事故。

    Image for post
    Ratio of severe to light accidents across the UK. The larger the circle size, the higher the ratio. Urban areas are marked in red, while rural areas are in blue.
    全英国严重与轻度事故的比率。 圆圈大小越大,比率越高。 城市区域标记为红色,而农村区域标记为蓝色。

    However, it is interesting to notice how different locations across the UK, despite being rural, have a ratio of severe-to-light accidents just as high as London’s. This can drive useful insights for local administrations and the broader government, showing which areas in the UK are at highest risk, where improvements and policies need to have priority. These are, for instance, areas such as Lancashire and the northern areas of Wales, close to the border with England. These areas, shown from our model as some of the most at risk of severe accidents, have also been recently confirmed as some of the most dangerous by different news outlets.

    然而,有趣的是,注意到尽管英国处于农村,但不同地区的重轻事故发生率与伦敦一样高。 这可以为地方政府和更广泛的政府提供有用的见解,显示英国哪些地区风险最高,需要优先考虑改进和政策。 例如,这些地区是兰开夏郡和威尔士北部地区,与英格兰接壤。 从我们的模型中可以看出,这些区域是发生严重事故风险最大的区域,最近,不同的新闻媒体也已确认这些区域为最危险的区域。

    摘要 (Summary)

    • We analysed road accidents data across the UK to find insights that can drive decisions aimed at saving lives.

      我们分析了整个英国的道路交通事故数据,以寻找有助于推动旨在挽救生命的决策的见解。
    • We tackled the issue, first developing a Driver Score which assigns to each driver a level of risk. Each driver is then able to understand whether they are at risk or not and, most importantly, what characteristics are the main factors.

      我们解决了这个问题,首先制定了驾驶员评分,为每个驾驶员分配了一定的风险等级。 然后,每个驾驶员都可以了解他们是否处于危险之中,最重要的是,主要特征是什么。
    • Second, we analysed external information, which the driver has not control on, such as road conditions. We were able to highlight areas across the UK that should be prioritised, focusing government funding on these high-priority areas.

      其次,我们分析了驾驶员无法控制的外部信息,例如路况。 我们能够突出显示整个英国应优先考虑的领域,将政府资金重点放在这些高优先领域。
    • Both of these analyses give us further understanding into the underlying causes of accidents empowering drivers and governments alike to prevent them before they happen.

      这两种分析使我们对事故的根本原因有了进一步的了解,从而使驾驶员和政府都有权在事故发生之前进行预防。

    To read more articles like this, follow me on Twitter, LinkedIn or my Website.

    要阅读更多类似的文章,请在 Twitter LinkedIn 或我的 网站 关注

    翻译自: https://towardsdatascience.com/using-machine-learning-to-predict-car-accidents-44664c79c942

    机器学习 预测 交通

    展开全文
  • 基于神经网络(堆栈自编码SAEs、长短时神经网络LSTM、门循环单元GRU)的交通预测 Python 3.6 Tensorflow-gpu 1.5.0 Keras 2.1.3 scikit-learn 0.19 交通预测
  • 根据相关数据预测交通流量实验内容准备工作详细步骤实验结果 实验内容 我们将建立一个SVM来根据相关数据预测交通流量。 准备工作 我们将要使用的数据集可以在...

    根据相关数据预测交通流量


    实验内容

    我们将建立一个SVM来根据相关数据预测交通流量。


    准备工作

    我们将要使用的数据集可以在https://archive.ics.uci.edu/ml/datasets/Dodgers+Loop+Sensor下 载。这个数据集统计了洛杉矶道奇棒球队(Los Angeles Dodgers)进行主场比赛期间,体育场周 边马路通过的车辆数量,存放在traffic_data.txt文件中。每一行都包含用逗号分隔的字符串格式。

    详细步骤

    # 使用SVM估计交通流量
    
    import numpy as np
    from sklearn import preprocessing
    from sklearn.svm import SVR
    
    input_file = 'traffic_data.txt'
    
    # 读取数据
    X = []
    # X矩阵中包含了traffic_data.txt的所有数据
    '''
    [['Tuesday' '00:00' 'San Francisco' 'no' '3']
     ['Tuesday' '00:05' 'San Francisco' 'no' '8']
     ['Tuesday' '00:10' 'San Francisco' 'no' '10']
     ...
     ['Thursday' '23:45' 'Arizona' 'no' '11']
     ['Thursday' '23:50' 'Arizona' 'no' '14']
     ['Thursday' '23:55' 'Arizona' 'no' '17']]
     '''
    count = 0
    with open(input_file, 'r') as f:
        for line in f.readlines():
            data = line[:-1].split(',')
            X.append(data)
    
    X = np.array(X)
    
    
    
    print("####################")
    
    
    # 将数据标记编码
    label_encoder = [] 
    X_encoded = np.empty(X.shape)   # X.shape代表矩阵的形状,即几行几列。转换后的数据集全部放到X_encoded中
    
    for i,item in enumerate(X[0]):
        if item.isdigit():
            X_encoded[:, i] = X[:, i]
        else:
            label_encoder.append(preprocessing.LabelEncoder())  # 需要为每个属性使用不同的标记编码器
            X_encoded[:, i] = label_encoder[-1].fit_transform(X[:, i])
    
    X = X_encoded[:, :-1].astype(int)   # 除了最后一个值外的所有值赋给X
    y = X_encoded[:, -1].astype(int)    # 每一行最后一个值是流量大小,赋值给变量y
    
    # 建立SVR
    params = {'kernel': 'rbf', 'C': 10.0, 'epsilon': 0.2} # 使用径向基函数,C惩罚系数,
    regressor = SVR(**params)
    regressor.fit(X, y)
    
    # 交叉验证
    import sklearn.metrics as sm
    
    y_pred = regressor.predict(X)
    print("Mean absolute error =", round(sm.mean_absolute_error(y, y_pred), 2))
    
    # 对单一数据示例进行编码测试
    input_data = ['Tuesday', '13:35', 'San Francisco', 'yes']
    input_data_encoded = [-1] * len(input_data)
    count = 0
    # 对测试数据进行标记编码
    for i,item in enumerate(input_data):
        if item.isdigit():
            input_data_encoded[i] = int(input_data[i])
        else:
            input_data_encoded[i] = int(label_encoder[count].transform([input_data[i]]))
            count = count + 1 
    
    input_data_encoded = np.array(input_data_encoded)
    input_data_encoded = input_data_encoded.reshape(1, len(input_data))
    
    # 为特定数据点预测并打印分类结果
    print("Predicted traffic:", int(regressor.predict(input_data_encoded)[0]))  # 保留预测结果的整数部分
    

    实验结果

    在这里插入图片描述

    展开全文
  • 智能交通技术是缓解城市道路交通拥堵问题的重要手段,该技术对道路交通流量进行预测,对车辆进行引导,缓解交通压力.而对城市道路交通的流量进行预测需要强大的计算平台以及精准的预测模型支撑.因此,本文基于大数据技术...
  • 代码 小波神经网络的时间序列短时交通预测代码 小波神经网络的时间序列短时交通预测代码 小波神经网络的时间序列短时交通预测代码 小波神经网络的时间序列短时交通预测代码 小波神经网络的时间序列短时交通...
  • 今天又给大家带来一篇实战案例,本案例旨在运用之前学习的时间序列分析和预测基础理论知识,用一个实际案例数据演示这些方法是如何被应用的。本文较长,建议收藏!由于篇幅限制,文内精简了部分代码,但...

    今天又给大家带来一篇实战案例,本案例旨在运用之前学习的时间序列分析和预测基础理论知识,用一个实际案例数据演示这些方法是如何被应用的。

    本文较长,建议收藏!由于篇幅限制,文内精简了部分代码,但不影响阅读体验,若你需要完整代码和数据,请在公众号「机器学习研习院」联系作者获取!

    本文主要内容

    ★ 首先使用探索性数据分析,从不同时间维度探索分析交通系统乘客数量。

    ★ 创建一个函数来检查时间序列数据的平稳性,通过一阶差分将非平稳性数据转化为平稳性数据。

    ★ 然后将数据分为训练集和验证集,简单介绍了并应用多个时间序列预测技术,如朴素法、移动平均方法、简单指数平滑、霍尔特线性趋势法、霍尔特-温特法、ARIMA和SARIMAX模型。

    ★ 最后使用SARIMAX模型预测未来7个月的流量,因为它有最小的RMSE。如下图所示,蓝色线是训练数据,黄色线是验证数据,红色是使用SARIMAX模型预测的数据。

    5c9c07c11de706537891cd53c118d7bf.png

    虽然拟合最好的SARIMAX模型,但似乎也没那么棒,当然会有更好的方法来预测该数据。而本文重点是介绍这些基于统计学的经典时间序列预测技术在实际案例中的应用。

    cf8c02f8a75a62ac51c4ae9e9a3065f0.png

    4e4697300845edd88e4ca7cf80e05a61.gif

    导入相关模块

    e474348362ba299d067797706f9fc108.gif

    import pandas as pd          
    import numpy as np
    import matplotlib.pyplot as plt
    from datetime import datetime    
    from pandas import Series 
    from sklearn.metrics import mean_squared_error
    from math import sqrt
    from statsmodels.tsa.seasonal import seasonal_decompose
    import statsmodels
    import statsmodels.api as sm
    from statsmodels.tsa.arima_model import ARIMA

    7502db2b635f508d5e232ab820164de2.gif

    数据集准备

    04317b799ddc9735c80105c7fe958ee0.gif

    去直接读取用pandas读取csv文本文件,并拷贝一份以备用。

    train = pd.read_csv("Train.csv")
    test = pd.read_csv("Test.csv")
    
    train_org = train.copy()
    test_org = test.copy()

    查看数据的列名

    train.columns, test.columns
    (Index(['ID', 'Datetime', 'Count'], dtype='object'),
     Index(['ID', 'Datetime'], dtype='object'))

    查看数据类型

    train.dtypes, test.dtypes
    (ID           int64
     Datetime    object
     Count        int64
     dtype: object,
     ID           int64
     Datetime    object
     dtype: object)

    查看数据大小

    test.shape, train.shape
    ((5112, 2), (18288, 3))

    查看数据样貌

    train.head()
    f6baf0baa12763e6bed8abd6659c1a03.png

    解析日期格式

    train['Datetime'] = pd.to_datetime(train.Datetime, format = '%d-%m-%Y %H:%M')
    test['Datetime'] = pd.to_datetime(test.Datetime, format = '%d-%m-%Y %H:%M')
    test_org['Datetime'] = pd.to_datetime(test_org.Datetime,format='%d-%m-%Y %H:%M')
    train_org['Datetime'] = pd.to_datetime(train_org.Datetime,format='%d-%m-%Y %H:%M')

    时间日期格式解析结束后,记得查看下结果。

    train.dtypes
    ID                   int64
    Datetime    datetime64[ns]
    Count                int64
    dtype: object
    train.head()
    49642baea2f6baac9fd8495ca6d484e4.png

    时间序列数据的特征工程

    时间序列的特征工程一般可以分为以下几类。本次案例我们根据实际情况,选用时间戳衍生时间特征。

    a4783ffaa5e6efab4021be3ba135dee2.png

    时间戳虽然只有一列,但是也可以根据这个就衍生出很多很多变量了,具体可以分为三大类:时间特征、布尔特征,时间差特征

    本案例首先对日期时间进行时间特征处理,而时间特征包括年、季度、月、周、天(一年、一月、一周的第几天)、小时、分钟...

    因为需要对test, train, test_org, train_org四个数据框进行同样的处理,直接使用for循环批量提取年月日小时等特征。

    for i in (test, train, test_org, train_org):
        i['Year'] = i.Datetime.dt.year
        i['Month'] = i.Datetime.dt.month
        i['day'] = i.Datetime.dt.day
        i['Hour'] = i.Datetime.dt.hour
        #i["day of the week"] = i.Datetime.dt.dayofweek
    test.head()
    7ee6723efe7d12278cfc6357c175c45a.png

    时间戳衍生中,另一常用的方法为布尔特征,即:

    • 是否年初/年末

    • 是否月初/月末

    • 是否周末

    • 是否节假日

    • 是否特殊日期

    • 是否早上/中午/晚上

    • 等等

    下面判断是否是周末,进行特征衍生的布尔特征转换。首先提取出日期时间的星期几。

    train['day of the week'] = train.Datetime.dt.dayofweek
    # 返回给定日期时间的星期几
    train.head()
    498d2a73c0df8fa4dd2860b0b9153776.png

    再判断day of the week是否是周末(星期六和星期日),是则返回1 ,否则返回0

    def applyer(row):
        if row.dayofweek == 5 or row.dayofweek == 6:
            return 1
        else:
            return 0
    temp = train['Datetime']    
    temp2 = train.Datetime.apply(applyer)
    train['weekend'] = temp2
    train.index = train['Datetime']

    对年月乘客总数统计后可视化,看看总体变化趋势。

    df = train.drop('ID',1)
    ts = df['Count']
    plt.plot(ts, label = 'Passenger count')
    14cc8a8542ce654effca5ba13b6d0e09.png

    a4ba1288373a0b59ff2648003b3b9d50.gif

    探索性数据分析

    25c08833eeeab61bbc3b5d34231dd5b5.gif

    首先使用探索性数据分析,从不同时间维度探索分析交通系统乘客数量。

    对年进行聚合,求所有数据中按年计算的每日平均客流量,从图中可以看出,随着时间的增长,每日平均客流量增长迅速。

    train.groupby('Year')['Count'].mean().plot.bar()
    706ed3edfbafe720438638b7d3e0a699.png

    对月份进行聚合,求所有数据中按月计算的每日平均客流量,从图中可以看出,春夏季客流量每月攀升,而秋冬季客流量骤减。

    train.groupby('Month')['Count'].mean().plot.bar()
    6b7757a5c59255c60caf2545a3472104.png

    年月

    对年月份进行聚合,求所有数据中按年月计算的每日平均客流量,从图可知道,几本是按照平滑指数上升的趋势。

    temp = train.groupby(['Year','Month'])['Count'].mean()
    temp.plot()# 乘客人数(每月)
    44ab45dacc9bf6f7128615bccc9c6597.png

    对日进行聚合,求所有数据中每月中的每日平均客流量。从图中可大致看出,在5、11、24分别出现三个峰值,该峰值代表了上中旬的高峰期。

    train.groupby('day')['Count'].mean(
             ).plot.bar(figsize = (15,5))
    ee034e2d306724c7074e56da50ea3576.png

    小时

    对小时进行聚合,求所有数据中一天内按小时计算的平均客流量,得到了在中(12)晚(19)分别出现两个峰值,该峰值代表了每日的高峰期。

    train.groupby('Hour')['Count'].mean().plot.bar()
    52801afd89ce1650a8c06e5e0f7d909d.png

    是否周末

    对是否是周末进行聚合,求所有数据中按是否周末计算的平均客流量,发现工作日比周末客流量客流量多近一倍,果然大家都是周末都喜欢宅在家里。

    train.groupby('weekend')['Count'].mean().plot.bar()
    e2f811eedb8baef9aa01692698539f8b.png

    对星期进行聚合统计,求所有数据中按是周计算的平均客流量。

    train.groupby('day of the week')['Count'].mean().plot.bar()
    49d19573bb2c78b555b859379c1c089c.png

    时间重采样

    ◎ 重采样(resampling)指的是将时间序列从一个频率转换到另一个频率的处理过程;
    ◎ 将高频率数据聚合到低频率称为降采样(downsampling);
    ◎ 将低频率数据转换到高频率则称为升采样(unsampling);

    train.head()
    f00f2d725e41790cbd00607e6a43b433.png

    Pandas中的resample,重新采样,是对原样本重新处理的一个方法,是一个对常规时间序列数据重新采样和频率转换的便捷的方法。

    Resample方法的主要参数,如需要了解详情,可以戳这里了解更多。

    参数说明
    freq表示重采样频率,例如'M'、'5min'、Second(15)
    how='mean'用于产生聚合值的函数名或数组函数,例如'mean'、'ohlc'、np.max等,默认是'mean',其他常用的值由:'first'、'last'、'median'、'max'、'min'
    axis=0默认是纵轴,横轴设置axis=1

    接下来对训练数据进行对月、周、日及小时多重采样。其实我们分月份进行采样,然后求月内的均值。事实上重采样,就相当于groupby,只不过是根据月份这个period进行分组。

    train = train.drop('ID', 1)
    train.timestamp = pd.to_datetime(train.Datetime, format = '%d-%m-%Y %H:%M')
    train.index = train.timestamp
    
    # 每小时的时间序列
    hourly = train.resample('H').mean()
    # 换算成日平均值
    daily = train.resample('D').mean()
    # 换算成周平均值
    weekly = train.resample('W').mean()
    # 换算成月平均值
    monthly = train.resample('M').mean()

    重采样后对其进行可视化,直观地看看其变化趋势。

    e519d06df6acfd28a2e63a31fa8ae6ae.png

    对测试数据也进行相同的时间重采样处理。

    test.Timestamp = pd.to_datetime(test.Datetime,format='%d-%m-%Y %H:%M') 
    test.index = test.Timestamp 
    # 换算成日平均值
    test = test.resample('D').mean()
    train.Timestamp = pd.to_datetime(train.Datetime,format='%d-%m-%Y %H:%M') 
    train.index = train.Timestamp
    
    # C换算成日平均值
    train = train.resample('D').mean()

    划分训练集和验证集

    到目前为止,我们有训练集和测试集,实际上,我们还需要一个验证集,用来实时验证和调整训练模型。下面直接用索引切片的方式做处理。

    Train = train.loc['2012-08-25':'2014-06-24']
    valid = train['2014-06-25':'2014-09-25']

    划分好数据集后,绘制折线图将训练集和验证集进行可视化。

    63271e9181085d73b7836421faf387e9.png

    b8de54b6be886e052de11eba4164523a.gif

    模型建立

    aff405612fb63814c9a782e22bbf4bd0.gif

    数据准备好了,就到了模型建立阶段,这里我们应用多个时间序列预测技术,如朴素法、移动平均方法、简单指数平滑、霍尔特线性趋势法、霍尔特-温特法、ARIMA和SARIMAX模型。

    朴素预测法

    如果数据集在一段时间内都很稳定,我们想预测第二天的价格,可以取前面一天的价格,预测第二天的值。这种假设第一个预测点和上一个观察点相等的预测方法就叫朴素预测法(Naive Forecast),即 。

    因为朴素预测法用最近的观测值作为预测值,因此他最简单的预测方法。虽然朴素预测法并不是一个很好的预测方法,但是它可以为其他预测方法提供一个基准。

    dd = np.asarray(Train.Count)
    # 将结构数据转化为ndarray
    y_hat = valid.copy()
    y_hat['naive'] = dd[len(dd)-1]
    plt.plot(Train.index, Train['Count'], label = 'Train')
    plt.plot(valid.index,valid['Count'], label='Valid')
    plt.plot(y_hat.index,y_hat['naive'], label='Naive Forecast')
    fc2b6c733e502bc40925d622b78e94f9.png

    模型评价

    用RMSE检验朴素法的的准确率

    rms = sqrt(mean_squared_error(valid.Count, y_hat.naive))
    print(rms)
    111.79050467496724

    移动平均值法

    移动平均法也叫滑动平均法,取前面n个点的平均值作为预测值。

    计算移动平均值涉及到一个有时被称为"滑动窗口"的大小值 。使用简单的移动平均模型,我们可以根据之前数值的固定有限数  的平均值预测某个时序中的下一个值。利用一个简单的移动平均模型,我们预测一个时间序列中的下一个值是基于先前值的固定有限个数“p”的平均值。

    这样,对于所有的 

    # 最近10次观测的移动平均值,即滑动窗口大小为P=10
    y_hat_avg = valid.copy()
    y_hat_avg['moving_avg_forecast'] = Train['Count'].rolling(10).mean().iloc[-1] 
    
    # 最近20次观测的移动平均值
    y_hat_avg = valid.copy()
    y_hat_avg['moving_avg_forecast'] = Train['Count'].rolling(20).mean().iloc[-1]
    
    # 最近30次观测的移动平均值
    y_hat_avg = valid.copy()
    y_hat_avg['moving_avg_forecast'] = Train['Count'].rolling(50).mean().iloc[-1]
    plt.plot(Train['Count'], label='Train')
    plt.plot(valid['Count'], label='Valid')
    plt.plot(y_hat_avg['moving_avg_forecast'], 
             label='Moving Average Forecast using 50 observations')
    cc9f04ac33e78aa72b2f75b97287bef6.png c268328c3025207882bfa0247cb8a3ec.png bd07b670c07b2db8eccd4ef8c75ff73c.png

    简单指数平滑法

    介绍这个之前,需要知道什么是简单平均法(Simple Average),该方法预测的期望值等于所有先前观测点的平均值。

    物品价格会随机上涨和下跌,平均价格会保持一致。我们经常会遇到一些数据集,虽然在一定时期内出现小幅变动,但每个时间段的平均值确实保持不变。这种情况下,我们可以认为第二天的价格大致和过去的平均价格值一致。

    简单平均法和加权移动平均法在选取时间点的思路上存在较大的差异:

    • 简单平均法将过去数据一个不漏地全部加以同等利用;

    • 移动平均法则不考虑较远期的数据,并在加权移动平均法中给予近期更大的权重。

    我们就需要在这两种方法之间取一个折中的方法,在将所有数据考虑在内的同时也能给数据赋予不同非权重。

    简单指数平滑法 (Simple Exponential Smoothing)相比更早时期内的观测值,越近的观测值会被赋予更大的权重,而时间越久远的权重越小。它通过加权平均值计算出预测值,其中权重随着观测值从早期到晚期的变化呈指数级下降,最小的权重和最早的观测值相关:

    其中α是平滑参数。

    from statsmodels.tsa.api import ExponentialSmoothing, SimpleExpSmoothing, Holt
    y_hat_avg = valid.copy()
    fit2 = SimpleExpSmoothing(np.asarray(Train['Count'])).fit(smoothing_level = 0.6, optimized = False)
    y_hat_avg['SES'] = fit2.forecast(len(valid))
    plt.figure(figsize = (16,8))
    plt.plot(Train['Count'], label='Train')
    plt.plot(valid['Count'], label='Valid')
    plt.plot(y_hat_avg['SES'], label='SES')
    plt.legend(loc='best')
    plt.show()
    1b4fb92d71d420bc1138d1542978defd.png

    模型评价

    用RMSE检验朴素法的的准确率

    rms = sqrt(mean_squared_error(valid.Count, y_hat_avg.SES))
    print(rms)
    113.43708111884514

    霍尔特线性趋势法

    Holts线性趋势模型,该方法考虑了数据集的趋势,即序列的增加或减少性质。

    尽管这些方法中的每一种都可以应用趋势:简单平均法会假设最后两点之间的趋势保持不变,或者我们可以平均所有点之间的所有斜率以获得平均趋势,使用移动趋势平均值或应用指数平滑。但我们需要一种无需任何假设就能准确绘制趋势图的方法。这种考虑数据集趋势的方法称为霍尔特线性趋势法,或者霍尔特指数平滑法。

    y_hat_avg = valid.copy()
    fit1 = Holt(np.asarray(Train['Count'])
               ).fit(smoothing_level = 0.3, smoothing_slope = 0.1)
    y_hat_avg['Holt_linear'] = fit1.forecast(len(valid))
    
    plt.plot(Train['Count'], label='Train')
    plt.plot(valid['Count'], label='Valid')
    plt.plot(y_hat_avg['Holt_linear'], label='Holt_linear')
    b838dbcc40c8ef952ee361ea709a8afb.png

    模型评价

    用RMSE检验朴素法的的准确率

    rms = sqrt(mean_squared_error(valid.Count, y_hat_avg.Holt_linear))
    print(rms)
    112.94278345314041

    由于holts线性趋势,到目前为止具有最好的准确性,我们尝试使用它来预测测试数据集。

    predict = fit1.forecast(len(test))
    test['prediction'] = predict
    # 计算每小时计数的比率
    train_org['ratio'] = train_org['Count']/train_org['Count'].sum()
    # 按小时计数分组
    temp = train_org.groupby(['Hour'])['ratio'].sum()
    # 保存聚合后的数据
    pd.DataFrame(temp, columns =['ratio']).to_csv('GROUPBY.csv')
    
    temp2 = pd.read_csv('GROUPBY.csv')
    # 按日、月、年合并test和test_org
    merge = pd.merge(test,test_org, on= ('day','Month','Year'),how = 'left')
    merge['Hour'] = merge['Hour_y']
    merge['ID'] = merge['ID_y']
    merge.head()
    1765c096bc34a4290dae60d072949af6.png

    删除不需要的特征。

    merge = merge.drop(['Year','Month','Datetime','Hour_x','Hour_y','ID_x','ID_y'], axis =1)
    merge.head()
    755f176fc5738b03a7f55c0493efc95f.png

    通过合并merge和temp2进行预测。

    prediction = pd.merge(merge,temp2, on = 'Hour', how = 'left')
    # 将比率转换成原始比例
    prediction['Count'] = prediction['prediction']*prediction['ratio']*24
    submission = prediction
    pd.DataFrame(submission, columns=['ID','Count']).to_csv('Holt_Linear.csv')
    ea56fc622431fb3119876ea1d8e14209.png

    霍尔特-温特法

    霍尔特-温特(Holt-Winters)方法,在 Holt模型基础上引入了 Winters 周期项(也叫做季节项),可以用来处理月度数据(周期 12)、季度数据(周期 4)、星期数据(周期 7)等时间序列中的固定周期的波动行为。引入多个 Winters 项还可以处理多种周期并存的情况。

    # Holts Winter model
    y_hat_avg = valid.copy()
    fit1 = ExponentialSmoothing(np.asarray(Train['Count']), seasonal_periods = 7, trend = 'add', seasonal = 'add',).fit()
    y_hat_avg['Holts_Winter'] = fit1.forecast(len(valid))
    plt.plot( Train['Count'], label='Train')
    plt.plot(valid['Count'], label='Valid')
    plt.plot(y_hat_avg['Holts_Winter'], label='Holt_Winter')
    4115e38b9db8ef1d7e54bab903219183.png

    模型评价

    用RMSE检验朴素法的的准确率

    rms = sqrt(mean_squared_error(valid.Count, y_hat_avg.Holts_Winter))
    print(rms)
    82.37292653831038

    模型预测

    predict=fit1.forecast(len(test))
    test['prediction']=predict
    # 按日、月、年合并Test和test_original
    merge=pd.merge(test, test_org, on=('day','Month', 'Year'), how='left')
    merge['Hour']=merge['Hour_y']
    merge=merge.drop(['Year', 'Month', 'Datetime','Hour_x','Hour_y'], axis=1)
    # 通过合并merge和temp2进行预测
    prediction=pd.merge(merge, temp2, on='Hour', how='left')
    # 将比率转换成原始比例
    prediction['Count']=prediction['prediction']*prediction['ratio']*24
    prediction['ID']=prediction['ID_y']
    submission=prediction.drop(['day','Hour','ratio','prediction', 'ID_x', 'ID_y'],axis=1)
    # 转换最终提交的csv格式
    pd.DataFrame(submission, columns=['ID','Count']).to_csv('Holt winters.csv')
    d44c8e266e9d13651fcf4566f3ca7f96.png

    迪基-福勒检验

    函数执行迪基-福勒检验以确定数据是否为平稳时间序列。

    在统计学里,迪基-福勒检验(Dickey-Fuller test)可以测试一个自回归模型是否存在单位根(unit root)。回归模型可以写为,是一阶差分。测试是否存在单位根等同于测试是否 。因为迪基-福勒检验测试的是残差项,并非原始数据,所以不能用标准t统计量。我们需要用迪基-福勒统计量。

    from statsmodels.tsa.stattools import adfuller
    def test_stationary(timeseries):
        # 确定滚动数据
        rolmean = timeseries.rolling(24).mean()
        rolstd = timeseries.rolling(24).std()
        
        # 会议滚动数据
        orig = plt.plot(timeseries, color='blue',label='Original')
        mean = plt.plot(rolmean, color='red', label='Rolling Mean')
        std = plt.plot(rolstd, color='black', label = 'Rolling Std')
        plt.legend(loc='best')
        plt.title('Rolling Mean & Standard Deviation')
        plt.show(block=False)
        
        # 执行迪基-福勒检验
        print('Results of Dickey-Fuller Test: ')
        dftest = adfuller(timeseries,autolag = 'AIC')
        dfoutput = pd.Series(dftest[0:4], index = ['Test Statistic', 'P-value', '#lags used', 'No of Observations used'])
        for key, value in dftest[4].items():
            dfoutput['Critical Value (%s)' %key] = value
        print(dfoutput)

    绘制检验图

    test_stationary(train_org['Count'])
    f9de49db79c49165688dfa6b4c5d3862.png
    Results of Dickey-Fuller Test: 
    Test Statistic                -4.456561
    P-value                        0.000235
    #lags used                    45.000000
    No of Observations used    18242.000000
    Critical Value (1%)           -3.430709
    Critical Value (5%)           -2.861698
    Critical Value (10%)          -2.566854
    dtype: float64

    检验统计数据表明,由于p值小于0.05,数据是平稳的。

    移动平均值

    在统计学中,移动平均(moving average),又称滑动平均是一种通过创建整个数据集中不同子集的一系列平均数来分析数据点的计算方法。移动平均通常与时间序列数据一起使用,以消除短期波动,突出长期趋势或周期。

    对原始数据求对数。

    Train_log = np.log(Train['Count'])
    valid_log = np.log(Train['Count'])
    Train_log.head()
    Datetime
    2012-08-25    1.152680
    2012-08-26    1.299283
    2012-08-27    0.949081
    2012-08-28    0.882389
    2012-08-29    0.916291
    Freq: D, Name: Count, dtype: float64

    绘制移动平均值曲线

    moving_avg = Train_log.rolling(24).mean()
    plt.plot(Train_log)
    plt.plot(moving_avg, color = 'red')
    plt.show()
    763f017929188ca126fac35a5487de72.png

    去除移动平均值后再进行迪基-福勒检验

    train_log_moving_avg_diff = Train_log - moving_avg
    train_log_moving_avg_diff.dropna(inplace = True)
    test_stationary(train_log_moving_avg_diff)
    96c715d6269a8e262c7e8fce5887e352.png
    Results of Dickey-Fuller Test: 
    Test Statistic            -5.861646e+00
    P-value                    3.399422e-07
    #lags used                 2.000000e+01
    No of Observations used    6.250000e+02
    Critical Value (1%)       -3.440856e+00
    Critical Value (5%)       -2.866175e+00
    Critical Value (10%)      -2.569239e+00
    dtype: float64

    对数时序数据求二阶差分后再迪基-福勒检验

    train_log_diff = Train_log - Train_log.shift(1)
    test_stationary(train_log_diff.dropna())
    37f33c97306439757e8041e83ca3f709.png
    Results of Dickey-Fuller Test: 
    Test Statistic            -8.237568e+00
    P-value                    5.834049e-13
    #lags used                 1.900000e+01
    No of Observations used    6.480000e+02
    Critical Value (1%)       -3.440482e+00
    Critical Value (5%)       -2.866011e+00
    Critical Value (10%)      -2.569151e+00
    dtype: float64

    季节性分解

    对进行对数转换后的原始数据进行季节性分解。

    decomposition = seasonal_decompose(
          pd.DataFrame(Train_log).Count.values, freq = 24)
    trend = decomposition.trend
    seasonal = decomposition.seasonal
    residual = decomposition.resid
    
    plt.plot(Train_log, label='Original')
    plt.plot(trend, label='Trend')
    plt.plot(seasonal,label='Seasonality')
    plt.plot(residual, label='Residuals')
    b51ff6237b5d8883cf868bd42bedb0f5.png

    对季节性分解后的残差数据进行迪基-福勒检验

    train_log_decompose = pd.DataFrame(residual)
    train_log_decompose['date'] = Train_log.index
    train_log_decompose.set_index('date', inplace=True)
    train_log_decompose.dropna(inplace = True)
    test_stationary(train_log_decompose[0])
    cf18e96204d61584f6b58d97dca30b0c.png
    Results of Dickey-Fuller Test: 
    Test Statistic            -7.822096e+00
    P-value                    6.628321e-12
    #lags used                 2.000000e+01
    No of Observations used    6.240000e+02
    Critical Value (1%)       -3.440873e+00
    Critical Value (5%)       -2.866183e+00
    Critical Value (10%)      -2.569243e+00
    dtype: float64

    自相关和偏自相关图

    from statsmodels.tsa.stattools import acf, pacf
    lag_acf = acf(train_log_diff.dropna(), nlags=25)
    lag_pacf = pacf(train_log_diff.dropna(), nlags=25, method='ols')
    plt.plot(lag_acf)
    plt.axhline(y=0,linestyle='--',color='gray')
    plt.axhline(y=-1.96/np.sqrt(len(train_log_diff.dropna())),linestyle='--',color='gray')
    plt.axhline(y=1.96/np.sqrt(len(train_log_diff.dropna())),linestyle='--',color='gray')
    plt.plot(lag_pacf)
    plt.axhline(y=0,linestyle='--',color='gray')
    plt.axhline(y=-1.96/np.sqrt(len(train_log_diff.dropna())),linestyle='--',color='gray')
    plt.axhline(y=1.96/np.sqrt(len(train_log_diff.dropna())),linestyle='--',color='gray')
    bc1c575637d2f72a1eaad798f66cacc4.png 9b3c59db6fc822aef056be87429c5f97.png

    AR模型

    AR模型训练及预测

    model = ARIMA(Train_log, order = (2,1,0)) 
    # 这里q值是零,因为它只是AR模型
    results_AR = model.fit(disp = -1)
    plt.plot(train_log_diff.dropna(), label='original')
    plt.plot(results_AR.fittedvalues, color='red', label='predictions')
    f23248fa1faf889fd1e7128095e8b549.png
    AR_predict=results_AR.predict(start="2014-06-25", end="2014-09-25")
    AR_predict=AR_predict.cumsum().shift().fillna(0)
    AR_predict1=pd.Series(np.ones(valid.shape[0]) * np.log(valid['Count'])[0], index = valid.index)
    AR_predict1=AR_predict1.add(AR_predict,fill_value=0)
    AR_predict = np.exp(AR_predict1)
    plt.plot(valid['Count'], label = "Valid")
    plt.plot(AR_predict, color = 'red', label = "Predict")
    plt.legend(loc= 'best')
    plt.title('RMSE: %.4f'% (np.sqrt(np.dot(AR_predict, valid['Count']))/valid.shape[0]))
    653a48268fedcf2b515bbfb4813c4e9b.png

    MA模型

    model = ARIMA(Train_log, order=(0, 1, 2))  
    # 这里的p值是零,因为它只是MA模型
    results_MA = model.fit(disp=-1)  
    plt.plot(train_log_diff.dropna(), label='original')
    plt.plot(results_MA.fittedvalues, color='red', label='prediction')
    52cde8f7e00b4649a12ea3159f571ef5.png
    MA_predict=results_MA.predict(start="2014-06-25", end="2014-09-25")
    MA_predict=MA_predict.cumsum().shift().fillna(0)
    MA_predict1=pd.Series(np.ones(valid.shape[0]) * np.log(valid['Count'])[0], index = valid.index)
    MA_predict1=MA_predict1.add(MA_predict,fill_value=0)
    MA_predict = np.exp(MA_predict1)
    
    plt.plot(valid['Count'], label = "Valid")
    plt.plot(MA_predict, color = 'red', label = "Predict")
    plt.legend(loc= 'best')
    plt.title('RMSE: %.4f'% (np.sqrt(np.dot(MA_predict, valid['Count']))/valid.shape[0]))
    91c8a15001272bf8e3546b502d3141ac.png

    ARMA模型

    model = ARIMA(Train_log, order=(2, 1, 2))  
    results_ARIMA = model.fit(disp=-1)  
    plt.plot(train_log_diff.dropna(),  label='original')
    plt.plot(results_ARIMA.fittedvalues, color='red', label='predicted')
    8b72c9b5adce6127b722860734935bd2.png
    def check_prediction_diff(predict_diff, given_set):
        predict_diff= predict_diff.cumsum().shift().fillna(0)
        predict_base = pd.Series(np.ones(given_set.shape[0]) * np.log(given_set['Count'])[0], index = given_set.index)
        predict_log = predict_base.add(predict_diff,fill_value=0)
        predict = np.exp(predict_log)
        
        plt.plot(given_set['Count'], label = "Given set")
        plt.plot(predict, color = 'red', label = "Predict")
        plt.legend(loc= 'best')
        plt.title('RMSE: %.4f'% (np.sqrt(np.dot(predict, given_set['Count']))/given_set.shape[0]))
    
    def check_prediction_log(predict_log, given_set):
        predict = np.exp(predict_log)
        
        plt.plot(given_set['Count'], label = "Given set")
        plt.plot(predict, color = 'red', label = "Predict")
        plt.legend(loc= 'best')
        plt.title('RMSE: %.4f'% (np.sqrt(np.dot(predict, given_set['Count']))/given_set.shape[0]))
        plt.show()
    
    ARIMA_predict_diff=results_ARIMA.predict(start="2014-06-25",
                                             end="2014-09-25")
    check_prediction_diff(ARIMA_predict_diff, valid)
    3118ee48932fdc4e8769be3085ca7cca.png

    SARIMAX模型

    y_hat_avg = valid.copy()
    fit1 = sm.tsa.statespace.SARIMAX(Train.Count, order=(2, 1, 4),seasonal_order=(0,1,1,7)).fit()
    y_hat_avg['SARIMA'] = fit1.predict(start="2014-6-25", end="2014-9-25", dynamic=True)
    plt.plot( Train['Count'], label='Train')
    plt.plot(valid['Count'], label='Valid')
    plt.plot(y_hat_avg['SARIMA'], label='SARIMA')
    62da7751f097debc2da3b3cffaca604c.png

    模型评价

    rms = sqrt(mean_squared_error(valid.Count, y_hat_avg.SARIMA))
    print(rms)
    70.26240839723575

    预测

    predict=fit1.predict(start="2014-9-26", end="2015-4-26", dynamic=True)
    test['prediction']=predict
    # 按日、月、年合并Test和test_original
    merge=pd.merge(test, test_org, on=('day','Month', 'Year'), how='left')
    merge['Hour']=merge['Hour_y']
    merge=merge.drop(['Year', 'Month', 'Datetime','Hour_x','Hour_y'], axis=1
    # 通过合并merge和temp2进行预测
    prediction=pd.merge(merge, temp2, on='Hour', how='left')
    # 将比率转换成原始比例
    prediction['Count']=prediction['prediction']*prediction['ratio']*24
    prediction['ID']=prediction['ID_y']
    submission=prediction.drop(['day','Hour','ratio','prediction', 'ID_x', 'ID_y'],axis=1)
    # 转换最终提交的csv格式
    pd.DataFrame(submission, columns=['ID','Count']).to_csv('SARIMAX.csv')
    cb33dc963a59b76ab789ac2aaab5f438.png

    参考资料

    [1] 

    实际序列预测方法: https://blog.csdn.net/WHYbeHERE/article/details/109732168

    
     
    
     
    
     
    
     
    
     
    往期精彩回顾
    
    
    
    
    适合初学者入门人工智能的路线及资料下载机器学习及深度学习笔记等资料打印机器学习在线手册深度学习笔记专辑《统计学习方法》的代码复现专辑
    AI基础下载黄海广老师《机器学习课程》视频课黄海广老师《机器学习课程》711页完整版课件

    本站qq群955171419,加入微信群请扫码:

    aef516091ebfbc2c5a198bb305ad3e27.png

    展开全文
  • 代码 基于小波神经网络的短时交通流量时间序列预测程序代码 基于小波神经网络的短时交通流量时间序列预测程序代码 基于小波神经网络的短时交通流量时间序列预测程序代码 基于小波神经网络的短时交通流量时间序列预测...
  • 随着机器学习和数据挖掘各种理论的不断提出及完善,机器学习和数据挖掘与交通流量预测的结合是智能交通系统未来发展的一个重要方向。本文利用SVM(supportvectormachine)构建了短时交通流量预测模型,并利用遗传算法...
  • 基于深度学习的短时交通预测与优化

    千次阅读 热门讨论 2022-02-13 19:24:38
    基于深度学习的短时交通预测与优化摘要第一章 背景介绍第二章 数据预处理与短时交通流量特性分析2.1 数据来源2.3 短时交通流特性分析2.3.1 基于K-means的差异性分析2.3.2 基于变化率趋势的时间邻近性分析2.3.3 ...
  • 本文基于马樱博士《基于机器学习的软件缺陷预测技术研究》归纳总结而成,不具备论文作用,仅为学校交流 中文摘要 自过去几十年来,软件规模不断扩大,计算机程序设计变得更加复杂,软件规模显著增长,不同大小...
  • 交通事故等级预测(附代码

    千次阅读 2022-03-21 10:18:52
    有做高速公路事故预测的小伙伴都可以看一看,保证有收获。
  • 公共自行车低碳、环保、健康,并且解决了交通中“最后一公里”的 痛点,在全国各个城市越来越受欢迎。本练习赛的数据取自于两个城市某 街道上的几处公共自行车停车桩。我们希望根据时间、天气等信息,预测 出该街区...
  • 序言 背景:随着城市的发展和人口的聚集,公共交通旅行问题变...基于预测的时间范围,客流预测可以大致分为三类:长期预测,中期预测和短期预测。中期和长期客流预测通常具有未来3到15年的预测范围,而短期客流预...
  • 交通 流量 时间序列预测 神经网络 机器学习 BPNN 代码 MLR MLP LSTM 深度学习 数据+程序+分析报告 MATLAB 源码
  • matlab代码做游戏机器学习项目 挑战:学习机器学习的基础 动作: 概念:线性回归,逻辑回归,正则化,神经网络,支持向量机,降维,主成分分析,k均值聚类,异常检测,推荐系统,大规模机器学习 工具:Matlab /八度 ...
  • 机器学习(二)多元线性回归算法预测房价 “garbage in garbage out”(简称GIGO),是计算机术语常用的俚语,意思是如果你输入错误的数据,那么(计算机)输出的结果也是错误的。这个结论在机器学习领域也成立。...
  • KNN(K近邻算法) 基础理解 面对这个算法需要蹦出来几个问题:KNN是什么?可以解决什么问题?怎么实现?有什么优缺点? 首先,KNN我们通常称之为K近邻算法,通俗的理解便是...代码实现:(Github处于外网,所以我在这里
  • 机器学习应用博客中,将核心介绍三大类学习,即:无监督学习、监督学习、强化学习。 本篇将简要介绍: 1.监督学习概念(最常应用场景:分类和回归) 2.分类——k近邻分类器、决策树、朴素贝叶斯(人体运动状态预测)...
  • 该文档是无人驾驶项目中,交通标志识别任务代码,以LeNet构建深度神经网络,具体技术包括:探索和可视化数据集;数据预处理;LeNet构建、训练和测试模型架构;采用该模型对新图片进行预测;分析新图片的softmax概率...
  • data = np.genfromtxt(r'C:\Users\86493\Desktop\北理工机器学习慕课数据\回归\岭回归.txt', delimiter=',') #使用numpy的方法从txt文件中加载数据 plt.plot(data[:,4]) #使用plt展示车流量信息,如右图 plt....
  • 机器学习教程 - 分步指南

    千次阅读 2021-12-10 20:24:07
    机器学习 (ML)是技术领域最受关注的话题之一。如果你已经了解机器学习和相关技术的基础知识以及它的应用领域,本文将对这些知识进行补充。如果你还不熟悉机器学习,本教程中涵盖的基础知识会帮你快速上手。文章较长...
  • 内蒙古草地生产力时空分析及产草量遥感估算和预测 双支路深度神经网络下的遥感图像配准及多分辨率融合分类 可见光遥感图像海面目标自动检测关键技术研究 可见光遥感图像海面舰船目标检测技术研究 基于区域...
  • Temporal Graph Convolutional Network for Urban Traffic Flow Prediction Method
  • 全文共4004字,预计学习时长8分钟 来源:Pexels 近年来,交通事故频繁发生。如果你和笔者一样常年居住在大都市,那么可能你也听说过,或是亲眼见到过事故现场,甚至曾卷入到某次交通事故中去。由于发生频率极高...
  • 文章目录1 概述2 灰色关联预测分析GM(1,1)通常可分为以下四个步骤3 一健操作步骤结果解读其他说明4 python代码 1 概述 灰色预测模型可针对数量非常少(比如仅4个),数据完整性和可靠性较低的数据序列进行有效...
  • 机器学习和数据挖掘算法使用统计,优化和计算机科学领域的技术来创建自动化系统,该系统可以高速筛查大量数据,而无需人工干预即可做出预测或决策。 如今,机器学习已成为一个不可思议的领域,其应用范围从网络...
  • 深度学习多变量时间序列预测:Encoder-Decoder LSTM算法构建时间序列多变量模型预测交通流量+代码实战 LSTM是一种时间递归神经网络,适合于处理和预测时间序列中间隔和延迟相对较长的重要事件。在自然语言处理、...
  • 机器学习目录

    千次阅读 2022-04-22 00:17:47
    在未来几个月时间里,将会逐步针对先前整理的博客文章进行分类归纳,并建立成为学习专栏区。内容将会重点从理论算法,推导过程,应用阶段,项目实战几个维度进行整理。...如下为整理的机器学习的查阅目录

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 7,535
精华内容 3,014
关键字:

机器学习交通预测代码

友情链接: gethtml0.zip