-
摘要: 面向机载LiDAR数据的道路提取算法的常用数据结构存在局限: 2D格网及TIN表达多次回波数据时存在的信息损失会影响提取结果的完整性且提取结果为2D形式; 点云的空间结构及拓扑信息难以利用, 由此导致算法设计的困难.为此, 提出了一种基于灰度体元模型的3D道路提取算法.算法首先将LiDAR数据规则化为灰度体元模型(灰度为体元内LiDAR点的平均强度值的量化表示); 然后选取道路种子体元进而搜寻并标记种子及其3D连通区域为道路体元; 最后利用数学形态学优化提取结果.基于ISPRS提供的包含不同复杂程度的城区路网LiDAR数据测试"邻域尺度"和"灰度差阈值"参数的敏感性及提出的算法的精度.实验结果表明: 56邻域为最佳邻域尺度、2为最佳灰度差阈值; 道路提取的平均质量、完整度及正确率分别为70%、86.77%及81.13%;对相对平坦的单层路网及起伏较大的复杂路网均可成功提取.Abstract: 2D grid, TIN and point cloud, which are the commonly used methods to represent LiDAR data for road extraction, have defects, for example, it is difficult for 2D grid and TIN to represent multiple return LiDAR data and thus influences the integrity of grid and TIN-based road extraction results and their extraction results are 2D, it is difficult for point cloud to use its topological and adjacent information and thus leads to the difficulty in the design of point-based road extraction algorithm. To overcome these restrictions, a grayscale voxel model (GVM) based 3D road extraction algorithm is presented. LiDAR data are regularized into GVM in which the grayscale of a voxel corresponds to the quantized mean intensity of the LIDAR points within the voxel. Road seed voxels are selected and then seeds and their 3D connected regions are labeled as road voxels. The extracted road result is optimized using mathematical morphology. ISPRS urban LiDAR datasets, which are representative of road networks of different complexities, are used to analyze the sensitivity of "adjacency size" and "intensity difference threshold" parameters and assess the accuracy of the proposed algorithm quantitatively. The experiment results indicate that: 1) 56-adjacency is the optimal adjacency size and 2 is the optimal intensity difference threshold; 2) The average quality, completeness and correctness of road extraction were 70%, 86.77% and 81.13%, respectively; 3) Roads in the relatively flat single layer road network and the undulating complex road network can both be successfully extracted.
-
Key words:
- LiDAR /
- road extraction /
- grayscale voxel model /
- intensity /
- 3D
-
目前, 自动驾驶汽车正在由测试示范逐步迈入量产商用阶段的过程中[1], 保证自动驾驶在实际交通环境中安全运行是商用上路许可的关键[2]. 自动驾驶上路前需经过数十亿英里的安全性测试[3], 由于传统的道路、场地测试受测试效率、成本、场景等的限制, 已经难以满足自动驾驶汽车测试的需求[4]. Riedmaier 等[5]和 Sun 等[6]分别分析了各类基于场景的自动驾驶汽车安全评估的方法, 其中虚拟仿真测试方法利用数字虚拟仿真技术模拟真实的测试场景[7], 可以为自动驾驶测试提供丰富多样的测试场景, 在测试效率、成本方面具有显著的优势, 已成为一种重要的自动驾驶测试验证手段[8].
在虚拟仿真测试中, 场景是对真实交通运行过程中人、车、路和环境的抽象描述. ISO 21448 标准中 SOTIF 从功能安全的角度将自动驾驶场景分为已知安全场景、已知危险场景、未知安全场景和未知危险场景[9]. 现实中安全关键场景和罕见风险事件覆盖率较低[10], 为了实现自动驾驶的全方位测试,希望能够通过虚拟仿真技术, 利用有效的场景生成方法, 生成危险场景, 发现被测系统的未知危险场景, 明晰自动驾驶系统安全场景边界, 提高自动驾驶的安全性.
邓伟文等[11]系统性地综述了自动驾驶的仿真场景自动生成方法. 现有场景生成方法可分为数据驱动、模型驱动和数据−模型驱动 3 类. 在数据驱动的危险变道场景生成方面, 陈吉清等[12]基于车辆事故数据, 提出一种考虑危险事故特征的测试场景构建方法, 建立了 15 个涉及道路几何特征的自动驾驶测试场景. 王润民等[13]系统地阐述了测试场景、场景要素、基元场景之间耦合的逻辑关系. 朱冰等[14]提出一种多维逻辑场景的自动驾驶安全性评价聚类方法, 并以前车紧急制动场景验证了聚类方法的可行性. 基于模型驱动的场景生成方法方面, Menzel 等[15]提出一种基于本体论的高速公路场景建模方法, 构建了包含道路层次、交通基础设施、临时操作、对象和环境的 5 层次知识表示模型, 用类、逻辑公理和语义 Web 规则实现了对德国高速公路的建模. Jesenski 等[16]提出了一个可以描述任意道路配置场景的通用模型, 考虑相关车道路段的车辆之间相互作用, 设计一个层次采用分析框架, 利用公开数据集拟合了模型参数, 并推断出交通场景. 基于数据−模型驱动的危险场景生成方法方面, Ding 等[17]提出一种自适应安全关键场景生成方法, 将场景分解为条件概率, 将概率称作构建块, 用一系列自回归构建块来表示交通场景, 利用策略梯度强化学习方法对风险场景参数进行搜索优化.
相邻车道前方车辆变道切入是常见的高风险场景, 也是各类生成方法研究的主要目标场景. 目前, 危险变道场景生成主要基于数据−模型驱动的方法. Feng 等[18-20]提出了一种智能网联汽车测试场景库生成统一框架, 并采用多启动优化方法获得局部关键场景, 利用两车纵向距离、相对速度以及碰撞时间等参数, 生成了变道场景. 周文帅等[21]利用 highD 数据集, 建立了车辆变道切入描述模型, 提出了基于蒙特卡罗的测试用例生成方法. 上述方法仅仅考虑变道场景中两车关系的特征参数, 无法精确描述人驾车辆变道切入的运动状态, 难以构建动态测试场景. Sun等[22]提出了一种评估自动驾驶安全性的自适应实验设计方法, 智能驾驶员模型和三阶贝塞尔曲线被用来描述背景车辆变道切入轨迹. 基于确定模型的轨迹生成方法计算简单, 但生成轨迹数量有限, 并且难以生成符合驾驶员特征的紧急变道轨迹. 朱宇等[23]构建两车轨迹约束关系模型, 以变道轨迹起始位置、变道车速度、两车距离、两车相对速度、变道切入时刻为参数, 利用蒙特卡罗方法模拟车辆采样时间的车辆位置, 最终形成了变道轨迹. 但这种方法利用相对位置作为参数, 同一场景状态下生成的变道轨迹切入点是相同的, 这并没有增加生成变道轨迹的风险程度, 只是增加了变道切入轨迹的数量.
现有变道场景生成方法通过优化变道场景参数或生成背景车辆运动轨迹来构建危险测试场景, 但是为了满足自动驾驶高风险场景测试的需求, 面向自动驾驶决策规划控制系统测试, 构建动态危险变道测试场景, 还需要解决的问题包括: 1) 如何生成符合人驾车辆特征的不同切入角度的风险变道轨迹? 生成变道轨迹需要满足真实环境中的车辆动力学约束, 并接近真实驾驶人操纵下的车辆轨迹特征, 但又要在同一初始状态下生成不同切入角度的变道轨迹, 增加生成变道场景覆盖度; 2) 如何利用不同风险的背景车变道轨迹构建可从理论上避免的风险临界测试场景? 为了避免产生不切实际的危险场景, 需要根据车辆动力学和物理极限, 构建安全边界模型, 结合背景车不同切入角度, 生成理论上可避免的风险临界测试场景.
因此, 本文针对自动驾驶虚拟测试动态危险变道场景生成问题, 提出一种基于数据−模型驱动的自动驾驶测试危险场景泛化生成方法. 基于 NGSIM US101 数据集中的紧急变道数据, 提出一种考虑人驾车辆特征的紧急变道轨迹对抗生成方法 (Batch normalization-attention mechanism-sequence generative adversarial nets with policy gradient, BN-AM-SeqGAN), 构建基于安全距离的两车变道状态约束模型, 计算风险临界场景下的被测自动驾驶车辆初始状态, 提出危险场景泛化生成算法, 生成危险变道测试用例, 形成变道危险测试场景库.
1. 变道场景数据
本文使用美国 NGSIM US101 DATA 公开数据集, 该数据集收集了如图1所示高速公路车辆的行驶数据, 该路段由 5 个主线车道和 1 个辅助车道组成. 记录了以 0.1 s 为时间周期的车辆位置、车辆长度、瞬时速度、瞬时加速度、车道编号等信息, 前期团队研究了变道行为识别方法, 已经从数据集中识别出 1 740 条变道行为[24], 根据文献[25]对紧急变道工况持续时间的统计分布研究, 紧急变道行为指变道车辆从变道开始到变道完成所需时间小于 2 s, 因此, 本文在前期研究形成的变道轨迹数据集的基础上, 筛选出了变道时间小于 2 s 的变道轨迹数据, 形成了由 511 条紧急变道轨迹构成的数据集, 并把变道起始位置点坐标进行归零处理. 选取一条紧急变道轨迹, 其位置、速度和加速度轨迹如图2所示, 绿色虚线间的数据表示选取的紧急变道数据. 在提取到的紧急变道轨迹数据集中, 变道完成时间在 1.4 s 到 2 s 之间的场景占所有场景的 70%. 本文提取的真实变道轨迹数据的平均值、最大最小值、方差、标准差如表1所示.
表 1 真实数据的数据特征Table 1 Data characteristics of real data变量 平均值 方差 标准差 最小值 最大值 运动状态 速度 (m/s) 13.60 3.69 1.92 13.60 22.80 纵向加速度(m/s2) 0.21 0.53 0.73 −5.70 5.90 横向加速度(m/s2) 0.06 0.26 0.51 −5.01 5.93 位置分布 变道后纵向位置(m) 352.42 22 300.38 3149.33 45.56 663.51 变道后横向位置(m) 11.32 23.03 4.80 2.49 19.04 紧急变道轨迹数据集中变道背景车的速度均值和标准差分别如图3和图4所示. 其中变道背景车平均速度取值范围为 1 m/s ~ 23 m/s, 91% 的变道背景车平均速度的标准差均低于 0.4 m/s.
2. 基于 BN-AM-SeqGAN 的紧急变道轨迹生成方法
变道轨迹数据是一系列离散的序列数据, 序列生成对抗网络 (SeqGAN) 可以有效学习序列数据特征, 生成高相似度的序列数据[26], 因此, 本节提出一种基于 SeqGAN 网络的变道轨迹生成方法.
本文对变道轨迹坐标进行了归一化处理, 横向方向的位置变化和纵向方向的速度变化最能表征变道轨迹特征, 并且纵向速度是位置关于时间的导数,因此在生成数据时考虑变道车在$ x $轴方向上的速度$ v_x $和$ y $轴方向的位置$ y $. 真实紧急变道车辆状态轨迹可以表示为集合${L}=\{{L}_{{1}},\cdots,{L}_{{i}},\cdots, {L}_{{511}}\}$, 其中第$ i $条变道状态轨迹${{L}_i}=\{{l}_{{1}}^{{i}},\cdots,{l}_{{n}}^{{i}},\cdots, {l}_{{N}}^{{i}}\}, N$表示变道轨迹的序列长度, 本文设置为 20, ${L}_{{i}}\in {L}, {l}_{{n}}^{{i}}=(y_n^i;\; v_{xn}^i)$表示变道的横向位置和纵向速度.
2.1 SeqGAN 的背景介绍
SeqGAN 是一种由$ \theta $参数化的生成器$ G_\theta $和$ \varphi $参数化的判别器$ D_\varphi $两部分组成[27]的序列生成对抗网络. 生成器$ G_\theta $学习真实序列数据的数据特征, 并合成新的序列数据样本; 判别器$ D_\varphi $对输入的数据进行分类, 判别输入数据是真实数据还是生成数据, 两个模块进行博弈直到达到平衡点[28], 其结构图如图5所示. 判别器$ D_\varphi $(图5左侧) 在真实数据和生成数据上进行训练, 生成器$ G_\theta $(图5右侧) 通过策略梯度进行训练. 训练过程中奖励信号由判别器提供, 并通过蒙特卡罗搜索传递回中间值. 生成器生成序列表示为${S}_{{{\rm{HV}}}}=\left\{{S}_{{{\rm{hv}}}}^{{1}},\cdots,{S}_{{{\rm{hv}}}}^{{m}},\cdots,{S}_{{{\rm{hv}}}}^{{M}}\right\},$其中 M表示生成轨迹的总数, 生成的第$ m $条轨迹表示为${S}_{{{\rm{hv}}}}^{{m}}=\{{s}_{{1}}^{{m}},\cdots,{s}_{{n}}^{{m}},\cdots,{s}_{{N}}^{{m}}\}$, 其中 ${s}_{{n}}^{{m}}=(y_n^m; \;v_{xn}^m), {s}_{{n}}^{{m}} \in S,S$是生成器可用候选数据. 生成器生成第$ m $条轨迹的状态$ \ {z}_{{n}-{1}}=\left\{{s}_{{1}}^{{m}},\cdots,{s}_{{n}-{1}}^{{m}}\right\}, $表示当前生成的序列, 动作是下一个要选择的数据$ {s}_{{n}}^{{m}} $.
生成器$ G_\theta $的目标是从当前状态$ {z}_{{n}-{1}} $生成一个序列, 以最大化其预期的结束奖励$ J\left(\theta\right) $, 判别器为蒙特卡罗搜索补全的完整序列提供奖励值, 迭代更新生成器. 预期的结束奖励如式 (1) 所示.
$$ \begin{split} J\left(\theta\right)&={\rm{E}}\left[R_N|{z}_{{n}-{1}},\theta\right]=\\ & \sum\limits_{{{s}_{{n}}^{{m}}\in S}} G_\theta\left({s}_{{n}}^{{m}}|{z}_{{n}-{1}}\right)\cdot Q_{D_{\varphi}}^{G_{\theta}}({z}_{{n}-{1}},{s}_{{n}}^{{m}})\end{split}$$ (1) 其中$ R_N $是判别器对一个完整序列的奖励, $ {z}_{{n}-{1}} $表示当前状态, $ \theta $表示生成器的策略, $ Q_{D_\varphi}^{G_\theta} $是一个序列的动作值函数, 即从状态$ {z}_{{n}-{1}} $开始, 采取行动$ \ {s}_{{n}}^{{m}} $, 然后遵循策略$ G_\theta $计算预期累积奖励.
SeqGAN 以长短时记忆网络 (Long short-term memory, LSTM) 作为生成器, 卷积神经网络 (Convolutional neural network, CNN) 作为判别器. 生成器基于策略梯度方法针对判别器获得新的奖励$ J(\theta) $对参数$ \theta $进行优化, 以直接最大化长期回报. SeqGAN 对第 m 条序列$ {S}_{{{\rm{hv}}}}^{{m}} $的训练模型如式 (2) 所示, 其中, $ p_{\rm{data}} $和$ p_{G_\theta} $分别表示真实样本序列数据的概率分布和生成样本序列数据的概率分布, $ I $表示生成器和判别器的收益.
$$ \begin{split} &\min_{{G_{\theta}}}{\max_{D_{\varphi}}{I (G_{\theta},D_{\varphi}})} ={\rm{E}}_{{S}_{{{\rm{hv}}}}^{{m}}\sim p_{G_\theta}}[\ln(1-D_\varphi({S}_{{{\rm{hv}}}}^{{m}}))]+\\ &\quad\qquad {\rm{E}}_{{S}_{{{\rm{hv}}}}^{{m}}\sim p_{{{\rm{data}}}}}[\ln D_\varphi({S}_{{{\rm{hv}}}}^{{m}})]\\[-10pt] \end{split} $$ (2) 2.2 基于 BN-AM-SeqGAN 的轨迹生成方法
为了解决 SeqGAN 收敛速度慢、轨迹生成准确性低的问题, 本文分别对 SeqGAN 的生成器和判别器进行优化, 提出一种 BN-AM-SeqGAN 方法, 其结构图如图6所示.
生成器部分展示了对 LSTM 的改进, 生成器中真实数据$ {l}_{{n}} $输入到批标准化(Batch normalization, BN)后的 LSTM 网络中, $ \sigma $表示sigmoid激活函数, $ tanh $表示激活函数, $ c $表示细胞状态, $ BN(\cdot) $表示批标准化操作, $ h_n $表示隐藏层的信息. 判别器在 CNN 的卷积层前后分别加入了注意力机制. BN-AM-SeqGAN 的算法步骤见算法 1.
算法 1. BN-AM-SeqGAN
1)输入: 生成器$ {G_\theta} $, 判别器$ {D_\varphi} $, 蒙特卡罗策略$ {G_\beta} $, 变道轨迹序列数据${L}={{L}_{{1}},\cdots,{L}_{{i}},\cdots,{L}_{{511}}}$
2)对$ {D_\varphi} $中卷积神经网络的卷积层前后分别加上注意力机制
3)对$ {G_\theta} $的 LSTM 网络中权重参数进行批标准化处理
4)使用变道轨迹原始数据训练 LSTM 网络并将训练好的网络参数替换 Oracle 数据库的参数
5)初始化$ {G_\theta,D_\varphi} $的参数
6)使用最大似然估计预训练$ {G_\theta} $
7)将训练好的$ {\theta} $参数赋值给$ {\beta} $
8)使用交叉熵预训练$ {D_\varphi} $
9)重复
训练$ {g} $次
$ G_\theta $生成一个变道轨迹序列$ {S}_{{N}} $
for$ k $in 1:20
利用式 (1) 计算奖励值$ J(\theta) $
使用策略梯度方法优化$ G_\theta $的参数
训练$ d $次
使用当前生成器生成一系列轨迹数据, 结合原始变道轨迹序列, 训练优化$ D_\varphi $
将训练好的$ \theta $参数赋值给$ \beta $
直到 BN-AM-SeqGAN 网络收敛.
2.3 BN-AM-SeqGAN 生成器优化
原始 SeqGAN 的生成器的 LSTM 网络由输入门、遗忘门、输出门构成, 在 LSTM 网络训练的过程中存在损失放大的问题, 从而造成生成数据不准确, 批标准化可以降低损失放大的程度. 本文在生成器的 LSTM 网络引入了批标准化操作, 优化后的生成器可以有效地降低后面几层的损失. 批标准化包含平移参数和放缩参数, 通过修改参数的值可以控制归一化之后的范围, 批标准化具体过程如算法 2 所述.
算法 2. 批标准化 BN
1) 输入: 生成的第$ m $条变道轨迹坐标的${\rm{batch}}\{{s}_{{1}}^{{m}},\cdots, {s}_{{n}}^{{m}},\cdots,{s}_{{N}}^{{m}}\}$, 批标准化的参数$ \gamma $、$ \beta $
2) 计算每个 batch 的均值$ \mu $和方差$\sigma, \mu=\frac{1}{N}\sum_{n=1}^{N}s_{{n}}^{{m}}, \sigma^2=\frac{1}{N}\sum_{n=1}^{N}{({s}_{{n}}^{{m}}-\mu)}^2$
3) 对变道轨迹坐标值进行BN操作, 其中$ \epsilon $的值是为了防止分母为零, 使用参数$ \gamma $、$ \beta $对 BN 后的数据进行平移和放缩
$$ \hat{{s}}_{{n}}^{{m}}=\frac{{s}_{{n}}^{{m}}-\mu}{\sqrt{\sigma^2+\epsilon}} $$ 4) 得到结果${out}_n=\gamma\hat{{s}}_{{n}}^{{m}}+\beta$
优化的生成器对每个激活函数的输入数据进行批标准化运算, LSTM 网络经过优化可以维持输入数据分布的稳定性, 方便网络的训练, 使生成模型更快收敛. 假设当前的输入是$ {s}_{{n}}^{{m}} $, 优化后的生成器模型中遗忘门$ f_n $可以表示为:
$$ \begin{array}{*{20}{l}} f_n=\sigma(BN(W_f\cdot [h_{n-1},{s}_{{n}}^{{m}}])+b_f) \end{array} $$ (3) 其中$ W_f $表示遗忘权重, $ h_{n-1} $表示前一层的隐藏状态, $ {s}_{{n}}^{{m}} $表示当前输入的内容, $ b_f $表示遗忘门偏置项. 输入门由两个模块组成, 一个模块将筛选的数据信息保存到记忆细胞中, 如式(4)所示:
$$ \begin{array}{*{20}{l}} i_n=\sigma(BN(W_i\cdot[h_{n-1},{s}_{{n}}^{{m}}])+b_i) \end{array} $$ (4) 其中$ W_i $表示输入权重, $ b_i $表示输入偏置项. 另一个模块把当前时刻传递的数据信息保存到记忆细胞$ {\widetilde{c}_n} $中, 如式(5)所示:
$$ {\widetilde{c}_n}={tanh}(BN(W_c\cdot[h_{n-1},{s}_{{n}}^{{m}}])+b_c) $$ (5) 其中$ W_c $和$ b_c $分别表示记忆细胞权重和记忆细胞偏置项, $ {tanh} $表示激活函数. 新的记忆细胞$ c_n $由遗忘门$ f_n $和输入门$ i_n $更新, 如式(6)所示:
$$ c_n=f_n\cdot{c_{n-1}}+i_n\cdot{\widetilde{c}_n} $$ (6) 输出门$ O_n $计算需要输出的信息, 传递隐藏状态$ h_n $, 如式(7)和式(8)所示:
$$ \begin{array}{*{20}{l}} O_n=\sigma(BN(W_o\cdot[h_{n-1},{s}_{{n}}^{{m}}])+b_o) \end{array} $$ (7) $$ \begin{array}{*{20}{l}} h_n=O_n\cdot{tanh}(BN(c_n)) \end{array} $$ (8) 其中$ W_o $和$ b_o $分别表示输出门权重和记忆细胞偏置项, $ h_{n-1} $表示上一时刻的隐藏状态. 最后使用$ softmax $函数将隐藏状态$ h_n $转换为概率分布, 用来生成近似真实数据的轨迹数据.
生成器通过蒙特卡罗树搜索将生成的部分序列数据补充完整, 判别器对完整的序列数据进行评估进而优化生成器中的参数, 当前隐藏状态遗忘权重$ h_n $继续执行 LSTM 网络.
2.4 BN-AM-SeqGAN 判别器优化
原始的 SeqGAN 判别器的特征提取层是一个 CNN, 包括输入层、卷积层、池化层, 引入了注意力机制, 在特征提取层的卷积层前后加入了注意力层, 保证数据在可控范围内变动, 提高 CNN 提取高维特征向量的准确性, 改善序列生成的质量.
将序列数据注入到判别器后, 由第一个注意力层利用自注意力机制对传入序列的特征加以鉴别和整合, 放缩参数为$ H=32 $, 传入序列数据的长度为$ N=20 $, 传入的序列数据将被表示为$ N\times H $的矩阵, 注意力层对矩阵进行处理之后, 矩阵大小仍然为$ N\times H $.
卷积层主要利用卷积核在注意力层处理后的矩阵上做点积运算, 提取真实数据的数值特征, 以便计算生成数据与真实数据的差异.
第二个注意力层的操作是利用放缩参数大小为$ m=64 $的自注意力机制处理所有卷积核, 自注意力机制可用式 (9) 表示.
$$ Attention(Q,K,V)=softmax\left(\frac{QK^N}{\sqrt m}\right)V $$ (9) 式中$ Q $表示当前 Query 的矩阵, $ K $表示 Key 的矩阵, $ V $表示 Value 的矩阵, 其中$ {Q=K=V} $, $ Q $取值为数据的概率分布矩阵. 当输入一个变道轨迹坐标序列, 里面的每个坐标点需要和序列中的所有坐标点进行注意力权重参数计算, 然后把权重参数乘以对应的词输出结果. 这样做的目的是可以学习到坐标序列内部坐标点之间的依赖关系, 获得序列的结构信息.
池化层和分类层分别对特征向量进行降维、关键特征提取和分类, 最后将得到的结果传递给生成器以优化生成器的参数.
2.5 损失函数
对于生成器来说, 预训练和对抗训练过程中使用的损失函数是不一样的, 在预训练过程中, 生成器使用的是交叉熵损失函数, 而在对抗训练过程中, 使用的则是策略梯度中的损失函数, 即对数损失乘以奖励值, 可用式 (10) 表示.
$$ \begin{split} &\mathrm{\nabla}_\theta J\left(\theta\right)=\sum_{n=1}^{N}{\rm{E}}_{{L}_{{1}:{n}-{1}}^{{i}}\sim G_\theta}\Bigg[\sum_{{l}_{{n}}^{{i}}\in {L}^{{i}}}{\mathrm{\nabla}_\theta{G}_\theta}\left({l}_{{1}}^{{i}}\middle|{L}_{{1}:{n}-{1}}^{{i}}\right)\cdot\\ &\;\;\;\;\;\;\;\; Q_{D_\varphi}^{G_\theta}\left({L}_{{1}:{n}-{1}}^{{i}},{l}_{{1}}^{{i}}\right)\Bigg] \\[-15pt] \end{split} $$ (10) 其中, $ {L}_{{1}:{n}-{1}}^{{i}} $表示生成的第$ i $条车辆轨迹的$ n-1 $个值, $ {l}_{{n}}^{{i}} $表示生成第$ n $个值.
判别器在预训练和对抗训练过程中的损失函数是一样的, 使用交叉熵作为分类和预测任务的目标函数, 使用对数损失函数来训练判别器, 损失函数$ {f_\varphi} $可用式 (11) 表示:
$$ \begin{split} f_{\varphi}=\;&\min_{\varphi}(-{\rm{E}}_{{L}\sim p_{\rm{data}}}\left[\ln D_{\varphi}\left({L}\right)\right]- \\ &{\rm{E}}_{{L}\sim G_\theta}[\ln(1-D_\varphi({L}))]) \end{split} $$ (11) 其中$ p_{\rm{data}} $表示真实样本序列数据的概率分布.
本文使用原始数据作为评估度量, 使用最小平均负对数似然作为生成序列的损失值, 如式 (12) 所示, 在生成数据实验中 NLL 值越小说明生成效果越好.
$$ NLL=-{\rm{E}}_{{L}_{{1}:{N}}^{{i}}\sim G_\theta}\left[\sum\limits_{n=1}^{N}{\ln P\left({l}_{{1}}^{{i}}\middle|{L}_{{1}:{n}-{1}}^{{i}}\right)}\right] $$ (12) 其中$ P({l}_{{1}}^{{i}}|{L}_{{1}:{n}-{1}}^{{i}}) $表示第$ i $条原始变道轨迹的概率分布.
3. 基于碰撞约束的场景泛化生成方法
3.1 基于碰撞约束的被测自动驾驶车辆初始状态生成
在背景车辆紧急变道轨迹生成之后, 为了构建危险测试场景, 需要生成被测自动驾驶车辆在场景初始时刻的状态. 本文利用背景变道车辆和被测车辆间的运动安全约束, 推算了危险临界场景下被测自动驾驶车辆在场景初始时刻的状态, 构建了危险测试场景. 被测自动驾驶车辆与变道背景车不发生碰撞的临界条件是指当变道背景车完成变道时, 被测自动驾驶车辆经过一定的制动恰好与变道背景车辆保持相同速度, 并且保持最小距离.
人驾背景车辆的制动阶段分为 3 个部分, $ t_1 $制动反应时间的匀速运动阶段、$ t_2 $时间段的变减速运动阶段和$ t_3 $时间段的匀减速运动阶段. 被测自动驾驶车辆与人驾背景车辆相比, $ t_1 $制动反应时间很小, 可以忽略不计[29], 整个制动过程的时间为$ t $, 与变道背景车完成变道的时间相等, 因此, 本文考虑的制动时间$ t $由$ t_2 $和$ t_3 $两部分组成.
被测自动驾驶车辆制动过程与变道背景车辆的相对距离与相对速度的变化可由式 (13) ~ 式 (16) 表示, 其中$ \mathrm{\Delta}v $表示被测自动驾驶车辆与变道背景车的纵向相对速度, $ a_{\max} $表示被测自动驾驶车辆制动时的最大加速度, $ d_1 $表示被测自动驾驶车辆相对变道背景车在纵向上行驶的距离, $ v_{\rm{c}} $表示变减速结束之后被测自动驾驶车辆的速度, 变减速阶段被测自动驾驶车辆行驶的相对距离[29]可用式 (13) 表示, 在计算时由于$ t_2 $很小, 可以只考虑前一项. 匀减速完成后相对速度减为 0, 匀减速阶段被测自动驾驶车辆行驶的相对距离可用式 (15) 表示.
$$ {d_1}=\frac{1}{2} \Delta v t_2-\frac{t_2{ }^2 a_{\max }}{24} $$ (13) $$ v_{\rm{c}}=\Delta v-\frac{1}{2} a_{\max } t_2 $$ (14) $$ d_2=\frac{v_{\rm{c}}^2}{2 a_{\max }}=\frac{1}{2} a_{\max } t_3{ }^2 $$ (15) $$ \begin{array}{*{20}{l}} v_{\rm{c}}=a_{\max } t_3 \end{array} $$ (16) 典型危险变道测试场景如图7所示, 其中$ d_{\min} $是最小安全距离, $ d_{\rm{h}} $表示被测自动驾驶车辆行驶的距离, $ d_{\rm{t}} $表示变道背景车行驶的距离, $ v_{\rm{av}} $表示被测自动驾驶车辆的初始速度, $ v_{\rm{hv}} $表示变道背景车的速度, $ l $表示车长. 被测自动驾驶车辆以最大减速度紧急制动, 变道背景车完成变道的同时被测车辆完成制动, 两车相对静止 (不发生碰撞的临界条件), 被测车车头接近前车车尾, 制动过程中存在如下公式.
$$ \left\{\begin{aligned} &d_{\min }+d_{\rm{t}}=d_{\rm{h}}+l \\ &d_{\min }=d_1+d_2+l \\ &\Delta v=v_{\rm{av}}-v_{\rm{hv}} \end{aligned}\right. $$ (17) 结合式 (13) ~ 式(17) 可以求出最小安全距离$ d_{\min} $和被测自动驾驶车辆初始速度$ v_{\rm{av}} $如下:
$$ \begin{split} d_{\min}=\;&d+l=\frac{1}{2}\left(a_{\max}t_3+\frac{1}{2}a_{\max}t_2\right)t_2\;+\\ & \frac{1}{2}a_{\max}{t_3}^2+l \end{split} $$ (18) $$ v_{\rm{av}}=v_{\rm{hv}}+a_{\rm{max}}t_3+\frac{1}{2}a_{\rm{max}}t_2 $$ (19) 根据《公路工程技术标准》[30]给出的车辆安全行驶时的横向安全距离计算式如下:
$$ \begin{array}{*{20}{l}} d_{\rm{L}}=0.000066(v_{\rm{av}}^2-v_{\rm{hv}}^2)+1.49 \end{array} $$ (20) 其中, $d_{\rm{L}}$是被测自动驾驶车辆与变道背景车的初始横向距离. 本文将变道背景车的初始位置进行了归一化处理, 因此被测车纵向位置表示为$ x_{\rm{av}}=-d_{\min} $, 横向位置表示为$y_{\rm{av}}=d_{\rm{L}}$, 从而得到被测车的初始状态$ (x_{\rm{av}};y_{\rm{av}};v_{\rm{av}}) $.
3.2 危险变道测试场景泛化生成方法
为了能大规模生成危险变道测试场景, 本节在被测自动驾驶车辆初始状态生成方法的基础上, 介绍危险变道测试场景泛化生成.
首先对NGSIM US101 Data 数据集中的变道轨迹进行预处理, 筛选出紧急变道轨迹, 并将每条变道轨迹的起始点坐标进行归一化处理, 再利用算法 1 生成并筛选新的变道轨迹, 在碰撞约束条件下计算每条变道轨迹对应的被测自动驾驶车辆的初始状态, 在第 1 节中介绍了变道场景数据的特征, 因此本文采用生成变道背景车辆的平均速度计算被测自动驾驶车辆初始状态. 变道数据与对应的被测车初始状态构成危险变道测试场景. 具体危险变道测试场景泛化生成方法如算法 3 所示. 其中, 被测车初始状态集 $ {S}_{{{\rm{AV}}}}={{S}_{{{\rm{av}}}}^{{1}},\cdots,{S}_{{{\rm{av}}}}^{{m}},\cdots,{S}_{{{\rm{av}}}}^{{M}}} $, 其中第$ m $条变道轨迹对应的被测车初始状态$ {S}_{{{\rm{av}}}}^{{m}}=(x_{{\rm{av}}}^m;y_{{\rm{av}}}^m;v_{{\rm{av}}}^m), {S}_{{{\rm{hv}}}}^{{m}} $表示生成的第$ m $条变道轨迹, 危险变道测试场景表示为$ <{S}_{{{\rm{hv}}}}^{{m}};{S}_{{{\rm{av}}}}^{{m}}> $.
算法 3. 危险变道场景泛化生成方法
1) 输入: NGSIM US101 Data 变道轨迹
2) 数据预处理:
根据变道完成时间筛选紧急变道轨迹, 得到 511 条紧急变道轨迹$ {L}={{L}_{{1}},{L}_{{2}},\cdots,{L}_{{511}}} $;
提取紧急变道数据每一帧$ y $轴方向的位置坐标和$ x $轴方向的速度, 对坐标值进行归一化处理, 使得所有变道车的轨迹起始点都为原点, 数据长度一致性处理, 得到每条变道轨迹;
3) 数据生成: 将处理好的数据输入算法 1 生成新的变道轨迹数据;
4) 筛选生成数据中满足紧急变道要求的$ M $条变道数据${S}_{{{\rm{hv}}}}^{{m}}=({s}_{{1}}^{{m}},\cdots,{s}_{{n}}^{{m}},\cdots,{s}_{{N}}^{{m}})$;
5) 危险变道场景泛化生成
for$ m $in1:M
根据式 (19)、式(20) 分别计算筛选的第$ m $条变道数据${S}_{{{\rm{hv}}}}^{{m}}$对应的被测车初始状态${S}_{{{\rm{av}}}}^{{m}}=(x_{{\rm{av}}}^m;y_{{\rm{av}}}^m;v_{{\rm{av}}}^m)$
生成的第$ m $条变道数据与对应的被测车初始状态构成危险场景表示为$< {S}_{{{\rm{hv}}}}^{{m}};{S}_{{{\rm{av}}}}^{{m}} >$
输出当前生成的危险场景$< {S}_{{{\rm{hv}}}}^{{m}};{S}_{{{\rm{av}}}}^{{m}} >$
4. 实验和结果
本文基于真实的变道数据集来生成紧急变道轨迹数据, 结合变道约束生成被测自动驾驶车辆初始状态, 将两车合并生成危险变道测试场景, 实现危险变道测试场景的泛化生成$. $
4.1 实验环境
本文所用的硬件设备为: Windows10 64 位操作系统, 显卡为 Nvidia Quadro K2200, 处理器为英特尔至强 E5-2623, 内存为 12 GB; 软件设备为: 编程语言 python3.6, 深度学习框架为 TensorFlow1.9.0, 用 Unity 创建仿真实验场景, 运行环境为 pycharm2020. 实验中用到的参数含义及其设置如表2所示.
表 2 实验中的参数设置Table 2 Parameter settings in the experiment参数含义 值 制动变减速时间段${t_2}$ 0.2 s 变道背景车速度${v_1}$ 生成变道轨迹的平均速度 真实轨迹序列长度$N$ 20 真实轨迹总数 511 变道经过的纵向距离$d_{\rm{t}}$ 生成变道轨迹的纵向距离 车长$l$ 4 m 变道背景车完成变道的时间$t$ 等于被测自动驾驶汽车制动时间 车辆制动最大加速度$a_{\max}$ ${6 \;{\rm{m/s^2} } }$ 嵌入维数 64 隐藏层数 160 预训练次数 120 生成器的初始学习率 0.04 计算奖赏的参数${\gamma}$ 0.95 生成器预训练次数 150 判别器预训练次数 50 4.2 紧急变道轨迹生成
生成测试场景中变道背景车辆的运动轨迹与真实的变道轨迹的相似度越高, 说明算法的生成准确性越好. 因此本节从生成轨迹分布、变道完成时间分布、不同生成网络对比 3 个方面验证本文所提 BN-AM-SeqGAN 算法生成轨迹的准确性.
真实紧急变道轨迹、真实轨迹分布的上界和下界以及生成的紧急变道轨迹如图8所示, 说明所生成的紧急变道轨迹符合真实轨迹的上下界分布.
为了验证生成变道轨迹的速度与真实变道轨迹速度的相似性, 本文对比了真实变道轨迹与生成的变道轨迹变道开始时刻和变道结束时刻速度的状态分布, 分别如图9和图10所示, 其中生成的变道轨迹变道开始时刻的速度分布服从$ {\rm{N}}(12.4208,3.5926) $的正态分布, 变道结束时刻的速度分布服从$ {\rm{N}}(12.6903, 3.6840) $的正态分布. 真实变道轨迹变道开始的速度分布服从$ {\rm{N}}(12.1998,3.6887) $的正态分布, 变道结束的速度分布服从$ {\rm{N}}(12.6799,3.7498) $的正态分布. 表明生成的速度概率密度符合真实速度概率密度的分布状态.
本文对比了 BN-AM-SeqGAN 和 SeqGAN 生成的变道轨迹的变道完成时间与真实变道完成时间的百分比, 生成的 511 条、50 000 条变道轨迹以及原始的 511 条变道轨迹的变道完成时间分布对比结果如表3所示.
表 3 变道完成时间分布表Table 3 Distribution of lane-changing completion time变道完成
时间 (s)生成数量 BN-AM-SeqGAN
生成数据 (%)SeqGAN
生成数据 (%)真实数据 (%) (1.8, 2.0] 511 53.15 53.65 53.1 50 000 54.06 53.08 (1.6, 1.8] 511 32.79 33.79 31.5 50 000 30.49 33.46 (1.4, 1.6] 511 10.82 9.82 12.3 50 000 12.17 11.25 (1.2, 1.4] 511 2.86 2.36 2.7 50 000 2.82 2.10 [1.0, 1.2] 511 0.49 0.99 0.4 50 000 0.46 0.11 BN-AM-SeqGAN 生成的变道轨迹分布更接近原始变道轨迹, 与原始变道轨迹的变道完成时间分布相比, SeqGAN 生成的 511 条变道轨迹和 50000 条变道轨迹的变道完成时间分布均方根误差分别为 1.56 和 1.04, BN-AM-SeqGAN 生成的 511 条变道轨迹和 50000 条变道轨迹的变道完成时间分布均方根误差分别为 0.81 和 0.63, 因此本文所提 BN-AM-SeqGAN 的轨迹生成的准确性优于 SeqGAN, 增加了生成轨迹与真实轨迹的近似程度. 按变道完成时间进行分类, 不同的变道完成时间表示不同的紧急程度, 所有生成的变道轨迹都在 1 s ~ 2 s 内完成变道, 表明生成的轨迹是紧急变道轨迹.
为了进一步比较生成轨迹与真实轨迹的相似性, 本文分别对比原始变道轨迹与生成变道轨迹的纵向速度及横向位置的均方根误差, 如图11所示,其中 91.36% 的横向位置均方根误差小于 0.5, 81.12% 的纵向速度均方根误差小于 0.5, 且最大均方根误差均不超过 2, 表明生成变道轨迹与原始变道轨迹具有较高的相似性.
为了进一步说明本文所提 BN-AM-SeqGAN 在轨迹生成方面的效果, 将 BN-AM-SeqGAN 与 RankGAN、SeqGAN 生成数据时的损失值进行了对比, 结果如图12所示, 在生成对抗网络中损失值 R 越低说明生成效果越好. BN-AM-SeqGAN 的损失值比其他两种网络都低, 并且收敛速度快, 说明 BN-AM-SeqGAN 生成数据效果比 SeqGAN 和 RankGAN 的效果好.
为了说明所提出的网络在生成数据有效性方面的优势, 本文对比了上述 3 种网络生成相同数量轨迹时符合紧急变道条件的轨迹数量, 即生成变道完成时间小于 2 s, 并且序列中相邻轨迹点没有较大跳跃的轨迹. BN-AM-SeqGAN 筛选 50 000 条符合要求的紧急变道轨迹需要生成 62 681 条序列. 因此分别使用 SeqGAN、RankGAN 生成 62 681 条变道序列, 利用相同的紧急变道条件筛选出 44 647、46 001 条符合要求的紧急变道轨迹, 如表4所示, 由表4可知, BN-AM-SeqGAN 生成数据的有效性最高.
表 4 网络输出效果对比Table 4 Comparison of network output effect网络 符合数量 有效性 SeqGAN 44 647 71.23% RankGAN 46 001 73.39% BN-AM-SeqGAN 50 000 79.54% 4.3 危险变道场景泛化生成
生成紧急变道轨迹之后, 利用第 3.1 节所述碰撞约束条件计算被测自动驾驶车辆的初始状态, 一条紧急变道轨迹对应一个被测车辆初始状态, 构成一个危险变道测试用例, 两车轨迹如图13所示. 对应的蓝色曲线表示变道背景车辆的轨迹, 红色曲线表示被测自动驾驶车辆的轨迹, 红色曲线的终点表示被测自动驾驶车辆按照最大制动减速度完成制动, 达到与变道背景车辆相同的速度. 此时两车保持最小安全距离, 这时两车处于危险临界状态, 这说明生成的变道测试场景属于危险变道场景.
为验证本文所提危险场景生成方法的有效性, 将生成轨迹按照变道纵向速度划分成多个区间, 在每个区间分别生成多条紧急变道轨迹, 并按车辆以最大减速度减速的安全距离模型计算对应的被测自动驾驶车辆运动轨迹, 构建不同速度的危险变道场景, 选择 10 组典型的危险变道场景如图14所示. 背景车辆轨迹的变道切入角度不同, 说明生成轨迹的多样性. 两车轨迹保持临界安全距离, 但不相交 (同一颜色表示一个测试用例), 表明生成的变道测试场景属于危险变道场景.
用本文提出的危险变道场景泛化生成方法生成 5 万个危险变道场景构成危险变道测试场景库, 并计算每个变道场景中被测自动驾驶车辆与变道背景车辆的碰撞时间 (TTC), 计算结果如图15所示. 所生成的变道场景中, 99.54% 的被测自动驾驶车辆与变道背景车辆的碰撞时间小于 1 s, 生成场景中被测自动驾驶车辆与变道背景车辆的碰撞时间集中在 0.3 s ~ 0.6 s 之间, 均属于危险变道场景, 表明本文所提方法能够有效生成自动驾驶测试危险变道场景.
4.4 危险变道生成场景验证
将生成的变道背景车辆和被测自动驾驶车辆运动轨迹导入 Unity 仿真平台, 搭建了基于虚拟测试的危险变道生成场景, 验证了变道切入场景生成算法的有效性. 使用 Unity 中 Easyroad3D 插件建造好符合要求的道路, 把生成的变道背景车辆的轨迹坐标和计算的被测自动驾驶汽车的轨迹坐标导入到数据库中, 通过实时获取数据库中的车辆运动状态信息, 构建了自动驾驶测试虚拟场景, 效果如图16所示, 其中, 绿色车辆表示变道背景车辆, 蓝色车辆表示被测自动驾驶车辆. 被测自动驾驶车辆沿右侧车道直线行驶, 背景车辆按照生成危险变道轨迹从左侧车道切入右侧车道, 被测自动驾驶车辆按照最大减速度减速从而避免与变道背景车辆发生碰撞. 当背景车辆完成变道时, 两车达到不发生碰撞的临界状态.
5. 结论
本文研究了面向自动驾驶测试的危险变道场景生成方法, 基于公开数据集, 利用批标准化优化生成器, 引入注意力机制优化判别器, 提出 BN-AM-SeqGAN, 结合变道安全约束, 计算风险临界场景下的被测自动驾驶车辆初始状态, 构建了危险变道测试场景, 设计了场景泛化生成算法, 形成了危险变道测试场景库. 实验中, 本文将 RankGAN、SeqGAN 和 BN-AM-SeqGAN 进行了对比, 并使用碰撞时间评判所生成变道场景的危险程度. 实验结果显示: 本文所提方法生成的数据损失值低且收敛快, 表明本文提出的方法效果更好; 生成的 5 万条变道轨迹中, 变道完成时间分布均方根误差为 0.63, 表明所提方法能保证生成的紧急变道轨迹具有真实紧急变道轨迹的特征; 生成的危险变道测试场景库中有 5 万条危险变道场景, 其中 99.54% 的场景中被测自动驾驶车辆与变道背景车辆的碰撞时间小于 1 s, 并且计算得到的碰撞时间集中在 0.3 s ~ 0.6 s 之间, 符合危险变道的定义, 表明本文所提方法能够有效生成自动驾驶测试危险变道场景.
-
表 1 各不同邻域尺度及$T_{i}$下的道路提取算法总误差
Table 1 Total errors of the proposed algorithm with different adjacent sizes and $T_{i}$
CSite2/CSite3提取结果总误差(%) $T_{i}$ 6邻域 18邻域 26邻域 56邻域 64邻域 1 46.30/40.64 32.26/31.87 25.89/24.15 20.47/17.94 17.98/12.44 2 39.57/32.32 28.34/25.02 19.07/18.87 12.81/8.29 18.73/15.65 3 34.25/30.06 26.16/19.21 20.83/10.33 15.58/13.84 23.16/20.45 4 37.29/33.12 30.21/20.04 24.56/12.87 26.74/16.51 29.86/25.31 表 2 提出的算法的精度
Table 2 The accuracy of the proposed algorithm
数据 $R_{com}$(%) $R_{cor}$(%) $R_{q}$(%) CSite2 84.83 80.76 70.57 CSite3 88.71 81.50 73.84 表 3 Terrasolid道路提取精度
Table 3 The road extraction accuracy of Terrasolid
数据 $R_{com}$ (%) $R_{cor}$ (%) $R_{q}$ (%) CSite2 88.2 64.1 59.1 CSite3 93.8 56.9 54.8 -
[1] Matikainen L, Karila K, Hyyppa J, Litkey P, Puttonen E, Ahokas E. Object-based analysis of multispectral airborne laser scanner data for land cover classification and map updating. ISPRS Journal of Photogrammetry and Remote Sensing, 2017, 128: 298-313 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=79984fbea9862f0a930a7c93acf19b17 [2] Morsy S, Shaker A, El-Rabbany A. Multispectral LiDAR data for land cover classification of urban areas. Sensors. 2017, 17(5): 958 [3] Hui Z, Hu Y, Jin S, Yao Z Y. Road centerline extraction from airborne LiDAR point cloud based on hierarchical fusion and optimization. ISPRS Journal of Photogrammetry and Remote Sensing, 2016, 118: 22-36 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=28233cc10b86445d7235b3bc0428331f [4] 原战辉.基于机载LiDAR点云数据提取城区道路研究[硕士论文].西南交通大学, 中国, 2018Yuan Zhan-Hui. Research on Urban Road Extraction Based on Airborne LIDAR Point Cloud Data[Master thesis]. Southwest Jiaotong University, China, 2018 [5] 王濮, 邢艳秋, 王成, 习晓环, 骆社周.机载LiDAR数据提取山区道路方法研究.遥感技术与应用, 2017, 32(5): 851-857 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=ygjsyyy201705009Wang Pu, Xing Yan-Qiu, Wang Cheng, Xi Xiao-Huan, Luo She-Zhou. Road extraction using airborne LiDAR data in mountainous areas. Remote Sensing Technology and Application, 2017, 32(5): 851-857 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=ygjsyyy201705009 [6] Huo L, Silva C A, Klauberg C, Mohan M, Zhao L J, Tang P, Hudak A T. Supervised spatial classification of multispectral LiDAR data in urban areas. Plos One, 2018, 13(10): e0206185 [7] Sturari M, Frontoni E, Pierdicca R, Mancini A, Malinverni E S, Tassetti A N, Zingaretti P. Integrating elevation data and multispectral high-resolution images for an improved hybrid land use/land cover mapping. European Journal of Remote Sensing, 2017, 50(1): 1-17 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=10.1080/22797254.2017.1274572 [8] 惠振阳.从机载LiDAR点云中提取城市道路网的关键技术研究[博士论文].中国地质大学, 中国, 2017Hui Zhen-Yang. Research on Some Key Techniques of Extracting City Road Networks from Airborne LiDAR Point Cloud[P.D. dissertation]. China University of Geosciences, China, 2017 [9] 胡澄宇.基于机载LiDAR的林间道路提取方法研究[硕士论文].西南交通大学, 中国, 2016Hu Cheng-Yu. Study on Forest Road Extraction Based on Airborne LiDAR Point Cloud[Master thesis]. Southwest Jiaotong Universtiy, China, 2016 [10] Ferraz A, Mallet C, Chehata N. Large-scale road detection in forested mountainous areas using airborne topographic lidar data. ISPRS Journal of Photogrammetry and Remote Sensing, 2016, 112: 23-36 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=11bfc8f0d414d2222458453ce1f23ffc [11] Peng J, Gao G. A method for main road extraction from airborne LiDAR data in urban area. In: Proceedings of the 2011 International Conference on Electronics, Communications and Control. Ningbo, China: IEEE, 2011. 2425-2428 [12] 彭检贵, 马洪超, 高广, 赵亮亮.利用机载LiDAR点云数据提取城区道路.测绘通报, 2012, (9): 16-19 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=chtb201209006Peng Jian-Gui, Ma Hong-Chao, Gao Guang, Zhao Liang-Liang. Road extraction from airborne LiDAR point clouds data in urban area. Bulletin of Surveying and Mapping, 2012, (9): 16-19 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=chtb201209006 [13] Choi Y W, Jang Y W, Lee H J, Cho G S. Three-dimensional LiDAR data classifying to extract road point in urban area. IEEE Geoscience and Remote Sensing Letters, 2008, 5(4): 725-729 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=f35ba8c1e5d91528123fb1c82861424d [14] Matkan A A, Hajeb M, Sadeghian S. Road extraction from lidar data using support vector machine classification. Photogrammetric Engineering and Remote Sensing, 2014, 80(5): 409-422 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=e335ac4ed68da753c40785af701acdf7 [15] Hu X, Li Y, Shan J, Zhang J, Zhang Y. Road centerline extraction in complex urban scenes from LiDAR data based on multiple features. IEEE Transactions on Geoscience and Remote Sensing, 2014, 52(11): 7448-7456 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=422ac8541c7f6cfce39cf34a7a09236d [16] 龚亮, 张永生, 李正国, 包全福.基于强度信息聚类的机载LiDAR点云道路提取.测绘通报, 2011, (9): 15-17 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=chtb201109005Gong Liang, Zhang Yong-Sheng, Li Zheng-Guo, Bao Quan-Fu. Automated road extraction from LiDAR data based on clustering of intensity. Bulletin of Surveying and Mapping, 2011, (9): 15-17 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=chtb201109005 [17] 袁鹏飞, 黄荣刚, 胡平波, 杨必胜.基于多光谱LiDAR数据的道路中心线提取.地球信息科学学报, 2018, 20(4): 452-461 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=0120181103802104Yuan Peng-Fei, Huang Rong-Gang, Hu Ping-Bo, Yang Bi-Sheng. Road extraction method based on multi-spectral LiDAR data. Journal of Geo-information Science, 2018, 20(4): 452-461 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=0120181103802104 [18] Mario S, Linh T, Belén R, Debra L. Automatic extraction of road features in urban environments using dense ALS data. International Journal of Applied Earth Observation and Geoinformation, 2018, 64: 226-236 [19] Ferraz A, Mallet C, Chehata N. Large-scale road detection in forested mountainous areas using airborne topographic lidar data. ISPRS Journal of Photogrammetry and Remote Sensing, 2016, 112: 23-36 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=11bfc8f0d414d2222458453ce1f23ffc [20] Zhao R, Pang M, Wang J. Classifying airborne LiDAR point clouds via deep features learned by a multi-scale convolutional neural network. International Journal of Geographical Information Science, 2018, 32(5): 1-20 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=10.1080/13658816.2018.1431840 [21] Niemeyer J, Rottensteiner F, Soergel U, Heipke C. Hierarchical higher order crf for the classification of airborne lidar point clouds in urban areas. International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, 2016, XLI-B3: 655-662 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=Doaj000004727273 [22] Yang Z, Jiang W, Xu B, Zhu Q, Jiang S, Huang W. A convolutional neural network-based 3D semantic labeling method for ALS point clouds. Remote Sensing, 2017, 9(9): 936-953 [23] 陈飞.基于机载LiDAR点云的道路提取方法研究[硕士论文].西南交通大学, 中国, 2013Chen Fei. A Study of Methods for Road Extraction from Airborne LIDAR Data[Master thesis]. Southwest Jiaotong Universtiy, China, 2013 [24] 徐玉军.基于机载激光雷达点云数据的分层道路提取算法研究[硕士论文].吉林大学, 中国, 2013Xu Yu-Jun. Research on Hierarchical Road Extraction Algorithm Based on Airborne LiDAR Point Cloud[Master thesis]. Jilin University, China, 2013 [25] 黄先锋, 李娜, 张帆, 万文辉.利用LiDAR点云强度的十字剖分线法道路提取.武汉大学学报(信息科学版), 2015, 40(12): 1563-1569Huang Xian-Feng, Li Na, Zhang Fan, Wan Wen-Hui. Automatic power lines extraction method from airborne LiDAR point cloud. Geomatics and Information Science of Wuhan University, 2015, 40(12): 1563-1569 [26] 丁小华.基于LiDAR数据的城市道路提取方法研究[硕士论文].中国地质大学, 中国, 2013Ding Xiao-Hua. Building Extraction Based on the LiDAR Point Cloud Data and Image Fusion[Master thesis]. China University of Geosciences, China, 2013 [27] Hagstrom S T. Voxel-based LIDAR Analysis And Applications[Ph.D. dissertation], Rochester Institute of Technology, America, 2014 [28] Rutzinger M, Rottensteiner F, Pfeifer N. A comparison of evaluation techniques for building extraction from airborne laser scanning. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2009, 2(1): 11-20 [29] Zhang T Y, Suen C Y. A fast parallel algorithm for thinning digital patterns. Communications of the ACM, 1984, 27(3): 236-239 期刊类型引用(1)
1. 杨智文. 无人机机载LiDAR航测技术道路测绘应用效果分析. 测绘与空间地理信息. 2023(03): 198-200 . 百度学术
其他类型引用(1)
-