您的位置: 首页 - 站长

seo综合查询怎么进入网站wordpress同步微博

当前位置: 首页 > news >正文

seo综合查询怎么进入网站,wordpress同步微博,xv10相同网站,做网批的有什么网站呢研究用于视障人士户外障碍物检测的 YOLO 模型 摘要1 引言2 相关工作2.1 障碍物检测的相关工作2.2 物体检测和其他基于CNN的模型 3 问题的提出4 方法4.1 YOLO4.2 YOLOv54.3 YOLOv64.4 YOLOv74.5 YOLOv84.6 YOLO-NAS 5 实验和结果5.1 数据集和预处理5.2 训练和实现细节5.3 性能指… 研究用于视障人士户外障碍物检测的 YOLO 模型 摘要1 引言2 相关工作2.1 障碍物检测的相关工作2.2 物体检测和其他基于CNN的模型 3 问题的提出4 方法4.1 YOLO4.2 YOLOv54.3 YOLOv64.4 YOLOv74.5 YOLOv84.6 YOLO-NAS 5 实验和结果5.1 数据集和预处理5.2 训练和实现细节5.3 性能指标5.4 性能分析5.4.1 YOLOv5的结果5.4.2 YOLOv6的结果5.4.3 YOLOv7的结果5.4.4 YOLOv8的结果5.4.5 YOLO-NAS的结果5.4.6 总体结果 5.5 消融实验 6 讨论和总结 论文题目 Investigating YOLO Models Towards Outdoor Obstacle Detection For Visually Impaired People 研究用于视障人士户外障碍物检测的 YOLO 模型 摘要 利用基于深度学习的物体检测是帮助视障人士避开障碍物的有效方法。在本文中实现了七种不同的 YOLO 物体检测模型即 YOLO-NAS小、中、大、YOLOv8、YOLOv7、YOLOv6 和 YOLOv5并通过精心调整的超参数进行了综合评估以分析这些模型在包含道路和人行道上常见日常物体的图像上的表现。经过系统的调查YOLOv8 被认为是最好的模型它在著名的障碍物数据集包括 VOC 数据集、COCO 数据集和 TT100K 数据集的图像以及研究人员在现场收集的图像上的精确度达到了 80%召回率为 68.2%。尽管 YOLO-NAS 是最新的模型并在许多其他应用中表现出更好的性能但在障碍物检测任务中YOLO-NAS 仍未达到最佳状态。 关键词 障碍物检测、YOLO、物体检测、边界框、视障人士 1 引言 视觉是人体最重要的感官之一。它帮助我们识别周围的环境使我们能够进行日常工作。然而随着视力的丧失人们在生活中的基本技能如识别障碍物、学习、阅读、上学和工作等方面的能力都会受到影响。据世界卫生组织WHO统计全球至少有 22 亿人存在近视或远视障碍[1]。白内障、青光眼、屈光不正、老年性黄斑变性和糖尿病视网膜病变是导致失明和视力受损的主要原因[2]。视力损伤会给个人带来严重后果包括劳动力参与率和生产率降低[3]、抑郁和焦虑率升高[4]以及遭受暴力和虐待包括欺凌和性暴力的比率升高[5]。经济也受到巨大影响研究表明中度至重度视力损伤每年造成的损失从洪都拉斯的 1 亿美元到美国的 165 亿美元不等[6]。 有效缓解和解决这一世界性问题的方法之一是利用深度学习方法特别是通过使用卷积神经网络CNN来指导视障人士执行各种日常物体检测任务。由于卷积神经网络具有识别前方障碍物的算法能力因此视障人士和盲人可以通过卷积神经网络获得帮助。物体检测算法能够告诉人们前方有哪些物体从而避开它们[7]。有鉴于此这项工作在一个流行的障碍物数据集上评估和分析了 YOLO 模型的性能该数据集包含日常街道和人行道上的障碍物和物体。 使用的不同 YOLO 模型包括 YOLO v5、v6、v7、v8 和 NAS。NAS 指的是 “神经架构搜索”Neural Architecture Search即由神经网络自动寻找完成任务的最佳架构而不是由人为来完成[8, 9]。作者对模型进行了全面的测试和调整。 作者的工作旨在具体研究这些不同版本的 YOLO 模型在障碍物检测任务中的性能差异以及最新架构搜索算法YOLO-NAS与早期版本的比较。由于 YOLO 众所周知的快速计算特性特别选择 YOLO 进行系统的实证研究。 本文接下来的内容安排如下第 2 节讨论该领域的相关工作第 3 节讨论问题的提出过程第 4 节介绍进行分析所使用的方法第 5 节和第 6 节介绍结果和讨论总结得出的结论。 2 相关工作 2.1 障碍物检测的相关工作 在建立模型以帮助盲人或视障人士方面已经进行了大量的研究然而在系统分析不同物体检测模型的性能方面却没有做很多工作。这些性能分析非常重要因为它们提出了有效建立真实世界模型以帮助盲人和视障人士的最佳模式。在[10]中作者提出了一种基于深度学习的视障人士辅助应用模型特别是安装在智能手机上的带有 Darknet-53 基础网络的 YOLOv3。该模型使用 Pascal VOC2007 和 Pascal VOC2012 数据集进行训练在障碍物检测方面实现了高速度和高精度。该应用利用 eSpeak 合成器生成音频输出使视障人士能够与周围环境进行有效互动。实验结果证明了所提模型在实时障碍物检测和分类方面的有效性为视障者的日常生活提供了安全性和舒适性。未来的工作包括研究视障人士与障碍物之间的距离并整合其他理论来改进整体应用。 文献[9]的作者主要关注神经架构搜索NAS技术的使用。他们提出了一种利用深度学习和 NAS 技术的视障人士智能导航辅助系统。该系统中使用的深度学习模型通过精心设计的架构取得了巨大成功。该论文还提出了一种快速 NAS 方法以寻找一种高效的物体检测框架。NAS 基于量身定制的强化学习技术。提出的 NAS 用于探索无锚物体检测模型的特征金字塔网络和预测阶段。搜索到的模型在 Coco 数据集和室内物体检测与识别IODR数据集的组合上进行了评估。结果模型的平均精度AP比原始模型高出 2.6%计算复杂度在可接受范围内。所取得的结果证明了所提出的 NAS 在自定义对象检测方面的效率。这促使作者将 YOLO-NAS 模型用于物体检测任务。 在文献[7]中研究人员介绍了一种新颖的静态/移动障碍物检测框架以帮助视障/盲人安全导航该算法可在智能手机上实时运行独立提供障碍物检测和分类。该算法可在智能手机上实时运行独立进行障碍物检测和分类。根据障碍物与目标物的距离和运动矢量方向将障碍物分为紧急/正常障碍物。在英特尔至强计算机上障碍物检测的平均处理时间为 18 毫秒/帧而在三星 Galaxy S4 智能手机上则为 130 毫秒/帧。论文还建议使用物体分类算法扩展该方法并将突出显示的障碍物转换为语音信息。 文献[11]的作者提出了一种针对视障人士的辅助设备该设备可提供自动导航和引导、检测障碍物并进行实时图像处理。该设备由一组异构的传感器和计算组件组成包括超声波传感器、摄像头、单板 DSP 处理器、湿地板传感器和电池并使用机器学习模型进行物体识别使用户熟悉周围环境。该设备可以检测各种障碍物如上楼、下楼、边缘、坑洼、减速带、狭窄通道和潮湿地板。输出以音频提示的形式提供以确保用户的舒适性和友好性训练对象的平均精确度mAP为 81.11。 2.2 物体检测和其他基于CNN的模型 卷积神经网络又称 CNN是一种机器学习算法广泛应用于处理图像的不同机器学习任务中。其中一项任务是使用边界框检测图像中的物体。通过学习图像数据计算机能够分析图像识别图像中的物体并将其分为不同的组。这就是所谓的物体检测。物体检测算法也有多种例如 R-CNN、Fast R-CNN、Faster R-CNN、Mask R-CNN、SSD、YOLO 等。 R-CNN即基于区域的卷积神经网络Region-based Convolutional Neural Network是一种计算机视觉算法通过结合深度学习和区域建议的力量彻底改变了物体检测。它包括从图像中提取潜在的感兴趣区域然后使用卷积神经网络对这些区域内的物体进行分类和定位。[15] Fast R-CNN 建立在原始 R-CNN 方法的基础上。它通过在所有提出的区域共享卷积特征引入了一种更高效的架构从而消除了冗余计算的需要。[16]Faster R-CNN 通过将区域建议网络RPN与Fast R-CNN 相结合来实现高精度的实时物体检测。[17] 另一种模型是Mask R-CNN。Mask R-CNN 的主要思想是利用区域建议网络RPN生成高质量的物体建议然后通过预测物体类别、边界框坐标和像素级掩码来完善这些建议。 [18] 另一种主要算法是 SSD。SSD 背后的主要理念是在神经网络的单次传递中执行物体检测省去了多个阶段。它通过在不同尺度的多个特征图上利用一组预定义的不同大小和长宽比的锚框来实现这一目标。 [14] CNN 通常由卷积层、池化层和全连接层组成。前两层卷积层和池化层执行图像特征提取第三层全连接层将提取的特征映射到最终输出即不同的类别[19, 20]。CNN 架构有多种类型包括 AlexNet、VGGNet、GoogLeNet、ResNet 等[20, 21]。它在物体检测方面有多种重要应用如自动驾驶汽车、人脸识别和医疗保健中的医疗检测等[22-24]。 3 问题的提出 在本节中作者将从数学角度提出障碍物检测问题。假设 X X X : 输入的室外障碍物图像 Y Y Y : 物体的真实值的标注集合 y i c l a s s y_i^{class} yiclass​ 物体 i 的类别标签 y i b o x yi^{box} yibox​物体 i 的边框坐标 f f f障碍物检测模型即 YOLO。 目标是通过最小化损失函数来优化模型 f f f L ( f ( X ) , Y ) λ c l a s s ⋅ L c l a s s ( f c l a s s ( X ) , Y ) λ b o x ⋅ L b o x ( f b o x ( X ) , Y ) \mathcal{L}(f(X),Y)\lambda{\mathrm{class}}\cdot\mathcal{L}{\mathrm{class}}(f{\mathrm{class}}(X),Y)\lambda{\mathrm{box}}\cdot\mathcal{L}{\mathrm{box}}(f{\mathrm{box}}(X),Y) L(f(X),Y)λclass​⋅Lclass​(fclass​(X),Y)λbox​⋅Lbox​(fbox​(X),Y) 其中 L c l a s s \mathcal{L}{class} Lclass​分类损失 L b o x \mathcal{L}{box} Lbox​边框回归损失 λ c l a s s \lambda{class} λclass​分类损失权重 λ b o x \lambda{box} λbox​边框回归损失权重。 优化问题是通过最小化损失函数找到模型 f f f 的最佳参数 θ ^ arg ⁡ min ⁡ θ ∑ i L ( f ( X i ; θ ) , Y i ) \hat{\theta}\arg\min\theta\sum_i\mathcal{L}(f(X_i;\theta),Y_i) θ^argθmin​i∑​L(f(Xi​;θ),Yi​) 其中 θ θ θ 表示模型参数 X i X_i Xi​ 和 Y i Y_i Yi​ 分别是输入的室外图像实例和第 i 个实例的真实值。优化后的模型 f ^ \hat{f} f^​用于检测测试数据集中的障碍物。 4 方法 4.1 YOLO YOLO 的全称是 “You Only Look Once”是一种最先进的物体检测算法早在 2016 年就已问世它能在一次评估中直接从完整图像中预测边界框和类概率并能同时预测一张图像中所有类的边界框速度极快[25]。 该模型将图像划分为不同的网格单元并检测其中心的物体。如果中心点位于一个网格中那么该网格就被定义为包含该物体。基本 YOLO 模型以每秒 45 帧的速度实时处理图像而较小的版本 Fast YOLO 可以达到每秒 155 帧的速度其 mAP 是其他实时检测器的两倍。当从自然图像扩展到艺术品等其他领域时它的性能也优于其他检测方法包括 DPM 和 R-CNN[12]。 本文实施的 YOLO 模型包括 v5、v6、v7、v8 和 NAS。对于 v5 至 v8作者只实现了每个版本中的一个模型而对于 YOLO NAS实现了所有三种尺寸的模型小型s、中型m和大型l。以下是每种型号的说明。 4.2 YOLOv5 YOLOv5 [26, 27] 是 Ultralytics 于 2020 年推出的 YOLO只看一次物体检测模型的一个版本。与之前的模型相比该模型引入了几个独特的功能。 首先TensorRT、Edge TPU 和 OpenVINO 的加入使模型推理能够在各种硬件平台上高效进行。通过使用包含新的默认单周期线性 LR 调度器的重新训练模型训练过程也得到了增强。 对 11 种不同格式的支持不仅限于导出还有助于推理和验证以便在导出过程后定性分析平均精度mAP和速度结果。在数据输入阶段会应用马赛克数据增强功能。 边界框损失函数已得到增强从 CIOU 损失过渡到 GIOU 损失并在预测组件中使用。此外YOLOv5 还采用了一种名为 “CSPNet”CrossStage Partial Network跨阶段部分网络的新骨干架构该架构改进了特征提取程序提高了模型的准确性。此外YOLOv5 还采用了 PANet 来生成特征金字塔这有助于模型有效地管理物体尺寸的变化。YOLOv5 中的模型头仍与 YOLOv3 和 v4 版本相似。 4.3 YOLOv6 YOLOv6 [28, 29]又称 MT-YOLOv6是基于 YOLO 架构的单阶段物体检测模型。该模型由美团公司的研究人员开发在以 MS COCO 数据集为基准测试时其性能比 YOLOv5 更强。该模型有几个新功能。 首先它在检测器的颈部引入了 BiCBidirectional Concatenation 双向并列模块该模块可改善定位信号在保持对速度影响最小的情况下提高性能。它还引入了锚点辅助训练Anchor-Aided Training , AAT策略该策略结合了基于锚点和无锚点范例的优点同时保持了高效推理。为了提高 YOLOv6 中较小模型的性能采用了一种新的自蒸馏策略。该策略在训练过程中增强了辅助回归分支但在推理过程中删除了它以避免速度大幅下降。YOLOv6 还提供了各种不同规模的预训练模型包括不同精度的量化模型和针对移动平台优化的模型。 4.4 YOLOv7 YOLOv7 [30] 是 2022 年 7 月推出的单阶段实时物体检测模型。与之前的版本相比它还具有一些新功能和改进。首先它包含了一个计划中的重参数化模型这是一种可应用于各种网络层的策略侧重于梯度传播路径的概念。 同时该模型还引入了新技术来增强训练过程一种名为粗到细引导标签分配的新标签分配方法以及扩展和复合缩放。 此外YOLOv7 还在姿势估计方面进行了探索。在性能方面与之前的版本相比YOLOv7 实现了更快的推理速度和更高的精度。 4.5 YOLOv8 YOLOv8 [31, 32]于 2023 年 1 月 10 日发布与之前的迭代版本相比它带来了一系列新功能。 首先YOLOv8 引入了全新的骨干网络作为模型的基本架构。这种设计便于将模型性能与 YOLO 系列中的前几个模型进行简单比较。 然后它采用了一种新的损失函数来计算预测值和真实值之间的差异。此外它还采用了新颖的无锚点检测头无需依赖预定义的锚点即可预测边界框。 从性能上看YOLOv8 与其他物体检测模型相比推理速度更快同时还保持了较高的准确性。它已被用于不同的领域如野生动物检测和小物体检测挑战。 4.6 YOLO-NAS YOLO-NAS [33, 34]代表了物体检测领域的前沿进展包含了早期版本所没有的各种新元素。 首先它引入了一个专门针对量化进行优化的新型基本模块。与之前的版本相比这一新模块旨在提高量化性能。因此YOLO-NAS 能够在不牺牲效率的情况下实现更高的精度。 它采用了复杂的训练策略如训练后量化、AutoNac 优化和在重要数据集上进行预训练。它还利用了伪标签数据并通过使用预先训练的教师模型从知识提炼中获得洞察力。 YOLO-NAS 在精确检测和定位小型物体方面也有显著提高。凭借出色的性能/计算比YOLO-NAS非常适合实时边缘设备应用并在各种数据集上超越了现有的YOLO模型。 YOLO-NAS 支持训练后量化可在训练过程后简化模型从而提高效率。 它旨在与高性能推理引擎如英伟达™ TensorRT™无缝集成。它还支持 INT8 量化将运行时性能提升到前所未有的水平。 5 实验和结果 5.1 数据集和预处理 在这次系统性实证评估中使用了 Wu 等人[35] 1 的障碍数据集其中包括 5066 张训练图像、1583 张测试图像和 1266 张验证图像。所有图像均为日常人行道、街道和道路上拍摄的照片。大部分图片的大小分布在 1500 × 1500 之间少数图片超过 3000 × 3000。之所以特别选择这个数据集是因为它是一个综合性数据集其中还包含来自 VOC 数据集、COCO 数据集和 TT100K 数据集的图片。它还包含作者团队在实地收集的一些图片。因此该数据集可用于验证模型在多个领域的适用性和可靠性。 该数据集中有 15 种障碍物分为 15 个类别停车标志、人、自行车、公共汽车、卡车、汽车、摩托车、反光锥、灰罐、警示柱、球形路障、电线杆、狗、三轮车和消防栓。数据集中的一些样本图像如图 2 所示。 5.2 训练和实现细节 使用英伟达 Tesla T4 GPU 对所有模型进行了 25 个epoches的训练批量大小为 8。使用 专门开展机器学习项目的热门平台 Google Colaboratory 和 Kaggle进行实现和模型训练。[36, 37] 在这项工作中对各种超参数进行了调整。将 平均最佳模型 设置为 True热身模式为线性 epoch 步长热身初始学习率为 1e-6热身 epoch 期间学习率衰减因子为 3初始学习率为 5e-4学习率衰减模式为余弦余弦最终学习率比率为 0.1优化器为 Adam优化器参数中的权重衰减为 0.0001。对偏差和批量归一化使用了零权重衰减并利用指数移动平均法衰减系数为 0.9衰减类型为阈值混合精度 设置为 True。 5.3 性能指标 在研究中使用的指标包括混淆矩阵、精确度、召回率和平均精确度 (mAP)。此外还使用 F1 分数来进一步评估 YOLO-NAS 模型并分析其性能不佳的原因。 精确度衡量的是在预测的正面类中正确预测的百分比精确度的计算公式如公式 3所示。 P r e c i s i o n T P T P F P Precision\frac{TP}{TPFP} PrecisionTPFPTP​ 其中 TP 和 FP 分别表示真阳性和假阳性。 召回率衡量的是在所有这些真实实例中预测的正确率。计算公式如公式 4所示 R e c a l l T P T P F N Recall\frac{TP}{TPFN} RecallTPFNTP​ 其中 FN 表示假阴性。 不过它们并不局限于二元分类也可用于多类分类如公式 5和 6所示。 P r e c i s i o n i n M u l t i − c l a s s T P i n a l l c l a s s T P F P i n a l l c l a s s e s Precision~in~Multi-class\frac{TP~in~all~class}{TPFP~in~all~classes} Precision in Multi−classTPFP in all classesTP in all class​ R e c a l l i n M u l t i − c l a s s T P i n a l l c l a s s e s T P F N i n a l l c l a s s e s RecallinMulti-class\frac{TP~in~all~classes}{TPFN~in~all ~classes} RecallinMulti−classTPFN in all classesTP in all classes​ 平均精确度 (mAP) 也是分析模型性能的一个指标要计算这个指标首先需要绘制精确度与召回率的曲线图然后求出曲线下的面积。这将是一个类别的平均精确度。因此求出所有类别的曲线下面积的平均值就可以得到 mAP。 对于 YOLO-NAS还使用 F1 分数。通常情况下精确度和召回率需要权衡取舍即一方要以另一方为代价。因此F1 分数结合了这两个值的调和平均值以获得更准确的性能评估同时最大限度地提高精确度和召回率。F1 分数的计算公式如公式7 所示。 F 1 2 ∗ P r e c i s i o n ∗ R e c a l l P r e c i s i o n R e c a l l F12*\frac{Precision*Recall}{PrecisionRecall} F12∗PrecisionRecallPrecision∗Recall​ 所有这些关系都可以通过混淆矩阵直观地显示出来。 5.4 性能分析 在本节中将描述所有 YOLO 模型所取得的性能。 5.4.1 YOLOv5的结果 YOLOv5 的总体精确度为 78.1%召回率为 68.2%mAP0.5 为 74.2%。表 1 显示了 YOLOv5 的分类性能。精确度最高的类别是反光锥Reflective Cone精确度达到 90.4%而球形路障Spherical Roadblock是召回率和 mAP0.5 最高的类别分别达到 91.8% 和 93%。精确度和 mAP 最低的类别是 “卡车Truck”分别为 58.5% 和 51.1%召回率最低的类别是 “电线杆Pole”仅为 41.1%。 5.4.2 YOLOv6的结果 IoU0.5:0.95 和 Area of “All” 的 YOLOv6 平均精确度为 59%。IoU0.5-0.95 和 Area of “All” 的平均召回率为 71.7%。更多详情见表 2。 5.4.3 YOLOv7的结果 总体而言在所有类别中YOLOv7 的精确度为 78.6%召回率为 77.8%mAP0.5 为 81.7%。表 3 显示了 YOLOv7 的分类性能。精确度最高的类别是 Ashcan 类别达到 91.5%。召回率和 mAP0.5 最高的类别也是球形路障召回率达到 95.2%mAP0.5 达到 95.8%。表现最差的类别是 “Truck”其精确度仅为 54.9%召回率为 62.9%mAP0.5 为 62.6%。 5.4.4 YOLOv8的结果 图 3、图 4、图 5 和表 4 展示了 YOLOv8 模型的实验结果。图 4显示了 YOLOv8 的混淆矩阵。在这个混淆矩阵中从左上角到右下角对角线上的数字是预测正确的数字。行代表机器预测的类别列代表基本真实类别。YOLOv8 所有类别的总体结果是精确度为 80%召回率为 68.3%mAP0.5 为 75.8%mAP0.5-0.95 为 56.1%。表现最好的类别是 “Speherical Roadblock”精确度达到 91.3%召回率为 92.9%mAP0.5 为 95.3%mAP0.5-0.95 的 78.9%。精确度最低的类别是 Pole仅达到 63.6%召回率和 mAP0.5 最低的类别是 Truck召回率为 47.3%mAP0.5 为 54.2%。mAP0.5-0.95 最低的类别是 Pole 类别仅达到 33.9%。 5.4.5 YOLO-NAS的结果 YOLO-NAS 有三种型号大型、中型和小型。精度最高的模型是 NAS-S精度达到 78.8%。召回率、mAP 和 F1 最高的模型是 NAS-M召回率为 62.7%mAP0.5 为 69.8%F10.5 为 67.85%。表 5 列出了全部结果包括不同损失函数计算出的损失。 5.4.6 总体结果 表 6 显示了每个模型的性能。精确度最高的模型是 YOLOv8精确度达到 80%召回率和 mAP 最高的模型是 YOLOv7召回率和 mAP 分别达到 77.8%和 81.7%。F1 分数只有 YOLO-NAS 可用最高的是 NAS-L为 67.85%。精确度最低的模型是 YOLOv5为 78.1%召回率、mAP 和 F1 最低的是 YOLO-NAS-S召回率为 59.41%mAP 为 66.73%F1 为 65.23%。 5.5 消融实验 通过对不同超参数进行网格搜索的综合实验发现 YOLO-NAS 模型对阈值得分非常敏感。因此通过改变阈值得分来调整模型分析其性能。通过测试发现该参数与精确度呈正相关而与召回率呈负相关。阈值越高精确度越高而召回率则越低反之亦然。表 7 显示了使用三个阈值进行消融分析的结果0.3、0.5 和 0.7。当阈值为 0.7 时YOLO-NAS 中型模型的精确度最高为 93.16%而小型模型的召回率最低为 42.46%。阈值为 0.3 时大型模型的召回率最高为 78.48%而中型模型的精确率为 44.87%。这表明精确度和召回率之间存在权衡因此需要根据给定的数据集和任务仔细设计阈值。 6 讨论和总结 在本文中研究了用;检测人行道上室外障碍物的七个 YOLO 模型。发现精度最高的模型是 YOLOv8精度高达 80% 左右。召回率和 mAP 最高的模型是 YOLOv7分别达到 77.8% 和 81.7%。精确度最低的 YOLO 模型是 YOLOv5但其精确度仍达到了 78.1%。召回率和 mAP 最低的是 YOLO-NAS-S召回率为 59.41%mAP 为 66.73%。还对 YOLO-NAS 模型进行了一些消融研究揭示了基于阈值分数的精确度和召回率之间的权衡。当阈值分数增加时从 0.5 到 0.7精确度增加而召回率降低反之亦然。因此阈值得分与精确度呈正相关而与召回率呈负相关需要仔细调整。 作为本研究的扩展有几个方面可以进一步修改和研究。首先即使经过微调、调整和消融分析YOLO-NAS 的性能也不是最佳的。未来的研究可以对其进行更深入的研究并使其适用于障碍物检测应用。 其次既然已经知道了性能最好的 YOLO 模型那么就可以将这项工作扩展到其他物体检测模型并与最好的 YOLO 模型进行比较以研究不同物体检测算法系列在人行道室外障碍物检测方面的性能比较。最后可以使用 YOLOv8 建立实时物体检测设备帮助视障人士在现实世界中导航。