扫码加入

YOLO

加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论
  • 从0到1搞定医学影像分割!YOLOseg实战,不用懂复杂原理
    在工业级神经网络应用中,Yolo模型是最受欢迎的目标检测模型。本文介绍了如何使用Label-Studio准备数据集,并利用Pytorch和ultralytics库构建并训练实例分割模型。最终展示了模型的训练过程和预测效果,适用于医学检测项目中的实例分割任务。
  • 基于YOLOv8和DeepSORT实现目标检测与跟踪
    本文介绍了如何使用 YOLOv8 和 DeepSORT 实现物体检测、跟踪和速度估计。首先设置项目环境,克隆存储库并创建虚拟环境。接下来,下载额外文件并运行检测和跟踪脚本。主要脚本协调整个过程,加载 YOLOv8 模型并初始化 DeepSORT 跟踪器。检测对象并在视频中绘制边界框和标签。最后,输出带有检测、跟踪和速度估计的视频。
  • STM32N6的开发日记(7):摄像头+NPU联动,完成 YOLO 实时目标检测与显示
    STM32N6是一款由意法半导体推出的集成了自研神经处理单元的MCU,具有强大的边缘AI算力。本文档详细介绍了如何使用STM32CubeMX配置和部署YOLO神经网络模型于STM32N6平台,包括准备工作、CubeMX配置、代码详解等内容。重点在于展示如何通过ISP中间件处理摄像头图像,然后利用NPU加速YOLO模型的实时目标检测,并将结果显示在LTDC显示屏上。
    STM32N6的开发日记(7):摄像头+NPU联动,完成 YOLO 实时目标检测与显示
  • 狗狗入镜、猫咪客串:在树莓派上部署 Ultralytics YOLO26 实现目标检测!
    我们来探索如何在树莓派上部署并运行 YOLO 人工智能目标检测模型。本教程内容十分详尽,本文仅分享核心的安装步骤;完整教程可查阅最新一期《树莓派官方杂志》第 70–77 页。
  • 三步教你使用YOLO26识别手掌
    本文介绍了如何使用YOLO26进行手部图像标注和模型训练的过程。首先,从Kaggle下载并整理手部图像数据集,特别是手掌朝上图像;接着,克隆GitHub仓库并运行标注工具,生成标注后的数据集;最后,加载预训练模型并使用自定义数据集进行训练。整个流程展示了从数据准备到模型训练的完整步骤,并提供了清晰的结果展示。
    三步教你使用YOLO26识别手掌
  • 有意思!512MB的树莓派CM0上,也能部署YOLO26?
    特别感谢李金磊的文章作者,分享了如何利用OpenCV和Ultralytics软件包在树莓派上实现YOLO26的目标检测、姿态估计、图像分类等功能。文章详细介绍了准备工作、环境部署、模型获取和关键代码等内容,适合新手和树莓派爱好者学习使用。
  • 开源!50+算法,Java基于YOLO框架的视频AI识别算法平台,适配低空无人机巡检、摄像头安防场景
    YOLO视频AI识别算法管理平台基于YOLO v8神经网络模型,支持Linux和Windows环境,利用Python、C++、Shell和Docker等技术实现高效推理运算和实时视频识别。平台集成了前端Vue和后端SpringBoot框架,提供人、车、火灾烟雾等多种视频识别功能,并通过FFmpeg推流至ZLMediaKit,便于Web页面实时查看。
  • 基于FPGA YOLO算法的扫描式SMT焊点缺陷检测系统
    本文介绍了基于机器视觉的SMT焊点检测系统的设计与实现。系统由光学成像、图像处理、机械控制和人机交互界面四部分组成。光学成像部分使用USB摄像头和可调光源;机械控制部分采用步进电机和双轴滑台;图像处理部分基于YOLOv3算法进行焊点检测;人机交互界面通过PyQt实现。系统已完成初步功能,具备焊点检测、缺陷识别和实时反馈等功能。未来计划扩展数据集、结合物联网和引入其他算法以提升检测精度。
    基于FPGA YOLO算法的扫描式SMT焊点缺陷检测系统
  • 一小时搞定 STM32MPU 部署前置:YOLOv8 目标检测模型训练全指南
    STM32MPU(如 STM32MP2 系列)搭载 NPU,是边缘 AI 目标检测的理想硬件载体。本文基于 ST 应用笔记,详解在 Ubuntu 22.04 PC 端快速完成 YOLOv8 模型训练的流程,1 小时内即可实现 “环境搭建→数据训练→结果评估→模型导出” 全闭环,为后续 STM32MPU 推理部署提供适配性最优的模型文件。
    2734
    2025/11/20
  • 最精简的资源实现最实际的问题:在树莓派CM0实现YOLO图像识别
    上海晶珩推出的树莓派CM0核心板模组以其低成本和低功耗特性,适合对价格敏感的应用场景。相比CM4/CM5,CM0更注重性价比,采用Cortex-A53处理器,具有超低功耗特点。本文介绍了如何在CM0上部署YOLOv4-tiny模型实现目标检测,重点在于模型选择和代码实现细节,展示了即使在有限资源下也能高效运行目标检测任务的能力。
  • 基于FPGA YOLO算法的扫描式 SMT 焊点缺陷检测系统
    大侠好,欢迎来到FPGA技术江湖,江湖偌大,相见即是缘分。大侠可以关注FPGA技术江湖,在“闯荡江湖”、"行侠仗义"栏里获取其他感兴趣的资源,或者一起煮酒言欢。“煮酒言欢”进入IC技术圈,这里有近50个IC技术公众号。 第一部分 设计概述 1.1 设计目的 作为电子产品最重要的组成部分,印刷电路板(PCB)的设计日趋复杂和器件尺寸的缩小,促使对 SMT 可靠性提出了更高的要求。因此对于 SMT 电
    1620
    2025/09/29
  • 基于YoloV8的药丸/片剂类型识别
    药丸鉴定问题 想象一下这个场景:你手里有一颗药丸,但你不太确定它是什么。也许标签已经磨损,或者您在药柜中发现它松动了。正确识别药物对您的安全和健康至关重要。这就是计算机视觉的用武之地。 药丸识别的工作原理 图像捕获:要开始识别过程,您需要使用智能手机或专用设备为药丸拍摄清晰的照片。照明和角度会影响识别的准确性,因此捕获高质量的图像至关重要。 图像预处理:获得图像后,将使用计算机视觉算法对其进行预处
  • 启扬RK3588基于Yolov5的目标识别演示
    YOLO是一种基于深度神经网络的目标检测算法,用在图像或视频中实时识别和定位多个对象。在其各个版本的迭代中,YOLOv5凭借易用性和性能平衡在工业、 医疗、农业、零售等领域被广泛的应用。本文以启扬RK3588开发板为例,运行基于 YOLOv5 的先进目标检测模型。 01、下载RKNN相关的仓库 新建目录存放RKNN仓库,下载RKNN-Toolkit2和 RKNN_Model_Zoo 仓库。 #新建
  • YOLOv10在PyTorch和OpenVINO中推理对比
    文章介绍了YOLOv10模型及其优势,详细描述了其网络架构和主要功能。通过消除NMS和优化模型组件,YOLOv10在保持高效的同时提升了性能。文中还提供了将YOLOv10模型转换为OpenVINO支持模型的方法,并展示了OpenVINO相对于PyTorch模型在性能上的显著改进,特别是在单帧测试时间上,OpenVINO表现更佳。
    YOLOv10在PyTorch和OpenVINO中推理对比
  • “一芯四用”,米尔RK3576如何同时驾驭4路YOLOv8视频流?
    在科技飞速发展的当下,人工智能与边缘计算的融合正以前所未有的速度重塑着我们的生活。RK3576芯片拥有4核Cortex-A72以及4核Cortex-A53提供基础算力,6TOPS算力NPU来模型推导运算。使用YOLOv8模型时也是手到擒来,接下来随着步伐看看它表现如何。 图:此次的板卡米尔RK3576核心板开发板 YOLO简介 YOLO(You Only Look Once)是当前业界领先的实时目
    “一芯四用”,米尔RK3576如何同时驾驭4路YOLOv8视频流?
  • YOLOE+树莓派5,无需训练的新一代计算机视觉!
    在本指南中,我们将探索YOLOE——一种计算机视觉模型,它允许你通过提示来创建自定义目标检测模型,而无需训练过程!我们将学习这种视觉模型的工作原理,以及如何在树莓派5上创建并运行自己的自定义目标检测。YOLOE是发布的最令人惊叹的YOLO模型之一,对许多创客项目来说非常实用,而且玩起来非常有趣。让我们开始吧!
    YOLOE+树莓派5,无需训练的新一代计算机视觉!
  • 实战 | 基于YoloV5和Mask RCNN实现汽车表面划痕检测
    导  读 本文主要介绍基于YOLOv5和Mask RCNN实现汽车表面划痕检测。 前  言 该项目专注于汽车划痕检测,与不同类型产品的自主质量检测系统的开发同步。例如,在停车场,这种检测为客户提供了汽车安全无虞的保证;此外,如果发生什么情况,检测系统将有助于仔细处理这种情况。 此外,在这个项目中学到的技术可以在其他项目中补充或结合其他一些问题使用,例如质量保证和二手车估价。我将这个问题作为单类分类
    实战 | 基于YoloV5和Mask RCNN实现汽车表面划痕检测
  • 使用YOLOv10进行自定义目标检测
    YOLO(You Only Look Once)是一种流行的物体检测算法,以其速度和准确性而闻名。与涉及生成区域提案然后对其进行分类的多阶段过程的传统方法不同,YOLO 将物体检测框架化为单个回归问题,只需一次评估即可直接从完整图像中预测边界框和类别概率。
    使用YOLOv10进行自定义目标检测
  • 基于YOLO与RKNN模型训练与部署
    物资抢占过程说明:比赛车辆识别物资必须在两个斑马线之间的区域(至少两个轮子均在两个斑马线之间的区域),例如识别2号物资,车辆需要在如图3.3.2-1所示的区域内识别物资并开始语音播报。每个物资编号对应的抢占物资区域如图3.3.2-2所示。语音播报开始后,即可离开指定区域;成功抢占并确认物资后(成功抢占物资标准:在指定区域识别物资且语音播报正确),小车需回到己方基地车位上停稳(至少两个轮子在基地停车框内,并且做出停车动作,停车时间不限),记为一次抢占物资完成;抢占物资完成会增加相应的分数和子弹数量。
    1559
    2025/07/17
    基于YOLO与RKNN模型训练与部署
  • YOLOv8和OpenCV快速入门指南
    想要让 YOLOv8 与 OpenCV 一起快速运行吗?本指南切入正题,向您展示如何轻松设置、下载模型和运行实时对象检测。
    YOLOv8和OpenCV快速入门指南

正在努力加载...