飞桨打比赛:极市计算机视觉开发者榜单大赛——安全帽识别


本文介绍如何用PaddleX参与极市计算机视觉开发者榜单大赛的安全帽检测任务。先简述大赛及新手任务,再说明参赛步骤,包括环境配置(因无内置PaddlePaddle镜像需自定义)、用PaddleX编写训练和测试代码并运行,以完成比赛流程。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

1. 引入

  • Paddle 框架拥有众多好用的模型库和算法套件,比如 PaddleDetection、PaddleSeg、PaddleClas、PaddleX 等等

  • 这些工具都是算法比赛中的利器,利用他们可以快速的搭建一个基准程序跑通比赛流程,后期的优化调参也比较方便

  • 本次就介绍如何使用 PaddleX 挑战一个简单的安全帽检测比赛

2. 参考资料

  • 轻松上手安全帽检测

  • PaddleX 安全帽检测

  • 极市 CVMart

  • ECV2025 极市计算机视觉开发者榜单大赛

3. 极市计算机视觉开发者榜单大赛

3.1 简介

  • 极市计算机视觉开发者榜单大赛自 2018 年首次举办以来,至今已成功举办四届赛事

  • 随着赛事的逐年升级,极市计算机视觉开发者榜单大赛的影响力也在逐步提升,如今已逐渐成为最受瞩目的 AI 大赛之一

  • 2025 极市计算机视觉开发者榜单大赛(以下简称 ECV-2025)将聚焦于计算机视觉领域的前沿科技与应用创新,全面升级赛制

  • 大赛采取多赛题并行的竞赛形式,提供真实场景数据集、免费云端算力支持、便捷在线训练系统、OpenVINO 工具套件等

  • 帮助参赛者全程线上无障碍开发、加速模型推理,真正实现在线编码训练、模型转换、模型测试等一站式竞赛体验

  • 大赛主页:ECV2025 极市计算机视觉开发者榜单大赛

3.2 比赛任务

  • 本次比赛包含如下多个赛道:

3.3 比赛奖项

  • 各个赛道的奖项设置如下:

4. 参加比赛

  • 参加该比赛需要首先完成一项新手任务——安全帽识别

4.1 参赛步骤

  1. 比赛官网 -> 下滑新手任务 -> 报名 -> 开发环境

  2. 创建实例 -> 等待启动完成 -> 选择在线编码 -> VSCode -> 确定 -> 进入编码环境

  3. 在编码环境中编写训练代码,并将代码保存于 /project/train/src_repo 目录中

  4. 回到之前的页面,选择训练任务 -> 新建训练任务 -> 使用命令运行训练代码 -> 等待模型训练完成

  5. 在编码环境中编写测试代码,并将代码保存于 /project/ev_sdk/src 目录中

  6. 回到之前的页面,选择测试任务 -> 发起标准模型测试 -> 等待测试完成 -> 获取任务得分

5. 环境配置

  • 极市平台上内置了众多深度学习框架(Pytorch / TensorFlow / MXNet / OpenVino / DarkNet 等)的镜像

  • 不过很遗憾目前并没有内置 PaddlePaddle 框架的镜像,所以只能自己动手丰衣足食了

  • 目前最好的方式是通过平台的自定义开发环境的方法,修改一个 PaddlePaddle 框架的镜像

  • 注:此配置方法比较简单,目前未经过严格测试,可能会存在一些问题

5.1 配置步骤

  1. 极市官网 -> 右上角头像 -> 个人中心 -> 开发环境管理 -> 新建开发环境

  2. 输入名称 -> 基础环境 pytorch1.10.0 -> 输入描述 -> 生成

  3. 选择刚刚创建的环境,点击启动实例 -> 等待启动完成 -> 选择在线配置 -> 选择 VSCode -> 确定

  4. 进入环境后 -> 使用快捷键 Ctrl + J 打开命令行窗口

  5. 拷贝如下每一行代码至命令行窗口 -> 依次运行代码安装 PaddlePaddle 框架及依赖程序

    $ apt-get update
    
    $ apt-get install -y --allow-change-held-packages libcudnn8=8.1.1.33-1+cuda11.2 libcudnn8-dev=8.1.1.33-1+cuda11.2
    
    $ pip install paddlepaddle-gpu==2.3.0.post112 -f https://www.paddlepaddle.org.cn/whl/linux/mkl/avx/stable.html
  6. 等待所有代码执行完毕,回到开发环境管理页面,点击保存配置,保存配置完成的环境

  7. 这样一个 PaddlePaddle 的环境就配置好了

6. 安全帽识别

6.1 任务简介

  • 算法背景:工地、工厂等地方在进行安全生产时,需要要求进入工地的所有人员佩戴安全帽。

  • 算法目的:在人员没有佩戴安全帽的情况下,算法需要识别出来。

6.2 数据集

  • 数据介绍:数据集是一个包含三个类别(person / hat / head)的 VOC 格式目标检测数据集。

  • 数据数量:训练集:3000 测试集:800 样例集:100

7. 基线项目

  • 由于平台操作有点复杂,这里给出一个非常简单的基线项目

  • 可以用来快速上手这个平台的编码规则,并且快速通过这个新手任务

7.1 简介

  • 使用 PaddleX 快速实现安全帽检测模型

  • 选择的模型为 PicoDet

7.2 模型训练

  1. 在编码环境的 /project/train/src_repo 中创建一个脚本文件 train.py,将如下代码拷贝至该文件中:
import osimport jsonimport randomimport argparseimport paddlex as pdxfrom paddlex import transforms as Tdef split_dataset(data_dir, save_dir, split_num, label_list):
    '''
    分割数据集

    参数
        data_dir 数据目录
        save_dir 保存目录
        split_num 验证集数量
        label_list 标签列表

    返回
        train_file 训练集列表文件
        val_file 验证集列表文件
        label_file 标签列表文件
    '''

    # 遍历数据文件
    jpg_files = []
    xml_files = []
    data_files = os.listdir(data_dir)    for data_file in data_files:        if data_file.endswith('.jpg'):
            jpg_files.append(data_file)        elif data_file.endswith('.xml'):
            xml_files.append(data_file)    # 排序并组成数据对
    datas = []
    jpg_files.sort()
    xml_files.sort()    for jpg, xml in zip(jpg_files, xml_files):
        datas.append(f'{jpg} {xml}\n')    # 打乱顺序
    random.shuffle(datas)    # 写入文件
    train_file = os.path.join(save_dir, 'train.txt')
    val_file = os.path.join(save_dir, 'val.txt')
    label_file = os.path.join(save_dir, 'label_list.txt')    with open(train_file, 'w', encoding='UTF-8') as f:        for data in datas[:-split_num]:
            f.write(data)    with open(val_file, 'w', encoding='UTF-8') as f:        for data in datas[-split_num:]:
            f.write(data)    with open(label_file, 'w', encoding='UTF-8') as f:        for label in label_list:
            f.write(f'{label}\n')    # 输出信息
    states = {}
    states['label_list'] = label_list
    states['datas_num'] = len(datas)
    states['train_num'] = len(datas[:-split_num])
    states['val_num'] = len(datas[-split_num:])
    states['train_file'] = train_file
    states['val_file'] = val_file
    states['label_flie'] = label_file    print(json.dumps(states, indent=4))    return train_file, val_file, label_fileif __name__ == '__main__':    # 命令行参数
    parser = argparse.ArgumentParser()
    parser.add_argument('--data_dir', '-d', default='/home/data/831', type=str)
    parser.add_argument('--label_list', '-l', default='person,head,hat')
    parser.add_argument('--save_dir', '-s', default='/project/train/src_repo', type=str)
    parser.add_argument('--ckpt_dir', '-c', default='/project/train/models', type=str)
    parser.add_argument('--split_num', '-n', default=50, type=int)
    args = parser.parse_known_args()[0]    # 打印命令行参数
    print(json.dumps(vars(args), indent=4))    # 参数转换
    data_dir = args.data_dir
    save_dir = args.save_dir
    ckpt_dir = args.ckpt_dir
    split_num = args.split_num
    label_list = args.label_list.split(',')    
    # 切分数据集
    train_file, val_file, label_file = split_dataset(data_dir, save_dir, split_num, label_list)    # 训练集数据增强
    train_transforms = T.Compose([
        T.MixupImage(mixup_epoch=-1),
        T.RandomDistort(),
        T.RandomExpand(im_padding_value=[123.675, 116.28, 103.53]),
        T.RandomCrop(),
        T.RandomHorizontalFlip(),
        T.BatchRandomResize(
            target_sizes=[320, 352, 384, 416, 448, 480, 512, 544, 576, 608],
            interp='RANDOM'
        ),
        T.Normalize(
            mean=[0.485, 0.456, 0.406],
            std=[0.229, 0.224, 0.225]
        )
    ])    # 验证集数据增强
    eval_transforms = T.Compose([
        T.Resize(
            target_size=480, interp='CUBIC'),
        T.Normalize(
            mean=[0.485, 0.456, 0.406],
            std=[0.229, 0.224, 0.225]
        )
    ])    # 训练集
    train_dataset = pdx.datasets.VOCDetection(
        data_dir=data_dir,
        file_list=train_file,
        label_list=label_file,
        transforms=train_transforms,
        num_workers=0,
        shuffle=True
    )    # 验证集
    eval_dataset = pdx.datasets.VOCDetection(
        data_dir=data_dir,
        file_list=val_file,
        label_list=label_file,
        transforms=eval_transforms,
        num_workers=0,
        shuffle=False
    )    # 检测模型
    model = pdx.det.PicoDet(
        num_classes=len(train_dataset.labels),
        backbone='ESNet_s',
        nms_score_threshold=.025,
        nms_topk=1000,
        nms_keep_topk=100,
        nms_iou_threshold=.6
    )    # 模型训练
    model.train(
        num_epochs=20,
        train_dataset=train_dataset,
        eval_dataset=eval_dataset,
        train_batch_size=16,
        pretrain_weights='COCO',
        learning_rate=0.0001,
        warmup_steps=200,
        warmup_start_lr=0.0,
        save_interval_epochs=3,
        lr_decay_epochs=[15, 18],
        save_dir=ckpt_dir,
        use_vdl=False
    )
  1. 在平台训练任务页面上新建一个训练任务,使用如下代码启动训练:
$ python /project/train/src_repo/train.py -n 100
  1. 等待模型训练完成,或者训练到某个合适阶段手动终止训练

7.3 模型测试

  1. 在编码环境的 /project/ev_sdk/src 中创建一个脚本文件 ji.py,将如下代码拷贝至该文件中:
import jsonimport numpy as npimport paddlex as pdx# 模型路径model_path = '/project/train/models/best_model'# 阈值threshold = 0.5def init():
    '''
    初始化

    返回
        model PaddleX 模型
    '''
    model = pdx.load_model(model_path)    return modeldef process_image(handle=None, input_image=None, args=None, **kwargs):
    '''
    处理图像

    参数
        handle init 函数的返回值
        input_image 输入图像 (CHW / BGR)
        args / **kwargs 其他参数
    
    返回
        result json 格式的结果
    '''
    results = handle.predict(input_image)
    objects = []    for dt in np.array(results):
        cname, bbox, score = dt['category'], dt['bbox'], dt['score']        if score > threshold:
            objects.append({                "x": round(bbox[0]),                "y": round(bbox[1]),                "width": round(bbox[2]),                "height": round(bbox[3]),                "confidence": score,                "name": cname
            })
    result = {        "model_data": {            "objects": objects
        }
    }    return json.dumps(result, indent=4)if __name__ == '__main__':    import cv2    import argparse
    parser = argparse.ArgumentParser()
    parser.add_argument('--img', '-i', default='/home/data/831/helmet_38270.jpg', type=str)
    args = parser.parse_known_args()[0]
    model = init()
    img = cv2.imread(args.img)
    process_image(model, img)
  1. 在平台测试任务页面中发起一个标准模型测试,选择需要的模型文件,比如:

    • /project/train/models/best_model/model.pdparams

    • /project/train/models/best_model/model.pdopt

    • /project/train/models/best_model/model.yml

  2. 提交后等待评估结果即可


# openvino  # 官网  # 创建一个  # 该文件  # 套件  # 环境管理  # 自定义  # 并将  # 命令行  # 镜像  # 榜单  # linux  # paddlepaddle  # pytorch  # mxnet  # tensorflow  # 算法  # red  # ai  # 工具  # vscode  # python 


相关栏目: 【 Google疑问12 】 【 Facebook疑问10 】 【 网络优化91478 】 【 技术知识72672 】 【 云计算0 】 【 GEO优化84317 】 【 优选文章0 】 【 营销推广36048 】 【 网络运营41350 】 【 案例网站102563 】 【 AI智能45237


相关推荐: 2025年冷邮件营销:技巧、工具和成功案例分享  TRX40主板终极对决:3990X散热性能深度评测  DeepSeek V3 本地部署对硬件要求的详细说明  教你用AI进行市场调研,快速生成消费者洞察报告  AI 3D人像视频制作:零成本手机教程,引爆社交媒体  ChatGPT 4 辅助进行室内设计灵感采集  利用 ChatGPT 进行高质量代码重构与优化  Mermaid Playground: AI驱动的图表秒速创建指南  AI视频播客制作终极指南:告别繁琐编辑,轻松发布!  2025最佳AI效率工具:释放生产力,革新业务运营  揭秘:发电机咒语的音频魔力与音乐的力量  MediCa AI:AI赋能的智能医疗保健平台全面解析  DeepSeek如何编写Shell脚本 DeepSeek自动化运维指南  如何用AI根据职位描述(JD)定制你的求职信?  稿定设计AI抠图怎么修复瑕疵_稿定设计AI瑕疵修复与手动微调【步骤】  百度输入法ai写作怎么关 百度输入法ai帮写禁用  AI网页生成工具有哪些_一键生成企业官网的AI工具推荐  千问能否生成多语言年终总结_千问多语言翻译与本地化调整【攻略】  研究学者如何利用现有资源提升学术影响力  Brevio AI:利用AI代理提升电商营销效果  tofai免费网页版入口 tofai官网手机版网站  Kling 2.0终极指南:AI视频创作秘籍,告别低质量  智谱清言分析数据怎么用_智谱清言分析数据使用方法详细指南【教程】  利用AI赋能教育:学习方式的未来之路  ChatGPT一键生成PPT怎么加内容_ChatGPTPPT内容添加【方法】  雷小兔ai智能写作怎么设置写作风格_雷小兔ai智能写作风格选择方法【指南】  利用AI快速生成数组和枚举:详细指南与实用技巧  AI 3D建模革命:免费生成高质量模型和纹理  E-LabVine:AI赋能的数字化学习平台,提升高中学业表现  Gemini怎样写实用型提示词_Gemini实用提示词编写【攻略】  千问如何生成年终总结PPT_千问PPT模板选择与内容自动填充【攻略】  Jarvis AI终极指南:用AI快速撰写畅销亚马逊书籍  如何用AI设计一个Logo?5个步骤教你打造专属品牌标志  如何用ChatGPT准备面试 模拟面试问答与职场话术练习教程  为什么你的简历过不了筛选?用AI帮你诊断并修复漏洞  利用ChatGPT掌控健康:AI赋能的医疗新时代  AI Buildr: 构建 AI 应用的终极指南  智行ai抢票怎么选优先车次_智行ai抢票车次优先级设置技巧【指南】  秀米AI智能排版怎样生成节日专题模板_秀米AI智能排版节日模板调用【技巧】  iPhone 17 Pro Max深度测评:AI驱动的未来手机已来?  老电脑焕新:i5-2400搭配FirePro V5900 打造复古游戏利器  Feelin网页版在线使用 Feelin官网登录入口  豆包AI能否生成领导汇报版总结_豆包AI汇报版精简与结构调整【教程】  AI Vibe Coding: 快速打造落地页,低代码平台实战教程  tofai官网入口链接 tofai网页版在线登录  goPDF:AI驱动的PDF文档处理全方位指南,提升工作效率  豆包AI怎样生成PPT目录页_豆包AI目录自动生成与页码添加【指南】  利用Gen AI和AI Agent进行软件测试:Ollama本地LLM实践  Runway Gen-2怎么用 Runway视频生成AI使用教程  豆包AI怎么用提示词生成短视频脚本_豆包AI脚本提示词编写【教程】 

 2025-07-16

了解您产品搜索量及市场趋势,制定营销计划

同行竞争及网站分析保障您的广告效果

点击免费数据支持

提交您的需求,1小时内享受我们的专业解答。

南京市珐之弘网络技术有限公司


南京市珐之弘网络技术有限公司

南京市珐之弘网络技术有限公司专注海外推广十年,是谷歌推广.Facebook广告全球合作伙伴,我们精英化的技术团队为企业提供谷歌海外推广+外贸网站建设+网站维护运营+Google SEO优化+社交营销为您提供一站式海外营销服务。

 87067657

 13565296790

 87067657@qq.com

Notice

We and selected third parties use cookies or similar technologies for technical purposes and, with your consent, for other purposes as specified in the cookie policy.
You can consent to the use of such technologies by closing this notice, by interacting with any link or button outside of this notice or by continuing to browse otherwise.