欢迎来到课桌文档! | 帮助中心 课桌文档-建筑工程资料库
课桌文档
全部分类
  • 党建之窗>
  • 感悟体会>
  • 百家争鸣>
  • 教育整顿>
  • 文笔提升>
  • 热门分类>
  • 计划总结>
  • 致辞演讲>
  • 在线阅读>
  • ImageVerifierCode 换一换
    首页 课桌文档 > 资源分类 > DOCX文档下载  

    山东省高等学校省级大学生创新创业训练计划项目中期检查报告.docx

    • 资源ID:444137       资源大小:397.31KB        全文页数:12页
    • 资源格式: DOCX        下载积分:5金币
    快捷下载 游客一键下载
    会员登录下载
    三方登录下载: 微信开放平台登录 QQ登录  
    下载资源需要5金币
    邮箱/手机:
    温馨提示:
    用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP免费专享
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    山东省高等学校省级大学生创新创业训练计划项目中期检查报告.docx

    山东省高等学校省级大学生创新创业训练计划项目中期检查报告学 校山东大学项目编号S项目名称基于人工智能的垃圾瓶检测与分类在FPGA上的设计与实现项目负责人李敬阳项目级别省级一、项目进展情况及取得成果(按照项目研究工作计划逐一对照填写)项目进展情况()按计划进行、()进度提前、()进度滞后主要研究阶段 (起止时间)研窕内容完成情况2021.7.12022.1.1利用YOLOv4架构训练空瓶数据集并做出实时检测基本完成2022.1.1 2022.5.4利用Vitis将yolov4网络转换为硬件描述语言移植到 FPGA平台上运行部分完成项目研究成果(已取得的成果)序号项目成果名称成果形式1基于yolo算法的目标检测网络可执行程序2Xilinx FPGA ZU3EG UltraScale+MPSoC 开发板运行及调试实物二、项目季度报告(项目执行的进展情况,取得了哪些成绩,是否达到预期效果,以及在项目 的开展过程中还存在哪些问题,3(X)0字以内)目前本项目正处于人工智能检测垃圾瓶并进行分类的硬件移植阶段,进展良好。自项目开展以来,本团队成员开展了对于FPGA开发板技术、人工智能技术的理论学习,初步掌握了 FPGA开发版的使用,学习并掌握了人工智能工作原理及其所需的PythOn及C+代码,已经在WindoWS平 台上完成了 YOLo算法计算机视觉网络架构的搭建,并能够使用搭建完成的计算机视觉网络完成数据集标 注、数据集训练、图片检测识别、视频检测识别、摄像头实时检测识别等一系列计算机视觉相关的工作。在软件工作基本完成的同时,项目组成员也迅速展开了对于FPGA开发板的调试与开发,初步完成了 FPGA操作系统的安装。在已完成安装的系统中,本项目组成员已经实现了开发板使用的三种方法,同时在 FPGA的LinUX系统中运行了数个计算机视觉的目标检测实例,验证了开发板具有后续进行实时检测的性能。1 .目标检测在WinlO系统上的软件实现在目标检测的软件实现方面,本项目目前采用的是AlexeyAB的YOLOv4框架。YOLOv4在原有YOLO 目标检测架构的基础上,采用了近些年CNN领域中最优秀的优化策略,从数据处理、主干网络、网络训练、 激活函数、损失函数等各个方面都有着不同程度的优化,在实时目标检测算法中精度最高,实现了精度和 速度的最佳平衡。下图总结了近些年的目标检测检测器的优化改进手段的方向结构组成,同时在下面对几个重要改进的 部分列出了改进的方法:Tio-S(ac Dctcctor图1 yolo做出的改进 InPUt 部分:Image, Patches, ImageSPyramid(图像金字塔) BaCkbone 部分:VGG16, ResNet-50, SpineNet, EfficientNet-B0B7, CSPResNeXt50, CSPDarknet53 neck部分:o Additional blocks: SPP, ASPP, RFB, SAMo Path-aggregation blocks: FPN, PAN, NAS-FPN, Fully-connected FPN, BiFPN, ASFF, SFAM Heads 部分:o Dense Predictions(One-Stage): RPN, SSD, YOLO» RetinaNet (基于 anchor) ComerNet, CenterNet, MatrixNet, FCOS (无 anchor)o Sparse Predictions(two-stages): Faster R-CNN, R-FCN, Mask R-CNN (基于 anchor) RepPoints (无 anchor)下图为yolov4网络结构的采用的算法,其中保留了 yolov3的head部分,修改了主干网络为CSPDarknet53,同时采用了 SPP (空间金字塔池化)的思想来扩大感受野,PANel作为neck部分。主干网络采用CSPDarknet53为了 nW0受野,采用了SPPfi跑想网络结构其他的改进策略采用PANet中的路径聚合楼块瞬用YOIOV冲的headBoF和BoS的选择采丽穗据明算法使用幽传箕法来选腌参数CmeN (妞,Nft国S化)改迸SAMSWftPANMosaicSelf Adverdarial Training (SAT)不使用 PRULUSELURELU6» 活渊使用DrOPBl OCknJ妣方法不使用SynCBN下图为yolov4在技术处理的思维导图:CIoU-IomCmBN (交叉小Itt标府化)OopBIockMowiicSAT (白对仄巾除)detectorCutMr×MouicmKH8DIoUNMSYOLOV4使用class label smoothingbackboneMkh激活CSPDropBIockMIWRC使用MS COCO数据集,在不同的GPU上,使用不同的网络跟YoLoV4进行的对比结果:(横轴为FPS,纵轴为AP值)MS C<M,O Objrct IMrctIoaMS <K O IMc<tlnnMSC (K ()<>hi«l IMcYti<x<M (JObicct IMr<ti<mbOtO44M>r(¼ve*图2 yolo检测与传统算法的对比目前本项目已经完成了运用yolov4网络在WindOWS平台上进行数据集训练、图片检测、视频检测、实 时检测,将在文末展示部分检测成果。2.目标检测的开发板硬件移植在硬件方面,选择了 XiIinXFPGAZU3EGUltraScale+MPSoC 的 UItra96-V2 开发板,Ultra96-V2 是基于 Arm的Xilinx Zynq UltraScale+ MPSoC开发板。Ultra96-V2采用Microchip认证的无线电模块设计,可 在全球更多国家/地区使用。此外,Ultra96-V2提供商业和工业温度级选项。使用随附的InfineonPmiCS可 以实现额外的功率控制和监控。与Ultra96 一样,Ultra96-V2从提供的Delkin 16 GB microSD卡启动。可 以选择使用集成的无线接入点功能通过Web服务器连接到Ultra96-V2,或者使用提供的Linux Matchbox Windows环境,可以在集成的Mini DisplayPort视频输出上查看。提供了多个应用示例和板载开发选项作 为示例。开发板可以通过板载USb接口连接DP屏、鼠标和摄像头,通过jtag串口可以连接电脑进行通信, 在Sd卡中烧入镜像文件后,开发板可以跑相应的IinUX系统。目前已实现了全部三种方式使用开发板:jiag的串口通信:通过jiag连接Ultra96开发板并进行COM 口通信的结果,进入IinUX的终端来对 开发板进行操作。Wifi通信:通过连接开发板的板载Wifi登录。 开发板跑IinUX系统:使用WIn32_disk_imager将镜像烧录入Sd卡后连接DP屏,在IinUX系统中进 行操作。同时本项目组己经使用安装的LinUX程序运行了数个VitiS-Al下的目标检测示例,将于报告末尾附上实 例运行结果。部署前对yolov4的模型进行可视化的操作:图3.4可视化具体操作流程在利用Vitis将yolov4网络转换为硬件描述语言移植到FPGA平台上运行部分:由于开发板自带的LinUX 系统无法完成darknet配置,且开发板不支持yolo的直接移植,故我们通过xilinx的官方教程将yolov4转化 为caffe框架进行开发板的部署。下图是我们的流程概述:通过ssh终端访问ultra96v2开发板进行移植模型的初步测试对单张图片或视频进行检测,命令行调用模型进行检测,并在终端输出result的坐标位置,在文件目录处保存result的结果:对于理想瓶子:X 0 Rewde womo6 55H).iMkr.w.1M proc.rwtt.hppM4) RnuIY: 31:42. U7QMT.5W> 17,30« US.4M IS.)M procVB-rwlt.hpp:44) M£WlT: 19ISC.S2 17.3419 201.Uf H3.:42.1771M1M5 proce«*_rmXt.hpp:44) KMUlT: 7ns.M 274.214 I”.:Q.im”,M2135 procBS.rXt.hppM4) RtWlT:"IM.«4 If .7m 201.5 1,2.reot*1Mv2bcb*22-2ruraharvt%-t-l9rryflal/Mb3ta9U2 rot*Mv7.卬MSI213 H: .mz八 1213 1«: .7TM>C>r IettGMflMgsgl > 9 wtten to S4M 139 procv.rcuK.hppz44) RtWlT: 26.1Wl 15.4IJT C4.<MI"1S 1« .Wll2 10213 K .71242 1813 14rbcRZ2:Y S u*rhrvit*.lbrry9MplyQlV bc-Uv-227zuvrhrvttbrryr*MplvrotmM .八”1P«9AlOv,yolov4,:42.UNKfClSTtUD VttSXOft Nmm MPCat *6XAr ST “tncybrq to the ReWoMl dt>on Mr Hn. lll,nabjm EtMtSA<y对于现实的瓶子检测效率还有待加强:root*uMv2-vcbM-202O*2:- cd urM<,vtt,.librryplfZyolovVr8t»彩2sb<-bai42022:s=4r/v11l-LlIbr”plyol.tstjUotS4 WIOV4 y,PP. bottX3. jpgMIMIlM: I099Eg b"r In<<409tH099iA9< > ' wf ttt to STDCWt19215 lSrO442.11S35 .83102X6215 14:04:42.127S6 .2421815 .82563必5 14:04:42,127214 .W42711215 li:94:42,127279 .WM1385 ProW*ultM44 RESULT: »1365 procssaarwlt.:44 RESULT: »130 proc9.rtult.lpr44 R£MT: A130) proc。”JeWlt .5:3】 RCMT: A1385 proe»5.rewlt.Mp:44) WSIAT: W6.394917S.5063 1M.6B2 iM.3W1.92415.413717.343917. >43933.W18.7%6e.65BS 123.466Ml.6½4.2M »1.4»162.2 9£63.15 6163.” 00.33”£62. WW Rmo mo<o<V9rMtgu2 stc bas« 202 2: usrsft*rev it lt.t.l Ibraryspl<syolov4 .titWJOIS4 MlOV4 _Hy_呻>_ bottlvl.jpgWVUiIMG: Iogtng bfor IfHtGooQlt099s6 ) is written to 5TORR10213 14:13:11,90170 1322 proce»»_rewlt.p44) RESULT: 13 2.2131 19.189 578.94 426.94” Jl54”I21S U: 13:11.945690 1322 procs result.Mp:44 RESULT: 79 0.827M8321.987 245.2114H 155 51MWftHuMv2 - 4-ba»« 2622: grf /v tC(bfarytMlMyolov4 目前遇到的主要问题就是yolo模型在转化为caffe模型时会遇到严重的精度损失情况,目前我们又安装了 caffe框架对转化后的模型进行进一步训练。三、经费使用明细情况项目获批总经费:4000元已使用项目研究经费:3260 元已报销金额:980元未报销金额:2280 元项目经费开支情况名目用途金额备注论文版面费专利申请费调研、差旅费打印、复印费复印资料书籍,打印报告及代码50资料费试剂等耗材费元器件、软硬件测试、 小型硬件购置费FPGA开发板1个,jtag调试模块1个,高 清线1个,电源转换器1个,Sd卡1个, 摄像头1个,其他电子零件配件。3210其它四、项目后期具体工作计划目前本项目在软件实现和硬件移植方面均没有太大技术难题,但在向开发板的移植过程中 遇到了严重的精度损失情况,后续将优化数据集的质量并对转化后的caffe模型进行进一步训 练,以期在开发板上获得良好移植效果。五、指导教师意见:(包括项目的组织实施、进度、预期效果、经费使用等情况)进展顺利,同学们在FPGA和深度学习两方面的知识储备达到了一定程度,将二者无缝融 合是一个有挑战性的工作,同学们加油。指导教师签字:Li:2022年4月18日六、学校审核意见:季度检查结果类别(请在对应结果中打"V”)庄 日Fl通过限期整改不合格上传成果附件:Windows平台yolov4计算机视觉网络成果展示Y0L0v4部分数据集M9JPGM6JMm103JR>Iflkn12OJFG9im“7.gA*m70JPGim67.炉6Aim104JPGkn12IJPG i im1»JPGImlSSJPGim55JPGinSJPGbn7JPGM3JPGim24JPGkn72JFG7im89.gim106JPG>lm123JPGim14OJPGIiml57JPGamWJPGimJPGZbn73JPG9OJPG而10, JpGn124-JPGn141JPGEisajPGim4(AGi41JP6 r9JPG MSJPG im26.J9GFlt*42JPGEIJFGnMJK M5JP6im57JFGim74JPGw¢1JPGim10JPGlm12SJTGim142.JPGhnl59J¢GimMJPGlm75JPGSm92K>Gim14klPGmieJPGimXgim111JPGLlm128JPGim1O9JPGkm12JPGiml6lJPGE?im14JPG.iml62JPG9SJPG w%J2 I En112JK mll3JPGHten129JPGm146uJPGnl6UMImBOJFGrrim147.jr<»im164QG1工B"im97.JPG1n114JPGiml31JPG3Sirn14aJPGiml65JPG«". 1 工旦im132JPGv149JK>iml必陷ImUJPGn4gWif65JPGiPGknW.gim116JPGkn133JPGim10JPGImISJPG im32JPG m49JP(J一 1wnWJPG- im83JPGjEIgJPGbn117Jf>G8ml MJPG u HISl.JPGEeJpG .im33JPGLim5ajPGe67JPGtf*44JPGim101./PGimH8JPGaim17JPGEim34J9G7im5lJPGaim68JPGim5JPG4jJmIOZJPGim119JPGlm136JPGIflim15XJPGim167JP6数据集训练结果current av< loss = 0.0304 iteration = 6000 Press ts, to save : chart.pn< - Savedapprox, time left = 0.03 hours Iteration numberin cf< maxbatche8-6000对于图片的检测结果摄像头实时检测截图如下Ultra96调试成果展示LinUX系统运行目标检测实例Vitis-AI下的车辆识别Vitis-AI下的道路分段检测Vitis-AI下的人体姿势检测利用Vitis将yolov4网络转换为硬件描述语言移植到FPGA平台上运 行部分的关键步骤:Ubuntu下激活Vitis-Ai的主机docker环境:Darknet网络转caffe模型:3.2) Darknet Model Conversion The next step is to convert the darknet model to a Caffe model. This will be done using the built in conversion function which is part of the Vitis-Al Caffe install.bash <Pth to Vitis-AX Install>Vitis-AIdockrsrun.sh ×ilin×vitis-ai-gpu:latst conda activate vitis-i-cfe bash script>darkt,convrt. $hJstdldl: /DesktopZyolov4-tutorlal(vitis-ai-caffe) Vitis-AI / > binetcIib32nntrootboothomelib64optrundevlibmediaprocsbin(vitis-ai-caffe) Vitis-AI / > (vitis-ai-caffej Vitis-AI / >srv usrsys var sudo chmod -R cd workspaceFile Edit View Search Ierminal Help (vs-a-caej vis-Ai /workspace > CaVitisaihomexrt.deb777 workspace(vitis-ai-caffe) Vitis-AI /workspace > bashscripts/darknet convert obj.sh block:OrderedDiCt('type', ,route'), ('layers, ,-2,)J) b!ock:OrderedDict('type', 'route'), ('layers', ,-1,-7') concat layer: OrderedDict(,bottom', 'layer8-conv', ,layer2-conv'), (,top, layer9-concat'), ('name', ,layer9-concat')r ('type', 'Concat') block:OrderedDict('type't 'route'), ('layers', ,-2') block:OrderedDict('type', ,route'), ('layers', '-1,-l')concat layer: OrderedDict(,bottom, ,layer21-conv, 'layerl2-conv,), ('top 'Iayer22-concat'), ('name, 'Iayer22-concat'), ('type', 'Concat')block:OrderedDictC('type* f 'route'), ('layers', '-2')block:OrderedDict('type', 'route'), (,layers', '-1,-28')concat layer: OrderedDict(,bottom', ('Iayer52-conv', 'Iayer25-conv,), ('top ,layer53-concat,), ('name', ,layer53-concat,), ('type', 1Concaf)block:OrderedDict('type', 'route'), ('layers', '-2')block:OrderedDict(,type, 'route'), (,layers*, '-1,-28')concat layer: OrderedDict('bottom'r (,layer83-conv', 'Iayer56-conv,), ('top ,Iayer84-concat'), ('name", ,layer84-concat'), ('type*, 'Concat')模型的量化编译:3.3) Model Quantization Before quantizing the model, we will need to make a minor modifcations to .protot×t file to point to the calibration images. Make a new copy of the prototxt file and make the following edits:cp vocyolov4. prototxt vocyolov4quant. prototxt3.5) Model CompilationPrototxt File Mods Before compiling the model we will need to make a minor edit to the deploy prototxt file yolov4 quantized/deploy.prototxt. Comment out lines 5-9 as shown below:bash scripts/run_v«i_c_zcuie4.shThe compiled ×model file will be located in yolov4_compiled/dpu_yolov4_voc.xmodeli/home/StdvDeSktOPyolov4tUtorlalyolev4j¾bLcompHe<V(Name Size TVpeDate Modifieddpu_yolov4_obj.xmodeldpu_yolov4_obj_org.xmodelmd5sum.txtmeta.json182.6 MB unknownYesterday256.9 MB unknownYtesterday33 bytes plain text documentYesterday180 bytes JSON documentYesterday

    注意事项

    本文(山东省高等学校省级大学生创新创业训练计划项目中期检查报告.docx)为本站会员(夺命阿水)主动上传,课桌文档仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知课桌文档(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    备案号:宁ICP备20000045号-1

    经营许可证:宁B2-20210002

    宁公网安备 64010402000986号

    课桌文档
    收起
    展开