【星球武器源码】【游戏联运源码】【外卖模块源码】sia源码
1.计算机软件著作权登记 源程序如何提交
2.使用MindStudio进行FOMM模型推理
计算机软件著作权登记 源程序如何提交
把软件源程序导入到word中,再按照下面说的第十二条的任一种挑出页即可。
软件著作权登记看似简单,操作实务方面还是有很多需要注意的地方,建议找代理机构。
1、星球武器源码软件著作权登记申请表
1.1 申请著作权登记的软件的全称:软件名称应简短明确、针对性强,各种文件中的软件名称应填写一致。
1.2 软件功能和技术特点:
a.硬件环境:指开发和运行登记软件的计算机硬件和专用设备;
b.软件环境:指开发和运行登记软件的操作系统、支持软件的名称及版本号;
c.编程工具及版本号:指编写登记软件的编程工具,如:VC 6.0,VB 6.0;
d.源程序量(条数):指登记软件的源程序的总行数或者总条数;
e.主要功能和技术特点:简短明确阐述软件的创作目的、主要功能、用途和技术特点。说明字数限于字之内。
注:现“广东省软件行业协会”已经专门成立了“计算机软件名称预审部门”,在递交资料前请先到网站下载预审表。(/article.asp?a_id=)
2、申请著作权登记的软件说明文档
文档:指用自然语言或者形式化语言所编写的文字资料和图表,用来描述程序的游戏联运源码内容,组成、设计、功能规格、开发情况、测试结果及使用方法,如程序设计说明书、流程图、用户手册等。
2.1 文档页眉上应当标注该申请软件名称、版本号,外卖模块源码并应当与申请表中相应内容完全一致,右上角应标注页码,文档每页不少于行,有图除外;
2.2 内容不能太简单,请尽量提供完整的文档,将软件的操作介绍完整;
2.3 文档中出现的版权信息应当与申请信息完全一致;
2.4 文档中出现的软件名称应当与申请的完全一致;
2.5 其他根据实际情况应该注意的问题。
2.6 软件著作权申请---详细设计说明书要求指引
1引言
1.1编写目的
1.2背景
1.3定义
1.4参考资料
2总体设计
2. 1需求规定
2. 2运行环境
2.3基本设计概念和处理流程
2.4”结构
2.5功能需求与程序的关系
2.6人工处理过程
2.7尚未解决的问题
3接口设计
3. 1用户接口
3. 2外部接口
3. 3内部接口
4运行设计
4. 1运行模块组合
4. 2运行控制
4. 3运行时间
5系统论据结构设计
5. 1逻辑结构设计要点
5. 2物理结构设计要点
5. 3数据结构与程序的关系
6系统出错处理设计
6. 1出错信息
6.2补救措施
6. 3系统维护设计
等等--具体根据本软件的不同可以酌情书写。
3、申请著作权登记软件的源程序代码要求
3.1 代码要求是提供原始的代码不是关键代码语法上要求完整
例如C++代码应该是include之类开头的而不是直接一开始就是函数
C#代码应该是using之类开头的而不是直接一开始就是函数
要求提供的是对应的代码文件的原始文本
3.2 第一页应该是以下一种情况所在的页面的原始代码
a. 主函数
b. 程序的入口比如登录函数
c.主页比如index default页面
3.3 尽量少提供或者不提供设计器生成的代码
以C#语言为例设计器生成的代码语言文件一般为XXXt.designer.cs
3.4 源程序应提交前、后各连续页,文件登记源码不足页的,应当全部提交;
注:源程序和文档应在页眉上标注相应的软件名称和版本号,右上角应标注页码,源程序每页不少于行,文档每页不少于行。
使用MindStudio进行FOMM模型推理
使用MindStudio对FOMM模型进行ONNX推理
本文介绍使用MindStudio开发工具对FOMM模型进行ONNX推理的全过程。MindStudio是一个一站式AI开发环境,支持模型开发、算子开发及应用开发,内置模型可视化、溯源码解析算力测试和IDE本地仿真调试等功能,能够高效便捷地完成AI应用开发。其插件化扩展机制允许开发者通过开发插件来增强功能。
FOMM模型最早由Aliaksandr Siarohin等人提出,旨在解决图像动画化任务,即通过给定原和驱动视频,生成主角为原,动画效果与驱动视频一致的视频。FOMM模型由关键点检测(kp detector)和视频生成(generator)两个部分组成,解决了以往依赖昂贵真实数据注释的预训练模型无法适用于任意对象类别的问题。
实验主要分为三个阶段:模型简介、MindStudio项目初始化与模型推理。
在MindStudio项目初始化中,首先新建项目并配置CANN工具包依赖。下载GitHub源码库,配置conda环境并安装所需依赖。下载数据集(预处理好的taichi数据集),将其放入项目目录下。
配置远程服务器,包括添加SSH配置和管理CANN工具包。部署项目至服务器,配置远程SSH解释器,设置项目的默认Python环境。
进行模型转换,包括生成ONNX模型、将ONNX模型转换为OM模型。在MindStudio上配置ONNX模型转换程序,导出ONNX模型,然后使用MindStudio的模型转换工具将ONNX模型转换为OM模型。
模型推理阶段分为两个部分:在升腾服务器上推理OM模型和在Nvidia T4上进行线上推理。在升腾服务器上,配置推理环境,运行推理程序,并测试模型精度。在Nvidia T4上,编写线上推理程序,运行并获取性能指标。
在开发过程中遇到问题时,可访问升腾官方论坛获取帮助。此外,FAQ部分提供了针对ONNX模型转换中遇到的错误和使用Model Converter时的常见问题解决方案。