摘要:从设计之初深刻考虑手机端的部署和使用。无第三方依赖,跨平台,据称手机端的速度快于目前所有已知的开源框架。
- ? 版权: 本文由【墨理学AI】原创、在CSDN首发、各位大佬、开打开打
ncnn 是一个为手机端极致优化的高性能神经网络前向计算框架。
ncnn 从设计之初深刻考虑手机端的部署和使用。
无第三方依赖,跨平台,据称 手机端 cpu 的速度快于目前所有已知的开源框架。
基于 ncnn,开发者能够将深度学习算法轻松移植到手机端高效执行,开发出人工智能 APP.
更多不同大厂商推出的深度学习模型推理部署框架,各位可移步下方博文进行了解
git clone https://github.com/Tencent/ncnn.git
下载 zip,然后 copy 到服务器
unzip ncnn-master.zip
基础 C++ 环境即可、Linux 环境通常具备
sudo 可快速安装相关依赖
sudo apt install build-essential git cmake libprotobuf-dev protobuf-compiler libvulkan-dev vulkan-utils libopencv-dev
VULKAN 解压安装、export 环境变量
wget https://sdk.lunarg.com/sdk/download/1.2.189.0/linux/vulkansdk-linux-x86_64-1.2.189.0.tar.gz?Human=true -O vulkansdk-linux-x86_64-1.2.189.0.tar.gztar -xf vulkansdk-linux-x86_64-1.2.189.0.tar.gzexport VULKAN_SDK=$(pwd)/1.2.189.0/x86_64
ncnn 支持多种平台、安卓端、ios端、以及特定类型的开发板
ncnn-master/build.sh
该脚本下,包含各个平台的编译安装指令,我们可以根据自己平台选择性安装即可
自定义,撰写的一个 Linux(Ubuntu、centOS)下编译安装脚本如下
set -uexBUILD_DIR="build"if [ $# == 1 ]; then if [ $1 == "1" ]; then rm -rf ${BUILD_DIR} fifiif [ ! -d ${BUILD_DIR} ]; then mkdir -p ${BUILD_DIR}fipushd ${BUILD_DIR}rm -rf *cmake -DCMAKE_INSTALL_PREFIX=./install ..make -jmake installpopd # ${BUILD_DIR}
我们看一看,
make install
安装了什么
cd buildtree install
tree installinstall├── bin│ ├── caffe2ncnn│ ├── darknet2ncnn│ ├── mxnet2ncnn│ ├── ncnn2int8│ ├── ncnn2mem│ ├── ncnn2table│ ├── ncnnmerge│ ├── ncnnoptimize│ └── onnx2ncnn├── include│ └── ncnn│ ├── allocator.h│ ├── benchmark.h│ ├── blob.h│ ├── c_api.h│ ├── command.h│ ├── cpu.h│ ├── datareader.h│ ├── gpu.h│ ├── layer.h│ ├── layer_shader_type_enum.h│ ├── layer_shader_type.h│ ├── layer_type_enum.h│ ├── layer_type.h│ ├── mat.h│ ├── modelbin.h│ ├── ncnn_export.h│ ├── net.h│ ├── option.h│ ├── paramdict.h│ ├── pipelinecache.h│ ├── pipeline.h│ ├── platform.h│ ├── simpleocv.h│ ├── simpleomp.h│ ├── simplestl.h│ └── vulkan_header_fix.h└── lib ├── cmake │ └── ncnn │ ├── ncnn.cmake │ ├── ncnnConfig.cmake │ └── ncnn-release.cmake └── libncnn.a6 directories, 39 files
如果是其他项目需要,那么只需 copy install 目录下的这些文件即可开始使用 ncnn
本博文是 ncnn 脚本方式、极简安装的整理,如果本博文脚本直接运行安装失败,多带带步骤安装分析,适用于普通用户的安装方式可参考如下博文
ncnn 普通用户 逐步编译安装教程 | 示例运行【 onnx2ncnn | caffe2ncnn | mxnet2ncnn | darknet2ncnn 】
博主关于 ncnn 的入门博文,总结如下,仅供参考
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/123579.html
摘要:华为云,从到开发训练模型,通过极快和极简实现普惠现如今技术概念火爆落地应用更是繁多,但开发呢是否困难到底有多痛据了解,大部分开发者的工作时间并不长,并且十有八九可能不是科班出身。 华为云EI ModelArts,从0到1开发训练AI模型,通过极快和极简实现普惠AI现如今 AI 技术、概念火爆、落地应用更是繁多,但开发呢?是否困难?到底有多痛?据了解,大部分 AI 开发者的工作时间并不长...
摘要:前言是来自武汉大学和湖北工业大学的项目,是由神经网络风格迁移加生成对抗网络而成,它是基于的改进,并提出了一个更加轻量级的生成器架构。一环境安装安装各它的依赖库。 前...
摘要:阿里妹导读近日,阿里正式开源轻量级深度学习端侧推理引擎。这和服务器端等推理引擎的想法不谋而合。是什么是一个轻量级的深度学习端侧推理引擎,核心解决深度神经网络模型在端侧推理运行问题,涵盖深度神经网络模型的优化转换和推理。 阿里妹导读:近日,阿里正式开源轻量级深度学习端侧推理引擎MNN。AI科学家贾扬清如此评价道:与 Tensorflow、Caffe2 等同时覆盖训练和推理的通用框架相比...
摘要:阿里妹导读近日,阿里正式开源轻量级深度学习端侧推理引擎。这和服务器端等推理引擎的想法不谋而合。是什么是一个轻量级的深度学习端侧推理引擎,核心解决深度神经网络模型在端侧推理运行问题,涵盖深度神经网络模型的优化转换和推理。 阿里妹导读:近日,阿里正式开源轻量级深度学习端侧推理引擎MNN。AI科学家贾扬清如此评价道:与 Tensorflow、Caffe2 等同时覆盖训练和推理的通用框架相比...
摘要:阿里妹导读近日,阿里正式开源轻量级深度学习端侧推理引擎。这和服务器端等推理引擎的想法不谋而合。是什么是一个轻量级的深度学习端侧推理引擎,核心解决深度神经网络模型在端侧推理运行问题,涵盖深度神经网络模型的优化转换和推理。 阿里妹导读:近日,阿里正式开源轻量级深度学习端侧推理引擎MNN。AI科学家贾扬清如此评价道:与 Tensorflow、Caffe2 等同时覆盖训练和推理的通用框架相比...
阅读 2786·2021-11-17 09:33
阅读 2364·2021-11-15 11:38
阅读 2475·2021-11-04 16:13
阅读 15830·2021-09-22 15:07
阅读 812·2019-08-30 15:55
阅读 3130·2019-08-30 14:15
阅读 1559·2019-08-29 13:59
阅读 3076·2019-08-28 18:28