Home
last modified time | relevance | path

Searched refs:NNRT (Results 1 – 14 of 14) sorted by relevance

/ohos5.0/docs/zh-cn/application-dev/reference/apis-mindspore-lite-kit/
H A Dcontext_8h.md54 …RTDeviceDescs](_mind_spore.md#oh_ai_getallnnrtdevicedescs) (size_t \*num) | 获取系统中所有NNRT硬件设备的描述信息。 |
57 …RTDeviceDesc](_mind_spore.md#nnrtdevicedesc) \*desc) | 从特定的NNRT设备描述信息实例获取NNRT设备ID。注意,此ID只对NNRT有效。 |
58 …esc) (const [NNRTDeviceDesc](_mind_spore.md#nnrtdevicedesc) \*desc) | 从特定的NNRT设备描述信息实例获取NNRT设备名称。 |
59 …esc) (const [NNRTDeviceDesc](_mind_spore.md#nnrtdevicedesc) \*desc) | 从特定的NNRT设备描述信息实例获取NNRT设备类型。 |
60 …md#oh_ai_creatennrtdeviceinfobyname) (const char \*name) | 查找指定名称的NNRT设备,根据找到的第一个设备信息,创建NNRT设备信息。 |
61 …RTDeviceType](_mind_spore.md#oh_ai_nnrtdevicetype) type) | 查找指定类型的NNRT设备,根据找到的第一个设备信息,创建NNRT设备信息。 |
62 …le](_mind_spore.md#oh_ai_deviceinfohandle) device_info, size_t device_id) | 设置NNRT设备ID,仅NNRT设备可用。 |
63 …_AI_DeviceInfoHandle](_mind_spore.md#oh_ai_deviceinfohandle) device_info) | 获取NNRT设备ID,仅NNRT设备可用。 |
65 …_AI_DeviceInfoHandle](_mind_spore.md#oh_ai_deviceinfohandle) device_info) | 获取NNRT性能模式,仅NNRT设备可用。 |
66 …) device_info, [OH_AI_Priority](_mind_spore.md#oh_ai_priority) priority) | 设置NNRT任务优先级,仅NNRT设备可用。 |
[all …]
H A Dtypes_8h.md24 | [OH_AI_NNRTDeviceType](_mind_spore.md#oh_ai_nnrtdevicetype) | NNRT管理的硬件设备类型。 |
25 | [OH_AI_PerformanceMode](_mind_spore.md#oh_ai_performancemode) | NNRT硬件的工作性能模式。 |
26 | [OH_AI_Priority](_mind_spore.md#oh_ai_priority) | NNRT推理任务优先级。 |
29 | [NNRTDeviceDesc](_mind_spore.md#nnrtdevicedesc) | NNRT设备信息描述,包含设备ID,设备名称等信息。 |
38 …PU = 1,<br/>OH_AI_NNRTDEVICE_GPU = 2,<br/>OH_AI_NNRTDEVICE_ACCELERATOR = 3<br/>} | NNRT管理的硬件设备类型。 |
39 …IUM = 2,<br/>OH_AI_PERFORMANCE_HIGH = 3,<br/>OH_AI_PERFORMANCE_EXTREME = 4<br/>} | NNRT硬件的工作性能模式。 |
40 …PRIORITY_LOW = 1,<br/>OH_AI_PRIORITY_MEDIUM = 2,<br/>OH_AI_PRIORITY_HIGH = 3<br/>} | NNRT推理任务优先级。 |
/ohos5.0/docs/zh-cn/application-dev/ai/mindspore/
H A Dmindspore-lite-guidelines.md122 情形2:创建NNRT(Neural Network Runtime)和CPU异构推理上下文。
124NNRT是面向AI领域的跨芯片推理计算运行时,一般来说,NNRT对接的加速硬件如NPU,推理能力较强,但支持的算子规格少;而通用CPU推理能力较弱,但支持算子规格更全面。MindSpore Lit…
128 …> NNRT/CPU异构推理,需要有实际的NNRT硬件接入,NNRT相关资料请参考:[OpenHarmony/ai_neural_network_runtime](https://gitee.co…
137 // 优先使用NNRT推理。
138 …个ACCELERATORS类别的NNRT硬件,来创建nnrt设备信息,并设置硬件使用高性能模式推理。还可以通过如:OH_AI_GetAllNNRTDeviceDescs()接口获取当前环境中所有N…
/ohos5.0/docs/en/application-dev/ai/mindspore/
H A Dmindspore-lite-guidelines.md122 …Scenario 2: The neural network runtime (NNRT) and CPU heterogeneous inference contexts are created.
124NNRT is the runtime for cross-chip inference computing in the AI field. Generally, the acceleratio…
128 …> NNRT/CPU heterogeneous inference requires access of NNRT hardware. For details, see [OpenHarmony…
137 // Preferentially use NNRT inference.
138NNRT hardware of the first ACCELERATORS class to create the NNRT device information and configure …
/ohos5.0/foundation/ai/neural_network_runtime/test/unittest/components/v1_0/inner_model/
H A Dops_registry_test.cpp29 namespace NNRT { namespace
H A Dnn_validation_test.cpp26 namespace NNRT { namespace
H A Dnn_tensor_desc_test.cpp26 namespace NNRT { namespace
H A Dnn_tensor_test.cpp27 namespace NNRT { namespace
H A Dinner_model_test.cpp39 namespace NNRT { namespace
/ohos5.0/foundation/ai/neural_network_runtime/test/unittest/components/v2_0/inner_model/
H A Dops_registry_test.cpp29 namespace NNRT { namespace
H A Dnn_validation_test.cpp26 namespace NNRT { namespace
H A Dnn_tensor_test.cpp27 namespace NNRT { namespace
H A Dinner_model_test.cpp39 namespace NNRT { namespace
/ohos5.0/foundation/ai/neural_network_runtime/example/deep_learning_framework/
H A DREADME_zh.md111 "[NNRT-DELEGATE] Get unsupportted node: %d.", registration->builtin_code);
175 TFLITE_LOG(WARN) << "NNRT acceleration is unsupported on this platform.";