INTEL® CORE™ ULTRA 155H · EDGE AI PLATFORM
AIspeakin Edge AI x Intel® Core™ Ultra 155H
搭載 Intel® Core™ Ultra 155H 的邊緣 AI 平台,整合高效能 CPU、NPU 與多模態 AI 引擎,能在本地端執行語音、翻譯與對話推論,為智慧城市、醫療、企業與交通場域,提供高隱私、高穩定的邊緣 AI 服務。
●Edge AI Inference
●AIspeakin Offline Engine
●Multilingual Transcription & Translation
●Secure On-Premise Deployment
Intel 155H Edge-ready
Offline Multilingual Speech Transcription & Translation
Healthcare / Defense Friendly
核心功能亮點
- 高效 AI 推論能力:可同時執行多種 AI 模型。
- 多模態邊緣 AI:同時處理語音辨識、語言翻譯。
- 工控級可靠度:24/7 運作、低功耗,高穩定性,適合長時間運作場域。
- 資料在地留存:支援完全離線或企業內網部署,強化隱私與資安控管。
- 資料不離場域:對話內容與紀錄皆保存於院內機房、控制中心或企業內網。
- 適合高資安要求場域:例醫療、國防、運輸營運等對機敏機料與隱私特別注重的產業。
- 低延遲且高穩定:不受外部網路品質影響。
Benchmark 與效能測試
Intel® Core™ Ultra 155H 在語音辨識 (ASR) 與翻譯任務中的 CPU / GPU / AUTO 模式效能如下,
可對應不同場域針對延遲與效能的需求進行調整與選用。
模型模式 A
| No | Language | Audio Duration | ASR CPU | ASR GPU | ASR AUTO | Trans CPU | Trans GPU | Trans AUTO |
|---|---|---|---|---|---|---|---|---|
| 1 | English | 2.11 min | 68.95s | 35.64s | 38.12s | 52.75s | 23.75s | 22.91s |
| 2 | Japanese | 35 sec | 21.39s | 11.60s | 11.71s | 16.95s | 19.33s | 17.62s |
| 3 | Mandarin | 11 min | 319.90s | 170.92s | 212.73s | 89.21s | 30.33s | 31.95s |
模型模式 B
| No | Language | Audio Duration | ASR CPU | ASR GPU | ASR AUTO | Trans CPU | Trans GPU | Trans AUTO |
|---|---|---|---|---|---|---|---|---|
| 1 | English | 2.11 min | 31.95s | 31.57s | 34.41s | 29.34s | 25.13s | 23.35s |
| 2 | Japanese | 35 sec | 11.19s | 9.69s | 10.39s | 16.77s | 19.08s | 17.44s |
| 3 | Mandarin | 11 min | 167.38s | 153.20s | 187.05s | 87.73s | 30.61s | 32.24s |
模型模式 C
| No | Language | Audio Duration | ASR CPU | ASR GPU | ASR AUTO | Trans CPU | Trans GPU | Trans AUTO |
|---|---|---|---|---|---|---|---|---|
| 1 | English | 2.11 min | 32.64s | 33.27s | 32.38s | 30.81s | 27.97s | 24.48s |
| 2 | Japanese | 35 sec | 11.07s | 7.93s | 8.67s | 17.28s | 22.06s | 20.11s |
| 3 | Mandarin | 11 min | 160.00s | 124.30s | 153.66s | 85.67s | 30.88s | 31.75s |
效能結論
- GPU 模式在大部分語音辨識任務中可帶來約 2× 以上加速,特別是長音檔(如 11 分鐘中文)。
- 翻譯任務在 GPU 與 AUTO 模式的延遲明顯較低,適合需要快速回應的互動場景。
- AUTO 模式能依語音長度與負載動態分配資源,適合中長音檔或多模型同時運行。
- 整體而言,Intel 155H 搭配本地 AI 引擎,能在離線與高安全需求場域提供即時且穩定的多語語音服務。
