
人工智慧(AI)和機器學習(ML)的出現為無線存取網路(RAN)在珍貴無線電頻譜的使用上提供了前所未有的機會。
前言
近十年來,人工智慧(AI)與機器學習(ML)技術蓬勃發展並廣泛應用。近期,OpenAI的出現普及了AI技術,NVIDIA執行長黃仁勳稱之為「AI的iPhone時刻」。此後,AI技術發展加速,已趨於成熟並被視為穩定技術,廣泛應用於解決複雜問題。
AI技術擅長處理具隨機性和非確定性的場景,尤其在分析龐大數據以捕捉模式和關聯性方面。透過對現有數據的訓練,AI技術能夠學習並預測數據的內在行為。
在電信領域,AI已展現其重要性。電信產業積極採用AI解決方案,此趨勢亦反映在標準化進程中,例如3GPP在5G和5G Advanced規範中日益增加對AI解決方案的採用,以提升網路性能並實現智慧網路自動化。
這些發展共同促使AI成為電信產業中普遍應用的技術,並衍生出「AI原生(AI Native)」一詞,已成為學術界和產業界的討論焦點,並被視為未來6G技術趨勢的共識之一。在AI原生網路中,除了軟體、硬體以及資料(data)等基礎架構(infrastructure)是以無所在的AI作為考量外,也意味著用AI來設計或者說取代傳統存在於各通訊協定層的單一或者多個傳統功能模組。隨著AI角色擴大,預期其將在電信系統設計與管理中發揮更重要的影響,涵蓋網路協定的各個層面。本文重點在於探討應用AI技術提升無線接取網路(Radio Access Network, RAN)的效能。
精彩內容
1.AI原生成為6G技術趨勢共識 2. AI對電信產業及標準化的衝擊 3.AI應用於RAN異常流量偵測 |
AI原生(AI-Native)網路
目前電信產業對未來6G的願景及技術選項的看法仍然分歧,但AI原生(AI-Native)應是最大的共識。簡單的說,AI原生意味著網路在部署後立即(Day-1)就可以在網路中展開各種AI應用。
更深入地來看,布建AI原生6G指的是在網路架構的各個層面深度整合人工智慧,網路內建包含資料收集等可支援人工智慧的各種相關功能。主要電信設備廠商的觀點包括:
- AI與網路的深度整合:AI應用於空中介面(air interface)、協議(protocol)和服務(application)層,實現對訊號動態、能效等系統指標的即時優化。AI也可能使目前的通訊層之間的界限消失,未來可能會有許多跨通訊層的AI模組。
- 自動化(autonomous)網路運作及維護:網路透過閉環系統和預測分析實現自我配置,大幅減少人工干預。
- AI運算與網路的統一基礎設施:將AI與無線接入網負載整合於加速運算平台(如NVIDIA AI Aerial),使頻譜效率較5G提升10至100倍。
利用AI提升網路效能
傳統頻譜管理和無線電資源分配方法通常基於預定義規則和統計模型。然而,現代無線環境呈現動態和複雜特性,包含多樣化的流量模式、密集的部署和變化的通道條件,加上通訊系統複雜度呈指數成長,使得僅依賴傳統基於模型(Model-based)的設計方法難以實現最佳頻譜效率。
AI/ML技術憑藉其數據驅動(Data-driven)和自適應能力,可克服上述限制,並透過以下方式顯著提高頻譜效率:
- 動態頻譜共享:AI能分析即時頻譜使用情況和流量需求,實現不同營運商、不同無線接取技術(Radio Access Technology)之間,甚至同一網路不同部分內更彈性高效的頻譜共享。深度強化學習(Deep Reinforcement Learning)可基於觀察到的流量模式學習最佳頻譜共享協定。
- 智慧型無線電資源管理:ML演算法能預測流量負載及偵測異常流量、用戶需求和通道條件,進而動態分配無線電資源,如頻寬、功率和時槽(slot)。此精細化資源分配可最大限度減少浪費,並在有限頻譜內支援更多用戶和服務。
- AI原生空中介面(air interface):未來可由AI從根本上設計空中介面,包括波形(waveform)、調變(modulation)、編碼(coding)和參考訊號 (Reference Signals),此在提高頻譜效率方面具巨大潛力。透過學習針對特定頻率、硬體限制、通道特性和應用需求優化的客製化空中介面參數,AI可超越OFDM等預定義標準的限制。
- 先進的多重輸入輸出(MIMO)和波束成形(Beamforming):AI/ML可透過預測準確的波束入射角(Angle-of-Arrival)、優化波束選擇和更有效地抑制干擾(尤其在高頻頻段波束管理至關重要)來增強大規模MIMO和波束成形技術的效能。
- 最佳化的鏈路適應(Link Adaptation):基於ML的自適應調變與編碼(Adaptive Modulation and Coding, AMC)可根據即時通道估計和所需的服務品質(QoS)要求動態選擇最有效的調變與編碼方案,在滿足可靠性目標的同時最大化頻譜效率。
- 認知頻譜使用及共享:感測頻譜的使用是高效率頻譜共享的最重要技術,針對這個非線性的複雜問題,使用人工智慧如深度強化學習等技術可實現在授權頻段內自主且高效的頻譜共享,能更大幅提高對於珍貴且稀少的頻譜資源的使用效率。
AI對通訊標準的影響
將AI/ML深度整合至RAN和空中介面中,為3GPP等標準化組織和O-RAN聯盟(O-RAN Alliance)等倡議帶來了機遇與挑戰。
標準化的新典範(Paradigm):傳統標準化固定協定和參數的方法可能需要調整以適應AI/ML驅動的設計。更長遠來看,AI驅動的標準化亦可能實現,AI本身未來或可在標準化過程中發揮作用,包括自動化設計、驗證和測試等環節。以3GPP的RAN Group為例,目前已經在5G-Advanced標準制定中的應用為在無線通訊界面(air interface),包括:通道狀態(channel state information, CSI)預測、通道狀態壓縮、波束(beam)預測/管理以及定位(positioning)等。
關注互操作性(Inter-operability)和介面:標準化工作可能轉向定義開放介面、資料格式和控制機制,使來自不同供應商的各種AI或ML模組能在RAN架構內無縫互操作(seamless IOT)。
定義AI功能和效能指標:標準需要定義RAN內AI/ML組件的功能,包括資料收集(Data Collection)、訓練、推論和決策過程。此外,可能需要新的效能指標來評估AI驅動的頻譜優化技術的有效性和效率。
AI對電信產業帶來的挑戰
對頻譜效率的追求一直是無線通訊演進的主要動力。人工智慧(AI)和機器學習(ML)的出現為無線存取網路(RAN)在珍貴無線電頻譜的使用上提供了前所未有的機會。將AI整合到包括網路管理等關鍵軟硬體組件中,不僅有望顯著提高頻譜效率,而且將對整個電信產業產生深遠的影響,涵蓋營運商、網路設備供應商、手機製造商和通訊晶片設計商。
- 營運商:營運商需要管理更複雜的AI驅動網路。AI即服務(AIaaS)可能成為營運商新的收入來源。
- 網路設備供應商:供應商需要大力投資AI的研發,以創建智慧型RAN解決方案。產品重點將從純粹以硬體為中心的解決方案轉向整合的硬體和AI軟體平台。AI/ML能力將成為網路設備供應商之間的關鍵要素。
- 手機製造商:手機將愈來愈多地整合AI功能,以支援智慧型RAN功能。與網路協作的AI也將帶來新的挑戰,包括模型的互運性等,隨著設備中AI處理的普及,功耗將是一個關鍵的設計考量。
- 通訊晶片設計商:晶片設計商需要在其晶片組中整合專用的AI硬體加速器。設計具有低功耗的AI功能晶片對於網路基礎設施和行動設備至關重要。同樣重要的還有如何保護通訊晶片上的AI模型和數據。
案例研究
AI應用在提升RAN效能方面,目前尚在初期萌芽的階段。其中為最人所質疑的是其對軟硬體的需求、運算複雜度以及耗電量。為了對這些問題有更深入的了解,去年我們選擇了「利用AI提升網路效能」章節中所列的兩個應用類別:1.智慧型無線電資源管理。以及2.先進的多重輸入輸出和波束成形。分別選定了以下兩個應用案例:利用AI網路異常流量偵測(anomaly detection)以及利用AI進行多天線波束成形的波束預測(beam prediction)。以電腦實作AI模型加上以電腦模擬的方式分析AI在這些應用上對RAN效能的提升。因篇幅有限,以下僅摘要AI網路異常流量偵測這個案例研究的主要成果:
AI/ML RAN Traffic Anomaly Analysis
網路異常流量分析(traffic anomaly analysis),是指透過監控、收集與分析網路流量數據,來偵測並識別網路中出現異常或可疑的流量行為。這類分析通常會建立正常網路行為的基線,並將即時流量與基線進行比對,藉此發現像是DDoS攻擊、資料外洩、蠕蟲病毒(worm virus)等潛在的安全威脅或異常事件,並可與系統整合進行自動防禦(如阻擋來源IP、調整防火牆規則、限制可疑流量、封鎖特定協定、隔離受感染設備等),是提升網路管理效能的重要工具之一。在O-RAN軟體社群(O-RAN software community, OSC)上有許多關於網路資源智慧管理的研究,其中以部署於網路智慧控制器(RAN Intelligent Control, RIC)上的異常偵測(anomaly detection)xApp與基地台感知議題最為相關。因此我們應用人工智慧技術於RAN流量異常偵測,期待利用AI可以使RAN做出更精準的異常流量偵測。
- 推論模型(inference model)
此案例選用了幾種機器學習方法來進行流量異常偵測的推論(inference):1.支援向量機 (Support Vector Machine, SVM)[6]、2.極限梯度提升法(Extreme Gradient Boosting, XGBoost)[7]以及3.屬於遞迴式神經網路(RNN)的雙向閘門循環單元(Bi-GRU)[5]。
- 訓練資料集(training dataset)
此案例採用加拿大新不倫瑞克大學(University of New Brunswick, UNB)旗下的訊息安全中心(Canadian Institute for Cybersecurity,簡稱 CIC)所公開的UNB ISCX 2012資料集[3]。使用的測試資料集(Testing Dataset)包含2500筆正常流量與122筆異常流量,每筆流量為60秒的流量(時間步長為12,每一步長為5秒)。模型輸入之特徵值(features)則參考[4]中所提及的特徵作為模型初步訓練時特徵選擇的依據,共採用了16種特徵。
- 資料前處理(data pre-processing)
首先會根據來源IP(source IP)、目的IP(destination IP)、目的埠(destination port)、協議(protocol)區分出每一條流量,並依流量分別去計算相對應的16種特徵值。後續再對資料進行標準化,最後再依據時間步長(timestep)生成模型使用的訓練集、測試集。
- 效能評估
異常偵測屬於分類(classification)問題,而分類模型表現評估方面,常使用混淆矩陣(confusion matrix)來呈現(表1)。矩陣中列(row)的部分是真正的答案,而欄(column)的部分則是模型預測出的答案,positive指的是偵測到異常。混淆矩陣中的四個象限分別指的是:TP(true-positive)、FP(false-positive)、FN(false-negative)、TN(true-negative)的個數。再進一步可將其轉化成4種常見的量化指標作為評估依據,分別有正確率(accuracy)、精確率(precision)、召回率(recall)與F1分數(F1-score)。在以下的分析中我們主要看的是F1分數,其計算公式為(2*precision*recall)/(precision+recall)
在以下的效能評估中,我們以盲猜(blind guess)的結果來作為基準。如表1所示,在盲猜全部正常流量的情況下,由於測試資料集中正常流量的比例較高,因此正確率(accuracy=(TP+TN)/(TP+TN+FP+FN))可以來到95.12%,然而其他三個指標則會是NA或是0%。而在盲猜全部異常流量的情況下,唯獨召回率(recall=TP/(TP+FN))會因為公式定義的緣故,數值會來到100%(混淆矩陣中的 FN(false-negative)為0),其他三者都是在非常低的百分比。透過這兩個結果可以觀察到在資料正反例數量不平衡的狀況下,正確率作為指標不太具有參考價值,而精確率(precision=TP/(TP+FP))與召回率也因公式定義的緣故容易受極端預測行為影響。因此,F1分數作為是精確率與召回率的調和平均數,會是一個比較好的評估指標。
表1 基於盲猜的異常偵測表現

接下來我們來看使用機器學習方法(SVM、XGBoost及bi-GRU)的異常偵測表現,表2、表3可以發現SVM的表現相較於非AI/ML的方法,表現明顯較佳,F1分數能夠來到76.47%。而XGBoost的F1分數更是能夠來到94.11%。
表2 基於SVM的異常偵測表現

表3 基於XGBoost的異常偵測表現

若使用深度學習的bi-GRU模型,表4可以看出該模型在四種指標上都有相對好的表現,尤其是F1分數可以達到97.90%,高於其他比較基準。
表4 基於bi-GRU的異常偵測表現

基於上述研究的觀察,可以看出機器學習應用在RAN網路流量異常偵測比起非機器學習的方式確實可以帶來明顯的效能提升,所付出的成本是複雜度提高。但這些模型的複雜度應該是有可能在RAN上實現。尤其考量AI技術及算力的突飛猛進,可以預期AI算力的大幅提升以及耗電量的大幅降低,本研究顯示AI技術對未來開放式RAN之異常偵測具體可行性與部署潛力。
結論
將AI/ML整合至RAN彰顯著無線通訊的典範轉移。雖然有望顯著提高頻譜效率和整體網路效能,但也會影響傳統的標準化流程。此外,這個趨勢也可能深刻影響電信產業,營運商可期待增強的網路能力和降低的成本,但也面臨更高的複雜性;網路設備供應商面臨在AI/ML領域進行創新並適應開放RAN架構的挑戰和機遇;手機製造商和通訊晶片設計商將需要開發能夠與AI驅動的RAN功能和潛在的更具彈性的空中介面無縫整合和支援的設備和晶片組。成功應對這些變化對於充分實現6G及未來世代無線網路的潛力至關重要,從而開啟一個更高效、更智慧和更具適應性的無線通訊網路時代。
網路異常流量分析(traffic anomaly analysis),是指透過監控、收集與分析網路流量數據,來偵測並識別網路中出現異常或可疑的流量行為,並可與系統整合進行自動防禦,是提升網路管理效能的重要工具之一。在O-RAN軟體社群(O-RAN software community, OSC)有不少相關的討論。本文以電腦模擬的方式來評估以AI來進行異常流量分析的效能,從模擬結果看來,機器學習應用在RAN網路流量異常偵測比起非機器學習的方式確實可以帶來明顯的效能提升。後續我們也會繼續針對部署在RIC或實體層/MAC層的AI模型及其應用持續探索新的應用案例,例如以AI進行波束預測(beam prediction)等。
利用AI於RAN效能的提升,目前雖仍處於初期發展階段,但3GPP以及O-RAN等標準組織也已經開始相關的標準制定。考量AI原生可能為未來電信設備產業帶來破壞性創新的衝擊,建議產學研盡早準備其所可能帶來的機會與挑戰,尤其是跨領域人才培育以及可能的創新商業模式等,緊跟標準制訂趨勢,提前投入AI原生無線接取網路的設計與驗證實務及布局核心標準智財,掌握技術與產業脈動。
參考文獻
[1] T.-Y. Kim and S.-B. Cho, "Web traffic anomaly detection using C-LSTM neural networks," Expert Systems with Applications, vol. 106, pp. 66-76, 2018.
[2] N. Ramakrishnan and T. Soni, "Network Traffic Prediction Using Recurrent Neural Networks," in 2018 17th IEEE International Conference on Machine Learning and Applications (ICMLA), 2018, pp. 187-193.
[3] A. Shiravi, H. Shiravi, M. Tavallaee, and A. A. Ghorbani, "Toward developing a systematic approach to generate benchmark datasets for intrusion detection," Computers & Security, vol. 31, no. 3, pp. 357-374, 2012.
[4] E. B. Beigi, H. H. Jazi, N. Stakhanova, and A. A. Ghorbani, "Towards effective feature selection in machine learning-based botnet detection approaches," in 2014 IEEE Conference on Communications and Network Security, 2014, pp. 247-255.
[5] X. Yuan, C. Li, and X. Li, "DeepDefense: Identifying DDoS Attack via Deep Learning," 2017 IEEE International Conference on Smart Computing (SMARTCOMP), 2017, pp. 1-8.
[6] J. Cervantes, F. Garcia-Lamont, L. Rodríguez-Mazahua, A. Lopez, “A comprehensive survey on support vector machine classification: Applications, challenges and trends,” Neurocomputing, Vol. 48, pp. 189-215, 2020.
[7] T. Chen and C. Guestrin, “XGBoost: A Scalable Tree Boosting System,” 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, New York, NY, USA, 2016, pp. 785–794.
[8] Y. Xu and Y. Liu, "DDoS attack detection under SDN context," The 35th Annual IEEE International Conference on Computer Communications, 10-14 April 2016 2016, pp. 1-9.
[9] J. Hoydis, F. A. Aoudia, A. Valcarce and H. Viswanathan, "Toward a 6G AI-Native Air Interface," IEEE Communications Magazine, vol. 59, no. 5, pp. 76-81, May 2021.
[10] O. Simeone, "A Very Brief Introduction to Machine Learning With Applications to Communication Systems," in IEEE Transactions on Cognitive Communications and Networking, vol. 4, no. 4, pp. 648-664, Dec. 2018.
[11] Nokia Bell Lab, “Toward a 6G AI-Native Air Interface White Paper,” 2022.
[12] Ericsson, “Defining AI-native White Paper,” 2023.