論文閱讀|Machine Learning Enabled Spectrum Sharing in Dense LTE-U/Wi-Fi Coexistence Scenarios

寫給自己看的中文整理版,使用很多的 chatgpt + google 翻譯。

沒有全部,主要是覺得需要多看幾遍的地方。

圖片跟表格甚麼的都對照 paper,就沒有放在文章裡了。

看了完全沒感覺不知所云的也沒放...

 

ABSTRACT

本 paper 旨在應用已知的 machine learning 技術並發展一種新的方法來實現 Wi-Fi 和 LTE 在未經許可的頻譜上的無線頻譜共享。

此工作專注於使用循環工作比 (duty-cycle) 方法以實現公平共存的 LTE-Unlicensed (LTE-U) 標準。

LTE-U 由 LTE-U forum 制定,此標準建議:當同一頻道 (co-channel) 的 Wi-Fi 基本服務集 (basic service sets,BSSs) 的數量從一個增加至兩個或更多時,應降低 LTE-U BS (base-station) 的工作循環 (duty cycle),然而,如果不解碼 Wi-Fi 封包,實時檢測在該頻道上運行的 Wi-Fi BSS (基本服務集) 數量會成為一個有挑戰性的問題。

本文中展示了一個基於機器學習的新方法,通過使用在 LTE-U off 期間觀察到的能量值來解決這個問題。

解碼整個 Wi-Fi 封包需要在 LTE-U BS 上使用完整的 Wi-Fi 接收器,相較起來只觀察 LTE-U BS 關閉期間的能量值是相對簡單的。

本文通過實時實驗展示了在一個 Wi-Fi AP 傳輸和多個 Wi-Fi AP 傳輸之間的能量分佈存在明顯的模式可遵循。

文中提出的基於機器學習的方法,與既有的自相關 (auto-correlation,AC) 和能量檢測 (energy detection,ED) 方法相比,結果顯示了更高的準確性(在所有的情況下接近 99%)。

 

paper: https://ieeexplore.ieee.org/ielaam/8782711/8815895/9040538-aam.pdf

github: http://bit.ly/2Ob5kAr

 

1. Introduction

由於有牌照的頻譜 (spectrum) 是一種有限且昂貴的資源,為了實現其最佳利用,可能需要在不同類型的多個網路運營商/提供商之間進行頻譜共享。

目前有越來越多的趨勢是是採用有牌照-無牌照共享的方式,以提高網路頻譜效率,超越傳統的無牌照-無牌照共享。

Wi-Fi 是目前最常見的無牌照使用者,現在廣泛部署在北美的無牌照 5 GHz 頻段中,然而,同一頻段也開始部署越來越多的蜂窩 (cellular) 服務,如 Long Term Evolution (LTE) 和 Licensed Assisted Access (LTE-LAA)。

Cellular systems (LTE and 5G) 採用 TDMA (Time Division Multiple Access)/FDMA (Frequency Division Multiple Access) 的調度機制,而 Wi-Fi 則依賴於具有衝突避免的 CSMA/CA (Carrier Sense Multiple Access with Collision Avoidance) 機制。

由於兩者的 MAC (medium access control) 協議差異很大,目前頻譜共享主要的挑戰之一在於需要找到一個在 cellular 與 Wi-Fi 間有效共存的方法。

 

LTE-U 使用了一種簡單的 duty-cycling 技術,在這種技術中,LTE-U BS 會在一個特定間隔中,定期切換開關狀態 (此間隔根據通道中存在的 Wi-Fi AP 數量而設定)。

在 ON 狀態下,BS 正常傳輸 LTE 數據,而在 OFF 狀態下,BS 不傳輸任何數據,但被動地感知 Wi-Fi 頻道是否存在。

所感知到的 Wi-Fi AP 數量隨後被用來適當調整工作週期間隔,這個過程被稱為 CSAT (Carrier Sense Adaptive Transmission)。

現有可用來確定 Wi-Fi AP 數量的幾個技術:

Header-Based CSAT (HD): Wi-Fi AP 每 102.4 毫秒傳輸一次 beacon,其中包含有關 AP 的重要資訊,如每個 AP 獨特的基本服務集識別 (BSSID) 。

這是一種直接識別 Wi-Fi AP 的方法,但 LTE-U BS 需要一個完整的 Wi-Fi 解碼器來獲取資訊,這增加了額外的複雜性。

Energy-Based CSAT (ED):與完全解碼過程不同,ED 假設:感知頻道的能量等級足以檢測頻道上的 Wi-Fi AP 數量。然而,能量水平可能因為不同類別的流量、大量 Wi-Fi AP、傳輸功率變化、多路徑等原因,而無法正確地與 AP 的數量相關聯。

Autocorrelation-Based CSAT (AC):要在 LTE-U BS 上檢測 Wi-Fi 訊號,可以開發一種基於自相關 (auto-correlation,AC) 的檢測器。

然而,AC 函數只能確定訊號是否為 Wi-Fi 訊號,無法提取有關每個 AP 的具體資訊。

 

在這篇論文中,我們提出在 LTE-U 的關閉時間內觀察 Wi-Fi AP 的能量值,並使用這些數據來訓練不同的機器學習模型[14]。我們還在一個線上實驗中應用這些模型來檢測 Wi-Fi AP
的數量。最終,我們證明相對於能量檢測 (ED) 和基於自相關 (AC) 的檢測器,機器學習方法在性能上取得了顯著的改進。

圖2展示了一個密集的 LTE-U/Wi-Fi 共存的示例,其中多個 Wi-Fi AP 和一個 LTE-U BS 在同一個頻道上運行,每個 AP 和 BS 都有多個客戶端關聯。

在這種情況下,LTE-U 按比例減少其工作週期以適應 Wi-Fi AP 的數量至關重要,否則在 50% 的工作週期下,Wi-Fi AP 將無法充分使用通信時間。

對於大量的 Wi-Fi AP,使用基於能量或相關性的方法準確檢測數量變得更加困難。在這項工作中,我們的目標是使用已經在實際資料上訓練過的機器學習演算法,從收集的能量資料中精確推斷出一個或多個 Wi-Fi AP 的存在。

 

2. RELATED WORK

A. 關於 LTE 和 Wi-Fi 共存的現有研究

學術界和業界都已經對 LTE 和 Wi-Fi 的共存進行了大量的研究,這些研究討論了 Wi-Fi 客戶端關聯、干擾管理、公平共存、資源分配、載波感知 (carrier sensing) 等議題,這些論文研究了在不同的檢測閾值和工作週期組合下的共存公平性。然而,在這種共存情境中,基於自相關和基於能量的頻譜感知方法尚未得到充分研究。

最近,我們提出了一種基於能量的 LTE-U 工作週期自適應演算法 (Energy-Based CSAT),通過檢測頻道中的能量水平來推斷共存的 Wi-Fi AP 數量,然後相應地調整工作週期。

此演算法能夠區分一個或兩個 Wi-Fi AP。

這項初步工作證明了能夠獨立使用基於能量的檢測,而無需對數據包進行解碼。

在我們的後續工作中,我們提出了一種新穎的演算法,利用自相關函數 (auto-correlation function,AC) 來推斷在頻道中運行的活躍 Wi-Fi AP 的數量。

以上兩個部分中,頻道上考慮的 Wi-Fi AP 的最大數量為兩個,在現實的密集部署場景中,我們可以預期在同一頻道上會有超過 2 個 AP。因此,在本文中,我們研究了在更現實的密集部署場景下,能量檢測 (ED) 和自相關函數 (AC) 的性能。

B. 機器學習在無線網路中的應用

在文獻[20]中,詳細描述了機器學習在無線通訊領域的最新應用以及未解決的問題。 MAC 層的資源管理、網路層的網路和移動性管理,以及應用層的定位是一些適合機器學習方法的研究主題。

在文獻[21]和[22]中,提供了關於使用基於人工神經網路的機器學習來實現各種無線網路應用的綜合教程。特別地,作者概述了一些關鍵類型的神經網路,如循環神經網路、脈衝神經網路和深度神經網路。對於每種類型,都介紹了基本架構以及相關的挑戰和機會,然後概述了可以使用人工神經網路 (ANNs) 解決的各種無線通信問題。

這項工作進一步研究了許多新興應用,包括無人機、無線虛擬現實、移動邊緣緩存和計算、物聯網以及多種隨機接入技術 (Random Access Technology,RAT) 的無線網路。對於每個應用,作者提供了使用人工神經網路的主要動機,以及與之相關的挑戰,並提供了詳細的用例場景示例。

C. 機器學習在 LTE 和 Wi-Fi 共存中的應用

在[27]中,作者對 LTE-U 方案在與 Wi-Fi 共存時進行了分析,並引入了一種機器學習技術,可供 LTE-U 網路使用,以學習無線環境並自主選擇可提供與其他共存技術公平共存的傳輸機會 (transmission opportunity,TXOP) 和靜默週期配置。模擬結果展示了機器學習如何協 助LTE-U 找到最佳配置,並適應無線環境的變化,從而實現所期望的公平共存。

在[28]中的作者提出了一個卷積神經網路 (CNN),該網路經過訓練可用於識別 LTE 和 Wi-Fi 的傳輸,並且還能夠識別由多個 LTE 傳輸、多個 Wi-Fi 傳輸或同時透過 LTE 和 Wi-Fi 傳輸引起的隱藏終端效應。所設計的 CNN 已經使用商用的 LTE 和 Wi-Fi 硬體設備進行了訓練和驗證。實驗結果表明,資料表示方式會影響 CNN 的準確性。從 CNN 獲得的資訊可以被 LTE-U 方案利用,以實現這兩種無線技術之間的公平共存。

上述關於在無線和未經許可的頻譜中使用機器學習的論文未涉及準確識別 Wi-Fi APs 的問題,而這是解決 LTE-U/Wi-Fi 共存的公平性的關鍵第一步。

因此,在本文中,我們修改了傳統的機器學習方法,以開發可以比現有方法更快速可靠地識別 Wi-Fi AC 數量的演算法。

 

3. Wi-Fi 和 LTE-U 的通道訪問過程

A. WI-FI CSMA/CA

Wi-Fi 的 MAC 分佈式協調功能 (distributed coordination function,DCF) 採用 CSMA/CA,如圖3所示。

每個嘗試傳輸的節點必須首先確保傳輸媒介已經持續閒置了 DCF 間幀間隔 (DCF Interframe Spacing,DIFS) 的時間,使用 ED (energy detection) 和載波感知 (Carrier Sensing,CS) 機制。

如果 ED 或 CS 中的任一條件成立,Clear Channel Assessment (CCA) 將被設置為忙碌。

如果頻道閒置且站點剛剛完成了成功的傳輸,站點將進行傳輸。

否則,如果在 DIFS 感測期間頻道被感測為忙碌,或者站點在成功傳輸後繼續競爭,站點將繼續監控頻道,直到頻道在 DIFS 週期內被測量為閒置狀態,然後選擇一個隨機的後退 (back-off) 持續時間 (以時隙 (slot) 時間為單位) 並進行倒數計時。

B. LTE-U DUTY CYCLE

LTE-U 採用了一種工作方式 (即交替的開啟和關閉週期,LTE BS 只允許在開啟期間進行傳輸),工作週期 (開啟週期時間與一個週期時間的間隔) 由 LTE-U 通過載波感知來感知 Wi-Fi 的使用情況而確定。

在開啟期間,LTE-U BS 安排下行 (DL) 傳輸給用戶設備 (UEs),而不是傳輸過程受到 CSMA/CA 控制的 Wi-Fi。

LTE-U 使用基本的 LTE 子幀 (subframe) 結構,即每個子幀的長度為 1 毫秒;每個子幀由兩個 0.5 毫秒的時隙 (slot) 組成。每個子幀包含 14 個 OFDM (Orthogonal Frequency Division Multiplexing,正交分頻多工) 符號,其中 1 到 3 個是物理符號下行控制頻道 (Physical Downlink Control Channel,PDCCH) 符號,其餘是物理下行共享頻道 (Physical Downlink Shared Channel,PDSCH) 資料。

LTE-U BS 在與時隙邊界 (slot boundaries) 同步的情況下開始下行傳輸,持續至少一個子幀 (2個 LTE 時隙) 的傳輸完成後,如果解碼成功,預期的接收方 (或接收方們) 會通過授權頻段來傳輸上行連結 (uplink) 上的 ACK。

在 LTE 中,資源塊 (resource block,RB) 是分配給用戶設備 (user equipment,UE) 的最小的無線資源單元,相當於 1 個子幀 (1 毫秒) 的傳輸時間間隔 (Transmission Time Interval,TTI) 內具有 180 kHz 的帶寬。

 

4. 系統模型和 LTE-U 與 Wi-Fi 相互間的影響

A. COEXISTENCE SYSTEM MODEL

我們假設 LTE-U 和 Wi-Fi 同時運行在未經許可的 5 GHz 頻譜中的 20 MHz 頻道上,LTE-U BS 只在未授權的頻譜上傳輸下行封包,而所有上行傳輸都在經許可的頻譜上進行。

控制和資料封包分別使用 PDCCH (Physical Downlink Control Channel) 與 PDSCH (Physical Downlink Share Channel) 進行傳輸。

LTE-U BS 以最大傳輸功率運行,假設 Wi-Fi APs 也以最大傳輸功率運行。

Wi-Fi 和 LTE-U 的頻道訪問,分別使用 CSMA/CA 和工作週期自適應 (duty-cycle adaptation) 機制。 Wi-Fi 和 LTE-U 都遵循各自的重新傳輸方案,即當封包傳輸不成功 (封包或 ACK 遺失) 時,將重新傳送封包。

最後,我們假設 Wi-Fi APs 支援主動和被動掃描模式,即在關聯過程 (association process) 中,AC 會傳輸 beacon 和探測回應封包 (probe response packets)。

B. IMPACT OF WI-FI ON LTE-U DURING THE ON PERIOD

圖5(a) 顯示了在通道上沒有 Wi-Fi AP 時接收訊號的星座圖。

圖5(c) 顯示了當 Wi-Fi AC 不知道正在進行的 Wi-Fi 傳輸中間突然開始的 LTE-U ON 週期時,明顯星座圖被扭曲。

這指出了 LTE-U BS 需要感知或學習媒介,以確定空中的 Wi-Fi AC 數量並相應減小其工作週期的需求。

C. IMPACT OF LTE-U ON TRANSMISSION ON WI-FI DATA

CSMA 機制在 Wi-Fi/Wi-Fi 共存時運作良好,當 Wi-Fi 與固定的 LTE-U 工作週期共存時,Wi-Fi 封包的錯誤數量增加。

為了解決上述問題,LTE-U 論壇提出了基於同一頻道上的 Wi-Fi AP 數量的動態 CSAT 方法[8],[12],[13]。

當在頻道上沒有檢測到 AP 時,LTE-U BS 會在最大的 95% 工作週期上運行 (即最小的 1 毫秒的關閉比例) 。

當檢測到一個 AP (假設使用預定的負載技術) 時, BS 將縮小到 50% 的工作週期 (即 20 毫秒的 ON 時間和 20 毫秒的 OFF 時間) 。

如果一個新的 Wi-Fi AP 開始傳輸,它只能在 OFF 期間與現有AP 競爭 50% 的可用媒介。

由於這對 Wi-Fi AP 不公平,LTE -U 規範建議當多個 Wi-Fi AP 在頻道上使用時,將工作週期降低到 33%。

然而,目前尚未有具體檢測共存的 Wi-Fi AP 數量的方法可以同時被應用在稀疏和密集部署的場景中。

 

6. 用於基於機器學習的檢測的實驗設置

為了解決這個問題,我們提出了一種基於頭部 (header detection,HD) 、能量 (Energy detection,ED) 和自相關 (auto-correlation,AC) 的檢測算法,用於稠密部署場景,以確定頻道上的 Wi-Fi AP 數量。圖8解釋了不同的感知演算法如何基於已知的 Wi-Fi 封包結構運作。

A. 基於頭部解碼的 LTE-U 工作週期自適應演算法

假設 LTE-U 和 Wi-Fi 系統之間,若不是有一個共同的前導碼[29],[30],則就是 LTE-U BS 有一個完整的 Wi-Fi 解碼器,允許它解碼 Wi-Fi 的 MAC 頭部,從而獲得 BSSID (Basic Service Set ID)。

這樣做可以讓我們能準確地檢測頻道上的 Wi-Fi AP 數量,因此與能量、自相關和機器學習相比,基於頭部的解碼是最準確的方法。

然而,用於調整工作週期的決策算法需要謹慎設計,以避免錯誤分類。

演算法 1 中定義了一個簡單的演算法,用於分類每個時間槽中活動的 Wi-Fi AP 數量。簡而言之,該演算法對於一個定義的時間槽 (slot),統計了每個唯一可識別的 BSSID 的beacon 數量。

 

7. 用於 LTE-U 工作週期自適應的機器學習演算法

我們的主要任務是一個分類問題,區分零個、一個、兩個、三個、四個或五個 Wi-Fi BSSs (basic service sets)。

A. 資料準備

考慮一個和兩個 Wi-Fi APs 的情況。

我們獨立地為每個 Wi-Fi AP 收集資料,並將這兩個資料集存儲在不同的文件中。每個文件都被視為時間序列資料,具有一系列的值,首先被分成塊 (chunk)。

我們以寬度 w 的四分之三重疊來任意重疊時間序列塊。

例如,對於寬度 w = 128 的塊,第一個塊從索引 0 開始,第二個塊從索引 32 開始形成,第三個塊從索引 64 開始,依此類推。

這是我們資料增強的一部分,也是確保在塊的邊界上幾乎沒有破壞模式的軟保證。

塊 (時間序列資料) 的寬度 w 充當我們 ML 模型的參數。它表示必須提供給模型的樣本數以進行分類。

時間序列寬度 w 越長,在推斷期間需要收集更多的資料樣本。結果是系統的延遲較高,但收集的樣本越多,模型的預測就越準確。另一方面,如果每個塊的樣本數較少,收集樣本的時間較短,推斷速度較快但準確性較低。

B. 神經網路模型: FC, VGG AND FCN

FCN (Fully Convolutional Networks) 基於卷積神經網路,可在時間序列序列中找到一般模式[37]。

該模型的優點包括:簡單性 (無需特定資料的超參數) 、無需額外的資料預處理、無需特徵工程。

超參數: 在模型訓練之前,事先根據經驗給定的參數

FCN (Fully Convolutional Networks) 網路的架構包含三個區塊 (blocks),每個區塊都包括一個卷積層,接著是批量標準化 (batch normalization) f(x) = (x - μ) / (σ^2 + ε )^(1/2),其中 ε 是用於提高數值穩定性的小常數 (通常用於分母),以及 ReLU 啟用函數 y(x) = max(0, x)。

C. 來自 SCIKIT-LEARN 的機器學習模型

為了豐富我們在比較中使用的機器學習模型,我們選擇了 scikit-learn (也叫 sklearn) library (https://scikit-learn.org/stable/index.html) 中最受歡迎的模型。

 

決策樹是一種簡單的分類器,它從資料特徵中推斷出的決策規則來學習。

樹越深,決策規則越複雜,模型越精確。

決策樹分類器在區分一個或兩個 Wi-Fi AP 之間的任務上實現了 79.46% 的準確性。

AdaBoost [41] 分類器是 scikit-learn library 中最好的開箱即用 (out-of-the-box,意指產品在安裝後,無需配置或修改,即可使用的功能或特性) 模型之一,它創建了一組分類器的集合。

在我們的實驗中,AdaBoost 首先在原始資料集上匹配(?)一個決策樹分類器,然後匹配額外的決策樹分類器,給那些”在相同的資料集上,但錯誤分類的實例權重被修改,使得後續的分類器更專注於困難”的情況(???),這是通過調整已使用的決策樹分類器的最大數量來進行切換。

AdaBoost 實現了 94.57% 的準確性。

 

隨機森林 (Random Forest) 是一種基於隨機化決策樹的平均演算法。其測試準確性為 79.87%。

我們發現,來自 scikit-learn library 的最佳測試模型是 AdaBoost。

對於標準情況下的兩個 Wi-Fi AP 的情況,AdaBoost 實現的最高測試準確性比 FCN 模型稍差約 5%,對於超過 5 個類別,隨機森林模型的準確性高於 AdaBoost。

D. 時間序列專用模型

基於向量空間的 BOSS 模型 (BOSS in Vector Space,BOSS VS) [42] 是一種時間序列分類演算法,其性質使其適用於我們的任務。

此演算法具有快速的推理速度、對噪音的容忍性,從而能夠實現高測試準確性,適度的訓練時間,允許定期進行模型更新。

此外,BOSS VS 在重複和長時間序列資料的情況下實現了最佳測試準確性。

在時間序列特定模型中,我們還與 WEASEL 模型[43] 進行了比較,儘管訓練時間要長得多,但測試準確性較低。

對於從 2 個到 4 個 Wi-Fi AP 區分的情況,BOSS VS 模型的表現與 FCN 模型相當。

然而,對於需要區分 0 到 5 個 Wi-Fi AP 的情況,FCN 模型的準確性高出約 7%。

BOSS VS 模型的一個問題是,我們必須使用具有 128 GB RAM 的機器來訓練模型,對於更大的資料大小,也會引發記憶體不足的狀況 (該模型是用 Java 實現的) 。

對於 FCN 模型,我們能夠擴展到任意數量的資料。

根據徹底的實驗分析,我們認為 FCN 模型和其他基於神經網路的模型是最準確且可擴展的模型,可用於預測 Wi-Fi AP 的數量。

 

8. 實驗結果

專案的程式碼可以在 github 上找到:http://bit.ly/2Ob5kAr。

A. 訓練和推斷

每個模型至少訓練 100 個 epochs (時期)。

epochs: 中文直翻的話是「時代」、「時期」的意思,但在神經網路訓練上,比較接近中文「期」的含意,指的是訓練模型過程裡,演算法完整使用過資料集每筆資料的狀態。

當所有資料都被用來訓練類神經網路一次,就算 1 個 Epoch。

舉例來說,今天有 100 筆資料,將它們全部丟進類神經網路中訓練,就算是 1 個 Epoch。

reference: Epoch(時期)、Batch size(批次)、Iteration(迭代)、Learning rate

我們嘗試了不同的梯度下降 (gradient descent) 優化演算法,例如隨機梯度下降 (Stochastic Gradient Descent,SGD) 和 Adam (Adaptive Moment Estimation)。

對於 SGD 演算法,我們進行了初始學習率的網格搜索,主要使用 0.0001。在連續 50 次迭代後 (scheduled patience),學習率降低了 2 倍。

[chatgpt]

Scheduled patience 意味著在達到一定條件 (通常是連續迭代次數沒有性能改善) 後,會自動降低學習率,以期望在稍後的訓練階段中獲得更好的性能。這是一種調整學習率的策略,旨在改善訓練過程中的模型性能。

B. 時間序列 (資料) 寬度

LTE-U BS 每秒採集的樣本數量約為 192 個。神經網路的推斷過程在毫秒內完成,並且可以通過壓縮網路來進一步優化。

時間序列資料塊 (chunk) 的最終寬度在系統延遲方面構成了一個主要瓶頸。

時間序列資料塊的寬度 (w) 越小,系統的延遲就越低。然而,即使提供較少的資料給神經網路的推斷,但神經網路仍必須保持高度準確。

基於圖10和圖11中的實驗,我們發現在準確性和推斷時間之間實現最佳折衷的資料塊大小是512。

C. 不同類別之間的轉換

當我們切換到另一個類別 (即在 Wi-Fi 數量方面改變系統狀態) 時,我們需要考慮過渡期。

如果在 1 秒的時間窗口內添加了新的 Wi-Fi,那麼第一秒內具有新 Wi-Fi 的樣本 (或在移除現有Wi-Fi 時沒有新 Wi-Fi 的樣本) 將包含來自 n 和 n + 1 (或 n − 1) 個 Wi-Fi 的值。

對於這種混合 (contaminated) 的資料塊,一種簡單的解決方法是只有在模型在兩次連續推斷 (分類) 中返回相同的類別後,才更改系統的 Wi-Fi 數量狀態。

 

9. HD、ED、AC 和 ML 方法之間的性能比較

最終評估中,我們訓練了一個基於 FCN (Fully Convolutional Networks) 網路的單一機器學習模型,該模型用於所有後續實驗。

A. 機器學習方法之間的比較

特定於時間序列的神經網路模型,如 FCN (Fully Convolutional Networks) 和 BOSS VS (BOSS in Vector Space),表現比 scikit-learn library 中的通用模型要好得多。

位於兩者之間的是一個名為 LeNet 的簡單的兩層卷積網絡。

使用FCN (MEDIUM) 或 BOSS VS 的主要好處是它們具有比 LeNet 或 scikit-learn 模型更好的模型學習能力。

在測試準確性方面,FCN 和 BOSS VS 模型之間幾乎沒有差異。但是,FCN 模型可以擴展到更大的資料大小,而我們觀察到 BOSS VS 模型在超過幾 GB 的輸入資料時經常會耗盡記憶體。因此,我們選擇 FCN 作為我們的主要機器學習 (ML) 模型,用於所有剩餘的實驗。

 

10. 結論與未來工作

我們已經展示了一項全面的實驗研究,研究了不同類型的機器學習算法,這些算法可以用來解決識別空氣中活動的 Wi-Fi AP 數量的問題,以幫助適當設置 LTE-U 的工作週期。

此外,我們已經比較了最佳機器學習演算法與使用能量檢測和自相關檢測的傳統方法在多種配置下的性能,並展示了卓越的結果。

我們相信,這是第一個展示了在實時能量值上使用機器學習,而不是封包解碼[15]來可靠區分不同數量的 Wi-Fi AP 存在的結果。這樣的結果可以應用於 LTE-U 工作週期自適應之外的領域,例如更好的 Wi-Fi 頻率管理。

我們希望在未來擴展這項工作,以區分 LTE-LAA BS 和 Wi-Fi APs,從而實現對 LTE-U BS 更精細的工作週期調整,並改善與 Wi-Fi 的共存。

此外,我們也有興趣開發一個機器學習框架,可以預測 Wi-Fi 流量的類型,例如語音、影片或資料,這反過來可以進一步確保對未經許可的頻譜的公平訪問,因為每種流量類型都需要不同的傳輸機會時間 (TXOPs,Transmission
Opportunities),而流量間的公平性比每個節點 (Wi-Fi AP) 的公平性更重要。

類似的概念也可以應用於 LTE-LAA/Wi-Fi 共存部署和未來 6 GHz 頻段的 NR-U/Wi-Fi 共存。

 

 

看完的感覺是知道了很多名詞跟初步理解了一下 LTE。

又好像連 LTE 也沒怎麼懂。