1. 서론
소스-채널 분리 정리는 전체 시스템의 성능 손실 없이 소스 코딩과 채널 코딩을 개별적으로 최적화할 수 있음을 나타냅니다. 그러나 실제 시스템에서는 제한된 지연과 복잡성으로 인해 분리된 소스-채널 코딩의 성능이 저하됩니다. 이를 해결하기 위해 [1]에서는 소스 디코딩과 채널 디코딩을 통합적으로 고려하는 JSCC(Joint Source-Channel Coding)를 제안한다. JSCC는 지연 및 복잡성 제한이 있는 분리 기반 코딩 방식보다 더 나은 성능을 갖는 것으로 나타났습니다.
Arıkan이 [2]에서 제안한 폴라 코드는 선형 복잡성으로 Shannon 용량을 달성할 수 있는 최초의 코딩 방식입니다. 폴라 코드는 채널 코딩에서 널리 연구되어 왔으며 짧은 코드 길이에서 폴라 코드가 LDPC(저밀도 패리티 검사) 코드보다 뛰어난 오류 정정 성능을 가질 수 있는 것으로 나타났습니다[3], [4]. BP(Belief Propagation) 디코딩은 고유한 높은 병렬성으로 인해 낮은 지연 시간과 높은 처리량이라는 장점을 지닌 폴라 코드의 기본 알고리즘입니다. 효율적인 하드웨어 설계와 낮은 복잡도를 얻기 위해 BP 디코딩을 위한 최소합 근사법[5]과 조기 정지 방식[6]이 제안되었다. 또한 [7]에서는 연결된 폴라 코드를 위한 비트 매핑 지원 BP 디코더가 연구되었으며, 더 빠른 수렴을 얻기 위해 최적화된 BP 디코더를 갖춘 심층 신경망 디코더가 [8]에서 제시되었습니다. 딥러닝 방법은 더 나은 성능을 위해 BP 디코딩과 연결된 폴라 코드에도 사용되며 [9] 표준 BP 디코딩을 개선하기 위해 폴라 코드에 대해 ResNet과 유사한 BP 아키텍처가 제안되었습니다.
채널 코딩 외에도 JSCC 분야에서는 폴라 코드(Polar Code)도 연구되었습니다. [11]에서는 향상된 오류 정정 성능을 위해 언어 소스 중복성을 활용하는 새로운 언어 기반 목록 디코더가 제안되었습니다. [12]에서는 상관된 소스가 있는 JSCC에 체계적인 폴라 코드가 사용되었으며 더 나은 성능을 얻기 위해 소스 상관 관계를 활용하는 새로운 분산 공동 소스-채널 목록 디코딩이 제안되었습니다. 그런 다음 [13]과 [14]에서는 각각 이중 극성 JSCC 방식에 대해 터보형 BP(TL-BP) 및 J-SCL(Joint Successive Removal List) 디코더가 제안되었습니다. TL-BP 디코더는 병렬 디코딩 프로세스로 인해 대기 시간이 짧은 애플리케이션에 더 유리합니다. 그러나 TL-BP 디코딩 성능은 고정된 스케일링 매개변수로 인해 최적이 아닙니다. 게다가 [13]의 소스 및 채널 요인 그래프는 별도로 표시되므로 통합 시스템 모델을 최적화하기 위해 딥러닝 네트워크 [15]를 사용하는 것은 유익하지 않습니다.
이 편지에서는 통합 요인 그래프를 설계하고 이를 DNN 구조와 결합하여 더 나은 성능을 위해 스케일링 매개변수를 최적화합니다. 먼저 폴라 코딩된 JSCC 시스템을 위한 통합 요소를 설계합니다. 이를 기반으로 채널과 소스 모두의 스케일링 매개변수를 최적화하여 성능을 향상시키는 DNN-FBP(DNN Aided Flooding Faith Propagation) 디코딩 알고리즘이 제안되었습니다. 실험 결과는 제안된 DNN-FBP 디코더가 다양한 소스 통계에 비해 2~2.5dB 이득을 달성한다는 것을 보여줍니다. \(p\) 소스 메시지 길이 포함 \(N_{SC} = 128\) 다양한 소스 통계에 비해 0.2-1dB 게인 \(p\) 소스 메시지 길이 포함 \(N_{SC} = 512\) BER의 p=0.02 \(10^{-4}\) TL-BP 디코더보다 뛰어납니다.
2. 예선
2.1 폴라 코드
채널 편파 이론을 기반으로 폴라 코드 길이에 대한 인코딩 프로세스는 다음과 같습니다. \(N\) 소스 메시지를 전송하는 것으로 볼 수 있습니다. \(N\) 극성화된 하위 채널. 에 대한 \((N, K)\) 폴라 코드, 소스 메시지의 비트 인덱스 \(\textbf{u}_1^N=(u_1,u_2,\dots,u_N)\) 두 개의 하위 집합으로 나눌 수 있습니다. \(A\) 적재 \(K\) 정보 비트 오버 \(K\) 신뢰할 수 있는 하위 채널 및 설정 \(A^c\) 적재 \(N-K\) 나머지에 대해 알려진 값이 있는 고정 비트 \(N-K\) 하위 채널. 폴라 코드워드 생성 과정 \(\textbf{x}_1^N\) 행렬 곱셈의 형태로 표시될 수 있습니다:
\[\begin{equation*} \textbf{x}_1^N = (x_1, x_2, \dots , x_N) = \textbf{u}_1^N\textbf{G}, \tag{1} \end{equation*}\] |
어디 \(N \times N\) 생성기 매트릭스 \(\textbf{G}\) 에 의해 얻어진 \(\textbf{G}=\textbf{F}^{\otimes n}\), \(\textbf{F}^{\otimes n}\) 의미 \(n\)-번째 크로네커의 힘 \(\textbf{F}\)과 \(\textbf{F}= \begin{bmatrix} 1&0\\ 1&1 \end{bmatrix}\) and \(n=\log_2N\).
게다가 체계적 폴라 코드는 비체계적 폴라 코드보다 비트 오류율(BER)이 낮습니다[16]. 체계적 폴라 코드의 인코딩에 있어서, \(K\) 정보 비트는 데이터 캐리어로서 코드워드의 하위 집합에 할당됩니다. \(\textbf{x}_B=(x_i|i\in B)\)어디로 \(B\) 같음 \(A\). 따라서 완성된 코드워드는 \(\textbf{x}_1^N\) 로 표시될 수 있다 \((\textbf{x}_B, \textbf{x}_{B^c})\)어디로 \(\textbf{x}_{B^c}=(x_i|i\in B^c)\) 다음과 같이 계산할 수 있습니다.
\[\begin{equation*} \textbf{x}_{B^c} = \textbf{u}_A \textbf{G}_{AB^c} + \textbf{u}_{A^c} \textbf{G}_{A^cB^c}, \tag{2} \end{equation*}\] |
어디에 \(\textbf{u}_A=(\textbf{x}_B-\textbf{u}_{A^c} \textbf{G}_{A^cB})(\textbf{G}_{AB})^{-1}\), \(\textbf{G}_{AB}\) 의 하위 행렬을 나타냅니다. \(\textbf{G}\) 요소의 배열로 구성 \((\textbf{G}_{i,j})\)과 \(i\in A\) and \(j\in B\). 체계적 극좌표 코드에 대한 자세한 내용은 [16]을 참조하세요.
2.2 BP(신념 전파) 디코딩
BP는 폴라 코드에 대한 중요한 병렬 디코딩 알고리즘으로, 인자 그래프를 기반으로 소프트 메시지가 반복적으로 전송됩니다. 극좌표 코드의 경우 \(R_{PC}=\frac{K}{N}\), 그 요인 그래프는 다음과 같이 구성됩니다. \(n\) 단계와 \(N*(n+1)\) 각 노드가 오른쪽에서 왼쪽으로 읽는 메시지를 포함하는 노드 \(L\) 왼쪽에서 오른쪽으로 메시지가 표시됩니다. \(R\). 구체적으로는, \(L\) and \(R\) 로 정의 \(L_{i,j}^{(t)}\) and \(R_{i,j}^{(t)}\)어디로 \(i\), \(j\) and \(t\) 스테이지 인덱스, 노드 인덱스 및 \(t\)-번째 반복입니다. BP 디코딩 중에, \(L\) and \(R\) 메시지는 인접한 노드 간에 반복적으로 전파됩니다.
\[\begin{equation*} \left\{ \begin{array}{cccc} R_{i+1,2j-1}^{(t)}=g(R_{i,j}^{(t)},L_{i+1,2j}^{(t-1)}+R_{i,j+N/2}^{(t)}), \\ R_{i+1,2j}^{(t)}=g(R_{i,j}^{(t)},L_{i+1,2j-1}^{(t-1)})+R_{i,j+N/2}^{(t)}, \\ L_{i,j}^{(t)}=g(L_{i+1,2j-1}^{(t)},L_{i+1,2j}^{(t)}+R_{i,j+N/2}^{(t)}), \\ L_{i,j+N/2}^{(t)}=g(L_{i+1,2j-1}^{(t)},R_{i,j}^{(t)})+L_{i+1,2j}^{(t)}, \end{array} \right. \tag{3} \end{equation*}\] |
어디에 \(g(x,y) = {\rm{ln}} \frac{(1 + xy)}{(x+y)}\). 계산 복잡성을 낮추기 위해 방정식은 다음과 같습니다. \(g(x,y)\) 다음과 같이 근사화될 수 있다 \(g(x,y)\approx\alpha\cdot {\rm{sign}}(x){\rm{sign}}(y){\rm{min}}(|x|, |y|)\). BP 디코딩의 반복 횟수가 미리 설정된 최대 횟수에 도달한 후 \(T\), 추정 \(\hat{\textbf{u}}_1^N\) 그런 다음 판단됩니다
\[\begin{equation*} \hat{u}_j=\left\{ \begin{array}{cc} 0, &{\rm if}\enspace L_{1,j}^T+R_{1,j}^T\geq 0, \\ 1, &{\rm if}\enspace L_{1,j}^T+R_{1,j}^T<0, \\ \end{array} \right. \tag{4} \end{equation*}\] |
어디에 \(1\leq j\leq N\).
2.3 심층신경망(DNN)
그림 1은 \(4\)- 레이어 DNN, 피드포워드 네트워크 구조가 입력을 매핑하는 함수로 설명될 수 있음 \(\textbf{x}_0 \in \mathbb{R}^{4}\) 출력에 \(\textbf{y} \in \mathbb{R}^{3}\). 에서 \(l\)-번째 레이어, 출력 \(\textbf{x}_l\) 에 의해 얻을 수 있습니다 \(l\)-마지막 레이어 출력으로의 레이어 매핑 기능 \(\textbf{x}_{l-1}\). 위의 매핑 함수는 전체적으로 다음과 같이 설명됩니다.
\[\begin{equation*} \left\{\begin{array}{cc} \textbf{y}=f(\textbf{x}_0;\textbf{$\theta$}), \\ \textbf{x}_l=f^{(l)}(\textbf{x}_{l-1};\textbf{$\theta$}_l)\ ,\ l=1,2,\dots,L, \end{array} \right. \tag{5} \end{equation*}\] |
어디에 \(\textbf{$\theta$}\) 시스템의 매개 변수를 나타냅니다. \(\textbf{$\theta$}_l\) 의 매개변수를 나타냅니다. \(l\)번째 레이어. 이러한 매개변수는 입력으로부터 매핑을 근사화하도록 훈련될 수 있습니다. \(\textbf{x}_0\) 출력하다 \(\textbf{y}\). 입력과 출력 사이의 비선형 관계를 설명하기 위해 두 가지 일반적인 활성화 함수인 ReLU(Rectified Linear Unit) 함수와 시그모이드 함수가 다음과 같이 제공됩니다.
\[\begin{equation*} \left\{\begin{array}{cc} g_{{\rm{ReLU}}}(s)={\rm{max}}(0,s), \\ g_{{\rm{sigmoid}}}(s)=\dfrac{1}{1+e^{-s}}. \\ \end{array} \right. \tag{6} \end{equation*}\] |
DNN 모델을 구축한 후에는 시스템 성능을 평가하기 위해 손실 함수를 정의해야 합니다. 평균 제곱 오차(MSE)와 교차 엔트로피(CE)는 다음과 같이 두 가지 공통 손실 함수로 정의됩니다.
\[\begin{equation*} \left\{ \begin{array}{cc@{}} \displaystyle \!L_{\mathit{MSE}}(\textbf{w,o})=\frac{1}{N}\sum\limits_{i=1}^{N}(w_i-o_i)^2, \\ \displaystyle \!\!\!L_{\mathit{CE}}(\textbf{w,o})\ !=\!-\frac{1}{N}\sum\limits_{i=1}^{N}w_i\log(o_i)\!+\!(1-w_i)\log(1-o_i), \end{array}\right. \!\!\!\!\! \tag{7} \end{equation*}\] |
어디에 w and o 길이가 있는 레이블 벡터와 예측 벡터입니다. \(N\). 딥러닝 라이브러리의 옵티마이저는 역전파 알고리즘 과정에서 손실 함수를 최소화하여 매개변수를 효율적으로 훈련할 수 있습니다. DNN을 훈련하려면 훈련 세트에 대해 알려진 입력-출력 매핑을 충분히 수집해야 합니다. 다행스럽게도 시뮬레이션을 통해 충분한 입출력 매핑을 생성하는 것이 편리합니다.
3. 제안된 DNN-BP 디코더
3.1 시스템 모델
그림 2는 이러한 Polar Coded JSCC 시스템의 시스템 모델을 보여주며, 소스와 채널에는 Non-Systematic Polar Encoder와 Systematic Polar Encoder가 각각 포함되어 있습니다. 송신기에서는 성공 확률이 있는 이진 독립 동일 분포 베르누이 소스 \(p<0.5\) 고려. 소스 메시지 \(\textbf{u}=(u_1, u_2, \dots, u_{N_{SC}})\) 소스 압축 벡터에 매핑됩니다. \(\textbf{v}_H=(v_1, v_2, \dots, v_{|H|})\) 소스 인코더에 의해, 여기서 \(N_{SC}=2^{n_{SC}}\) 소스 메시지의 길이를 나타냅니다. \(H\) 소스 코드워드에서 엔트로피가 높은 비트의 인덱스를 나타냅니다. \(\textbf{v}_1^{N_{SC}}\)과 \(|H|\leq N_{SC}\). 그때, \(\textbf{v}_H\) 체계적 극좌표 인코더로 인코딩되어 코드워드를 출력합니다. \(\textbf{x}=(x_1, x_2, \dots, x_{N_{CC}})\). 따라서 소스 코드와 채널 코드의 비율은 \(R_{SC}=\frac{|H|}{N_{SC}}\) and \(R_{CC}=\frac{|H|}{N_{CC}}\), 각각. 마지막으로, \(\textbf{x}\) 변조되어 채널을 통해 전송됩니다. 수신기에서는 수신된 시퀀스를 기반으로 Factor 그래프를 통해 채널 디코더와 소스 디코더에 대해 반복적으로 BP 디코딩을 수행합니다. \(\textbf{y}\).
3.2 JSCC를 위해 설계된 통합 인자 그래프
먼저, 채널 인자 그래프와 소스 인자 그래프의 등가 변수 노드를 연결하여 폴라 코딩 JSCC 시스템에 대한 통합 인자 그래프를 설계한다. 그림 3은 통합 요인 그래프의 펼쳐진 구조의 예를 보여줍니다. \(N_{CC}=8, N_{SC}=4\) and \(|H|=3\)게다가, \(B=\{6, 7, 8\}\) and \(H=\{1, 2, 3\}\) 그림 3의 JSCC 시스템에 대해. \(ch_1 \sim ch_{8}\) 수신된 정보 계층의 노드를 나타냅니다. \(\textbf{L}_{\textbf{ch}}\) 이러한 노드에 대한 LLR(로그 우도 비율) 메시지입니다. 통합된 인자 그래프를 기반으로 Eq.와 같이 플러딩 BP 디코딩이 반복적으로 수행됩니다. (8) 및 알고리즘 1:
\[\begin{equation*} \left\{ \begin{array}{cccccccc} R_{i+1,2j-1}^{(t)}=\alpha\cdot g^{'}(R_{i,j}^{(t)},L_{i+1,2j}^{(t-1)}+R_{i,j+N_{CC}/2}^{(t)}), \\ R_{i+1,2j}^{(t)}=\alpha\cdot g^{'}(R_{i,j}^{(t)},L_{i+1,2j-1}^{(t-1)})+R_{i,j+N_{CC}/2}^{(t)}, \\ r_{i+1,2j-1}^{(t)}=\beta\cdot g^{'}(r_{i,j}^{(t)},l_{i+1,2j}^{(t-1)}+r_{i,j+N_{SC}/2}^{(t)}), \\ r_{i+1,2j}^{(t)}=\beta\cdot g^{'}(r_{i,j}^{(t)},l_{i+1,2j-1}^{(t-1)})+r_{i,j+N_{SC}/2}^{(t)}, \\ L_{i,j}^{(t)}=\alpha\cdot g^{'}(L_{i+1,2j-1}^{(t)},L_{i+1,2j}^{(t)}+R_{i,j+N_{CC}/2}^{(t)}), \\ L_{i,j+N_{CC}/2}^{(t)}=\alpha\cdot g^{'}(L_{i+1,2j-1}^{(t)},R_{i,j}^{(t)})+L_{i+1,2j}^{(t)}, \\ l_{i,j}^{(t)}=\beta\cdot g^{'}(l_{i+1,2j-1}^{(t)},l_{i+1,2j}^{(t)}+r_{i,j+N_{SC}/2}^{(t)}), \\ l_{i,j+N_{SC}/2}^{(t)}=\beta\cdot g^{'}(l_{i+1,2j-1}^{(t)},r_{i,j}^{(t)})+l_{i+1,2j}^{(t)}, \end{array} \right. \tag{8} \end{equation*}\] |
스케일링 매개변수는 \(\alpha\) and \(\beta\) 디코딩 알고리즘은 활성화 함수 Eq.를 기반으로 한 딥러닝 훈련 과정을 통해 잘 훈련되었습니다. (9) 및 손실 함수 Eq. (10). 식에서. (8), \(g^{'}(x,y)={\rm{sign}}(x){\rm{sign}}(y){\rm{min}}(|x|, |y|)\), 대문자 기호 \(R\) and \(L\) 채널 인자 그래프의 LLR 메시지를 나타내며, 소문자 기호는 \(r\) and \(l\) 소스 요인 그래프의 LLR 메시지를 나타냅니다. \(i\) 단계 지수를 나타내며, \(j\) 노드 인덱스를 나타내고, \(t\) ~을 나타냅니다 \(t\)-번째 반복.
디코더는 디코딩 전에 시작되어야 하며 초기화 규칙은 알고리즘 4의 라인 5-1에 나와 있습니다. 통합 인자 그래프에는 채널 인자 그래프와 소스 인자 그래프가 모두 포함되어 있으므로 LLR 메시지는 채널 인자와 소스 인자의 두 방향으로 전달됩니다. 그래프는 Eq.를 기반으로 업데이트되어야 합니다. (8) (7행과 12행, 알고리즘 1). 소스 및 채널 요인 그래프 간의 상관 관계에 대해 \(\textbf{L}_{\textbf{ch}}\) 각 반복 중간에 소스 및 채널 요인 그래프의 가장 오른쪽에서 왼쪽으로 가는 메시지를 업데이트하려면 채널 및 소스 요인 그래프에서 왼쪽에서 오른쪽으로 메시지의 두 하위 집합이 필요합니다(라인 8-11, 알고리즘 1). . 마지막으로 조기 중단 기준은 \(\hat{\textbf{u}}\textbf{F}^{\otimes n}==\hat{\textbf{v}}\) 은 적용되다. 조기 중단 기준을 만족하는 경우 또는 \(t\) 최대 반복 횟수에 도달 \(T\), 디코딩 종료 및 추정 \(\hat{\textbf{u}}\) 최종 디코딩 결과로 출력됩니다.
3.3 폴라 코드를 사용하는 JSCC용 DNN-FBP 디코더 제안
통합 요인 그래프의 펼쳐진 구조는 입력 레이어, 출력 레이어 및 여러 개의 히든 레이어를 포함하고 각 히든 레이어에 많은 노드가 있는 DNN과 유사한 구조를 갖기 때문에 DNN과 잘 일치할 수 있습니다. 유사한 구조를 기반으로 활성화 함수 Eq. (6) 및 손실 함수 Eq. (7) DNN에서는 스케일링 매개변수를 최적화하는 데 사용할 수 있습니다(\(\alpha\) and \(\beta\) 방정식에서. (8)) 더 나은 성능을 위해. 구체적으로, 시그모이드 함수는 연판정의 음수를 재조정하기 위한 활성화 함수로 선택됩니다. \(\textbf{u}\) 마지막 반복에서 \(\textbf{s}\) 출력으로 [0, 1] 범위로 \(\textbf{o}\) by
\[\begin{equation*} \textbf{o}=\frac{1}{1+e^{-\textbf{s}}}. \tag{9} \end{equation*}\] |
교차 엔트로피 함수는 소스 메시지가 디코딩 성능을 평가하기 위한 손실 함수로 정의됩니다. \(\textbf{u}\) 은 레이블 벡터입니다.
\[\begin{equation*} L(\textbf{u,o})=-\frac{1}{N_{SC}}\sum\limits_{i=1}^{N_{SC}}u_i \log(o_i)+(1-u_i)\log(1-o_i). \tag{10} \end{equation*}\] |
손실 함수를 최소화함으로써 훈련 가능한 매개변수 \(\alpha\) and \(\beta\) 역전파 알고리즘에 최적화되어 있습니다. 미니 배치 확률적 경사하강법(SGD) 방법을 사용합니다. \(M\) 훈련을 강화하기 위해 각 배치에 코드워드를 추가합니다. 학습률은 \(\eta\), 손실 함수를 최소화하기 위해 각 반복에서 단계 크기를 결정합니다. 한편, 훈련 중 단계 크기를 조정하기 위해 적응적 순간 추정(Adam) 방법이 적용됩니다. 마지막으로, 플러딩 BP 디코딩은 스케일링 매개변수를 가정하여 수행됩니다. \(\alpha\) and \(\beta\) 위에서 설명한 대로 잘 훈련되었습니다. 제안된 DNN-FBP 디코딩은 알고리즘 1에 나와 있습니다.
4. 시뮬레이션 결과
다음으로, 딥러닝 프레임워크 Tensorflow를 사용하여 제안된 디코더의 모델을 훈련합니다. 스케일링 매개변수를 훈련하기 위해 AWGN(Additive White Gaussian Noise) 채널을 통해 각 SNR에 대해 9990프레임 훈련 데이터를 생성하고 미니 배치 크기는 333입니다. \(M=30\) 각 배치의 코드워드. 훈련 가능한 매개변수가 언급되어야 합니다. \(\alpha\) and \(\beta\) 둘 다 1과 학습률로 초기화됩니다. \(\eta\) 0.02입니다.
훈련된 BP 디코더와 TL-BP 디코더[13]의 BER 성능을 다양한 소스 통계에 대해 비교합니다. \(p\) 과 \(N_{SC} = 128\), \(R_{SC}\)=3/5 및 \(R_{CC}\)=3/10. 훈련된 BP 디코더의 최대 반복 횟수는 12, T=4이고 \(T_{SC}=T_{CC}=3\) 그림 4의 TL-BP 디코더에 대해. 그림 4에서 볼 수 있듯이 훈련된 BP 디코더는 TL-BP 디코더보다 더 나은 성능을 나타내며 성능 이득은 다음과 같이 증가하는 것으로 보입니다. \(p\) 감소합니다(더 작아진다는 점에 유의하세요). \(p\) 이는 소스 통계가 보다 신뢰할 수 있는 정보를 제공한다는 것을 의미합니다. 특히, 제안된 학습된 BP 디코더는 다음과 같습니다. \(p=0.01\) BER에서 약 2.15dB의 성능 이득을 얻을 수 있습니다. \(10^{-4}\). 표 1은 잘 훈련된 알파와 베타를 보여줍니다. \(E_b/N_0\) p=0.02인 상황, \(N_{SC} = 128\), \(R_{SC}=3/5\) and \(R_{CC}=3/10\). 심층 신경망 훈련은 무작위성으로 인해 잘 훈련된 알파와 베타가 서로 다릅니다. \(E_b/N_0\) 상황.
표 1 다양한 분야에 대해 잘 훈련된 알파와 베타 \(E_b/N_0\) p=0.02인 상황, \(N_{SC} = 128\), \(R_{SC}=3/5\) and \(R_{CC}=3/10\). |
더욱이, 훈련된 BP 디코더와 TL-BP 디코더[13]의 다양한 소스 통계에 대한 BER 성능은 \(p\) 과 \(N_{SC} = 512\), \(R_{SC}=3/5\) and \(R_{CC}=3/10\) 훈련된 BP 디코더의 최대 반복 횟수는 5, T=1000이고 \(T_{SC}=T_{CC}=40\). 훈련된 BP 디코더는 BER에서 p=1, p=0.2 및 p=0.25로 약 0.07dB, 0.04dB 및 0.02dB에서 TL-BP 디코더보다 성능이 우수하다는 것을 보여줍니다. \(10^{-4}\). 게다가, 그림 4와 그림 5에서 볼 수 있듯이 소스 메시지 길이의 방식은 다음과 같습니다. \(N_{SC} = 128\) 더 나은 성능 향상이 있습니다. 가능한 이유 중 하나는 코드 길이가 짧은 폴라 코드일수록 심각한 오류 전파 문제가 발생하고 스케일링 매개변수를 최적화하여 오류 전파를 완화하는 것이 더 효과적이라는 점을 분석합니다. 전체적으로, 제안된 훈련된 BP 디코더는 DNN이 다양한 SNR 상황에 대해 스케일링 매개변수를 특별히 최적화할 수 있기 때문에 상당한 성능 이득을 얻을 수 있습니다. 따라서 우리는 제안된 학습된 BP 디코더가 기존의 Polar Coded JSCC 시스템보다 더 나은 성능을 발휘한다는 결론을 내릴 수 있습니다.
5. 결론
본 논문에서는 Polar Coded JSCC 시스템을 위한 DNN-FBP 디코더를 제안하였다. DNN-FBP 디코더에서는 더 나은 성능을 위해 BP 디코딩의 스케일링 매개변수를 최적화하기 위해 딥러닝이 사용되었습니다. 시뮬레이션 결과는 제안된 DNN-FBP 디코더를 사용하면 폴라 코딩된 JSCC 방식이 기존 BP 디코더를 사용하는 이중 폴라 코딩된 JSCC보다 성능이 우수하다는 것을 보여주었습니다.
참고문헌
[1] J.L. Massey, “Joint source and channel coding,” Communications Systems and Random Process Theory, vol.11, pp.279-293, 1978.
[2] E. Arikan, “Channel polarization: A method for constructing capacity-achieving codes for symmetric binary-input memoryless channels,” IEEE Trans. Inf. Theory, vol.55, no.7, pp.3051-3073, July 2009.
CrossRef
[3] J. Piao, K. Niu, J. Dai, and C. Dong, “Approaching the normal approximation of the finite blocklength capacity within 0.025 dB by short polar codes,” IEEE Wireless Commun. Lett., vol.9, no.7, pp.1089-1092, July 2020.
CrossRef
[4] Y. Shen, A. Balatsoukas-Stimming, X. You, C. Zhang, and A.P. Burg, “Dynamic SCL decoder with path-flipping for 5G polar codes,” IEEE Wireless Commun. Lett., vol.11, no.2, pp.391-395, Nov. 2022.
CrossRef
[5] A. Pamuk, “An FPGA implementation architecture for decoding of polar codes,” Proc. 8th International Symposium on Wireless Communication Systems, pp.437-441, Nov. 2011.
CrossRef
[6] B. Yuan and K.K. Parhi, “Early stopping criteria for energy-efficient low-latency belief-propagation polar code decoders,” IEEE Trans. Signal Process., vol.62, no.24, pp.6496-6506, May 2014.
CrossRef
[7] Q.P. Yu, Z.P. Shi, L. Deng, and X. Li, “An improved belief propagation decoding of concatenated polar codes with bit mapping,” IEEE Commun. Lett., vol.22, no.6, pp.1160-1163, June 2018.
CrossRef
[8] W. Xu, Z. Wu, Y.L. Ueng, X. You, and C. Zhang, “Improved polar decoder based on deep learning,” Proc. IEEE International Workshop on Signal Processing Systems (SiPS), pp.1-6, Nov. 2017.
CrossRef
[9] W. Xu, X. Tan, Y. Be’ery, Y.-L. Ueng, Y. Huang, X. You, and C. Zhang, “Deep learning-aided belief propagation decoder for polar codes,” IEEE Trans. Emerg. Sel. Topics Circuits Syst., vol.10, no.2, pp.189-203, June 2020.
CrossRef
[10] J. Gao, D. Zhang, J. Dai, K. Niu, and C. Dong, “Resnet-like belief-propagation decoding for polar codes,” IEEE Wireless Commun. Lett., vol.10, no.5, pp.934-937, May 2021.
CrossRef
[11] Y. Wang, M. Qin, K.R. Narayanan, A. Jiang, and Z. Bandic, “Joint source-channel decoding of polar codes for language-based sources,” Proc. IEEE Global Communications Conference (GLOBECOM), pp.1-6, Dec. 2016.
CrossRef
[12] L. Jin, P. Yang, and H. Yang, “Distributed joint source-channel decoding using systematic polar codes,” IEEE Commun. Lett., vol.22, no.1, pp.49-52, Jan. 2018.
CrossRef
[13] Y. Dong, K. Niu, J. Dai, S. Wang, and Y. Yuan, “Joint source and channel coding using double polar codes,” IEEE Commun. Lett., vol.25, no.9, pp.2810-2814, Sept. 2021.
CrossRef
[14] Y. Dong, K. Niu, J. Dai, S. Wang, and Y. Yuan, “Joint successive cancellation list decoding for the double polar codes,” IEEE Commun. Lett., vol.26, no.8, pp.1715-1719, Aug. 2022.
CrossRef
[15] D. Silver, A. Huang, C.J. Maddison, A. Guez, L. Sifre, G.V. Driessche, J. Schrittwieser, I. Antonoglou, V. Panneershelvam, M. Lanctot, S. Dieleman, D. Grewe, J. Nham, N. Kalchbrenner, I. Sutskever, T. Lillicrap, M. Leach, K. Kavukcuoglu, T. Graepel, and D. Hassabis, “Mastering the game of GO with deep neural networks and tree search,” Nature, vol.529, pp.484-489, 2016.
CrossRef
[16] E. Arikan, “Systematic polar coding,” IEEE Commun. Lett., vol.15, no.8, pp.860-862, Aug. 2011.
CrossRef