검색 기능은 준비 중입니다.
검색 기능은 준비 중입니다.

The original paper is in English. Non-English content has been machine-translated and may contain typographical errors or mistranslations. ex. Some numerals are expressed as "XNUMX".
Copyrights notice

The original paper is in English. Non-English content has been machine-translated and may contain typographical errors or mistranslations. Copyrights notice

FiC-RNN: A Multi-FPGA Acceleration Framework for Deep Recurrent Neural Networks FiC-RNN: 심층 순환 신경망을 위한 다중 FPGA 가속 프레임워크

Yuxi SUN, Hideharu AMANO

  • 조회수

    0

  • 이것을 인용

요약 :

순환 신경망(RNN)은 시간 정보를 처리하는 기능 덕분에 시퀀스 기반 작업에 효과적인 것으로 입증되었습니다. 실제 시스템에서 Deep RNN은 대규모 음성 인식 및 기계 번역과 같은 복잡한 작업을 해결하는 데 더 널리 사용됩니다. 그러나 기존 하드웨어 플랫폼에서 Deep RNN을 구현하는 것은 RNN 내의 장거리 시간 의존성과 불규칙한 계산 패턴으로 인해 비효율적입니다. 이러한 비효율성은 CPU 및 GPU의 심층 RNN 레이어 수와 관련하여 RNN 추론 지연 시간의 비례적인 증가로 나타납니다. 이전 작업은 주로 개별 RNN 셀을 최적화하고 가속화하는 데 중점을 두었습니다. 심층 RNN 추론을 빠르고 효율적으로 수행하기 위해 FiC(Flow-in-Cloud)라는 다중 FPGA 플랫폼 기반 가속기를 제안합니다. 이 연구에서는 대규모 모델을 여러 FPGA로 분할하여 다중 FPGA 시스템이 제공하는 병렬성을 활용하여 심층 RNN의 추론을 확장할 수 있음을 보여줍니다. RNN 레이어 수가 증가합니다. 단일 레이어 및 31레이어 RNN의 경우 우리의 구현은 Intel CPU에 비해 ​​61배 및 XNUMX배의 속도 향상을 달성합니다.

발행
IEICE TRANSACTIONS on Information Vol.E103-D No.12 pp.2457-2462
발행일
2020/12/01
공개일
2020/09/24
온라인 ISSN
1745-1361
DOI
10.1587/transinf.2020PAP0003
원고의 종류
Special Section PAPER (Special Section on Parallel, Distributed, and Reconfigurable Computing, and Networking)
범주
컴퓨터 시스템

작성자

Yuxi SUN
  Keio University
Hideharu AMANO
  Keio University

키워드