테라와 (Tech. Life. Wine)

Tech/Self-Study 6

Google TPU 논문 리뷰 "In-Datacenter Performance Analysis of a Tensor Processing Unit​"

In-Datacenter Performance Analysis of a Tensor Processing Unit is about Google TPU v1. Currently, TPUV4 has been released, but later versions is expanded from the form of v1, so if you know TPU v1 you can easily understand the rest. @What is TPU? A tensor processing unit (TPU) is an machine learning accelerator desigend by google. It is NPU custom ASICs deployed in datacenter. @ Why is TPU devel..

Tech/Self-Study 2023.02.21

[Verilog] 8bit up/down counter 설계 (8비트 카운터)

@ Verilog란? 대표적인 HDL (Hardware Description Language)로 디지털 시스템을 설계하고 검증할 수 있는 언어입니다. C언어와 문법적 특성이 유사하며 FPGA용 프로그램에 많이 사용되고 있습니다. 복잡한 회로도를 HDL이란 텍스트로 간단히 표현할 수 있고 빠르게 검증 가능하므로 하드웨어, 소프트웨어 엔지니어에게 모두에게 매우 유용한 툴입니다. @8bit counter 구현 verilog 를 시작하고 디지털 논리회로 이후 배우는게 카운터 일 것 같습니다. up-down counter는 control signal을 받아 clock에 맞추어 counter를 증가 or 감소 시키는 회로입니다. @ counter.v 8bit 증감 카운터 코드입니다. c언어 문법과 유사합니다. 다만..

Tech/Self-Study 2022.03.12

[AI가속기] Eyeriss: An Energy-Efficient ReconfigurableAccelerator for Deep ConvolutionalNeural Networks 논문 리뷰 (1/3)

MIT에서 2016년에 발표한 AI 가속기 Eyeriss입니다. 논문을 발표한 MIT의 Energy-Efficient Multimedia Systems (EEMS) group에서 현재까지도 Eyeriss PJT를 이어서 진행중인것 같습니다. EEMS에서 22년도에 Energy efficient Deep learning system에 대해 이틀짜리의 교육도 진행하는데 $2500이네요. 무료 온라인이라면 꼭 듣고 싶었는데 매우 아쉽습니다. Eyeriss Project (mit.edu) 에서 본 논문과 PJT등에 대해 자세한 내용을 볼 수 있으며 아래 내용도 논문에서 가져왔습니다. Eyeriss Project We will be giving a two day short course on Designing Ef..

Tech/Self-Study 2022.02.23

[AI 가속기] DianNao: A Small-Footprint High-Throughput Accelerator for Ubiquitous Machine-learning 논문 리뷰 (2/2)

DianNao 논문 이어서 리뷰합니다. 65nm layout 설계 검증한 AI HW에 대한 내용입니다. 4. Accelerator for Small Neural Networks large scale accelerator 를 제작하기전 small scale accelerator 를 제작하고 테스트함 neural network 구성대로 단순히 뉴런은 로직 회로로 시냅스는 ram을 사용함. 당시에 perceptron, SNN등에 많이 사용되던 방법임 결론적으로 뉴런 개수가 증가할수록 area, energy, delay 모두 증가하나 scalable하게 증가되지는 않음 결국, large scale accelerator에선 이 방법은 현실적이지 않으며 small scale에서는 시냅스를 on chip memory..

Tech/Self-Study 2022.02.21

[AI 가속기] DianNao: A Small-Footprint High-Throughput Accelerator for Ubiquitous Machine-learning 논문 리뷰 (1/2)

개인적인 공부 차원에서 정리합니다. 2014년에 발표된 AI 가속기의 시발점, 최초의 AI 가속기 논문으로 유명한 " DianNao: A Small-Footprint High-Throughput Accelerator for Ubiquitous Machine-Learning " (DianNao는 컴퓨터, 전자계산기라는 뜻) Diannao, Eyeriess등으로 이어지는 중국 Chen (Tianshi Chen , Yunji Chen, Yu-Hsin Chen) 시리즈가 있고 AI 가속기를 연구하는 분들에게 필수 논문이라고함 Abstract 연구배경을 설명하고 논문 제목과 같이 memory footprint를 줄여 efficiency와 performance 를 높이는 large scale AI 가속기를 제안함...

Tech/Self-Study 2022.02.18