国产人妻人伦精品_欧美一区二区三区图_亚洲欧洲久久_日韩美女av在线免费观看

合肥生活安徽新聞合肥交通合肥房產(chǎn)生活服務(wù)合肥教育合肥招聘合肥旅游文化藝術(shù)合肥美食合肥地圖合肥社保合肥醫(yī)院企業(yè)服務(wù)合肥法律

代做Computer Architecture、代寫Gem5 編程

時間:2024-06-08  來源:合肥網(wǎng)hfw.cc  作者:hfw.cc 我要糾錯



Computer Architecture
2024 Spring
Final Project Part 2Overview
Tutorial
● Gem5 Introduction
● Environment Setup
Projects
● Part 1 (5%)
○ Write C++ program to analyze the specification of L1 data cache.
● Part 2 (5%)
○ Given the hardware specifications, try to get the best performance for more 
complicated program.
2Project 2
3In this project, we will use a two-level cache 
computer system. Your task is to write a 
ViT(Vision Transformer) in C++ and optimize it. 
You can see more details of the system 
specification on the next page.
Description
4System Specifications
● ISA: X86
● CPU: TimingSimpleCPU (no pipeline, CPU stalls on every memory request)
● Caches
* L1 I cache and L1 D cache connect to the same L2 cache
● Memory size: 8192MB
5
I cache 
size
I cache 
associativity
 D cache 
size
D cache 
associativity
Policy Block size
L1 cache 16KB 8 16KB 4 LRU **B
L2 cache – – 1MB 16 LRU **BViT(Vision Transformer) – Transformer Overview
6
● A basic transformer block consists of 
○ Layer Normalization
○ MultiHead Self-Attention (MHSA) 
○ Feed Forward Network (FFN)
○ Residual connection (Add)
● You only need to focus on how to 
implement the function in the red box
● If you only want to complete the project 
instead of understanding the full 
algorithm about ViT, you can skip the 
section masked as redViT(Vision Transformer) – Image Pre-processing
7
● Normalize, resize to (300,300,3) and center crop to (224,224,3)ViT(Vision Transformer) – Patch Encoder
8
● In this project, we use Conv2D as Patch 
Encoder with kernel_size = (16,16), stride = 
(16,16) and output_channel = 768
● (224,224,3) -> (14,14, 16*16*3) -> (196, 768)ViT(Vision Transformer) – Class Token
9
● Now we have 196 tokens and each 
token has 768 features
● In order to record global information, we 
need concatenate one learnable class 
token with 196 tokens
● (196,768) -> (197,768)ViT(Vision Transformer) – Position Embedding
10
● Add the learnable position information 
on the patch embedding
● (197,768) + 
position_embedding(197,768) -> 
(197,768)ViT(Vision Transformer) – Layer Normalization
11
T
# of tokens
C
embedded dimension
● Normalize each token
● You need to normalize with the formulaAttention
ViT(Vision Transformer) – MultiHead Self Attention (1)
12
● Wk
, Wq
, Wv 
∈ RC✕C
● b
q
 , bk
, bv
∈ RC
● W

∈ RC✕C
 
● b
o
 ∈ RC
Input
Linear
Projection
X Attention
split 
into 
heads
merge 
heads
Output
Linear
Projection
Y
Wk
, Wq
, Wv W

b
q
 , bk
, bv b
o
 ViT(Vision Transformer) – MultiHead Self Attention (2)
13
T
# of tokens
C
embedded dimension
● Get Q, K, V ∈ RT✕(NH*H) after input linear projection
● Split Q, K, V into Q1
, Q2
, Q3
,..., QNH K1
, K2
, K3
,..., KNH V1
, V2
, V3
,..., VNH 
∈ RT✕H
H
hidden dimension
Linear Projection and split into heads
Linear Projection
Q = XWq
T
 + b
q
K = XWk
T
 + bk
V = XW
v
T
 + b
v
NH
# of head C = H * NHViT(Vision Transformer) – MultiHead Self Attention (2)
14
● For each head i, compute Si
 = QiKi
T
/square_root(H) ∈ RT✕T
● Pi = Softmax(Si
 ) ∈ RT✕T
, Softmax is a row-wise function
● Oi = Pi Vi ∈ RT✕H
Matrix
Multiplication
and scale
Qi
Ki
Softmax
Matrix
Multiplication Vi
Oi
SoftmaxViT(Vision Transformer) – MultiHead Self Attention (3)
15
T
# of tokens
C
embedded dimension
● Oi ∈ RT✕H
, O = [O1
, O2
,...,O2
 ]
H
hidden dimension
merge heads and Linear Projection
Linear Projection
output = OWo
T
 + b
o
NH
# of headViT(Vision Transformer) – Feed Forward Network
16
● Get Q, K, V ∈ RT✕(h*H) after input linear projection
● Split Q, K, V into Q1
, Q2
, Q3
,..., Qh
 K1
, K2
, K3
,..., Kh V1
, V2
, V3
,..., Vh ∈ RT✕H
T
# of tokens
C
embedded dimension
Input
Linear
Projection
T
# of tokens
OC
hidden dimension
GeLU
output
Linear
ProjectionViT(Vision Transformer) – GeLU
17ViT(Vision Transformer) – Classifier
18
● Contains a Linear layer to transform 768 features to 200 class
○ (197, 768) -> (197, 200)
● Only refer to the first token (class token)
○ (197, 200) -> (1, 200)ViT(Vision Transformer) – Work Flow
19
Pre-pocessing
Embedder
Transformer x12
Classifier
m5_dump_init
Load_weight
m5_dump_stat
Argmax
layernorm
MHSA
layernorm
FFN
matmul
attention
matmul
matmul
layernorm
matmul
Black footed Albatross
+
+
gelu
matmul
gelu
$ make gelu_tb
$ make matmul_tb
$ make layernorm_tb
$ make MHSA_tb
$ make feedforward_tb
 $ make transformer_tb
$ run_all.sh
layernorm
layernorm
MHSA
residualViT(Vision Transformer) – Shape of array
20
layernorm token 1 token 2 …… token T
C
input/output [T*C]
MHSA input/output/o [T*C]
MHSA qkv [T*3*C] q token 1
C
k token 1 v token 1 …… q token T k token T v token T
feedforward input/output [T*C]
feedforward gelu [T*OC] token 1
OC
token 2 …… token TCommon problem
21
● Segmentation fault
○ ensure that you are not accessing a nonexistent memory address
○ Enter the command $ulimit -s unlimited All you have to do is
22
● Download TA’s Gem5 image
○ docker pull yenzu/ca_final_part2:2024
● Write C++ with understanding the algorithm in ./layer folder
○ make clean
○ make <layer>_tb
○ ./<layer>_tbAll you have to do is
23
● Ensure the ViT will successfully classify the bird
○ python3 embedder.py --image_path images/Black_Footed_Albatross_0001_796111.jpg 
--embedder_path weights/embedder.pth --output_path embedded_image.bin
○ g++ -static main.cpp layer/*.cpp -o process
○ ./process
○ python3 run_model.py --input_path result.bin --output_path torch_pred.bin --model_path 
weights/model.pth
○ python3 classifier.py --prediction_path torch_pred.bin --classifier_path 
weights/classifier.pth
○ After running the above commands, you will get the following top5 prediction.
● Evaluate the performance of part of ViT, that is layernorm+MHSA+residual
○ Need about 3.5 hours to finish the simulation
○ Check stat.txtGrading Policy
24
● (50%) Verification
○ (10%) matmul_tb
○ (10%) layernorm_tb
○ (10%) gelu_tb
○ (10%) MHSA_tb
○ (10%) transformer_tb
● (50%) Performance
○ max(sigmoid((27.74 - student latency)/student latency))*70, 50)
● You will get 0 performance point if your design is not verified.Submission
● Please submit code on E3 before 23:59 on June 20, 2024.
● Late submission is not allowed.
● Plagiarism is forbidden, otherwise you will get 0 point!!!
25
● Format
○ Code: please put your code in a folder 
named FP2_team<ID>_code and compress 
it into a zip file.
2
2
2FP2_team<ID>_code folder 
26
● You should attach the following documents
○ matmul.cpp
○ layernorm.cpp
○ gelu.cpp
○ attention.cpp
○ residual.cpp

請加QQ:99515681  郵箱:99515681@qq.com   WX:codinghelp



















 

掃一掃在手機打開當(dāng)前頁
  • 上一篇:代做QBUS3600、代寫Python設(shè)計程序
  • 下一篇:哪些人可以辦理菲律賓團簽?zāi)兀ǜ鷪F簽的材料)
  • 無相關(guān)信息
    合肥生活資訊

    合肥圖文信息
    流體仿真外包多少錢_專業(yè)CFD分析代做_友商科技CAE仿真
    流體仿真外包多少錢_專業(yè)CFD分析代做_友商科
    CAE仿真分析代做公司 CFD流體仿真服務(wù) 管路流場仿真外包
    CAE仿真分析代做公司 CFD流體仿真服務(wù) 管路
    流體CFD仿真分析_代做咨詢服務(wù)_Fluent 仿真技術(shù)服務(wù)
    流體CFD仿真分析_代做咨詢服務(wù)_Fluent 仿真
    結(jié)構(gòu)仿真分析服務(wù)_CAE代做咨詢外包_剛強度疲勞振動
    結(jié)構(gòu)仿真分析服務(wù)_CAE代做咨詢外包_剛強度疲
    流體cfd仿真分析服務(wù) 7類仿真分析代做服務(wù)40個行業(yè)
    流體cfd仿真分析服務(wù) 7類仿真分析代做服務(wù)4
    超全面的拼多多電商運營技巧,多多開團助手,多多出評軟件徽y1698861
    超全面的拼多多電商運營技巧,多多開團助手
    CAE有限元仿真分析團隊,2026仿真代做咨詢服務(wù)平臺
    CAE有限元仿真分析團隊,2026仿真代做咨詢服
    釘釘簽到打卡位置修改神器,2026怎么修改定位在范圍內(nèi)
    釘釘簽到打卡位置修改神器,2026怎么修改定
  • 短信驗證碼 寵物飼養(yǎng) 十大衛(wèi)浴品牌排行 suno 豆包網(wǎng)頁版入口 wps 目錄網(wǎng) 排行網(wǎng)

    關(guān)于我們 | 打賞支持 | 廣告服務(wù) | 聯(lián)系我們 | 網(wǎng)站地圖 | 免責(zé)聲明 | 幫助中心 | 友情鏈接 |

    Copyright © 2025 hfw.cc Inc. All Rights Reserved. 合肥網(wǎng) 版權(quán)所有
    ICP備06013414號-3 公安備 42010502001045

    国产人妻人伦精品_欧美一区二区三区图_亚洲欧洲久久_日韩美女av在线免费观看
    日韩av高清不卡| 亚洲xxxx视频| 亚洲综合精品伊人久久| 日本一欧美一欧美一亚洲视频| 国产免费色视频| 国产精品久久久久久久小唯西川| 欧美一级中文字幕| 91精品国产91久久久久| 宅男在线精品国产免费观看| 国内精品视频免费| 国产成人无码av在线播放dvd| 日韩成人手机在线| 81精品国产乱码久久久久久| 一区二区三区四区久久| 国产精品伊人日日| 精品国产乱码久久久久软件 | 日韩免费一区二区三区| 91国产丝袜在线放| 无码av天堂一区二区三区| 99在线首页视频| 午夜精品视频网站| 国产经典一区二区三区| 少妇一晚三次一区二区三区| 国产极品精品在线观看 | 精品视频在线观看一区二区| 久久久99久久精品女同性| 国内精品久久影院| 欧美成人中文字幕| 国产麻花豆剧传媒精品mv在线| 久久久极品av| 国内偷自视频区视频综合| 欧美精品在线免费观看| 成 年 人 黄 色 大 片大 全| 亚洲精品日韩成人| 777午夜精品福利在线观看| 五月天在线免费视频| 91精品视频免费看| 日本一区二区三区四区在线观看 | 日韩欧美一区二区视频在线播放 | 日韩av不卡在线播放| 国产成人精品电影久久久| 日本一区二区在线视频观看| 久久久久久久久久久久久国产| 日韩成人手机在线| 国产成人看片| 国产主播欧美精品| 一区二区三区av| 国产激情美女久久久久久吹潮| 日韩视频在线观看视频| 国产精品视频网站在线观看| 免费日韩中文字幕| 伊人网在线免费| 久久久精品在线视频| 欧美欧美一区二区| 精品自拍视频在线观看| 久久这里只有精品23| 欧美与黑人午夜性猛交久久久| 久久综合网hezyo| www.av中文字幕| 青草成人免费视频| 精品久久久久久综合日本| 91免费黄视频| 欧美日韩一区二区视频在线| 久久99久久久久久久噜噜 | 欧美精品999| 国产成人亚洲综合青青| 国产一区二区中文字幕免费看| 亚洲不卡一卡2卡三卡4卡5卡精品| 日韩视频亚洲视频| 99视频日韩| 欧美婷婷久久| 亚洲一区二区三区四区视频| 国产精品视频色| 91福利视频导航| 麻豆成人av| 熟女视频一区二区三区| 精品国产乱码久久久久久108| 国产xxxxx视频| 国产毛片久久久久久国产毛片| 欧美一区二区激情| 欧美精品在线网站| 久久99精品久久久久久久青青日本| 国产日韩一区二区在线观看| 日av中文字幕| 亚洲天堂av免费在线观看| 国产精品视频在线观看| 久久久久国产精品熟女影院| 国产美女久久精品香蕉69| 欧美在线一级视频| 亚洲va久久久噜噜噜| 欧美精品日韩三级| 国产精品视频一区国模私拍| 国产av熟女一区二区三区| 99视频在线免费| 国产日韩欧美中文| 欧美性在线观看| 日韩av一区二区三区在线观看 | 欧美亚洲一级二级| 午夜伦理精品一区| 美女精品久久久| 日韩视频在线免费| 国产精品99久久久久久久久久久久| 国产日韩视频在线观看| 青青草精品毛片| 日本亚洲精品在线观看| 亚洲一区二区三区毛片| 精品久久精品久久| 国产精品久久久久影院日本| 久久久久久久9| 国产成人亚洲综合青青| 91精品国产高清自在线| 国产精品一 二 三| 国产欧美久久久久| 免费看日b视频| 国产精品高潮呻吟久久av黑人| 欧美精品999| 久久综合伊人77777| 国产精品久久在线观看| 欧美日韩亚洲一二三| 日本一区不卡| 日韩欧美一区二区在线观看| 日本精品久久久久影院| 日本视频一区在线观看| 日韩欧美一区二区视频在线播放| 日韩av电影在线观看| 一区二区传媒有限公司| 亚洲尤物视频网| 亚洲精品免费av| 国产一区二中文字幕在线看| 欧美在线免费视频| 性日韩欧美在线视频| 性欧美激情精品| 欧洲一区二区在线| 日本a在线天堂| 欧美亚洲黄色片| 毛片一区二区三区四区| 国产午夜福利100集发布| 国产在线视频欧美一区二区三区| 麻豆av一区二区三区久久| 国产私拍一区| 国产精品一区二区性色av| 97人人模人人爽视频一区二区| 逼特逼视频在线| 久久免费视频网| 国产欧美日韩小视频| 国产精品一区二区你懂得| 99久久自偷自偷国产精品不卡| 久久久亚洲影院你懂的| 久久免费精品视频| 久久精彩免费视频| 久久69精品久久久久久久电影好| 亚洲欧洲精品在线| 日韩欧美亚洲日产国产| 国内精品久久影院| 成人av在线亚洲| 久久av一区二区| 国产精品久久色| 亚洲区一区二区三区| 日韩精品一区二区三区四| 国内精品视频久久| www.九色.com| www.久久撸.com| 美日韩精品免费视频| 亚洲天堂av免费在线观看| 青青青在线视频播放| 国产三级精品在线不卡| 久久久综合香蕉尹人综合网| 国产精品户外野外| 亚洲a一级视频| 激情综合网婷婷| 国产精品9999| 国产精品久久久久999| 亚洲a级在线播放观看| 加勒比成人在线| 国产精品99导航| 国产精品久久久久久中文字| 亚洲色成人www永久在线观看| 欧美一区二区在线视频观看| 国产免费成人在线| 色偷偷888欧美精品久久久| 九九综合九九综合| 日韩精品国内| 91久久嫩草影院一区二区| 国产精品免费在线播放| 亚洲欧洲精品一区| 国产在线观看一区二区三区| 久久riav二区三区| 亚洲一卡二卡| 国产又粗又爽又黄的视频| 国产精品av在线播放 | 欧洲亚洲免费视频| 国产青春久久久国产毛片| 国产白丝袜美女久久久久| 欧美日本国产在线| 欧美在线视频观看| 91精品久久久久久久久| 欧美成人第一页| 欧美精品成人一区二区在线观看| 99精品人妻少妇一区二区| 操人视频在线观看欧美|