+1 (562) 404-0447@.com

62GB-56T14-04SX Stock and Price by Distributor
Upload BOM
Unable to extract parts from document. Please try again.
AE Petsche
BTC Electronics
Electro Enterprises
Forward Components
Future Electronics
Heilind Asia
Heilind Electronics
Heilind Europe
Master Electronics
microchipDIRECT
Monolithic Power
NexGen Digital
Onlinecomponents.com
PEI Genesis
Powell Electronics
Power & Signal
Richardson RFPD
RS Components
Shortec Electronics
Space Coast
TE Connectivity
Texas Instruments
Venkel Ltd.
Waytek, Inc.
WPG Americas
America II
Terminals & Conn
World Micro
Show Filters
Desired Stock:
In Stock Only
Exact Matches Only
Currency Estimator:
Manufacturer
Description
62GB56T1404SX
Amphenol Corporation
BAYONET LOCK CONNECTOR
COMPLIES WITH MIL-C-26482 - Bag (Alt: 62GB56T1404SX)
Not Compliant
Container:
Americas - 0
25 $47.6900
27 $45.5900
52 $36.8900
125 $33.0900
250 $31.8900
Amphenol Corporation
BAYONET LOCK CONNECTOR
COMPLIES WITH MIL-C-26482 - Bag (Alt: 62GB56T)
Not Compliant
Container:
Americas - 0
25 $47.6900
27 $45.5900
52 $36.8900
125 $33.0900
250 $31.8900
Amphenol Corporation
BAYONET LOCK CONNECTOR
COMPLIES WITH MIL-C-26482 - Bag (Alt: 62GB56T)
Not Compliant
Container:
Americas - 0
25 $47.6900
27 $45.5900
52 $36.8900
125 $33.0900
250 $31.8900
Amphenol Corporation
BAYONET LOCK CONNECTOR
COMPLIES WITH MIL-C-26482 - Bag (Alt: 62GB56T)
Not Compliant
Container:
Americas - 0
25 $51.5900
27 $49.3900
52 $39.9900
125 $35.7900
250 $34.4900
Amphenol Corporation
BAYONET LOCK CONNECTOR
COMPLIES WITH MIL-C-26482 - Bag (Alt: 62GB56T)
Not Compliant
Container:
Americas - 0
25 $47.6900
27 $45.5900
52 $36.8900
125 $33.0900
250 $31.8900
Amphenol Corporation
BAYONET LOCK CONNECTOR
COMPLIES WITH MIL-C-26482 - Bag (Alt: 62GB56T)
Not Compliant
Container:
Americas - 0
Amphenol Corporation
BAYONET LOCK CONNECTOR
COMPLIES WITH MIL-C-26482 - Bag (Alt: 62GB56T)
Not Compliant
Container:
Americas - 0
25 $51.5900
27 $49.3900
52 $39.9900
125 $35.7900
250 $34.4900
Amphenol Corporation
BAYONET LOCK CONNECTOR
COMPLIES WITH MIL-C-26482 - Bag (Alt: 62GB56T)
Not Compliant
Container:
Americas - 0
Amphenol Corporation
BAYONET LOCK CONNECTOR
COMPLIES WITH MIL-C-26482 - Bag (Alt: 62GB56T)
Not Compliant
Container:
Americas - 0
25 $51.5900
27 $49.3900
52 $39.9900
125 $35.7900
250 $34.4900
Amphenol Corporation
BAYONET LOCK CONNECTOR
COMPLIES WITH MIL-C-26482 - Bag (Alt: 62GB56T)
Not Compliant
Container:
Americas - 0
Amphenol Corporation
BAYONET LOCK CONNECTOR
COMPLIES WITH MIL-C-26482 - Bag (Alt: 62GB56T)
Not Compliant
Container:
Americas - 0
Amphenol Corporation
BAYONET LOCK CONNECTOR
COMPLIES WITH MIL-C-26482 - Bag (Alt: 62GB56T)
Not Compliant
Container:
Americas - 0
25 $51.5900
27 $49.3900
52 $39.9900
125 $35.7900
250 $34.4900
62GB56T760
Amphenol Corporation
BAYONET LOCK CONNECTOR
COMPLIES WITH MIL-C-26482 - Bag (Alt: 62GB56T760)
Not Compliant
Container:
Americas - 0
62GB56T760
Amphenol Corporation
BAYONET LOCK CONNECTOR
COMPLIES WITH MIL-C-26482 - Bag (Alt: 62GB56T760)
Not Compliant
Container:
Americas - 0
62GB56T760
Amphenol Corporation
BAYONET LOCK CONNECTOR
COMPLIES WITH MIL-C-26482 - Bag (Alt: 62GB56T760)
Not Compliant
Container:
Americas - 0
Manufacturer
Description
PCM62GB56T
Amphenol PCD
PCM62GB56T
Amphenol PCD
PCM62GB56T1404SX
Amphenol PCD
PCM62GB56T
Amphenol PCD
PCM62GB56T
Amphenol PCD
PCM62GB56T
Amphenol PCD
PCM62GB56T
Amphenol PCD
PCM62GB56T
Amphenol PCD
Manufacturer
Description
523-56T1404SX
Amphenol Corporation
Circular MIL Spec Connector
25 $54.7200
50 $51.1900
100 $48.3700
Amphenol Corporation
Circular MIL Spec Connector
25 $59.2000
50 $55.3900
100 $52.3300
Amphenol Corporation
Circular MIL Spec Connector
25 $59.2000
50 $55.3900
100 $52.3300
Amphenol Corporation
Circular MIL Spec Connector
25 $54.7200
50 $51.1900
100 $48.3700
Amphenol Corporation
Circular MIL Spec Connector
25 $59.2000
50 $55.3900
100 $52.3300
523-62GB56T
Amphenol Corporation
Circular MIL Spec Connector 4P Sz 14 Min Bayonet Straight Plug Skt
25 $114.0800
50 $108.1900
Amphenol Corporation
Circular MIL Spec Connector
25 $54.7200
50 $51.1900
100 $48.3700
Amphenol Corporation
Circular MIL Spec Connector
25 $59.2000
50 $55.3900
100 $52.3300
523-62GB56T144SX4476
Amphenol Corporation
Circular MIL Spec Connector 4P STRT SOCKET PLUG SHELL SIZE 14
Not compliant
25 $125.6400
Manufacturer
Description
PCD62GB-56T14-04SX
Amphenol PCD
62GB56T1404SX
Americas - 0
PCM62GB56T
Amphenol PCD
Americas - 0
PCM62GB56T
Amphenol PCD
Americas - 0
PCM62GB56T1404SX
Amphenol PCD
Americas - 0
PCD62GB-56T14-04SX(771)
Amphenol PCD
Americas - 0
PCD62GB-56T14-04SX(044)
Amphenol PCD
Americas - 0
PCM62GB56T
Amphenol PCD
Americas - 0
PCD62GB-56T14-04SX(044)(4
Amphenol PCD
Americas - 0
PCM62GB56T
Amphenol PCD
Americas - 0
PCM62GB56T
Amphenol PCD
Americas - 0
PCD62GB-56T14-04SX(044)(7
Amphenol PCD
Americas - 0
PCD62GB-56T14-04SX(416)
Amphenol PCD
Americas - 0
PCD62GB-56T14-04SX(714)
Amphenol PCD
Americas - 0
PCM62GB56T
Amphenol PCD
Americas - 0
PCM62GB56T
Amphenol PCD
Americas - 0
Heilind Electronics
Associated Electronic Components for 62GB-56T14-04SX
! Unable to save document. Please try again.
Select Sheet
Part Number ( parts)
Designator
Uploading Document
Processing Document
Saving Data
Your FindChips PRO license has expired.
You have a Findchips Basic account.
Add to list:收藏成功!
2018天津高考本科批次(A阶段)各院校平行志愿录取最低分(理工)
2018天津高考本科批次(A阶段)各院校平行志愿录取最低分(理工)
安徽财经大学
安徽建筑大学
安徽科技学院
安徽理工大学
安徽农业大学
安徽医科大学
445.96被退档
安阳工学院
安阳师范学院
鞍山师范学院
白城师范学院
宝鸡文理学院
北方工业大学
北方民族大学
北华航天工业学院
北京大学医学部
北京第二外国语学院
北京工商大学
北京工业大学
北京航空航天大学
北京化工大学
北京建筑大学
北京交通大学
北京交通大学(威海校区)
北京科技大学
北京理工大学
北京联合大学
北京林业大学
北京农学院
北京师范大学
北京师范大学-香港浸会大学联合国际学院
北京石油化工学院
北京体育大学
北京外国语大学
北京物资学院
北京协和医学院
北京信息科技大学
北京印刷学院
北京邮电大学
北京邮电大学(宏福校区)
北京语言大学
北京中医药大学
滨州医学院
沧州师范学院
长春工程学院
长春工业大学
长春理工大学
长春师范大学
长春中医药大学
长沙理工大学
长治医学院
常熟理工学院
常州工学院
成都理工大学
成都体育学院
成都信息工程大学
成都中医药大学
承德医学院
重庆工商大学
重庆交通大学
重庆科技学院
重庆理工大学
重庆师范大学
重庆医科大学
重庆邮电大学
楚雄师范学院
大连海事大学
大连海洋大学
大连交通大学
大连理工大学
大连理工大学(盘锦校区)
大连民族大学
大连医科大学
大庆师范学院
电子科技大学
电子科技大学(沙河校区)
东北财经大学
东北大学秦皇岛分校
东北电力大学
东北林业大学
东北农业大学
东北师范大学
东北石油大学
东华理工大学
对外经济贸易大学
防灾科技学院
福建工程学院
福建农林大学
福建师范大学
福建医科大学
福建中医药大学
复旦大学医学院
甘肃政法学院
赣南师范大学
赣南医学院
广东海洋大学
广东金融学院
广东药科大学
广东医科大学
广西财经学院
广西科技大学
广西科技师范学院
广西师范大学
广西师范学院
广西医科大学
广州体育学院
广州中医药大学
贵州医科大学
桂林电子科技大学
桂林理工大学
哈尔滨工程大学
哈尔滨工业大学
哈尔滨工业大学(威海)
哈尔滨金融学院
哈尔滨理工大学
哈尔滨商业大学
哈尔滨师范大学
哈尔滨医科大学
海南热带海洋学院
海南师范大学
海南医学院
杭州电子科技大学
合肥工业大学
合肥工业大学(宣城校区)
河北北方学院
481.103被退档
河北地质大学
河北工程大学
河北工业大学
河北环境工程学院
河北建筑工程学院
河北金融学院
河北科技大学
河北科技师范学院
河北民族师范学院
河北农业大学
河北师范大学
河北医科大学
河北中医学院
河南财经政法大学
河南城建学院
河南工程学院
河南工业大学
河南科技大学
河南科技学院
河南理工大学
河南农业大学
河南师范大学
河南中医药大学
黑龙江八一农垦大学
黑龙江大学
黑龙江工程学院
黑龙江科技大学
黑龙江中医药大学
衡阳师范学院
湖北工程学院
湖北工业大学
湖北经济学院
湖北理工学院
湖北师范大学
湖北文理学院
湖北医药学院
湖北中医药大学
湖南财政经济学院
湖南城市学院
湖南工程学院
湖南工学院
湖南工业大学
湖南科技大学
湖南科技学院
湖南理工学院
湖南农业大学
湖南人文科技学院
湖南商学院
湖南师范大学
湖南文理学院
湖南医药学院
湖南中医药大学
湖州师范学院
华北电力大学(保定)
华北电力大学(北京)
华北科技学院
华北理工大学
华北水利水电大学
华东交通大学
华东理工大学
华东师范大学
华东政法大学
华南理工大学
华中科技大学
华中农业大学
华中师范大学
淮北师范大学
淮海工学院
吉林财经大学
吉林工程技术师范学院
吉林工商学院
吉林建筑大学
吉林农业大学
吉林师范大学
济宁医学院
佳木斯大学
江苏科技大学
江西财经大学
江西科技师范大学
江西理工大学
江西农业大学
江西师范大学
江西中医药大学
陆军工程大学
金陵科技学院
锦州医科大学
井冈山大学
景德镇陶瓷大学
昆明理工大学
昆明医科大学
兰州财经大学
兰州工业学院
兰州交通大学
兰州理工大学
廊坊师范学院
乐山师范学院
辽宁工程技术大学
辽宁科技大学
辽宁石油化工大学
洛阳理工学院
洛阳师范学院
牡丹江师范学院
牡丹江医学院
469.103被退档
内蒙古大学
内蒙古工业大学
内蒙古科技大学
内蒙古民族大学
内蒙古农业大学
内蒙古师范大学
内蒙古医科大学
南昌工程学院
南昌航空大学
南方医科大学
南京财经大学
南京工程学院
南京工业大学
南京航空航天大学
南京理工大学
南京林业大学
南京农业大学
南京审计大学
南京师范大学
南京特殊教育师范学院
南京信息工程大学
南京医科大学
南京邮电大学
南京中医药大学
南阳理工学院
南阳师范学院
宁波诺丁汉大学
齐鲁工业大学
齐齐哈尔大学
齐齐哈尔医学院
青岛科技大学
青岛理工大学
青岛农业大学
青海民族大学
青海师范大学
曲阜师范大学
曲靖师范学院
泉州师范学院
山东财经大学
山东大学威海分校
山东工商学院
山东建筑大学
山东交通学院
山东科技大学
山东理工大学
山东农业大学
山东师范大学
山东政法学院
山东中医药大学
山西财经大学
山西传媒学院
山西大同大学
山西工程技术学院
山西农业大学
山西师范大学
山西医科大学
山西中医药大学
陕西科技大学
陕西理工大学
陕西师范大学
陕西中医药大学
商丘师范学院
上海财经大学
上海电力学院
上海对外经贸大学
上海工程技术大学
上海海关学院
上海海事大学
上海海洋大学
上海健康医学院
上海交通大学
上海交通大学医学院
上海理工大学
上海立信会计金融学院
上海外国语大学
上海政法学院
上饶师范学院
绍兴文理学院
沈阳工程学院
沈阳工业大学
沈阳航空航天大学
沈阳化工大学
沈阳建筑大学
沈阳理工大学
沈阳农业大学
沈阳师范大学
沈阳体育学院
沈阳药科大学
沈阳医学院
石河子大学
石家庄铁道大学
首都经济贸易大学
首都师范大学
首都医科大学
四川理工学院
四川农业大学
四川外国语大学
苏州科技大学
太原工业学院
太原科技大学
太原理工大学
太原师范学院
泰山医学院
唐山师范学院
天津财经大学
天津城建大学
天津工业大学
天津科技大学
天津理工大学
天津农学院
天津商业大学
天津师范大学
天津体育学院
天津外国语大学
天津医科大学
天津职业技术师范大学
天津中德应用技术大学
天津中医药大学
天水师范学院
通化师范学院
潍坊医学院
渭南师范学院
温州医科大学
武汉工程大学
武汉科技大学
武汉理工大学
武汉轻工大学
西安财经学院
西安电子科技大学
西安工程大学
西安工业大学
西安建筑科技大学
西安交通大学
西安科技大学
西安理工大学
西安石油大学
西安外国语大学
西安文理学院
西安邮电大学
西北工业大学
西北民族大学
西北农林科技大学
西北师范大学
西北政法大学
西交利物浦大学
西南财经大学
西南交通大学
西南科技大学
西南林业大学
西南民族大学
西南石油大学
西南医科大学
西南政法大学
厦门理工学院
忻州师范学院
新疆财经大学
新疆农业大学
新疆师范大学
新疆医科大学
新乡医学院
信阳师范学院
徐州工程学院
盐城工学院
盐城师范学院
玉林师范学院
玉溪师范学院
云南财经大学
云南民族大学
云南农业大学
云南师范大学
云南中医学院
张家口学院
浙江财经大学
浙江传媒学院
浙江工商大学
浙江工业大学
浙江科技学院
浙江理工大学
浙江农林大学
浙江师范大学
浙江中医药大学
郑州航空工业管理学院
郑州轻工业学院
中国传媒大学
中国地质大学(北京)
中国地质大学(武汉)
中国海洋大学
中国计量大学
中国科学技术大学
中国矿业大学
中国矿业大学(北京)
中国劳动关系学院
中国民航大学
中国民用航空飞行学院
中国农业大学
中国人民大学
中国人民大学(苏州校区)
中国石油大学(北京)
中国石油大学(北京)克拉玛依校区
中国石油大学(华东)
中国药科大学
中国医科大学
中国政法大学
中南财经政法大学
中南林业科技大学
中南民族大学
中央财经大学
中央民族大学
中原工学院
遵义医学院
中国社会科学院大学
天津工业大学
天津师范大学
天津城建大学
天津农学院
天津工业大学
天津科技大学
天津理工大学
天津商业大学
天津师范大学
天津职业技术师范大学
天津理工大学
天津商业大学
天津职业技术师范大学
北京大学医学部
哈尔滨医科大学
安徽理工大学
安阳工学院
北华航天工业学院
北京工商大学
北京工业大学
北京化工大学
北京建筑大学
北京交通大学
北京林业大学
北京农学院
北京外国语大学
长春工业大学
大连理工大学
大连理工大学(盘锦校区)
电子科技大学(沙河校区)
东北财经大学
东北电力大学
东北师范大学
贵州财经大学
海南大学 
552.110被退档
河北工业大学
河北金融学院
河南工业大学
河南理工大学
湖南人文科技学院
华北理工大学
华北水利水电大学
华东交通大学
吉林财经大学
吉林建筑大学
吉林师范大学
江苏科技大学
昆明理工大学
辽宁师范大学
辽宁石油化工大学
南京航空航天大学
南京理工大学
南京信息工程大学
南阳理工学院
青岛理工大学
山东工商学院
上海对外经贸大学
上海海事大学
上海理工大学
太原科技大学
天津财经大学
天津城建大学
天津工业大学
天津科技大学
天津理工大学
天津商业大学
天津职业技术师范大学
天津中医药大学
武汉工程大学
武汉理工大学
西安建筑科技大学
西安科技大学
西南交通大学
西南林业大学
411.100被退档
浙江财经大学
中国地质大学(武汉)
中国海洋大学
中国农业大学
中国药科大学
中国医科大学
中国教育在线
Copyright&2018 eol.cn正在加载,请稍候...
发表评论请
扫描二维码关注特品特惠
全球仅此一家日本设计小站。1.预构建网络
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
# 1 input image channel, 6 output channels, 5*5 square convolution
self.conv1 = nn.Conv2d(1, 6, 5)
self.conv2 = nn.Conv2d(6, 16, 5)
# an affine operation: y = Wx + b
self.fc1 = nn.Linear(16 * 5 * 5, 120)
self.fc2 = nn.Linear(120, 84)
self.fc3 = nn.Linear(84, 10)
def forward(self, x):
# max pooling over a (2, 2) window
x = F.max_pool2d(F.relu(self.conv1(x)), (2, 2))
# If size is a square you can only specify a single number
x = F.max_pool2d(F.relu(self.conv2(x)), 2)
x = x.view(-1, self.num_flat_features(x))
x = F.relu(self.fc1(x))
x = F.relu(self.fc2(x))
x = self.fc3(x)
def num_flat_features(self, x):
size = x.size()[1:] # all dimensions except the batch dimension
num_features = 1
for s in size:
num_features *= s
return num_features
net = Net()
(conv1): Conv2d(1, 6, kernel_size=(5, 5), stride=(1, 1))
(conv2): Conv2d(6, 16, kernel_size=(5, 5), stride=(1, 1))
(fc1): Linear(in_features=400, out_features=120, bias=True)
(fc2): Linear(in_features=120, out_features=84, bias=True)
(fc3): Linear(in_features=84, out_features=10, bias=True)
2.net.parameters()
构建好神经网络后,网络的参数都保存在parameters()函数当中
print(net.parameters())
&generator object Module.parameters at 0x1200&
para = list(net.parameters())
print(para)
#len返回列表项个数
print(len(para))
[Parameter containing:
tensor([[[[-0.0596,
0.0542, -0.0283],
[-0.0542, -0.1680,
0.1036, -0.1756],
0.1034, -0.1548, -0.1343],
[-0.0978, -0.1803, -0.0701, -0.0377,
0.0290]]],
[[[-0.1020,
0.0862, -0.1227, -0.1742,
[ 0.0862, -0.0995,
0.1276, -0.1895, -0.1346],
0.1387, -0.1983, -0.1015, -0.0740],
[-0.0248, -0.0546,
0.1510, -0.0066]]],
[[[ 0.1333,
0.0969, -0.0295,
[ 0.1216, -0.0864,
0.0157, -0.1330],
0.1287, -0.0650,
0.1182]]],
[[[-0.0816,
0.1259, -0.1124, -0.0864],
0.1180, -0.0933],
[-0.0925, -0.0549,
[-0.1771, -0.1937,
[ 0.1163, -0.1577,
0.0431, -0.0362]]],
[[[-0.0675, -0.1039,
0.0762, -0.1798,
0.0184, -0.0980],
0.1225, -0.0734,
[ 0.1745, -0.1550,
0.0044, -0.0538]]],
[[[-0.0926,
0.0198, -0.1216, -0.1942],
0.0862, -0.1714,
[ 0.0358, -0.1350,
0.1387, -0.1365, -0.1600],
[ 0.0368, -0.1323, -0.0127,
0.0917, -0.1892]]]],
requires_grad=True), Parameter containing:
tensor([-0.0229, -0.1387, -0.1571, -0.0381, -0.1559,
0.0946], requires_grad=True), Parameter containing:
tensor([[[[-0.0497, -0.0356, -0.0272, -0.0519,
0.0705, -0.0341, -0.0454],
[ 0.0129, -0.0385,
0.0682, -0.0613,
0.0218, -0.0056,
0.0204, -0.0668],
0.0649, -0.0470,
0.0138, -0.0686]],
[[ 0.0647,
0.0554, -0.0220, -0.0295, -0.0145],
[ 0.0500, -0.0026,
0.0742, -0.0291,
0.0679, -0.0657],
0.0729, -0.0158, -0.0495, -0.0220],
0.0440, -0.0485,
[[ 0.0523, -0.0072, -0.0786,
[-0.0254, -0.0043, -0.0113,
0.0755, -0.0590],
[ 0.0113, -0.0170,
0.0318, -0.0764, -0.0210],
[-0.0203, -0.0273,
0.0555, -0.0129, -0.0395,
[[ 0.0387,
0.0189, -0.0007, -0.0604,
[ 0.0152, -0.0106, -0.0381, -0.0630, -0.0645],
[ 0.0092, -0.0295, -0.0616,
[ 0.0418, -0.0372,
0.0109, -0.0758]],
[[-0.0751, -0.0610,
0.0269, -0.0331, -0.0193],
0.0430, -0.0201, -0.0017, -0.0408],
[-0.0590, -0.0148,
0.0575, -0.0786],
0.0170, -0.0792,
0.0193, -0.0732, -0.0666, -0.0734]],
[[ 0.0154,
0.0540, -0.0429,
0.0424, -0.0488,
0.0324, -0.0020, -0.0538,
[ 0.0243, -0.0452,
0.0070, -0.0287, -0.0476],
0.0561, -0.0076, -0.0391,
0.0795]]],
[[[ 0.0773,
0.0748, -0.0133,
0.0017, -0.0722,
[ 0.0357, -0.0677,
0.0085, -0.0005, -0.0313],
[ 0.0672, -0.0359, -0.0243, -0.0811, -0.0726],
0.0278, -0.0615, -0.0410]],
[[ 0.0202,
0.0527, -0.0086, -0.0683],
[ 0.0036, -0.0692, -0.0732, -0.0250, -0.0470],
0.0649, -0.0158,
0.0464, -0.0530,
[[ 0.0068,
0.0629, -0.0214,
0.0799, -0.0350,
0.0145, -0.0397, -0.0784],
0.0021, -0.0494, -0.0344],
0.0502, -0.0490, -0.0701,
[[-0.0365,
[ 0.0552, -0.0674,
0.0176, -0.0131,
[ 0.0147, -0.0432,
0.0473, -0.0231, -0.0314],
0.0508, -0.0475,
0.0287, -0.0391, -0.0543,
[[-0.0241, -0.0322,
0.0704, -0.0758, -0.0562],
[-0.0675, -0.0265, -0.0444, -0.0370,
0.0146, -0.0317],
0.0666, -0.0365,
0.0306, -0.0628]],
[[ 0.0529,
[-0.0006, -0.0432, -0.0128,
0.0794, -0.0794],
[ 0.0016, -0.0504, -0.0252,
[ 0.0305, -0.0807, -0.0236, -0.0810, -0.0010],
[-0.0423, -0.0285, -0.0559,
0.0796]]],
[[[-0.0504,
0.0504, -0.0440,
[ 0.0517, -0.0268, -0.0517,
0.0426, -0.0787,
[-0.0661, -0.0457,
0.0691, -0.0058, -0.0073],
0.0367, -0.0625, -0.0731]],
[[ 0.0190,
0.0145, -0.0073,
0.0038, -0.0349, -0.0022,
[ 0.0346, -0.0622,
0.0194, -0.0151,
[ 0.0002, -0.0663,
0.0730, -0.0462, -0.0182],
[ 0.0311, -0.0079,
0.0517, -0.0601]],
[[-0.0039, -0.0102, -0.0599, -0.0220, -0.0467],
[-0.0495, -0.0265,
0.0476, -0.0585,
[-0.0505, -0.0447, -0.0002, -0.0121, -0.0170],
[[ 0.0732, -0.0100,
0.0115, -0.0046, -0.0133],
[ 0.0333, -0.0065,
[ 0.0328, -0.0513,
0.0468, -0.0763, -0.0314,
[[ 0.0428, -0.0646, -0.0339,
0.0185, -0.0042],
0.0639, -0.0366, -0.0537,
0.0309, -0.0761,
0.0227, -0.0385],
[-0.0546, -0.0338,
0.0277, -0.0650, -0.0081],
[ 0.0690, -0.0083,
[[ 0.0514,
0.0622, -0.0556, -0.0048, -0.0279],
[ 0.0112, -0.0413, -0.0483,
0.0410, -0.0335, -0.0458, -0.0055],
[ 0.0651, -0.0337, -0.0130, -0.0381,
0.0272]]],
[[[-0.0538,
0.0222, -0.0062],
[ 0.0050, -0.0461,
0.0084, -0.0448, -0.0604],
0.0455, -0.0773, -0.0437,
0.0390, -0.0040,
0.0035, -0.0133],
0.0517, -0.0067,
0.0314, -0.0448]],
[[ 0.0029, -0.0675, -0.0254, -0.0168, -0.0563],
[ 0.0163, -0.0621, -0.0561, -0.0151, -0.0306],
0.0389, -0.0429,
0.0049, -0.0728, -0.0408],
0.0526, -0.0291]],
[[ 0.0369,
0.0388, -0.0091],
0.0243, -0.0455],
0.0495, -0.0257,
0.0165, -0.0024],
[-0.0476, -0.0552,
0.0029, -0.0813,
[-0.0704, -0.0590, -0.0641,
[[ 0.0180,
0.0794, -0.0090, -0.0081,
0.0045, -0.0580, -0.0192],
0.0180, -0.0062],
0.0418, -0.0199, -0.0357,
[[ 0.0525, -0.0401,
0.0803, -0.0453, -0.0534],
0.0294, -0.0351],
[ 0.0773, -0.0587, -0.0713,
0.0125, -0.0125],
[-0.0288, -0.0623,
0.0390, -0.0603],
[ 0.0105, -0.0003, -0.0773,
[[ 0.0721, -0.0047,
[-0.0127, -0.0090, -0.0588,
[-0.0194, -0.0753, -0.0349,
[ 0.0248, -0.0801, -0.0794,
0.0127, -0.0120, -0.0724, -0.0800]]],
[[[-0.0781,
0.0056, -0.0164, -0.0423],
0.0276, -0.0720],
[ 0.0647, -0.0414, -0.0306, -0.0477,
0.0166, -0.0592,
[ 0.0789, -0.0673, -0.0583,
[[-0.0105,
0.0707, -0.0790, -0.0334,
0.0055, -0.0716, -0.0078],
[ 0.0141, -0.0645,
0.0380, -0.0282, -0.0557],
0.0568, -0.0352],
0.0681, -0.0300,
0.0178, -0.0101]],
[[ 0.0401, -0.0572,
0.0217, -0.0365],
[-0.0140, -0.0361, -0.0562,
0.0525, -0.0804,
[ 0.0770, -0.0657,
[[ 0.0479,
0.0648, -0.0050,
0.0530, -0.0746],
0.0360, -0.0642, -0.0573],
[ 0.0176, -0.0783, -0.0781, -0.0027,
[ 0.0057, -0.0685,
0.0697, -0.0792],
[-0.0449, -0.0773, -0.0756, -0.0524,
[[ 0.0201,
0.0407, -0.0442, -0.0007, -0.0174],
0.0032, -0.0650,
0.0172, -0.0081],
[ 0.0796, -0.0781, -0.0364,
0.0141, -0.0198],
0.0519, -0.0578, -0.0515,
[[ 0.0311,
[ 0.0754, -0.0596, -0.0498,
0.0388, -0.0612],
[ 0.0318, -0.0068, -0.0725, -0.0671, -0.0531],
0.0033, -0.0685],
0.0341]]],
[[[ 0.0264,
0.0658, -0.0286,
0.0256, -0.0657,
0.0577, -0.0740,
[-0.0311, -0.0343,
0.0234, -0.0110,
[ 0.0698, -0.0613, -0.0400,
[[-0.0569,
0.0080, -0.0155],
[-0.0289, -0.0245, -0.0732,
[-0.0235, -0.0650, -0.0624, -0.0615, -0.0798],
0.0494, -0.0063,
[-0.0303, -0.0782,
0.0761, -0.0034]],
[[ 0.0738, -0.0106,
0.0397, -0.0621, -0.0492],
[-0.0672, -0.0441, -0.0760,
0.0190, -0.0191],
[ 0.0746, -0.0377,
0.0669, -0.0648],
[-0.0325, -0.0538,
0.0273, -0.0089,
[[-0.0117,
0.0456, -0.0539],
0.0014, -0.0471],
0.0394, -0.0310, -0.0511,
[-0.0053, -0.0243, -0.0048,
0.0709, -0.0030],
0.0010, -0.0056,
[[ 0.0320, -0.0181,
0.0360, -0.0439, -0.0279],
[ 0.0479, -0.0807,
0.0018, -0.0336,
0.0114, -0.0287, -0.0145,
0.0028, -0.0437,
0.0657, -0.0070, -0.0182]],
[[-0.0080,
0.0577, -0.0293, -0.0743],
[ 0.0087, -0.0072,
[ 0.0071, -0.0265, -0.0689, -0.0633, -0.0563],
[ 0.0011, -0.0760, -0.0101, -0.0151,
0.0191, -0.0481,
0.0536, -0.0312]]]],
requires_grad=True), Parameter containing:
tensor([ 0.0811,
-0.0719, -0.0324,
0.0586, -0.0008,
0.0294, -0.0628],
requires_grad=True), Parameter containing:
tensor([[-0.0475, -0.0082, -0.0437,
..., -0.0330,
0.0477, -0.0164,
..., -0.0029,
0.0100, -0.0315],
[-0.0226, -0.0392, -0.0472,
..., -0.0402, -0.0272, -0.0432],
[-0.0246, -0.0008,
0.0406, -0.0298, -0.0262],
..., -0.0421, -0.0001, -0.0135],
..., -0.0097, -0.0319,
requires_grad=True), Parameter containing:
tensor([ 0.0312,
0.0037, -0.0012, -0.0042,
0.0208, -0.0116,
0.0476, -0.0051,
0.0387, -0.0304,
-0.0236, -0.0201,
0.0127, -0.0117,
0.0128, -0.0357,
0.0009, -0.0232,
0.0040, -0.0159, -0.0448,
-0.0172, -0.0153, -0.0001,
0.0011, -0.0480, -0.0373,
0.0089, -0.0285,
0.0373, -0.0390,
0.0039, -0.0410,
0.0361, -0.0379, -0.0024,
0.0405, -0.0188,
0.0363, -0.0243, -0.0254,
0.0027, -0.0361, -0.0312, -0.0237,
0.0490, -0.0024, -0.0360, -0.0159,
0.0078, -0.0434,
0.0045, -0.0073, -0.0083,
0.0092, -0.0196, -0.0220, -0.0032, -0.0253, -0.0129,
0.0008, -0.0024, -0.0006,
0.0498, -0.0476,
0.0244, -0.0256,
0.0442, -0.0401,
0.0345, -0.0403,
0.0240, -0.0060, -0.0173,
requires_grad=True), Parameter containing:
tensor([[ 0.0682,
..., -0.0304, -0.0359,
0.0187, -0.0489,
0.0413, -0.0153,
..., -0.0861, -0.0364,
[-0.0617, -0.0420, -0.0562,
..., -0.0488,
0.0451, -0.0753],
..., -0.0901,
0.0577, -0.0083]],
requires_grad=True), Parameter containing:
tensor([-0.0349, -0.0341, -0.0790, -0.0458, -0.0911, -0.0866, -0.0378, -0.0243,
0.0241, -0.0474, -0.0521,
0.0651, -0.0527,
-0.0368, -0.0609,
0.0420, -0.0536,
0.0297, -0.0591,
0.0113, -0.0748,
0.0161, -0.0137,
0.0039, -0.0293,
0.0421, -0.0546,
0.0261, -0.0099, -0.0604,
0.0284, -0.0701,
0.0064, -0.0422, -0.0399,
0.0850, -0.0752,
0.0048, -0.0739,
0.0360, -0.0775,
0.0253, -0.0416, -0.0515,
0.0209, -0.0443, -0.0472, -0.0393,
0.0170, -0.0864,
0.0264, -0.0822, -0.0534, -0.0441, -0.0410,
0.0409, -0.0429,
0.0825], requires_grad=True), Parameter containing:
tensor([[ 0.0933, -0.0207, -0.0625,
0.0699, -0.0453, -0.0761, -0.0832,
0.0088, -0.0761, -0.1056, -0.0030, -0.0689, -0.0944,
0.0142, -0.0269,
0.0735, -0.0080, -0.0654,
0.0801, -0.0691,
0.0508, -0.0854,
0.0158, -0.0010, -0.0982,
0.0037, -0.0862,
0.0595, -0.0366, -0.0567, -0.0346,
0.0595, -0.0157, -0.0865, -0.0474,
0.0583, -0.0653,
0.0962, -0.0919, -0.0094, -0.0529,
0.0105, -0.0262, -0.0430, -0.0617,
0.0215, -0.0279, -0.0643, -0.0058,
0.0924, -0.0948,
0.0897, -0.0782,
0.0540, -0.0881, -0.0235,
0.0931, -0.0185, -0.0504, -0.0069,
-0.0265, -0.0505,
0.0410, -0.0029,
0.0350, -0.0190,
0.0249, -0.0729, -0.0899,
0.0960, -0.0329, -0.0825, -0.0920,
-0.0124, -0.0553, -0.1004, -0.0076,
0.0704, -0.0279,
-0.0640, -0.0858, -0.0032,
0.0328, -0.0961,
0.0067, -0.0628,
0.0609, -0.0934, -0.0328,
0.0434, -0.1076,
0.0427, -0.0130, -0.0341, -0.0425, -0.1044,
-0.0677, -0.0760, -0.0531,
0.0123, -0.1091,
0.0852, -0.0368,
0.0506, -0.0759,
0.0838, -0.0256,
0.0647, -0.0420, -0.0116, -0.0191, -0.0427,
0.0681, -0.0582,
0.0391, -0.0757,
0.0191, -0.0063, -0.0429, -0.0566,
-0.0739, -0.0428,
0.0380, -0.0176, -0.0715, -0.0549,
0.0355, -0.0906,
0.0755, -0.0993,
0.0541, -0.0550,
-0.0932, -0.0260,
0.1029, -0.0231, -0.0964, -0.0891, -0.0211, -0.0722,
0.0497, -0.1061, -0.0997, -0.0102,
0.0050, -0.0069,
0.0673, -0.0658,
0.1083, -0.0012,
-0.0975, -0.0847,
0.0997, -0.0887,
0.0191, -0.0873,
-0.0008, -0.0942, -0.0485,
0.0261, -0.0089,
0.0594, -0.0690,
0.0836, -0.0318,
0.0010, -0.0838,
-0.0534, -0.0732, -0.0150,
0.0686, -0.0508,
0.0598, -0.0043, -0.0390,
0.0614, -0.0297,
-0.0774, -0.0156, -0.0226,
[ 0.0012, -0.0315,
0.0805, -0.0054, -0.0746,
-0.0250, -0.0120, -0.0037, -0.0950,
0.0066, -0.1013,
-0.0776, -0.0181,
0.0888, -0.0217,
0.1007, -0.0174,
0.0960, -0.0866, -0.0873,
0.0552, -0.0443,
0.0276, -0.0714,
0.0509, -0.0348, -0.0464,
0.0685, -0.0985,
0.0432, -0.0987, -0.0563,
0.0376, -0.0579,
0.0745, -0.0447,
0.0248, -0.1040, -0.0600, -0.0639, -0.0350,
0.0287, -0.0342,
0.0673, -0.0570,
-0.0320, -0.0476, -0.0152,
0.0199, -0.0973,
0.0614, -0.0794,
0.0210, -0.0102, -0.0125,
[ 0.1063, -0.1013,
0.0380, -0.0271, -0.0457,
0.0205, -0.0071,
0.0569, -0.0283,
0.0494, -0.0548,
0.0646, -0.0903,
-0.0089, -0.0945,
0.0050, -0.0304, -0.0058,
0.0833, -0.1055,
0.0397, -0.0592, -0.0156, -0.0940, -0.0198,
0.0241, -0.0241, -0.0299,
0.0215, -0.0002,
0.0422, -0.0312,
0.0854, -0.0751,
0.0749, -0.0767,
0.0818, -0.0416, -0.0079, -0.0982, -0.1081,
0.0829, -0.0354, -0.0034,
0.0529, -0.0712,
0.0826, -0.0883,
0.0276, -0.0088,
0.0649, -0.0988,
0.0367, -0.0122,
0.0673, -0.0672,
0.0365, -0.0655, -0.0897, -0.0060],
[ 0.0624, -0.1046,
0.0262, -0.1060, -0.0777,
0.0284, -0.0273, -0.0677,
0.0854, -0.1024, -0.0598, -0.0534, -0.0248, -0.0260,
0.0255, -0.0868,
0.0522, -0.1004,
0.0333, -0.0543, -0.0247,
0.0855, -0.0132, -0.0682, -0.0004,
0.0740, -0.0042,
0.0549, -0.0046, -0.0439, -0.0504,
0.0606, -0.0812,
-0.0082, -0.0801, -0.0320,
0.0740, -0.0344, -0.0354,
-0.0984, -0.0976, -0.0726, -0.0398,
0.0115, -0.0570,
-0.0697, -0.0370,
0.0772, -0.1068,
0.0097, -0.0927,
0.0978, -0.0471, -0.0240, -0.0996, -0.1091,
0.0211, -0.0500,
0.0794, -0.0496],
0.0658, -0.0064,
0.0075, -0.0627, -0.0538,
0.1041, -0.0837, -0.0620,
0.0814, -0.0696, -0.0535,
0.0680, -0.0468, -0.0347, -0.0950, -0.0020, -0.0560, -0.0118,
0.0525, -0.0800,
0.0262, -0.0240, -0.0002,
0.1027, -0.0882,
-0.0120, -0.0364,
0.0450, -0.0409,
0.0734, -0.0147,
0.0104, -0.0638,
0.0770, -0.0336, -0.0944,
0.0570, -0.0359, -0.0376, -0.0563,
0.0341, -0.0075, -0.0501,
0.0724, -0.0501, -0.0783,
0.0453, -0.0150,
0.0109, -0.0479,
0.0527, -0.0272,
0.0638, -0.0136, -0.0106,
0.0281, -0.0600,
0.0202, -0.0595, -0.1032,
0.0935, -0.0290],
0.0056, -0.0954, -0.0231,
0.0722, -0.0495,
-0.0188, -0.0342, -0.0720,
0.1008, -0.0424, -0.0066, -0.0008,
0.0443, -0.0553,
0.0434, -0.0318, -0.0192, -0.1064, -0.0319,
0.0007, -0.0114, -0.0520,
0.0953, -0.0619,
0.0366, -0.0255, -0.0736, -0.0933, -0.0315, -0.1080, -0.1062,
0.0721, -0.0768,
0.0105, -0.0027,
0.0233, -0.0751, -0.0806, -0.0826,
0.0300, -0.0291,
0.1007, -0.0543,
0.0035, -0.0561,
0.0085, -0.0836, -0.1047,
0.0627, -0.1059,
0.0810, -0.0403, -0.0432, -0.1090,
0.0431, -0.0725,
[-0.0824, -0.0121, -0.0877,
0.0816, -0.0948, -0.0348,
0.0935, -0.0948,
0.0401, -0.0775,
0.0102, -0.1091, -0.0275,
0.1013, -0.0493,
0.0454, -0.0099, -0.0197,
0.0263, -0.0975, -0.0862, -0.0693,
0.0910, -0.0355, -0.0826, -0.0047,
0.0931, -0.1053, -0.0651,
0.0001, -0.0373, -0.1021, -0.1002,
-0.0751, -0.0405, -0.0484, -0.0259,
0.0067, -0.0434,
0.0415, -0.0672,
-0.0981, -0.0223,
0.0144, -0.0223, -0.0271,
-0.0451, -0.0577, -0.0458,
0.0410, -0.0722,
-0.0629, -0.0514, -0.0731, -0.0570],
0.0250, -0.0043,
0.0986, -0.0534, -0.1024,
-0.0078, -0.0471,
0.0681, -0.0622, -0.0091,
-0.0542, -0.0845, -0.0403, -0.1076, -0.0085,
0.0910, -0.0098,
0.0304, -0.0351, -0.0248,
0.0187, -0.0322, -0.0920,
0.0297, -0.0436,
0.0269, -0.0728,
0.0953, -0.0651, -0.0860,
0.0657, -0.0190, -0.0595,
0.1066, -0.0814, -0.0410,
0.0359, -0.0863, -0.0438,
0.1041, -0.0746,
0.0790, -0.1074,
0.0858, -0.0384, -0.0569,
0.0278, -0.0765, -0.0221,
0.0598, -0.0706,
0.0773, -0.0794, -0.0625, -0.0219]], requires_grad=True), Parameter containing:
tensor([-0.1061, -0.0962,
0.0545, -0.0188, -0.0293, -0.0951,
-0.0218, -0.0068], requires_grad=True)]
逐列表项输出列表元素和index
利用enumerate函数实现
#逐列表项输出参数和当前参数位于列表的第几项
for num,temp in enumerate(para):
print('number:',num)
print(temp)
Parameter containing:
tensor([[[[-0.0596,
0.0542, -0.0283],
[-0.0542, -0.1680,
0.1036, -0.1756],
0.1034, -0.1548, -0.1343],
[-0.0978, -0.1803, -0.0701, -0.0377,
0.0290]]],
[[[-0.1020,
0.0862, -0.1227, -0.1742,
[ 0.0862, -0.0995,
0.1276, -0.1895, -0.1346],
0.1387, -0.1983, -0.1015, -0.0740],
[-0.0248, -0.0546,
0.1510, -0.0066]]],
[[[ 0.1333,
0.0969, -0.0295,
[ 0.1216, -0.0864,
0.0157, -0.1330],
0.1287, -0.0650,
0.1182]]],
[[[-0.0816,
0.1259, -0.1124, -0.0864],
0.1180, -0.0933],
[-0.0925, -0.0549,
[-0.1771, -0.1937,
[ 0.1163, -0.1577,
0.0431, -0.0362]]],
[[[-0.0675, -0.1039,
0.0762, -0.1798,
0.0184, -0.0980],
0.1225, -0.0734,
[ 0.1745, -0.1550,
0.0044, -0.0538]]],
[[[-0.0926,
0.0198, -0.1216, -0.1942],
0.0862, -0.1714,
[ 0.0358, -0.1350,
0.1387, -0.1365, -0.1600],
[ 0.0368, -0.1323, -0.0127,
0.0917, -0.1892]]]],
requires_grad=True)
Parameter containing:
tensor([-0.0229, -0.1387, -0.1571, -0.0381, -0.1559,
0.0946], requires_grad=True)
Parameter containing:
tensor([[[[-0.0497, -0.0356, -0.0272, -0.0519,
0.0705, -0.0341, -0.0454],
[ 0.0129, -0.0385,
0.0682, -0.0613,
0.0218, -0.0056,
0.0204, -0.0668],
0.0649, -0.0470,
0.0138, -0.0686]],
[[ 0.0647,
0.0554, -0.0220, -0.0295, -0.0145],
[ 0.0500, -0.0026,
0.0742, -0.0291,
0.0679, -0.0657],
0.0729, -0.0158, -0.0495, -0.0220],
0.0440, -0.0485,
[[ 0.0523, -0.0072, -0.0786,
[-0.0254, -0.0043, -0.0113,
0.0755, -0.0590],
[ 0.0113, -0.0170,
0.0318, -0.0764, -0.0210],
[-0.0203, -0.0273,
0.0555, -0.0129, -0.0395,
[[ 0.0387,
0.0189, -0.0007, -0.0604,
[ 0.0152, -0.0106, -0.0381, -0.0630, -0.0645],
[ 0.0092, -0.0295, -0.0616,
[ 0.0418, -0.0372,
0.0109, -0.0758]],
[[-0.0751, -0.0610,
0.0269, -0.0331, -0.0193],
0.0430, -0.0201, -0.0017, -0.0408],
[-0.0590, -0.0148,
0.0575, -0.0786],
0.0170, -0.0792,
0.0193, -0.0732, -0.0666, -0.0734]],
[[ 0.0154,
0.0540, -0.0429,
0.0424, -0.0488,
0.0324, -0.0020, -0.0538,
[ 0.0243, -0.0452,
0.0070, -0.0287, -0.0476],
0.0561, -0.0076, -0.0391,
0.0795]]],
[[[ 0.0773,
0.0748, -0.0133,
0.0017, -0.0722,
[ 0.0357, -0.0677,
0.0085, -0.0005, -0.0313],
[ 0.0672, -0.0359, -0.0243, -0.0811, -0.0726],
0.0278, -0.0615, -0.0410]],
[[ 0.0202,
0.0527, -0.0086, -0.0683],
[ 0.0036, -0.0692, -0.0732, -0.0250, -0.0470],
0.0649, -0.0158,
0.0464, -0.0530,
[[ 0.0068,
0.0629, -0.0214,
0.0799, -0.0350,
0.0145, -0.0397, -0.0784],
0.0021, -0.0494, -0.0344],
0.0502, -0.0490, -0.0701,
[[-0.0365,
[ 0.0552, -0.0674,
0.0176, -0.0131,
[ 0.0147, -0.0432,
0.0473, -0.0231, -0.0314],
0.0508, -0.0475,
0.0287, -0.0391, -0.0543,
[[-0.0241, -0.0322,
0.0704, -0.0758, -0.0562],
[-0.0675, -0.0265, -0.0444, -0.0370,
0.0146, -0.0317],
0.0666, -0.0365,
0.0306, -0.0628]],
[[ 0.0529,
[-0.0006, -0.0432, -0.0128,
0.0794, -0.0794],
[ 0.0016, -0.0504, -0.0252,
[ 0.0305, -0.0807, -0.0236, -0.0810, -0.0010],
[-0.0423, -0.0285, -0.0559,
0.0796]]],
[[[-0.0504,
0.0504, -0.0440,
[ 0.0517, -0.0268, -0.0517,
0.0426, -0.0787,
[-0.0661, -0.0457,
0.0691, -0.0058, -0.0073],
0.0367, -0.0625, -0.0731]],
[[ 0.0190,
0.0145, -0.0073,
0.0038, -0.0349, -0.0022,
[ 0.0346, -0.0622,
0.0194, -0.0151,
[ 0.0002, -0.0663,
0.0730, -0.0462, -0.0182],
[ 0.0311, -0.0079,
0.0517, -0.0601]],
[[-0.0039, -0.0102, -0.0599, -0.0220, -0.0467],
[-0.0495, -0.0265,
0.0476, -0.0585,
[-0.0505, -0.0447, -0.0002, -0.0121, -0.0170],
[[ 0.0732, -0.0100,
0.0115, -0.0046, -0.0133],
[ 0.0333, -0.0065,
[ 0.0328, -0.0513,
0.0468, -0.0763, -0.0314,
[[ 0.0428, -0.0646, -0.0339,
0.0185, -0.0042],
0.0639, -0.0366, -0.0537,
0.0309, -0.0761,
0.0227, -0.0385],
[-0.0546, -0.0338,
0.0277, -0.0650, -0.0081],
[ 0.0690, -0.0083,
[[ 0.0514,
0.0622, -0.0556, -0.0048, -0.0279],
[ 0.0112, -0.0413, -0.0483,
0.0410, -0.0335, -0.0458, -0.0055],
[ 0.0651, -0.0337, -0.0130, -0.0381,
0.0272]]],
[[[-0.0538,
0.0222, -0.0062],
[ 0.0050, -0.0461,
0.0084, -0.0448, -0.0604],
0.0455, -0.0773, -0.0437,
0.0390, -0.0040,
0.0035, -0.0133],
0.0517, -0.0067,
0.0314, -0.0448]],
[[ 0.0029, -0.0675, -0.0254, -0.0168, -0.0563],
[ 0.0163, -0.0621, -0.0561, -0.0151, -0.0306],
0.0389, -0.0429,
0.0049, -0.0728, -0.0408],
0.0526, -0.0291]],
[[ 0.0369,
0.0388, -0.0091],
0.0243, -0.0455],
0.0495, -0.0257,
0.0165, -0.0024],
[-0.0476, -0.0552,
0.0029, -0.0813,
[-0.0704, -0.0590, -0.0641,
[[ 0.0180,
0.0794, -0.0090, -0.0081,
0.0045, -0.0580, -0.0192],
0.0180, -0.0062],
0.0418, -0.0199, -0.0357,
[[ 0.0525, -0.0401,
0.0803, -0.0453, -0.0534],
0.0294, -0.0351],
[ 0.0773, -0.0587, -0.0713,
0.0125, -0.0125],
[-0.0288, -0.0623,
0.0390, -0.0603],
[ 0.0105, -0.0003, -0.0773,
[[ 0.0721, -0.0047,
[-0.0127, -0.0090, -0.0588,
[-0.0194, -0.0753, -0.0349,
[ 0.0248, -0.0801, -0.0794,
0.0127, -0.0120, -0.0724, -0.0800]]],
[[[-0.0781,
0.0056, -0.0164, -0.0423],
0.0276, -0.0720],
[ 0.0647, -0.0414, -0.0306, -0.0477,
0.0166, -0.0592,
[ 0.0789, -0.0673, -0.0583,
[[-0.0105,
0.0707, -0.0790, -0.0334,
0.0055, -0.0716, -0.0078],
[ 0.0141, -0.0645,
0.0380, -0.0282, -0.0557],
0.0568, -0.0352],
0.0681, -0.0300,
0.0178, -0.0101]],
[[ 0.0401, -0.0572,
0.0217, -0.0365],
[-0.0140, -0.0361, -0.0562,
0.0525, -0.0804,
[ 0.0770, -0.0657,
[[ 0.0479,
0.0648, -0.0050,
0.0530, -0.0746],
0.0360, -0.0642, -0.0573],
[ 0.0176, -0.0783, -0.0781, -0.0027,
[ 0.0057, -0.0685,
0.0697, -0.0792],
[-0.0449, -0.0773, -0.0756, -0.0524,
[[ 0.0201,
0.0407, -0.0442, -0.0007, -0.0174],
0.0032, -0.0650,
0.0172, -0.0081],
[ 0.0796, -0.0781, -0.0364,
0.0141, -0.0198],
0.0519, -0.0578, -0.0515,
[[ 0.0311,
[ 0.0754, -0.0596, -0.0498,
0.0388, -0.0612],
[ 0.0318, -0.0068, -0.0725, -0.0671, -0.0531],
0.0033, -0.0685],
0.0341]]],
[[[ 0.0264,
0.0658, -0.0286,
0.0256, -0.0657,
0.0577, -0.0740,
[-0.0311, -0.0343,
0.0234, -0.0110,
[ 0.0698, -0.0613, -0.0400,
[[-0.0569,
0.0080, -0.0155],
[-0.0289, -0.0245, -0.0732,
[-0.0235, -0.0650, -0.0624, -0.0615, -0.0798],
0.0494, -0.0063,
[-0.0303, -0.0782,
0.0761, -0.0034]],
[[ 0.0738, -0.0106,
0.0397, -0.0621, -0.0492],
[-0.0672, -0.0441, -0.0760,
0.0190, -0.0191],
[ 0.0746, -0.0377,
0.0669, -0.0648],
[-0.0325, -0.0538,
0.0273, -0.0089,
[[-0.0117,
0.0456, -0.0539],
0.0014, -0.0471],
0.0394, -0.0310, -0.0511,
[-0.0053, -0.0243, -0.0048,
0.0709, -0.0030],
0.0010, -0.0056,
[[ 0.0320, -0.0181,
0.0360, -0.0439, -0.0279],
[ 0.0479, -0.0807,
0.0018, -0.0336,
0.0114, -0.0287, -0.0145,
0.0028, -0.0437,
0.0657, -0.0070, -0.0182]],
[[-0.0080,
0.0577, -0.0293, -0.0743],
[ 0.0087, -0.0072,
[ 0.0071, -0.0265, -0.0689, -0.0633, -0.0563],
[ 0.0011, -0.0760, -0.0101, -0.0151,
0.0191, -0.0481,
0.0536, -0.0312]]]],
requires_grad=True)
Parameter containing:
tensor([ 0.0811,
-0.0719, -0.0324,
0.0586, -0.0008,
0.0294, -0.0628],
requires_grad=True)
Parameter containing:
tensor([[-0.0475, -0.0082, -0.0437,
..., -0.0330,
0.0477, -0.0164,
..., -0.0029,
0.0100, -0.0315],
[-0.0226, -0.0392, -0.0472,
..., -0.0402, -0.0272, -0.0432],
[-0.0246, -0.0008,
0.0406, -0.0298, -0.0262],
..., -0.0421, -0.0001, -0.0135],
..., -0.0097, -0.0319,
requires_grad=True)
Parameter containing:
tensor([ 0.0312,
0.0037, -0.0012, -0.0042,
0.0208, -0.0116,
0.0476, -0.0051,
0.0387, -0.0304,
-0.0236, -0.0201,
0.0127, -0.0117,
0.0128, -0.0357,
0.0009, -0.0232,
0.0040, -0.0159, -0.0448,
-0.0172, -0.0153, -0.0001,
0.0011, -0.0480, -0.0373,
0.0089, -0.0285,
0.0373, -0.0390,
0.0039, -0.0410,
0.0361, -0.0379, -0.0024,
0.0405, -0.0188,
0.0363, -0.0243, -0.0254,
0.0027, -0.0361, -0.0312, -0.0237,
0.0490, -0.0024, -0.0360, -0.0159,
0.0078, -0.0434,
0.0045, -0.0073, -0.0083,
0.0092, -0.0196, -0.0220, -0.0032, -0.0253, -0.0129,
0.0008, -0.0024, -0.0006,
0.0498, -0.0476,
0.0244, -0.0256,
0.0442, -0.0401,
0.0345, -0.0403,
0.0240, -0.0060, -0.0173,
requires_grad=True)
Parameter containing:
tensor([[ 0.0682,
..., -0.0304, -0.0359,
0.0187, -0.0489,
0.0413, -0.0153,
..., -0.0861, -0.0364,
[-0.0617, -0.0420, -0.0562,
..., -0.0488,
0.0451, -0.0753],
..., -0.0901,
0.0577, -0.0083]],
requires_grad=True)
Parameter containing:
tensor([-0.0349, -0.0341, -0.0790, -0.0458, -0.0911, -0.0866, -0.0378, -0.0243,
0.0241, -0.0474, -0.0521,
0.0651, -0.0527,
-0.0368, -0.0609,
0.0420, -0.0536,
0.0297, -0.0591,
0.0113, -0.0748,
0.0161, -0.0137,
0.0039, -0.0293,
0.0421, -0.0546,
0.0261, -0.0099, -0.0604,
0.0284, -0.0701,
0.0064, -0.0422, -0.0399,
0.0850, -0.0752,
0.0048, -0.0739,
0.0360, -0.0775,
0.0253, -0.0416, -0.0515,
0.0209, -0.0443, -0.0472, -0.0393,
0.0170, -0.0864,
0.0264, -0.0822, -0.0534, -0.0441, -0.0410,
0.0409, -0.0429,
0.0825], requires_grad=True)
Parameter containing:
tensor([[ 0.0933, -0.0207, -0.0625,
0.0699, -0.0453, -0.0761, -0.0832,
0.0088, -0.0761, -0.1056, -0.0030, -0.0689, -0.0944,
0.0142, -0.0269,
0.0735, -0.0080, -0.0654,
0.0801, -0.0691,
0.0508, -0.0854,
0.0158, -0.0010, -0.0982,
0.0037, -0.0862,
0.0595, -0.0366, -0.0567, -0.0346,
0.0595, -0.0157, -0.0865, -0.0474,
0.0583, -0.0653,
0.0962, -0.0919, -0.0094, -0.0529,
0.0105, -0.0262, -0.0430, -0.0617,
0.0215, -0.0279, -0.0643, -0.0058,
0.0924, -0.0948,
0.0897, -0.0782,
0.0540, -0.0881, -0.0235,
0.0931, -0.0185, -0.0504, -0.0069,
-0.0265, -0.0505,
0.0410, -0.0029,
0.0350, -0.0190,
0.0249, -0.0729, -0.0899,
0.0960, -0.0329, -0.0825, -0.0920,
-0.0124, -0.0553, -0.1004, -0.0076,
0.0704, -0.0279,
-0.0640, -0.0858, -0.0032,
0.0328, -0.0961,
0.0067, -0.0628,
0.0609, -0.0934, -0.0328,
0.0434, -0.1076,
0.0427, -0.0130, -0.0341, -0.0425, -0.1044,
-0.0677, -0.0760, -0.0531,
0.0123, -0.1091,
0.0852, -0.0368,
0.0506, -0.0759,
0.0838, -0.0256,
0.0647, -0.0420, -0.0116, -0.0191, -0.0427,
0.0681, -0.0582,
0.0391, -0.0757,
0.0191, -0.0063, -0.0429, -0.0566,
-0.0739, -0.0428,
0.0380, -0.0176, -0.0715, -0.0549,
0.0355, -0.0906,
0.0755, -0.0993,
0.0541, -0.0550,
-0.0932, -0.0260,
0.1029, -0.0231, -0.0964, -0.0891, -0.0211, -0.0722,
0.0497, -0.1061, -0.0997, -0.0102,
0.0050, -0.0069,
0.0673, -0.0658,
0.1083, -0.0012,
-0.0975, -0.0847,
0.0997, -0.0887,
0.0191, -0.0873,
-0.0008, -0.0942, -0.0485,
0.0261, -0.0089,
0.0594, -0.0690,
0.0836, -0.0318,
0.0010, -0.0838,
-0.0534, -0.0732, -0.0150,
0.0686, -0.0508,
0.0598, -0.0043, -0.0390,
0.0614, -0.0297,
-0.0774, -0.0156, -0.0226,
[ 0.0012, -0.0315,
0.0805, -0.0054, -0.0746,
-0.0250, -0.0120, -0.0037, -0.0950,
0.0066, -0.1013,
-0.0776, -0.0181,
0.0888, -0.0217,
0.1007, -0.0174,
0.0960, -0.0866, -0.0873,
0.0552, -0.0443,
0.0276, -0.0714,
0.0509, -0.0348, -0.0464,
0.0685, -0.0985,
0.0432, -0.0987, -0.0563,
0.0376, -0.0579,
0.0745, -0.0447,
0.0248, -0.1040, -0.0600, -0.0639, -0.0350,
0.0287, -0.0342,
0.0673, -0.0570,
-0.0320, -0.0476, -0.0152,
0.0199, -0.0973,
0.0614, -0.0794,
0.0210, -0.0102, -0.0125,
[ 0.1063, -0.1013,
0.0380, -0.0271, -0.0457,
0.0205, -0.0071,
0.0569, -0.0283,
0.0494, -0.0548,
0.0646, -0.0903,
-0.0089, -0.0945,
0.0050, -0.0304, -0.0058,
0.0833, -0.1055,
0.0397, -0.0592, -0.0156, -0.0940, -0.0198,
0.0241, -0.0241, -0.0299,
0.0215, -0.0002,
0.0422, -0.0312,
0.0854, -0.0751,
0.0749, -0.0767,
0.0818, -0.0416, -0.0079, -0.0982, -0.1081,
0.0829, -0.0354, -0.0034,
0.0529, -0.0712,
0.0826, -0.0883,
0.0276, -0.0088,
0.0649, -0.0988,
0.0367, -0.0122,
0.0673, -0.0672,
0.0365, -0.0655, -0.0897, -0.0060],
[ 0.0624, -0.1046,
0.0262, -0.1060, -0.0777,
0.0284, -0.0273, -0.0677,
0.0854, -0.1024, -0.0598, -0.0534, -0.0248, -0.0260,
0.0255, -0.0868,
0.0522, -0.1004,
0.0333, -0.0543, -0.0247,
0.0855, -0.0132, -0.0682, -0.0004,
0.0740, -0.0042,
0.0549, -0.0046, -0.0439, -0.0504,
0.0606, -0.0812,
-0.0082, -0.0801, -0.0320,
0.0740, -0.0344, -0.0354,
-0.0984, -0.0976, -0.0726, -0.0398,
0.0115, -0.0570,
-0.0697, -0.0370,
0.0772, -0.1068,
0.0097, -0.0927,
0.0978, -0.0471, -0.0240, -0.0996, -0.1091,
0.0211, -0.0500,
0.0794, -0.0496],
0.0658, -0.0064,
0.0075, -0.0627, -0.0538,
0.1041, -0.0837, -0.0620,
0.0814, -0.0696, -0.0535,
0.0680, -0.0468, -0.0347, -0.0950, -0.0020, -0.0560, -0.0118,
0.0525, -0.0800,
0.0262, -0.0240, -0.0002,
0.1027, -0.0882,
-0.0120, -0.0364,
0.0450, -0.0409,
0.0734, -0.0147,
0.0104, -0.0638,
0.0770, -0.0336, -0.0944,
0.0570, -0.0359, -0.0376, -0.0563,
0.0341, -0.0075, -0.0501,
0.0724, -0.0501, -0.0783,
0.0453, -0.0150,
0.0109, -0.0479,
0.0527, -0.0272,
0.0638, -0.0136, -0.0106,
0.0281, -0.0600,
0.0202, -0.0595, -0.1032,
0.0935, -0.0290],
0.0056, -0.0954, -0.0231,
0.0722, -0.0495,
-0.0188, -0.0342, -0.0720,
0.1008, -0.0424, -0.0066, -0.0008,
0.0443, -0.0553,
0.0434, -0.0318, -0.0192, -0.1064, -0.0319,
0.0007, -0.0114, -0.0520,
0.0953, -0.0619,
0.0366, -0.0255, -0.0736, -0.0933, -0.0315, -0.1080, -0.1062,
0.0721, -0.0768,
0.0105, -0.0027,
0.0233, -0.0751, -0.0806, -0.0826,
0.0300, -0.0291,
0.1007, -0.0543,
0.0035, -0.0561,
0.0085, -0.0836, -0.1047,
0.0627, -0.1059,
0.0810, -0.0403, -0.0432, -0.1090,
0.0431, -0.0725,
[-0.0824, -0.0121, -0.0877,
0.0816, -0.0948, -0.0348,
0.0935, -0.0948,
0.0401, -0.0775,
0.0102, -0.1091, -0.0275,
0.1013, -0.0493,
0.0454, -0.0099, -0.0197,
0.0263, -0.0975, -0.0862, -0.0693,
0.0910, -0.0355, -0.0826, -0.0047,
0.0931, -0.1053, -0.0651,
0.0001, -0.0373, -0.1021, -0.1002,
-0.0751, -0.0405, -0.0484, -0.0259,
0.0067, -0.0434,
0.0415, -0.0672,
-0.0981, -0.0223,
0.0144, -0.0223, -0.0271,
-0.0451, -0.0577, -0.0458,
0.0410, -0.0722,
-0.0629, -0.0514, -0.0731, -0.0570],
0.0250, -0.0043,
0.0986, -0.0534, -0.1024,
-0.0078, -0.0471,
0.0681, -0.0622, -0.0091,
-0.0542, -0.0845, -0.0403, -0.1076, -0.0085,
0.0910, -0.0098,
0.0304, -0.0351, -0.0248,
0.0187, -0.0322, -0.0920,
0.0297, -0.0436,
0.0269, -0.0728,
0.0953, -0.0651, -0.0860,
0.0657, -0.0190, -0.0595,
0.1066, -0.0814, -0.0410,
0.0359, -0.0863, -0.0438,
0.1041, -0.0746,
0.0790, -0.1074,
0.0858, -0.0384, -0.0569,
0.0278, -0.0765, -0.0221,
0.0598, -0.0706,
0.0773, -0.0794, -0.0625, -0.0219]], requires_grad=True)
Parameter containing:
tensor([-0.1061, -0.0962,
0.0545, -0.0188, -0.0293, -0.0951,
-0.0218, -0.0068], requires_grad=True)
torch.nn.initweight.data.fill_(1)bias.data.fill_(0)weight.data.uniform_(-stdv, stdv)1. params = list...
原文:https://sherlockliao.github.io//backward/接触了PyTorch这么长的时间,也玩了很多PyTorch的骚操作,都特别简单直观地实现了,...
这段时间一直在苦练 Torch,我是把 Torch 当作深度学习里面的 Matlab 来用了。但最近碰到个坑,把我坑的蛮惨。所以这部分就不放在之前的博文 Code Zoo - Lua & Torch ...
nn.utils.clip_grad_norm(parameters, max_norm, norm_type=2) 个人将它理解为神经网络训练时候的drop out的方法,用于解决神经网络训练过拟合...
torch.nn.init.xavier_uniform(tensor, gain=1)using a uniform distribution values fills the input Tens...
http://blog.csdn.net/victoriaw/article/details/
pytorch: ModuleModule 是 pytorch 提供的一个基类,每次我们要 搭建 自己的神经网络的时候都要继承这个类,继承这个类会使得我们 搭建网络的过程变得异常简单。本文主要关注 M...
Pytorch Transfer learning标签(空格分隔): PytorchThese two major transfer learning scenarios looks as follo...
没有更多推荐了,}

我要回帖

更多关于 0447、coM 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信