forked from chenzomi12/AISystem
-
Notifications
You must be signed in to change notification settings - Fork 0
/
Copy path02.srt
1548 lines (1161 loc) · 25.2 KB
/
02.srt
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
857
858
859
860
861
862
863
864
865
866
867
868
869
870
871
872
873
874
875
876
877
878
879
880
881
882
883
884
885
886
887
888
889
890
891
892
893
894
895
896
897
898
899
900
901
902
903
904
905
906
907
908
909
910
911
912
913
914
915
916
917
918
919
920
921
922
923
924
925
926
927
928
929
930
931
932
933
934
935
936
937
938
939
940
941
942
943
944
945
946
947
948
949
950
951
952
953
954
955
956
957
958
959
960
961
962
963
964
965
966
967
968
969
970
971
972
973
974
975
976
977
978
979
980
981
982
983
984
985
986
987
988
989
990
991
992
993
994
995
996
997
998
999
1000
1
00:00:02,340 --> 00:00:04,340
字幕生成:慎独 字幕校对:lim
2
00:00:04,925 --> 00:00:06,584
大家好,我是ZOMI
3
00:00:06,609 --> 00:00:08,975
今天来到AI编译器里面的
4
00:00:08,975 --> 00:00:11,581
AI的计算体系的第一个内容
5
00:00:11,581 --> 00:00:14,909
就去讲讲深度学习的计算模式。
6
00:00:14,909 --> 00:00:17,775
那所谓的深度学习的计算模式呢
7
00:00:17,775 --> 00:00:19,503
就在第一节内容
8
00:00:19,503 --> 00:00:22,767
它主要是指现在要讲的几个内容。
9
00:00:22,767 --> 00:00:23,471
第一个呢
10
00:00:23,471 --> 00:00:26,735
AI的发展还有它的一个基本的范式
11
00:00:26,735 --> 00:00:29,039
然后呢,去看看深度学习
12
00:00:29,039 --> 00:00:32,623
或者AI里面的几个经典的网络模型结构
13
00:00:32,623 --> 00:00:34,031
那这里面其实很简单
14
00:00:34,031 --> 00:00:36,271
就是ResNet, EfficientNet, MobileNet
15
00:00:36,271 --> 00:00:40,275
接着去看看模型的量化和剪枝
16
00:00:40,275 --> 00:00:42,325
相关的网络压缩的模块
17
00:00:42,325 --> 00:00:45,653
下面会去看看轻量化的网络模型
18
00:00:45,653 --> 00:00:46,421
MobileNet
19
00:00:46,421 --> 00:00:49,173
那些能够在手机端侧部署的模型
20
00:00:49,173 --> 00:00:52,206
最后看看大模型 还有分布式并行
21
00:00:52,654 --> 00:00:55,000
这里面内容稍微有点多
22
00:00:55,000 --> 00:00:57,975
所以我会分开两个视频给大家去汇报
23
00:00:57,975 --> 00:01:00,990
那第一个呢,会去讲讲前面三个内容
24
00:01:00,990 --> 00:01:03,612
第二个视频呢, 讲讲后面两个内容
25
00:01:03,612 --> 00:01:06,940
注意,这里面非常关心的是计算模式
26
00:01:07,315 --> 00:01:08,790
通过了解AI的发展
27
00:01:08,790 --> 00:01:10,259
了解神经网络的发展
28
00:01:10,259 --> 00:01:12,434
了解人工智能的发展
29
00:01:12,434 --> 00:01:16,083
去看看对于硬件的计算模式的改变
30
00:01:16,083 --> 00:01:17,235
或者牵引
31
00:01:17,235 --> 00:01:19,027
或者一些suggestion也好
32
00:01:19,923 --> 00:01:22,227
进入正式的内容里面
33
00:01:22,227 --> 00:01:23,251
首先第一个就是
34
00:01:23,251 --> 00:01:26,323
AI的发展和AI的范式
35
00:01:26,323 --> 00:01:29,046
这个图就是AI总体的发展路线
36
00:01:29,046 --> 00:01:31,222
从1950年代那时候开始
37
00:01:31,222 --> 00:01:32,981
已经提出了人工智能
38
00:01:32,981 --> 00:01:34,773
接着在八九十年代的时候
39
00:01:34,773 --> 00:01:37,077
机器学习是非常非常的火
40
00:01:37,077 --> 00:01:40,868
而深度学习真正迎来爆发是在2010年之后
41
00:01:40,868 --> 00:01:42,596
其实迎来更重要
42
00:01:42,596 --> 00:01:44,836
更加outstanding的一种技术
43
00:01:44,836 --> 00:01:46,116
叫做Foundation Model
44
00:01:46,116 --> 00:01:47,972
那为啥我最近更新的特别慢呢
45
00:01:47,972 --> 00:01:50,532
是因为确实在公司非常注重大模型
46
00:01:50,532 --> 00:01:52,708
而ChatGPT大模型这个技术
47
00:01:52,708 --> 00:01:54,901
就是我在负责的一个主要的项目
48
00:01:54,901 --> 00:01:57,312
所以呢就会经常脱更
49
00:01:57,312 --> 00:01:59,312
因为确实工作压力太大了
50
00:02:00,457 --> 00:02:02,057
下面呢, 回到正题
51
00:02:02,057 --> 00:02:04,057
看看AI的三大范式
52
00:02:04,057 --> 00:02:06,057
也就是机器学习的三大范式
53
00:02:06,057 --> 00:02:10,409
主要有强化学习, 监督学习, 还有无监督学习
54
00:02:10,409 --> 00:02:12,073
那不管AI的三种方式呢
55
00:02:12,073 --> 00:02:13,033
其实现在
56
00:02:13,033 --> 00:02:16,361
都可以用深度学习计算模式去使用
57
00:02:16,361 --> 00:02:17,257
那现在看看
58
00:02:17,257 --> 00:02:19,305
深度学习里面跟这三种模式结合
59
00:02:19,305 --> 00:02:21,353
有哪些不一样或者有哪些区别
60
00:02:21,353 --> 00:02:22,953
或者有哪些结合点
61
00:02:22,953 --> 00:02:24,361
那下面可以看到呢
62
00:02:24,361 --> 00:02:26,361
像这种, 假设绿色的框框
63
00:02:26,361 --> 00:02:27,960
就是一个深度学习的模型
64
00:02:27,960 --> 00:02:30,125
在有监督的学习里面
65
00:02:30,136 --> 00:02:31,928
会输入一个已经label完
66
00:02:31,928 --> 00:02:33,720
就已经做好标签的数据
67
00:02:33,720 --> 00:02:35,768
然后呢, 输给输出
68
00:02:35,768 --> 00:02:38,904
中间通过一个损失函数去反馈一个误差
69
00:02:38,904 --> 00:02:39,809
通过这种方式呢
70
00:02:39,809 --> 00:02:42,859
就用深度学习去解决有监督的问题
71
00:02:42,859 --> 00:02:44,109
那无监督的问题
72
00:02:44,109 --> 00:02:46,255
就是无监督学习这一个内容
73
00:02:46,255 --> 00:02:48,700
也是通过一个神经网络去处理的
74
00:02:49,404 --> 00:02:50,300
像强化学习呢
75
00:02:50,300 --> 00:02:52,556
现在也跟深度学习结合的非常紧密
76
00:02:52,556 --> 00:02:53,975
叫做深度强化学习
77
00:02:53,975 --> 00:02:56,407
我之前出过一本书, 也是讲相关的内容
78
00:02:56,407 --> 00:02:58,199
这一面呢, 假设这是一个agent
79
00:02:58,199 --> 00:02:59,543
或者是一个神经网络呢
80
00:02:59,543 --> 00:03:00,951
就会输出一些policy,或者value
81
00:03:00,951 --> 00:03:02,999
给最后的输出, 给出一个action
82
00:03:02,999 --> 00:03:05,792
然后在环境当中, 给出一个新的状态
83
00:03:05,792 --> 00:03:08,750
要不断地去进行一个学习反馈的过程
84
00:03:08,750 --> 00:03:12,270
这个就是深度学习跟整个AI的三大主流方式
85
00:03:12,270 --> 00:03:14,270
的一种结合的形态
86
00:03:15,167 --> 00:03:17,917
那既然了解完整个AI的过程
87
00:03:17,917 --> 00:03:20,797
现在来看看深度学习的网络模型的
88
00:03:20,797 --> 00:03:24,489
一些结构, 还有设计, 还有它的演进的方式
89
00:03:25,275 --> 00:03:26,939
下面这个图很神奇的
90
00:03:26,939 --> 00:03:28,486
就是一层一层套下来
91
00:03:28,486 --> 00:03:31,302
它实际上是一个卷积神经网络
92
00:03:31,750 --> 00:03:35,014
通过反卷积和内向可视化的工程当中
93
00:03:35,014 --> 00:03:35,730
可以发现
94
00:03:35,730 --> 00:03:37,394
其实每一层神经网络
95
00:03:37,394 --> 00:03:39,186
它都有不同的感知
96
00:03:39,186 --> 00:03:41,362
或者不同的特征的提取层
97
00:03:41,362 --> 00:03:43,362
不同的特征或者不同的层数
98
00:03:43,362 --> 00:03:45,778
会提取不同的特征出来
99
00:03:45,778 --> 00:03:46,610
直到最后呢
100
00:03:46,610 --> 00:03:49,993
可以看到想得到的哪些具体的信号
101
00:03:50,603 --> 00:03:51,179
接下来呢
102
00:03:51,179 --> 00:03:52,331
主要是看一看
103
00:03:52,331 --> 00:03:55,083
神经网络的一个主要的计算的范式
104
00:03:55,083 --> 00:03:56,350
在神经网络里面呢
105
00:03:56,350 --> 00:03:57,630
它的主要的计算模式
106
00:03:57,630 --> 00:03:59,701
大部分都是乘加
107
00:03:59,701 --> 00:04:01,339
乘加这种模式
108
00:04:01,339 --> 00:04:02,697
或者乘加这种计算
109
00:04:02,697 --> 00:04:06,629
已经占了整个神经网络超过90%的计算量
110
00:04:06,949 --> 00:04:10,500
而乘加可以化为一个权重求和的过程
111
00:04:10,500 --> 00:04:12,676
像下面左下角的这个图
112
00:04:12,676 --> 00:04:15,236
就是一个经典的神经网络
113
00:04:15,750 --> 00:04:16,774
圈圈里面
114
00:04:16,774 --> 00:04:17,926
左边的这个
115
00:04:17,926 --> 00:04:19,462
就是求和
116
00:04:19,462 --> 00:04:21,638
右边的这个就是激活
117
00:04:21,638 --> 00:04:24,761
激活层跟求和层就是一个简单的神经元的组合
118
00:04:24,761 --> 00:04:27,641
每个圈圈代表一个简单的神经元
119
00:04:27,641 --> 00:04:29,726
它会做一个乘加的操作
120
00:04:29,726 --> 00:04:31,726
或者说矩阵相乘的操作
121
00:04:32,125 --> 00:04:34,877
右边这个就是激活函数
122
00:04:34,877 --> 00:04:38,484
也是里面的圆圈里面右边的一个F
123
00:04:38,484 --> 00:04:38,934
这里面呢
124
00:04:38,934 --> 00:04:41,958
主要说明的就是神经网络的主要计算
125
00:04:41,958 --> 00:04:43,366
就是权重的求和
126
00:04:43,366 --> 00:04:45,366
乘加的操作
127
00:04:46,250 --> 00:04:47,146
那下面呢
128
00:04:47,146 --> 00:04:48,874
有了这个知识面以后呢
129
00:04:48,874 --> 00:04:52,394
看看主流的神经网络或者网络模型的架构
130
00:04:52,394 --> 00:04:53,482
主要有四种
131
00:04:53,928 --> 00:04:56,775
第一种,就是全连接网络
132
00:04:56,775 --> 00:04:58,775
Fully Connected Layer
133
00:04:58,775 --> 00:05:01,008
第二种就是卷积层
134
00:05:01,008 --> 00:05:02,271
Convolution Layer
135
00:05:02,271 --> 00:05:02,783
这两层呢
136
00:05:02,783 --> 00:05:05,321
我相信大家也是非常之熟悉的
137
00:05:05,321 --> 00:05:08,009
像全连接网络里面最出名的就是MLP
138
00:05:08,009 --> 00:05:10,505
在卷积层最出名的就是CNN
139
00:05:10,505 --> 00:05:12,505
这种网络模型架构
140
00:05:12,505 --> 00:05:14,244
下面看看另外两种
141
00:05:14,244 --> 00:05:15,875
也是非常非常的火的
142
00:05:15,875 --> 00:05:17,219
像循环神经网络呢
143
00:05:17,219 --> 00:05:18,435
其实在早些年
144
00:05:18,435 --> 00:05:21,586
主要是用在信号的处理和自然语言的处理
145
00:05:21,586 --> 00:05:22,581
不过后来呢
146
00:05:22,581 --> 00:05:23,795
出现了注意力机制
147
00:05:23,795 --> 00:05:25,011
就是Attention
148
00:05:25,011 --> 00:05:26,163
或者Transformer的结构
149
00:05:26,163 --> 00:05:30,009
引爆了整个或者改变了整个序列数据的处理
150
00:05:30,009 --> 00:05:32,057
下面介绍的这四种呢
151
00:05:32,057 --> 00:05:34,651
就是现阶段的主要的网络模型结构
152
00:05:34,651 --> 00:05:35,995
大家了解一下
153
00:05:35,995 --> 00:05:37,469
知道一下这些名词就好了
154
00:05:37,469 --> 00:05:39,971
如果你没有了解过太多的深度学习
155
00:05:39,971 --> 00:05:43,363
大家可以根据相关的词频或者相关的知识
156
00:05:43,363 --> 00:05:44,963
去反向的检索
157
00:05:46,000 --> 00:05:46,896
接下来
158
00:05:46,896 --> 00:05:48,141
以卷积的计算
159
00:05:48,141 --> 00:05:50,736
或者卷积神经网络这个CNN层呢
160
00:05:50,736 --> 00:05:51,809
作为一个主要的例子
161
00:05:51,809 --> 00:05:52,386
看看
162
00:05:52,386 --> 00:05:53,750
里面有哪些不一样的东西
163
00:05:53,750 --> 00:05:54,723
那首先呢
164
00:05:54,723 --> 00:05:56,387
还是刚才的那一段话
165
00:05:56,387 --> 00:05:57,772
key operation
166
00:05:57,772 --> 00:05:59,091
就是主要的计算模式呢
167
00:05:59,091 --> 00:06:01,785
集中在乘加的操作
168
00:06:01,785 --> 00:06:03,945
占了大量的一个计算
169
00:06:03,945 --> 00:06:05,482
所以说神经网络模型啊
170
00:06:05,482 --> 00:06:07,722
大部分都是通过矩阵的相乘
171
00:06:07,722 --> 00:06:09,225
矩阵的操作
172
00:06:09,225 --> 00:06:10,660
进行一个处理的
173
00:06:10,660 --> 00:06:13,422
那下面看看卷积计算里面呢
174
00:06:13,422 --> 00:06:14,689
有个很重要的特点
175
00:06:14,689 --> 00:06:16,929
就是会有大量的channel
176
00:06:16,929 --> 00:06:18,929
还有大量的output channel
177
00:06:18,929 --> 00:06:20,929
这个channel是非常的多的
178
00:06:20,929 --> 00:06:22,209
不管是权重也好
179
00:06:22,209 --> 00:06:23,169
feature map也好
180
00:06:23,169 --> 00:06:24,520
包括输出也好
181
00:06:24,520 --> 00:06:26,248
都有大量的channel
182
00:06:26,248 --> 00:06:28,504
channel非常非常的深
183
00:06:28,504 --> 00:06:30,616
另外一方面,除了channel之外
184
00:06:30,616 --> 00:06:32,792
还有非常多的batch size
185
00:06:32,792 --> 00:06:35,502
就是feature map有非常多轮
186
00:06:35,502 --> 00:06:37,208
所以它会有NCHW
187
00:06:37,208 --> 00:06:40,142
里面的N就变得非常的大了
188
00:06:40,142 --> 00:06:42,767
另外呢,也在一些特殊的情况下
189
00:06:42,767 --> 00:06:44,767
例如遥感的神经网络模型
190
00:06:44,767 --> 00:06:48,009
它的一个图片的输入是非常非常的庞大的
191
00:06:48,009 --> 00:06:50,137
可能万乘以万的级别
192
00:06:50,137 --> 00:06:52,505
就证明整个feature map膨胀
193
00:06:53,559 --> 00:06:55,867
最后再看一个dynamic shape
194
00:06:55,867 --> 00:06:57,083
就是shape啊
195
00:06:57,083 --> 00:06:59,899
在不同的层里面会不断地去变化
196
00:06:59,899 --> 00:07:01,834
或者在每一层里面
197
00:07:01,834 --> 00:07:03,434
它的shape呢是不一样的
198
00:07:03,434 --> 00:07:04,074
有些层呢
199
00:07:04,074 --> 00:07:06,018
它的长宽高
200
00:07:06,018 --> 00:07:08,642
跟下一层的长宽高也是不相同的
201
00:07:08,642 --> 00:07:12,293
所以整体叫做varies across layer
202
00:07:12,293 --> 00:07:13,620
这种方式
203
00:07:14,120 --> 00:07:16,649
以卷积神经网络讲完例子之后呢
204
00:07:16,649 --> 00:07:19,217
现在来看看一些非常经典的
205
00:07:19,217 --> 00:07:21,217
神经网络的模型
206
00:07:21,217 --> 00:07:22,322
那这里面呢
207
00:07:22,322 --> 00:07:26,546
从1998年开始到2019年
208
00:07:26,546 --> 00:07:28,495
也确实还挺近的
209
00:07:28,495 --> 00:07:30,925
跨度接近20年的时间
210
00:07:30,925 --> 00:07:33,485
网络模型从LeNet-5
211
00:07:33,485 --> 00:07:36,726
到后来的谷歌出的EfficientNet
212
00:07:36,726 --> 00:07:38,726
网络模型的层数
213
00:07:38,726 --> 00:07:40,054
网络模型的计算量
214
00:07:40,054 --> 00:07:41,654
网络模型的权重
215
00:07:41,654 --> 00:07:43,284
也是越来越大
216
00:07:43,284 --> 00:07:44,395
越来越夸张
217
00:07:44,395 --> 00:07:46,932
占用内存也是越来越多的
218
00:07:48,124 --> 00:07:51,899
横轴坐标就是计算的一个FLOPs
219
00:07:51,899 --> 00:07:54,750
纵坐标就是top5的一个accuracy
220
00:07:54,750 --> 00:07:56,798
在ImageNet这个数据集里面
221
00:07:56,798 --> 00:07:59,122
那可以看到网络模型越大
222
00:07:59,122 --> 00:08:00,914
那下面这几个先忽略
223
00:08:00,914 --> 00:08:03,053
网络模型越大
224
00:08:03,053 --> 00:08:05,485
它需要的算力也就越高
225
00:08:05,485 --> 00:08:10,418
但是同时它的网络模型的精度也就越好
226
00:08:10,418 --> 00:08:11,506
所以可以看到
227
00:08:11,506 --> 00:08:13,874
网络模型大步进消耗大量的算力
228
00:08:13,874 --> 00:08:17,010
它也确实对整个精度是有提升的
229
00:08:17,010 --> 00:08:18,930
那基于上面这几点呢
230
00:08:18,930 --> 00:08:21,490
对整个AI的计算模式
231
00:08:21,490 --> 00:08:23,070
提出了几个思考
232
00:08:23,070 --> 00:08:25,434
这也是我所总结的一些思考
233
00:08:25,434 --> 00:08:26,855
首先芯片
234
00:08:26,855 --> 00:08:28,855
或者AI计算的模式里面呢
235
00:08:28,855 --> 00:08:32,615
需要支持神经网络模型的一个计算的逻辑
236
00:08:32,615 --> 00:08:34,471
计算逻辑非常的重要
237
00:08:34,471 --> 00:08:37,840
利用刚才讲到的权重的数据的共享
238
00:08:37,840 --> 00:08:40,113
以便于对神经网络神经元呢
239
00:08:40,113 --> 00:08:41,585
进行一个矩阵的求和
240
00:08:41,585 --> 00:08:44,205
那除了卷积全连接这种呢
241
00:08:44,205 --> 00:08:45,999
同时也是需要支持
242
00:08:45,999 --> 00:08:47,843
像激活softmax等
243
00:08:47,843 --> 00:08:49,583
非常多的vector的计算
244
00:08:49,583 --> 00:08:52,174
所以不仅需要(quip?)等计算
245
00:08:52,174 --> 00:08:54,550
还需要大量的vector scalar的计算,
246
00:08:54,550 --> 00:08:55,318
那第二种呢
247
00:08:55,318 --> 00:08:58,006
就是需要支持高维的张量的存储
248
00:08:58,006 --> 00:08:58,831
可以看到
249
00:08:58,831 --> 00:09:01,343
其实刚才讲到了在神经网络里面
250
00:09:01,343 --> 00:09:03,023
有NCHW这种数据结构