forked from chenzomi12/AISystem
-
Notifications
You must be signed in to change notification settings - Fork 0
/
Copy path02.srt
1340 lines (1005 loc) · 20.9 KB
/
02.srt
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
857
858
859
860
861
862
863
864
865
866
867
868
869
870
871
872
873
874
875
876
877
878
879
880
881
882
883
884
885
886
887
888
889
890
891
892
893
894
895
896
897
898
899
900
901
902
903
904
905
906
907
908
909
910
911
912
913
914
915
916
917
918
919
920
921
922
923
924
925
926
927
928
929
930
931
932
933
934
935
936
937
938
939
940
941
942
943
944
945
946
947
948
949
950
951
952
953
954
955
956
957
958
959
960
961
962
963
964
965
966
967
968
969
970
971
972
973
974
975
976
977
978
979
980
981
982
983
984
985
986
987
988
989
990
991
992
993
994
995
996
997
998
999
1000
1
00:00:00,000 --> 00:00:04,200
字幕生成:qiaokai 字幕校对:mkwei
2
00:00:05,333 --> 00:00:08,100
哈喽大家好我是ZOMI
3
00:00:08,166 --> 00:00:10,133
欢迎来到今天的课程
4
00:00:10,133 --> 00:00:11,133
那今天的课程呢
5
00:00:11,133 --> 00:00:12,666
主要是给大家汇报一下
6
00:00:12,666 --> 00:00:13,966
AI编译器里面的
7
00:00:13,966 --> 00:00:15,133
前端优化里面的
8
00:00:15,133 --> 00:00:17,400
第一节图层的IR
9
00:00:17,566 --> 00:00:18,733
了解到图层IR
10
00:00:18,733 --> 00:00:20,566
今天呢就来复习一下
11
00:00:20,566 --> 00:00:22,566
之前讲到过的内容
12
00:00:22,566 --> 00:00:24,166
就是计算图
13
00:00:24,200 --> 00:00:25,666
那在计算图这里面呢
14
00:00:25,666 --> 00:00:27,766
看看今天会讲哪几个内容
15
00:00:27,766 --> 00:00:28,300
今天呢
16
00:00:28,300 --> 00:00:30,600
主要是讲计算图的基本构成
17
00:00:30,800 --> 00:00:31,933
在AI框架基础呢
18
00:00:31,933 --> 00:00:34,133
其实已经详细地去介绍过
19
00:00:34,133 --> 00:00:36,366
计算图的相关的知识
20
00:00:36,566 --> 00:00:37,533
那这里面呢
21
00:00:37,533 --> 00:00:40,133
会有一个专门的内容去讲计算图的
22
00:00:40,133 --> 00:00:42,200
我说哎在这了找到计算图
23
00:00:42,200 --> 00:00:44,900
会讲讲计算图的整体的介绍
24
00:00:44,900 --> 00:00:47,333
然后跟自动微分什么关系
25
00:00:47,333 --> 00:00:49,400
图的调度还要怎么表示控制流
26
00:00:49,466 --> 00:00:51,766
在这里面呢重新的回顾一下
27
00:00:51,800 --> 00:00:52,266
接着呢
28
00:00:52,266 --> 00:00:55,333
去看看静态的计算图和动态的计算图
29
00:00:55,466 --> 00:00:57,000
那现在大部分AI框架呀
30
00:00:57,000 --> 00:00:58,666
都是从动态的计算图
31
00:00:58,666 --> 00:01:00,166
转到静态的计算图
32
00:01:00,166 --> 00:01:01,300
那像MindSpore这种呢
33
00:01:01,300 --> 00:01:03,766
就是一开始是先支持静态的计算图
34
00:01:03,800 --> 00:01:07,400
最后呢支持动静统一的动静态计算图
35
00:01:07,400 --> 00:01:08,333
这种方式
36
00:01:08,333 --> 00:01:08,933
那接着呢
37
00:01:08,933 --> 00:01:11,600
来看看AI框架是怎么产生
38
00:01:11,900 --> 00:01:12,733
这个计算图的
39
00:01:12,733 --> 00:01:14,466
就讲了很多计算图
40
00:01:14,466 --> 00:01:15,700
它到底是怎么来的
41
00:01:15,800 --> 00:01:16,466
最后呢
42
00:01:16,466 --> 00:01:19,100
去讲讲有了这个计算图之后呢
43
00:01:19,166 --> 00:01:22,000
对AI编译器到底有什么作用
44
00:01:22,533 --> 00:01:25,000
好了现在接着往下走
45
00:01:27,100 --> 00:01:27,500
第一个呢
46
00:01:27,500 --> 00:01:30,166
先看看计算图的基本构成
47
00:01:30,200 --> 00:01:31,600
其实计算图比较简单
48
00:01:31,600 --> 00:01:33,800
现在来看看它的一个主要的作用
49
00:01:33,800 --> 00:01:35,300
主要是用来表示
50
00:01:35,333 --> 00:01:37,300
深度学习的一个推理训练的
51
00:01:37,300 --> 00:01:38,500
过程当中的
52
00:01:38,500 --> 00:01:39,366
计算逻辑
53
00:01:39,700 --> 00:01:42,766
主要是表达整个网络模型的
54
00:01:42,766 --> 00:01:44,300
那可以看到计算图呢
55
00:01:44,300 --> 00:01:46,866
主要是由基本的数据结构张量
56
00:01:46,866 --> 00:01:49,500
还有算子去组成的
57
00:01:49,533 --> 00:01:52,166
在计算图他即然是一个图嘛
58
00:01:52,166 --> 00:01:54,133
那他肯定会有节点和边
59
00:01:54,133 --> 00:01:57,066
那这个节点呢就是算子
60
00:01:57,166 --> 00:01:58,733
节点跟节点之间
61
00:01:58,733 --> 00:02:00,466
就是算子跟算子之间呢
62
00:02:00,466 --> 00:02:01,300
会有一个连接
63
00:02:01,300 --> 00:02:02,133
有一条边
64
00:02:02,133 --> 00:02:03,766
那这个边流动的数据呢
65
00:02:03,766 --> 00:02:05,000
就是张量
66
00:02:05,566 --> 00:02:06,666
所以会说
67
00:02:06,666 --> 00:02:09,066
计算图的一个最基本的构成呢
68
00:02:09,066 --> 00:02:10,366
就是由Tensor
69
00:02:10,366 --> 00:02:12,600
还有基本的运算单元
70
00:02:12,766 --> 00:02:14,466
算子来去组成的
71
00:02:14,533 --> 00:02:16,866
算子这个概念呢也是来自于这
72
00:02:16,866 --> 00:02:19,500
而AI框架呢是产生计算图的
73
00:02:19,500 --> 00:02:22,100
所以所以经常谈到的算子啊
74
00:02:22,100 --> 00:02:24,666
还是AI框架的一个概念
75
00:02:24,933 --> 00:02:26,400
真正在硬件底层
76
00:02:26,400 --> 00:02:28,566
或者是用CUDA写一些
77
00:02:28,700 --> 00:02:30,266
算子表达的时候呢
78
00:02:30,266 --> 00:02:32,300
叫做CUDA的Kernel
79
00:02:33,200 --> 00:02:35,766
刚才那个概念呢大家可以忘记它
80
00:02:35,766 --> 00:02:37,566
你理解为都算算子就行了
81
00:02:37,566 --> 00:02:38,700
你都叫算子吧
82
00:02:38,800 --> 00:02:40,200
反正也无所谓了
83
00:02:40,200 --> 00:02:43,533
然后后面呢即然是一个图嘛
84
00:02:43,533 --> 00:02:45,666
那这个图肯定会有一个自己的概念
85
00:02:45,666 --> 00:02:49,000
这里面呢主要是基于一个DAG的图
86
00:02:49,866 --> 00:02:51,733
那DAG呢就是有向无环图
87
00:02:51,733 --> 00:02:52,500
可以看到啊
88
00:02:52,500 --> 00:02:54,733
下面这个就是有向无环图的演示
89
00:02:54,733 --> 00:02:56,866
从上面input输入数据
90
00:02:56,866 --> 00:02:58,400
然后经过算子
91
00:02:58,600 --> 00:03:00,266
经过边下一个算子
92
00:03:00,266 --> 00:03:01,933
经过边下一个算子
93
00:03:01,966 --> 00:03:03,000
而这条边呢
94
00:03:03,000 --> 00:03:05,400
流传的数据呢就是Tensor
95
00:03:05,500 --> 00:03:06,300
最后输出
96
00:03:06,300 --> 00:03:09,333
而经常会遇到反向传播的时候
97
00:03:09,333 --> 00:03:10,900
也是一个有向无环图
98
00:03:10,900 --> 00:03:14,200
可以看到这里面是一个有向的顺序
99
00:03:14,200 --> 00:03:16,366
它是每一次都有自己的顺序的
100
00:03:16,533 --> 00:03:18,600
但是呢它没有形成一个环
101
00:03:18,666 --> 00:03:21,266
最后他会进行一个输出
102
00:03:21,500 --> 00:03:24,133
而在这里面呢有两点需要注意的
103
00:03:24,133 --> 00:03:26,866
就是会遇到特殊的操作和
104
00:03:26,866 --> 00:03:27,900
特殊的边
105
00:03:27,900 --> 00:03:29,333
而这个所谓的特殊呢
106
00:03:29,333 --> 00:03:31,866
主要是指控制流
107
00:03:31,966 --> 00:03:32,766
控制流呢
108
00:03:32,766 --> 00:03:35,866
是在计算图里面比较难表示的
109
00:03:36,100 --> 00:03:37,866
下面呢来看看AI框架呢
110
00:03:37,866 --> 00:03:40,133
是怎么样去生成计算图的
111
00:03:40,133 --> 00:03:42,133
计算图跟自动微分有什么关系啊
112
00:03:42,133 --> 00:03:43,933
知道刚才讲的计算图呢
113
00:03:43,933 --> 00:03:45,566
是一个有向的无环图
114
00:03:45,566 --> 00:03:47,266
那在平时写代码的时候呢
115
00:03:47,266 --> 00:03:49,933
一般只写了一个正向的图
116
00:03:49,933 --> 00:03:52,933
或者做了一个神经网络对正向的表达
117
00:03:53,133 --> 00:03:53,600
实际上呢
118
00:03:53,600 --> 00:03:55,133
AI框架会帮去
119
00:03:55,133 --> 00:03:57,300
自动建好反向图
120
00:03:57,333 --> 00:03:59,500
然后整体呢变成一个计算图
121
00:03:59,500 --> 00:04:01,200
下发给AI编译器的
122
00:04:01,466 --> 00:04:04,966
AI框架生成一个计算图有第一种方式
123
00:04:04,966 --> 00:04:06,533
就是静态的计算图
124
00:04:06,566 --> 00:04:08,766
静态计算图呢这个比较好表示啊
125
00:04:08,766 --> 00:04:10,666
因为现在有一个嗯
126
00:04:10,666 --> 00:04:12,600
用MindSpore写的一些伪代码
127
00:04:12,600 --> 00:04:14,400
用MindSpore写完这个伪代码呢
128
00:04:14,400 --> 00:04:16,533
之后呢会把这些代码呢
129
00:04:16,533 --> 00:04:18,900
通过AI框架的前端定义
130
00:04:19,100 --> 00:04:20,466
就是调用这些接口
131
00:04:20,466 --> 00:04:21,466
nn.SequentialCell
132
00:04:21,466 --> 00:04:23,566
nn.ReLU、nn.Dense
133
00:04:23,566 --> 00:04:25,200
然后基于Python的代码呢
134
00:04:25,200 --> 00:04:26,566
做一个源码的转换
135
00:04:26,566 --> 00:04:29,200
对这些原码呢进行一个分析和重构
136
00:04:29,200 --> 00:04:31,500
变成静态的计算图
137
00:04:31,500 --> 00:04:32,933
那这个静态的计算图呢
138
00:04:32,933 --> 00:04:36,000
实际上它只是一个特殊的数据结构
139
00:04:36,000 --> 00:04:39,133
所以说AI框架呢生成静态图
140
00:04:39,133 --> 00:04:40,133
主要是
141
00:04:40,133 --> 00:04:43,100
用AI框架所提供的前端的API
142
00:04:43,100 --> 00:04:43,933
对这些API
143
00:04:43,933 --> 00:04:45,300
进行分析重构
144
00:04:45,300 --> 00:04:48,266
然后变成特殊的静态图的数据结构
145
00:04:48,533 --> 00:04:49,133
那下面呢
146
00:04:49,133 --> 00:04:50,000
第二种方式
147
00:04:50,000 --> 00:04:52,733
就是AI框架生成动态计算图
148
00:04:52,733 --> 00:04:54,166
这是第二种方式
149
00:04:54,166 --> 00:04:55,133
动态图呢
150
00:04:55,133 --> 00:04:57,900
主要是利用Python自身的一个解析器
151
00:04:57,900 --> 00:04:59,100
对代码进行解析
152
00:04:59,100 --> 00:05:00,766
然后利用框架本身的一个
153
00:05:00,766 --> 00:05:01,933
算子分发能力
154
00:05:01,966 --> 00:05:03,266
然后去执行
155
00:05:03,266 --> 00:05:04,266
那很简单
156
00:05:04,500 --> 00:05:07,000
PyTorch是最典型的就是动态的计算图
157
00:05:07,000 --> 00:05:08,666
利用Python去写完代码
158
00:05:08,700 --> 00:05:11,400
通过autograd这个函数呢建立了反向图
159
00:05:11,400 --> 00:05:13,933
反向图之后呢就变成整一个计算图了
160
00:05:13,933 --> 00:05:15,533
或者变成一个算子序列
161
00:05:15,533 --> 00:05:17,766
然后不断的去分发到硬件
162
00:05:17,766 --> 00:05:19,800
去执行并且返回结果
163
00:05:20,000 --> 00:05:21,366
这种呢就是动态图
164
00:05:21,366 --> 00:05:23,500
它使用的是命令式编程的范式
165
00:05:23,500 --> 00:05:25,100
那这个命令式编程的范式
166
00:05:25,100 --> 00:05:25,933
是什么意思呢
167
00:05:26,166 --> 00:05:26,866
这个内容呢
168
00:05:26,866 --> 00:05:29,133
也在AI框架基础里面
169
00:05:29,133 --> 00:05:30,366
详细的展开过的
170
00:05:30,366 --> 00:05:31,966
有兴趣的也可以去了解
171
00:05:32,400 --> 00:05:34,866
PyTorch呢用了命令式编程的方式呢
172
00:05:34,866 --> 00:05:37,566
使用前端的语言去构造网络的
173
00:05:37,700 --> 00:05:40,366
优点很明显灵活易用嘛
174
00:05:40,400 --> 00:05:42,200
然后也可以充分的发挥
175
00:05:42,266 --> 00:05:45,133
Python语言的原生的控制流
176
00:05:45,200 --> 00:05:47,400
那缺点呢就是没有编译器
177
00:05:47,400 --> 00:05:48,333
这里面没有编译器
178
00:05:48,333 --> 00:05:51,500
所以没有办法的去提升这些性能
179
00:05:51,566 --> 00:05:52,166
现在呢
180
00:05:52,166 --> 00:05:55,166
来看看动态图和静态图的一个
181
00:05:55,166 --> 00:05:55,966
对比
182
00:05:56,066 --> 00:05:58,700
那下面这个图呢就是一个具体的对比
183
00:05:58,700 --> 00:06:00,366
可以一般来说呢
184
00:06:00,366 --> 00:06:01,466
在推理场景
185
00:06:01,466 --> 00:06:03,533
基本上都会把它变成一个计算图
186
00:06:03,533 --> 00:06:06,200
就可以看到的模型权重文件
187
00:06:06,200 --> 00:06:09,200
那这个权重文件呢不仅仅只有权重
188
00:06:09,366 --> 00:06:11,600
他大部分呢都会带有图的信息
189
00:06:11,600 --> 00:06:14,500
而动态图呢一般是用在训练场景的
190
00:06:14,500 --> 00:06:15,533
我训练完之后我这
191
00:06:15,533 --> 00:06:17,533
个图就就没了消亡掉了
192
00:06:17,533 --> 00:06:19,400
在内存里面也没有办法去保存了
193
00:06:19,400 --> 00:06:21,700
而且静态图呢可以做一些编译优化
194
00:06:21,700 --> 00:06:23,900
这也是拍PyTorch2.0推出的一个
195
00:06:23,900 --> 00:06:24,866
很重要的特性
196
00:06:25,000 --> 00:06:28,000
可以把PyTorch的动态图变成一个静态图
197
00:06:28,066 --> 00:06:30,733
Dynamo的特性呢其实是做的非常好的
198
00:06:30,866 --> 00:06:33,300
ZOMI呢在AI编译器之PyTorch里面呢
199
00:06:33,300 --> 00:06:36,366
就详细的去展开过这个特性
200
00:06:36,400 --> 00:06:38,866
后面呢还会补充更多的内容
201
00:06:38,866 --> 00:06:39,533
那这里面呢
202
00:06:39,533 --> 00:06:42,533
先跳到主流的业务
203
00:06:42,533 --> 00:06:44,800
还是讲讲AI编译器
204
00:06:49,100 --> 00:06:50,400
下面呢看一下
205
00:06:50,400 --> 00:06:52,733
之前其实已经多次的去强调过
206
00:06:52,733 --> 00:06:54,466
动态图转为静态图
207
00:06:54,466 --> 00:06:55,966
主要是有两种方式
208
00:06:55,966 --> 00:06:57,766
第一种是基于trace的
209
00:06:57,766 --> 00:06:59,366
就是基于追踪的方式呢
210
00:06:59,366 --> 00:07:01,333
第二种就是基于源码 转换的
211
00:07:01,333 --> 00:07:02,400
那最终的方式呢
212
00:07:02,400 --> 00:07:05,100
有那个PyTorch的FX
213
00:07:05,100 --> 00:07:06,300
源码转换有PyTroch的JIT
214
00:07:06,700 --> 00:07:07,533
在前端呢
215
00:07:07,533 --> 00:07:08,933
获得计算图呢
216
00:07:08,933 --> 00:07:10,000
最主要的工作呢
217
00:07:10,000 --> 00:07:12,466
就是方便底层进行编译优化
218
00:07:12,666 --> 00:07:13,933
而这个图的概念呢
219
00:07:13,933 --> 00:07:15,266
可以用它来
220
00:07:15,333 --> 00:07:19,100
保存或者表示整个神经网络的全过程
221
00:07:19,100 --> 00:07:20,400
也可以序列化过来
222
00:07:20,400 --> 00:07:22,566
不需要再次编译前段代码
223
00:07:22,566 --> 00:07:25,933
就是可以进行推理或者训练的加速
224
00:07:26,900 --> 00:07:28,966
那现在来谈谈静态图啊
225
00:07:28,966 --> 00:07:30,300
产生这个静态图
226
00:07:30,300 --> 00:07:32,966
对实际AI的编译器的作用
227
00:07:33,000 --> 00:07:35,933
首先呢第一个就是图的优化
228
00:07:35,933 --> 00:07:38,466
其实可以做很多图层的优化
229
00:07:38,466 --> 00:07:40,533
拿到这个图之后
230
00:07:40,533 --> 00:07:44,300
ZOMI老师为啥我可以做到图的优化呢
231
00:07:44,333 --> 00:07:45,766
我不就得到一个图吗
232
00:07:45,766 --> 00:07:46,766
我能干啥呢
233
00:07:46,766 --> 00:07:48,800
我这个图去执行就好了呀
234
00:07:48,900 --> 00:07:50,766
你优化个干嘛你
235
00:07:51,766 --> 00:07:54,800
哎这位同学问的非常好啊
236
00:07:54,800 --> 00:07:58,100
虽然这个问题问的有点嗯一言难尽啊
237
00:07:58,100 --> 00:07:59,066
那可以看到啊
238
00:07:59,066 --> 00:08:00,133
其实现在呢
239
00:08:00,133 --> 00:08:02,300
拿到了整个深度学习模型的
240
00:08:02,300 --> 00:08:03,400
全局的信息
241
00:08:03,400 --> 00:08:04,333
拿到这个信息呢
242
00:08:04,333 --> 00:08:06,466
就知道未来要执行什么
243
00:08:06,466 --> 00:08:08,066
之前我执行过什么
244
00:08:08,166 --> 00:08:09,400
既然我知道全局信息
245
00:08:09,400 --> 00:08:12,600
我肯定可以做一些对系统级的优化嘛
246
00:08:12,966 --> 00:08:13,966
所以呢这里面呢
247
00:08:13,966 --> 00:08:16,766
就像之前提到的LLVM那样
248
00:08:16,766 --> 00:08:18,266
由非常多的pass
249
00:08:18,266 --> 00:08:19,800
然后中间通过一个IR
250
00:08:19,800 --> 00:08:21,133
进行一个优化的