در این مطلب، ویدئو یادگیری ماشینی از ابتدا در پایتون – دوره کامل با 12 الگوریتم (5 ساعت) با زیرنویس فارسی را برای دانلود قرار داده ام. شما میتوانید با پرداخت 15 هزار تومان ، این ویدیو به علاوه تمامی فیلم های سایت را دانلود کنید.اکثر فیلم های سایت به زبان انگلیسی می باشند. این ویدئو دارای زیرنویس فارسی ترجمه شده توسط هوش مصنوعی می باشد که میتوانید نمونه ای از آن را در قسمت پایانی این مطلب مشاهده کنید.
مدت زمان فیلم: 4:55:23
تصاویر این ویدئو:
قسمتی از زیرنویس این فیلم:
00:00:00,080 –> 00:00:01,920
به همه به همه چیز خود خوش آمدید
2
00:00:01,920 –> 00:00:03,919
ویدیو یادگیری ماشینی از ابتدا
3
00:00:03,919 –> 00:00:06,960
این ویدیو تمام 15 قسمت میلی لیتر من را می گیرد
4
00:00:06,960 –> 00:00:09,280
از سری اول و ترکیب آن به
5
00:00:09,280 –> 00:00:10,559
یک ویدیو تک
6
00:00:10,559 –> 00:00:12,400
در این مجموعه قصد داریم اجرا کنیم
7
00:00:12,400 –> 00:00:14,160
محبوب ترین یادگیری ماشینی
8
00:00:14,160 –> 00:00:15,280
الگوریتم هایی با استفاده از
9
00:00:15,280 –> 00:00:18,240
فقط python خالص و numpy این است
10
00:00:18,240 –> 00:00:20,400
عالی است اگر مبتدی هستید یا
11
00:00:20,400 –> 00:00:22,400
سطح مهارت متوسط است و می خواهید کسب کنید
12
00:00:22,400 –> 00:00:24,480
درک عمیق تر چگونه همه اینها
13
00:00:24,480 –> 00:00:26,080
الگوریتم ها کار می کنند
14
00:00:26,080 –> 00:00:28,320
همه ویدیوها همچنین حاوی یک نظریه کوچک هستند
15
00:00:28,320 –> 00:00:30,400
بخش قبل از اینکه به کد بپریم
16
00:00:30,400 –> 00:00:32,479
من برای هر بخش مهر زمانی می گذارم
17
00:00:32,479 –> 00:00:34,239
و البته همه کد موجود است
18
00:00:34,239 –> 00:00:34,960
در github
19
00:00:34,960 –> 00:00:37,280
من همچنین یک کتاب راهنمای numpy رایگان ایجاد کردم
20
00:00:37,280 –> 00:00:39,280
که تمام عملکردهای ضروری را پوشش می دهد
21
00:00:39,280 –> 00:00:40,879
که شما باید در numpy بدانید
22
00:00:40,879 –> 00:00:43,120
و حاوی نمونه های کد مفیدی است
23
00:00:43,120 –> 00:00:44,320
تمام بخش ها
24
00:00:44,320 –> 00:00:46,399
بنابراین می توانید این کتاب الکترونیکی را به صورت رایگان دانلود کنید
25
00:00:46,399 –> 00:00:48,399
در وب سایت من لینک را در آن می گذارم
26
00:00:48,399 –> 00:00:49,360
توضیحات
27
00:00:49,360 –> 00:00:51,280
پس بیایید شروع کنیم و اگر لذت می برید
28
00:00:51,280 –> 00:00:53,039
این مطالب حتما برای من لایک بگذارید
29
00:00:53,039 –> 00:00:59,840
و عضویت در کانال را در نظر بگیرید
30
00:01:00,480 –> 00:01:03,039
سلام به همه به یک آموزش جدید خوش آمدید
31
00:01:03,039 –> 00:01:05,280
این اولین ویدیو از یک سری جدید است
32
00:01:05,280 –> 00:01:07,840
به نام یادگیری ماشینی از ابتدا
33
00:01:07,840 –> 00:01:09,920
در این مجموعه قصد داریم اجرا کنیم
34
00:01:09,920 –> 00:01:12,000
الگوریتم های محبوب یادگیری ماشینی
35
00:01:12,000 –> 00:01:14,479
فقط با استفاده از ماژول های داخلی پایتون و
36
00:01:14,479 –> 00:01:15,600
بی حسی
37
00:01:15,600 –> 00:01:17,600
بنابراین امروز ما با k شروع خواهیم کرد
38
00:01:17,600 –> 00:01:19,439
الگوریتم نزدیکترین همسایه یا
39
00:01:19,439 –> 00:01:23,119
الگوریتم k n کوتاه مفهوم k
40
00:01:23,119 –> 00:01:26,000
و n نسبتا آسان است یک نمونه است
41
00:01:26,000 –> 00:01:28,640
با رای محبوبیت آن طبقه بندی شده است
42
00:01:28,640 –> 00:01:30,400
نزدیکترین همسایگان
43
00:01:30,400 –> 00:01:33,040
پس بیایید یک مثال با دو در نظر بگیریم
44
00:01:33,040 –> 00:01:33,920
کلاس ها
45
00:01:33,920 –> 00:01:37,200
و یک بردار ویژگی دو بعدی بنابراین
46
00:01:37,200 –> 00:01:40,159
اجازه دهید نگاهی به این رقم در اینجا بیاندازیم
47
00:01:40,159 –> 00:01:40,720
ما داریم
48
00:01:40,720 –> 00:01:44,000
دو کلاس کلاس آبی و
49
00:01:44,000 –> 00:01:45,680
کلاس نارنجی
50
00:01:45,680 –> 00:01:48,240
و ما بردارهای ویژگی با دو داریم
51
00:01:48,240 –> 00:01:49,439
ابعاد
52
00:01:49,439 –> 00:01:52,960
بنابراین در این محور x1 داریم
53
00:01:52,960 –> 00:01:56,159
و x2 در این محور
54
00:01:56,159 –> 00:01:58,880
و کاری که ما اینجا انجام می دهیم این است که مقداری داریم
55
00:01:58,880 –> 00:02:01,200
نمونه های آموزشی
56
00:02:01,200 –> 00:02:04,479
و سپس برای هر نمونه جدید که ما
57
00:02:04,479 –> 00:02:06,560
می خواهند طبقه بندی کنند
58
00:02:06,560 –> 00:02:09,758
ما فاصله این را محاسبه می کنیم
59
00:02:09,758 –> 00:02:14,319
نمونه برای هر یک از نمونه های آموزشی
60
00:02:14,319 –> 00:02:16,560
و سپس نگاهی به نزدیکترین آنها خواهیم داشت
61
00:02:16,560 –> 00:02:17,360
همسایه ها
62
00:02:17,360 –> 00:02:19,520
بنابراین در این مورد ما نگاهی به
63
00:02:19,520 –> 00:02:21,840
سه همسایه نزدیک
64
00:02:21,840 –> 00:02:25,200
اینها و سپس ما انتخاب می کنیم
65
00:02:25,200 –> 00:02:28,319
یا برچسب را بر اساس بیشترین پیش بینی کنید
66
00:02:28,319 –> 00:02:31,519
برچسب های کلاس رایج
67
00:02:31,519 –> 00:02:34,720
در اینجا ما دو کلاس آبی داریم
68
00:02:34,720 –> 00:02:37,680
و یک کلاس نارنجی پس این خواهد شد
69
00:02:37,680 –> 00:02:38,000
بودن
70
00:02:38,000 –> 00:02:40,879
یک کلاس آبی و این کل است
71
00:02:40,879 –> 00:02:42,080
مفهوم از
72
00:02:42,080 –> 00:02:46,000
k n و آنچه ما نیز باید بدانیم این است
73
00:02:46,000 –> 00:02:50,560
برای محاسبه فاصله ها
74
00:02:50,560 –> 00:02:53,920
ما از فاصله اقلیدسی استفاده می کنیم
75
00:02:53,920 –> 00:02:57,200
بنابراین در یک مثال 2 بعدی
76
00:02:57,200 –> 00:03:00,480
u فاصله اقلیدسی دو
77
00:03:00,480 –> 00:03:01,360
نکته ها
78
00:03:01,360 –> 00:03:05,120
به عنوان جذر تعریف می شود
79
00:03:05,120 –> 00:03:10,159
بیش از و سپس ما برای هر یک
80
00:03:10,159 –> 00:03:13,120
جزء بردار ویژگی ما داریم
81
00:03:13,120 –> 00:03:15,519
مربع
82
00:03:15,519 –> 00:03:19,440
تفاوت بنابراین ما x2 منهای x1 داریم
83
00:03:19,440 –> 00:03:22,800
مربع به اضافه y2 منهای
84
00:03:22,800 –> 00:03:26,560
مجذور y1 پس این اقلیدسی است
85
00:03:26,560 –> 00:03:27,519
فاصله در a
86
00:03:27,519 –> 00:03:32,080
حالت 2d و در حالت کلی تر
87
00:03:32,080 –> 00:03:35,599
یا فرمول تعریف شده است
88
00:03:35,599 –> 00:03:40,239
همانطور که این پس ریشه دوم است
89
00:03:40,239 –> 00:03:43,280
بیش از مجموع از i
90
00:03:43,280 –> 00:03:46,959
برابر 0 تا n که n عدد است
91
00:03:46,959 –> 00:03:48,480
ابعاد
92
00:03:48,480 –> 00:03:52,080
و سپس ما جمع را تمام می کنیم
93
00:03:52,080 –> 00:03:56,400
هر جزء و برای هر جزء
94
00:03:56,400 –> 00:04:00,239
ما مجذور فاصله یا عدد را محاسبه می کنیم
95
00:04:00,239 –> 00:04:02,239
اختلاف مربع
96
00:04:02,239 –> 00:04:05,519
بنابراین این فاصله اقلیدسی و
97
00:04:05,519 –> 00:04:08,080
این تمام چیزی است که ما باید بدانیم تا
98
00:04:08,080 –> 00:04:11,920
k و n را پیاده سازی کنید پس بیایید شروع کنیم
99
00:04:11,920 –> 00:04:14,959
و ابتدا یک کلاس را تعریف می کنیم
100
00:04:14,959 –> 00:04:18,079
به نام knn و این دارد
101
00:04:18,079 –> 00:04:21,199
البته یک روش اولیه
102
00:04:21,199 –> 00:04:24,320
پس خود و این اراده
103
00:04:24,320 –> 00:04:28,080
یک k بگیرید پس این عدد است
104
00:04:28,080 –> 00:04:31,360
نزدیکترین همسایه هایی که می خواهیم در نظر بگیریم
105
00:04:31,360 –> 00:04:34,080
و این نیز یک مقدار پیش فرض دریافت می کند
106
00:04:34,080 –> 00:04:34,479
بنابراین
107
00:04:34,479 –> 00:04:37,919
پیش فرض سه و در
108
00:04:37,919 –> 00:04:43,520
شروع آه متاسفم
109
00:04:43,520 –> 00:04:46,560
ما init را تعریف می کنیم بنابراین در in it ما
110
00:04:46,560 –> 00:04:47,600
به سادگی می خواهم
111
00:04:47,600 –> 00:04:50,720
K را ذخیره کنید بنابراین می گوییم خود
112
00:04:50,720 –> 00:04:53,840
نقطه k برابر است با k
113
00:04:53,840 –> 00:04:56,720
و سپس آنچه می خواهیم در اینجا پیاده سازی کنیم
114
00:04:56,720 –> 00:04:57,440
ام
115
00:04:57,440 –> 00:04:58,880
و در اینجا ما می خواهیم به دنبال
116
00:04:58,880 –> 00:05:00,639
کنوانسیون های دیگر
117
00:05:00,639 –> 00:05:02,800
برای مثال کتابخانه های یادگیری ماشینی
118
00:05:02,800 –> 00:05:04,880
کتابخانه اسکیتی-یادگیری
119
00:05:04,880 –> 00:05:07,919
بنابراین ما یک
120
00:05:08,639 –> 00:05:13,440
روش فیت بنابراین این مناسب است
121
00:05:13,440 –> 00:05:17,280
نمونه های آموزشی و برخی
122
00:05:17,280 –> 00:05:20,560
ام ام برچسب های آموزشی و این خواهد شد
123
00:05:20,560 –> 00:05:24,960
معمولا شامل یک مرحله آموزشی است
124
00:05:24,960 –> 00:05:27,840
بنابراین ما می خواهیم این یکی را اجرا کنیم و
125
00:05:27,840 –> 00:05:29,280
سپس ما نیز می خواهیم
126
00:05:29,280 –> 00:05:33,120
اجرای یک روش پیش بینی
127
00:05:33,120 –> 00:05:36,639
متاسفم این هم خودش دارد
128
00:05:36,639 –> 00:05:39,600
و روش پیش بینی بنابراین در اینجا ما می خواهیم
129
00:05:39,600 –> 00:05:40,560
برای پیش بینی
130
00:05:40,560 –> 00:05:44,639
نمونه های جدید بنابراین این روش ها ما هستند
131
00:05:44,639 –> 00:05:46,320
می خواهند اجرا کنند
132
00:05:46,320 –> 00:05:50,080
و در حال حاضر قبل از اینکه اول از همه ادامه دهیم
133
00:05:50,080 –> 00:05:53,440
بیایید نگاهی بیندازیم به اینکه داده های ما چگونه به نظر می رسد
134
00:05:53,440 –> 00:05:53,840
بنابراین
135
00:05:53,840 –> 00:05:57,440
چگونه این x و این y چیست؟
136
00:05:57,440 –> 00:06:00,560
و برای این یک تست نوشتم
137
00:06:00,560 –> 00:06:04,560
اسکریپت بنابراین در اینجا از معروف استفاده می کنم
138
00:06:04,560 –> 00:06:07,759
مجموعه داده های عنبیه تا شاید شنیده باشید
139
00:06:07,759 –> 00:06:09,280
در مورد این قبلا
140
00:06:09,280 –> 00:06:12,880
بنابراین من می توانم این را از
141
00:06:12,880 –> 00:06:16,240
ماژول scikit-learn و سپس آن را انجام خواهم داد
142
00:06:16,240 –> 00:06:19,759
تولید چند نمونه آموزشی و برخی
143
00:06:19,759 –> 00:06:23,600
نمونه های تست و آموزش های مرتبط
144
00:06:23,600 –> 00:06:24,319
برچسب ها
145
00:06:24,319 –> 00:06:27,680
و برچسب های آزمایشی، بنابراین اجازه دهید ابتدا a
146
00:06:27,680 –> 00:06:30,639
ببین چطور این
147
00:06:30,639 –> 00:06:34,160
نمونه های آموزشی به نظر می رسد بنابراین ما می خواهیم
148
00:06:34,160 –> 00:06:34,880
چاپ کنید
149
00:06:34,880 –> 00:06:38,090
شکل این یکی
150
00:06:38,090 –> 00:06:39,440
[موسیقی]
151
00:06:39,440 –> 00:06:42,880
بنابراین این یک nd ناتوان است
152
00:06:42,880 –> 00:06:46,720
آرایه شکل 120
153
00:06:46,720 –> 00:06:50,720
در 4 پس 120 است
154
00:06:50,720 –> 00:06:54,800
تعداد نمونه و 4 عدد است
155
00:06:54,800 –> 00:06:57,039
ویژگی های هر نمونه
156
00:06:57,039 –> 00:07:00,880
به عنوان مثال بیایید چاپ کنیم
157
00:07:00,880 –> 00:07:04,639
اولین نمونه پس این است
158
00:07:04,639 –> 00:07:07,680
چهار ویژگی در آن است
159
00:07:07,680 –> 00:07:10,880
بنابراین نمونه های آموزشی ما اینگونه به نظر می رسند
160
00:07:10,880 –> 00:07:13,840
و حالا بیایید نگاهی به خودمان بیندازیم
161
00:07:13,840 –> 00:07:14,840
آموزش
162
00:07:14,840 –> 00:07:18,880
برچسب ها بنابراین
163
00:07:18,960 –> 00:07:22,240
این یک بردار ردیف 1 بعدی است
164
00:07:22,240 –> 00:07:25,759
همچنین از سایز 120 برای
165
00:07:25,759 –> 00:07:30,400
هر یک از نمونه های آموزشی خود را داریم
166
00:07:30,400 –> 00:07:33,520
برچسب برای آن بنابراین
167
00:07:33,520 –> 00:07:36,720
اگر این را چاپ کنیم، این اراده را می بینیم
168
00:07:36,720 –> 00:07:37,039
بودن
169
00:07:37,039 –> 00:07:42,000
یک بردار 1 بعدی با تنها یک ردیف
170
00:07:42,000 –> 00:07:45,360
و حالا بیایید آنچه را که در اینجا می بینیم ما هستیم
171
00:07:45,360 –> 00:07:46,800
دارند
172
00:07:46,800 –> 00:07:50,319
برچسب های 0 1 و 2. پس این یک است
173
00:07:50,319 –> 00:07:53,840
مشکل سه کلاس پس بیایید نیز
174
00:07:53,840 –> 00:07:58,240
طرح این ام و
175
00:07:58,240 –> 00:08:01,599
اکنون برای مثال آنچه من در اینجا طرح می کنم i است
176
00:08:01,599 –> 00:08:05,039
فقط دو مورد اول را ترسیم کنید
177
00:08:05,039 –> 00:08:08,319
ویژگی ها به طوری که ما یک 2d داشته باشیم
178
00:08:08,319 –> 00:08:12,240
مورد چنین است
179
00:08:12,240 –> 00:08:15,840
اینگونه به نظر می رسد که داده های ما در اختیار داریم
180
00:08:15,840 –> 00:08:18,960
سه کلاس قرمز سبز
181
00:08:18,960 –> 00:08:23,280
و آبی و آره
182
00:08:23,280 –> 00:08:25,919
بنابراین داده های ما اینگونه به نظر می رسند و اکنون ما
183
00:08:25,919 –> 00:08:27,360
می تواند ادامه دهد
184
00:08:27,360 –> 00:08:30,400
با اجرای این چنین است
185
00:08:30,400 –> 00:08:33,519
در روش مناسب ما بنابراین
186
00:08:33,519 –> 00:08:36,719
در الگوریتم k n اینطور نیست
187
00:08:36,719 –> 00:08:40,399
شامل یک مرحله آموزشی است بنابراین ما چه کار می کنیم
188
00:08:40,399 –> 00:08:42,559
در اینجا ما به سادگی می خواهیم
189
00:08:42,559 –> 00:08:45,600
نمونه های آموزشی ما را ذخیره کنید
190
00:08:45,600 –> 00:08:48,399
و بعداً می توانیم از آنها استفاده کنیم تا بتوانیم
191
00:08:48,399 –> 00:08:49,120
گفتن
192
00:08:49,120 –> 00:08:52,080
بیایید آنها را ذخیره کنیم پس بیایید بگوییم خود و
193
00:08:52,080 –> 00:08:53,200
سپس ما این را صدا می زنیم
194
00:08:53,200 –> 00:08:56,959
قطار x برابر با x است
195
00:08:56,959 –> 00:09:01,200
و خودت تمرین کن
196
00:09:01,200 –> 00:09:04,800
برابر y پس این همه است
197
00:09:04,800 –> 00:09:08,000
برای روش مناسب ما و اکنون برای ما
198
00:09:08,000 –> 00:09:11,440
پیش بینی روش بنابراین این خواهد شد
199
00:09:11,440 –> 00:09:14,480
get می تواند چندین برابر شود
200
00:09:14,480 –> 00:09:17,680
نمونه در اینجا بنابراین ما
201
00:09:17,680 –> 00:09:20,720
اوم می تواند این را ببیند زیرا ما
202
00:09:20,720 –> 00:09:23,760
برای این کار از x بزرگ استفاده می کنیم
203
00:09:23,760 –> 00:09:27,040
بنابراین این می تواند چندین نمونه داشته باشد
204
00:09:27,040 –> 00:09:29,839
بنابراین می توانیم یک روش کمکی کوچک بنویسیم
205
00:09:29,839 –> 00:09:31,600
بنابراین ما می خواهیم این کار را انجام دهیم
206
00:09:31,600 –> 00:09:35,120
هر یک از نمونه هایی که می خواهیم بگوییم ما هستیم
207
00:09:35,120 –> 00:09:35,680
خواستن
208
00:09:35,680 –> 00:09:39,440
پیش بینی شده را دریافت کنید
209
00:09:39,440 –> 00:09:42,480
برچسب ها برابر است
210
00:09:42,480 –> 00:09:47,200
و سپس استفاده می کنیم
211
00:09:47,200 –> 00:09:50,959
یا یک روش کمکی می نویسیم که ما
212
00:09:50,959 –> 00:09:54,000
پیش بینی خط خطی تماس بگیرید
213
00:09:54,000 –> 00:09:57,040
و این فقط یکی را دریافت می کند
214
00:09:57,040 –> 00:10:00,240
نمونه در اینجا
215
00:10:00,240 –> 00:10:02,959
ما از درک لیست استفاده می کنیم پس چه می کنیم
216
00:10:02,959 –> 00:10:04,079
می خواهم انجام دهم
217
00:10:04,079 –> 00:10:07,360
آیا ما می خواهیم این را خود بنامیم
218
00:10:07,360 –> 00:10:10,560
با یک نمونه پیش بینی کنید
219
00:10:10,560 –> 00:10:13,680
x و سپس می خواهیم این کار را برای
220
00:10:13,680 –> 00:10:18,000
همه نمونه های ما در ما
221
00:10:18,000 –> 00:10:21,440
um نمونه ها را در اینجا برای
222
00:10:21,440 –> 00:10:25,440
x کوچک با x بزرگ و سپس
223
00:10:25,440 –> 00:10:28,480
اوم این یک لیست خواهد بود
224
00:10:28,480 –> 00:10:33,680
بیایید این را به یک آرایه numpy و تبدیل کنیم
225
00:10:33,680 –> 00:10:37,680
سپس این روش پیش بینی ما است
226
00:10:37,680 –> 00:10:40,560
و البته ما باید numpy را وارد کنیم
227
00:10:40,560 –> 00:10:41,839
ما میگوییم
228
00:10:41,839 –> 00:10:46,480
وارد کردن numpy snp
229
00:10:46,480 –> 00:10:50,240
و اکنون خط زیر ما چگونه پیش بینی می کند
230
00:10:50,240 –> 00:10:53,519
روش اکنون به نظر می رسد
231
00:10:53,519 –> 00:10:57,200
دوباره بیایید نگاهی بیندازیم
232
00:10:57,200 –> 00:11:00,560
در شکل اینجا، پس ما چه می کنیم
233
00:11:00,560 –> 00:11:04,320
آیا می خواهیم محاسبه کنیم
234
00:11:04,320 –> 00:11:07,839
تمام فاصله ها و سپس یک
235
00:11:07,839 –> 00:11:08,959
نگاه کن به
236
00:11:08,959 –> 00:11:12,320
نزدیکترین همسایگان و برچسب های
237
00:11:12,320 –> 00:11:14,079
نزدیکترین همسایگان
238
00:11:14,079 –> 00:11:17,200
و سپس ما رای اکثریت و
239
00:11:17,200 –> 00:11:17,680
انتخاب کنید
240
00:11:17,680 –> 00:11:20,959
رایج ترین برچسب کلاس بنابراین
241
00:11:20,959 –> 00:11:23,519
بیایید ابتدا نظرات خود را در اینجا بنویسیم
242
00:11:23,519 –> 00:11:24,560
از همه
243
00:11:24,560 –> 00:11:29,519
ما می خواهیم فاصله ها را محاسبه کنیم
244
00:11:29,519 –> 00:11:32,720
سپس ما می خواهیم
245
00:11:32,720 –> 00:11:35,920
k نزدیکترین همسایه را بدست آورید
246
00:11:35,920 –> 00:11:39,440
بنابراین k نزدیکترین را دریافت کنید
247
00:11:39,440 –> 00:11:44,079
نمونه ها و ما می خواهیم آن را دریافت کنیم
248
00:11:44,079 –> 00:11:47,440
همچنین می خواهید برچسب ها را دریافت کنید و سپس
249
00:11:47,440 –> 00:11:50,959
ما یک دنیای بلوغ انجام می دهیم
250
00:11:50,959 –> 00:11:54,800
بنابراین ما می خواهیم رایج ترین را دریافت کنیم
251
00:11:54,800 –> 00:11:59,200
برچسب کلاس بنابراین
252
00:11:59,200 –> 00:12:02,240
بیایید این کار را انجام دهیم پس بیایید بگوییم
253
00:12:02,240 –> 00:12:05,680
فاصله ها برابر است
254
00:12:05,680 –> 00:12:09,279
و اکنون همانطور که گفتم از اقلیدسی استفاده می کنیم
255
00:12:09,279 –> 00:12:10,240
فاصله اینجا
256
00:12:10,240 –> 00:12:14,079
پس بیایید این را تعریف کنیم و ما می خواهیم
257
00:12:14,079 –> 00:12:17,600
این را به عنوان یک تابع جهانی تعریف کنید تا شما
258
00:12:17,600 –> 00:12:18,880
ممکن است بخواهد
259
00:12:18,880 –> 00:12:21,360
این را در یک فایل جداگانه بنویسید یا تماس بگیرید
260
00:12:21,360 –> 00:12:22,160
این
261
00:12:22,160 –> 00:12:25,200
در برخی از کلاس های ابزار بنابراین اینجا
262
00:12:25,200 –> 00:12:27,600
من به سادگی این کار را در همان فایل انجام خواهم داد
263
00:12:27,600 –> 00:12:28,959
من می گویم
264
00:12:28,959 –> 00:12:33,600
شما cli dn
265
00:12:33,600 –> 00:12:36,880
فاصله از
266
00:12:36,880 –> 00:12:39,920
دو بردار ویژگی پس بیایید بگوییم
267
00:12:39,920 –> 00:12:43,040
x1 و x2
268
00:12:43,040 –> 00:12:46,320
و اکنون دوباره اجازه دهید نگاهی به
269
00:12:46,320 –> 00:12:47,600
فرمول
270
00:12:47,600 –> 00:12:50,639
بنابراین این جذر و سپس آن است
271
00:12:50,639 –> 00:12:54,720
جمع در هر مجذور فاصله
272
00:12:54,720 –> 00:12:58,480
بنابراین ما جذر داریم تا بتوانیم بگوییم
273
00:12:58,480 –> 00:13:01,600
اوم ناپخت
274
00:13:01,600 –> 00:13:06,079
dot sqrt و سپس مجموع را داریم
275
00:13:06,079 –> 00:13:09,760
بنابراین میتوانیم از مجموع نقطهای numpy استفاده کنیم
276
00:13:09,760 –> 00:13:12,880
بنابراین این مبلغ را برای محاسبه می کند
277
00:13:12,880 –> 00:13:17,279
بیش از هر جزء بردار ویژگی um
278
00:13:17,279 –> 00:13:21,120
و در اینجا ما مربع را داریم
279
00:13:21,120 –> 00:13:24,639
تفاوت بنابراین می توانیم x one را بگوییم
280
00:13:24,639 –> 00:13:30,160
منهای x دو به توان دو
281
00:13:30,160 –> 00:13:33,040
بنابراین این تمام چیزی است که ما نیاز داریم و سپس می خواهیم
282
00:13:33,040 –> 00:13:35,360
برای برگرداندن این البته
283
00:13:35,360 –> 00:13:40,560
و اکنون در روش پیش بینی ما
284
00:13:40,959 –> 00:13:44,639
کاری که ما می خواهیم انجام دهیم این است
285
00:13:45,600 –> 00:13:48,560
ما می خواهیم فاصله های آن را محاسبه کنیم
286
00:13:48,560 –> 00:13:49,760
این
287
00:13:49,760 –> 00:13:53,600
یک نمونه جدید برای تمام آموزش ها
288
00:13:53,600 –> 00:13:54,720
نمونه ها بنابراین
289
00:13:54,720 –> 00:13:57,920
ما همچنین از درک لیست در اینجا استفاده می کنیم
290
00:13:57,920 –> 00:14:01,279
و ما به این فاصله اقلیدسی می گوییم
291
00:14:01,279 –> 00:14:04,880
با نمونه آزمایشی جدید ما
292
00:14:04,880 –> 00:14:08,639
بنابراین و سپس به هر یک از آموزش
293
00:14:08,639 –> 00:14:10,720
نمونه پس ما می گوییم کوچک است
294
00:14:10,720 –> 00:14:14,639
x قطار و سپس می خواهیم محاسبه کنیم
295
00:14:14,639 –> 00:14:15,040
این
296
00:14:15,040 –> 00:14:18,560
برای x قطار در
297
00:14:18,560 –> 00:14:21,760
بزرگ یا به صورت خود نقطه
298
00:14:21,760 –> 00:14:25,199
قطار x بنابراین اکنون داریم
299
00:14:25,199 –> 00:14:28,240
تمام فاصله ها و
300
00:14:28,240 –> 00:14:31,839
اکنون می خواهیم k نزدیکترین را بدست آوریم
301
00:14:31,839 –> 00:14:34,959
نمونه ها و برچسب ها
302
00:14:34,959 –> 00:14:38,880
بنابراین کاری که ما اینجا انجام می دهیم این است
303
00:14:38,880 –> 00:14:42,000
فاصله هایمان را مرتب می کنیم
304
00:14:42,000 –> 00:14:45,279
و ما می توانیم این کار را انجام دهیم
305
00:14:45,279 –> 00:14:49,120
پس بیایید این را k بنامیم
306
00:14:49,120 –> 00:14:51,839
شاخص ها
307
00:14:52,160 –> 00:14:55,279
و این و اینجا از numpy استفاده می کنیم
308
00:14:55,279 –> 00:14:58,320
مرتب سازی قوس نقطه ای
309
00:14:58,320 –> 00:15:01,680
بنابراین این فاصله ها را مرتب می کند
310
00:15:01,680 –> 00:15:04,959
و باز خواهد گشت
311
00:15:04,959 –> 00:15:09,120
شاخص هایی از نحوه طبقه بندی این
312
00:15:09,120 –> 00:15:12,240
بنابراین در اینجا ما تماس می گیریم
313
00:15:12,240 –> 00:15:16,240
فواصل و این خواهد بود
314
00:15:16,240 –> 00:15:19,920
آرایه و ما نیز فقط می خواهیم
315
00:15:19,920 –> 00:15:23,839
بنابراین می خواهید k نزدیکترین نمونه را داشته باشید
316
00:15:23,839 –> 00:15:27,920
بیایید از برش در اینجا استفاده کنیم و شروع کنیم
317
00:15:27,920 –> 00:15:31,120
در ابتدا تا صفر یا می توانیم حذف کنیم
318
00:15:31,120 –> 00:15:32,000
این
319
00:15:32,000 –> 00:15:35,519
و این همه فقط تا زمانی که خود نقطه است پیش می رود
320
00:15:35,519 –> 00:15:39,600
k پس این خواهد بود
321
00:15:39,600 –> 00:15:43,600
شاخص های k نزدیکترین
322
00:15:43,600 –> 00:15:47,040
نمونه ها و حالا بیایید برچسب ها را دریافت کنیم
323
00:15:47,040 –> 00:15:51,120
بنابراین ما k را دریافت می کنیم
324
00:15:51,120 –> 00:15:54,639
نزدیکترین برچسب ها
325
00:15:54,639 –> 00:15:57,759
برابر است و در اینجا ما می توانیم
326
00:15:57,759 –> 00:16:01,120
ما همچنین از درک لیست استفاده می کنیم
327
00:16:01,120 –> 00:16:04,800
و سپس برچسب هر کدام را می گیریم
328
00:16:04,800 –> 00:16:08,160
آموزش و برچسب زدن با این
329
00:16:08,160 –> 00:16:11,600
در شاخص پس شاخص
330
00:16:11,600 –> 00:16:14,720
من و سپس برای من
331
00:16:14,720 –> 00:16:18,000
در k شاخص
332
00:16:18,000 –> 00:16:21,360
بنابراین اکنون ما برچسب های نزدیکترین خود را داریم
333
00:16:21,360 –> 00:16:22,079
همسایه ها
334
00:16:22,079 –> 00:16:25,680
و سپس از یک رای بلوغ استفاده می کنیم و می گیریم
335
00:16:25,680 –> 00:16:27,759
رایج ترین برچسب کلاس
336
00:16:27,759 –> 00:16:31,680
بنابراین بیایید این را رایج ترین بنامیم
337
00:16:31,680 –> 00:16:35,600
برابر است و برای این از دیگری استفاده می کنیم
338
00:16:35,600 –> 00:16:38,800
ماژول پایتون بنابراین ما از
339
00:16:38,800 –> 00:16:42,560
ماژول شمارنده پس می گوییم
340
00:16:42,560 –> 00:16:46,399
از واردات مجموعه ها
341
00:16:46,399 –> 00:16:50,959
شمارنده و سپس ام
342
00:16:50,959 –> 00:16:54,720
ما دریافت می کنیم
343
00:16:54,720 –> 00:16:57,759
یا یک شمارنده می گیریم
344
00:16:57,759 –> 00:17:01,600
از k نزدیکترین برچسب
345
00:17:01,600 –> 00:17:05,039
و سپس این روشی است به نام
346
00:17:05,039 –> 00:17:08,640
رایج ترین و ما فقط می خواهیم داشته باشیم
347
00:17:08,640 –> 00:17:13,359
اولین یا بسیار رایج ترین
348
00:17:13,359 –> 00:17:17,760
اوم و حالا بیایید نگاهی بیندازیم که این چگونه است
349
00:17:17,760 –> 00:17:18,720
به نظر می رسد
350
00:17:18,720 –> 00:17:22,000
پس اگر این را نظر بدهم
351
00:17:22,000 –> 00:17:25,119
بیایید یک مثال کوتاه بنویسیم
352
00:17:25,119 –> 00:17:27,599
چه مجموعه ها یا پیشخوان
353
00:17:27,599 –> 00:17:28,720
ماژول انجام خواهد داد
354
00:17:28,720 –> 00:17:32,240
بنابراین بیایید بگوییم ما یک لیست برابر داریم
355
00:17:32,240 –> 00:17:35,919
و این برخی از ارزش ها در آن است بنابراین یک
356
00:17:35,919 –> 00:17:39,679
یکی دو دو و بعد یکی دیگر
357
00:17:39,679 –> 00:17:42,720
برچسب ها و غیره نیز از
358
00:17:42,720 –> 00:17:47,440
شمارنده واردات مجموعه ها
359
00:17:47,440 –> 00:17:51,360
و اکنون ما رایج ترین را دریافت می کنیم
360
00:17:51,360 –> 00:17:54,960
برابر است
361
00:17:54,960 –> 00:17:58,240
ما یک شمارنده از این لیست ایجاد می کنیم
362
00:17:58,240 –> 00:18:01,760
و سپس یکی از رایج ترین
363
00:18:01,760 –> 00:18:06,559
پس بیایید این را چاپ کنیم
364
00:18:09,840 –> 00:18:13,440
پس مجبورم
365
00:18:13,440 –> 00:18:18,160
ابتدا این را ببندید، پس بیایید دوباره آن را اجرا کنیم
366
00:18:22,880 –> 00:18:26,080
بنابراین این یک لیست خواهد بود
367
00:18:26,080 –> 00:18:29,440
و پس از آن ما یک تاپیک از بیشتر داریم
368
00:18:29,440 –> 00:18:32,720
آیتم های رایج بنابراین برای مثال اگر ما
369
00:18:32,720 –> 00:18:35,120
در این مورد ما فقط می خواهیم
370
00:18:35,120 –> 00:18:36,240
یکی را داشته باش
371
00:18:36,240 –> 00:18:39,280
یکی از رایج ترین موارد و این است
372
00:18:39,280 –> 00:18:40,080
چندتایی
373
00:18:40,080 –> 00:18:43,360
و اولین مورد در اینجا
374
00:18:43,360 –> 00:18:46,640
رایج ترین مورد است بنابراین این است
375
00:18:46,640 –> 00:18:49,760
یکی و مورد دوم است
376
00:18:49,760 –> 00:18:52,720
تعداد دفعاتی که این در لیست ما قرار دارد
377
00:18:52,720 –> 00:18:53,600
سه بار
378
00:18:53,600 –> 00:18:56,880
یکی پس برای مثال اگر از دو استفاده می کنید
379
00:18:56,880 –> 00:18:58,320
آن را نیز خواهد کرد
380
00:18:58,320 –> 00:19:00,799
در دومین مورد رایج قرار دهید
381
00:19:00,799 –> 00:19:02,000
این مورد است
382
00:19:02,000 –> 00:19:05,520
دو و ما دو برابر دو داریم پس فقط داریم
383
00:19:05,520 –> 00:19:06,720
خواستن
384
00:19:06,720 –> 00:19:10,080
یکی از رایج ترین آنها همانطور که گفتم این یک است
385
00:19:10,080 –> 00:19:13,840
برای به دست آوردن اولین مورد، آن را فهرست کنید
386
00:19:13,840 –> 00:19:17,200
موردی که ما از آن استفاده می کنیم
387
00:19:17,200 –> 00:19:21,039
شاخص صفر است، بنابراین اکنون ما تاپل را داریم
388
00:19:21,039 –> 00:19:24,400
و حالا دوباره اقلام واقعی را دریافت کنید
389
00:19:24,400 –> 00:19:28,960
ما از اولین شاخص استفاده می کنیم و سپس داریم
390
00:19:28,960 –> 00:19:33,039
یکی پس اینجا ما باید همین کار را انجام دهیم
391
00:19:33,039 –> 00:19:35,280
و ما می خواهیم این را برگردانیم پس بیایید
392
00:19:35,280 –> 00:19:36,080
برگشت
393
00:19:36,080 –> 00:19:39,520
رایج ترین شاخص صفر
394
00:19:39,520 –> 00:19:43,360
از شاخص صفر و این است
395
00:19:43,360 –> 00:19:46,799
تمام اجرای ما از k
396
00:19:46,799 –> 00:19:50,080
n الگوریتم بنابراین
397
00:19:50,080 –> 00:19:54,480
بیایید این را امتحان کنیم تا
398
00:19:54,960 –> 00:19:58,480
بیایید در نمونه آزمایشی خود که قبلاً انجام دادیم
399
00:19:58,480 –> 00:19:59,440
ما را داشته باشید
400
00:19:59,440 –> 00:20:01,760
ما قبلاً فایل آزمایشی خود را داریم
401
00:20:01,760 –> 00:20:02,799
آموزش
402
00:20:02,799 –> 00:20:06,000
و نمونه های آزمایشی را انجام دهید
403
00:20:06,000 –> 00:20:09,679
از ما استفاده کنید
404
00:20:09,679 –> 00:20:12,880
k n کلاس بنابراین می توانیم بگوییم از
405
00:20:12,880 –> 00:20:16,159
k n واردات k
406
00:20:16,159 –> 00:20:20,799
n و سپس یک طبقه بندی کننده ایجاد کنید تا clf
407
00:20:20,799 –> 00:20:24,400
برابر k n است
408
00:20:24,400 –> 00:20:27,760
و بنابراین بیایید از k استفاده کنیم
409
00:20:27,760 –> 00:20:30,799
برابر با سه و سپس
410
00:20:30,799 –> 00:20:34,080
ما می خواهیم ابتدا متد فیت را بنامیم
411
00:20:34,080 –> 00:20:34,880
ما می خواهیم که
412
00:20:34,880 –> 00:20:38,240
مناسب قطار x ما
413
00:20:38,240 –> 00:20:42,240
و قطار y
414
00:20:42,240 –> 00:20:45,600
و سپس پیش بینی ها را دریافت می کنیم
415
00:20:45,600 –> 00:20:49,600
و این مانند این است که ما این کار را انجام می دهیم
416
00:20:49,600 –> 00:20:53,520
تماس clf dot
417
00:20:53,520 –> 00:20:57,360
پیش بینی کنید و سپس می خواهیم پیش بینی کنیم
418
00:20:57,360 –> 00:21:00,480
نمونه های آزمایشی ما
419
00:21:00,480 –> 00:21:03,600
بنابراین x تست
420
00:21:03,600 –> 00:21:07,360
و حالا بیایید دقت را محاسبه کنیم
421
00:21:07,360 –> 00:21:10,720
بنابراین دقت بنابراین این
422
00:21:10,720 –> 00:21:14,840
با تعداد ما تعریف می شود
423
00:21:14,840 –> 00:21:17,200
پیش بینی ها درست است
424
00:21:17,200 –> 00:21:20,400
طبقه بندی شده پس این است
425
00:21:20,400 –> 00:21:23,790
بنابراین در اینجا ما از جمع استفاده می کنیم
426
00:21:23,790 –> 00:21:26,990
[موسیقی]
427
00:21:27,440 –> 00:21:32,000
جمع و اینجا می نویسیم
428
00:21:32,000 –> 00:21:36,400
پیش بینی ها برابر است
429
00:21:36,400 –> 00:21:39,760
تست y برای
430
00:21:39,760 –> 00:21:43,360
هر پیش بینی که هست
431
00:21:43,360 –> 00:21:46,400
حق یا همان صحیح
432
00:21:46,400 –> 00:21:47,120
برچسب
433
00:21:47,120 –> 00:21:50,880
یکی اضافه می کند و سپس ما
434
00:21:50,880 –> 00:21:54,159
این را بر تعداد تقسیم کنید
435
00:21:54,159 –> 00:21:58,720
نمونه های آزمایشی بنابراین ما این را بر تقسیم می کنیم
436
00:21:58,720 –> 00:22:01,760
lang y
437
00:22:01,760 –> 00:22:08,080
تست کنید و بیایید دقت خود را چاپ کنیم
438
00:22:10,240 –> 00:22:13,679
و ببینید که آیا این کار می کند تا بله در این
439
00:22:13,679 –> 00:22:14,400
مورد آن است
440
00:22:14,400 –> 00:22:17,919
1.0 بنابراین همه پیش بینی های ما
441
00:22:17,919 –> 00:22:22,159
آیا درست است پس بیایید استفاده کنیم
442
00:22:22,159 –> 00:22:26,240
تعداد دیگری از همسایگان بنابراین
443
00:22:26,240 –> 00:22:29,360
k برابر است با پنج، بنابراین معمولاً می خواهید استفاده کنید
444
00:22:29,360 –> 00:22:29,600
یک
445
00:22:29,600 –> 00:22:34,640
عدد فرد در اینجا، پس بیایید این را اجرا کنیم
446
00:22:34,880 –> 00:22:38,480
اوه متاسفم پس در این مورد این نکته است
447
00:22:38,480 –> 00:22:41,520
نه شش تا
448
00:22:41,520 –> 00:22:43,679
نه به خوبی با سه همسایه اما
449
00:22:43,679 –> 00:22:45,039
همچنین بسیار خوب
450
00:22:45,039 –> 00:22:47,440
و بله، ما می بینیم که این کار می کند و
451
00:22:47,440 –> 00:22:48,960
این کل ماست
452
00:22:48,960 –> 00:22:52,400
اجرای k n و بله i
453
00:22:52,400 –> 00:22:54,240
امیدوارم از این آموزش لذت برده باشید
454
00:22:54,240 –> 00:22:58,720
و شما را در آموزش بعدی می بینم خداحافظ
455
00:23:02,880 –> 00:23:05,440
سلام به همه به یک آموزش جدید خوش آمدید
456
00:23:05,440 –> 00:23:07,280
این دومین ویدیو از دستگاه است
457
00:23:07,280 –> 00:23:10,080
مجموعه آموزش های یادگیری از ابتدا
458
00:23:10,080 –> 00:23:12,080
در این مجموعه قصد داریم اجرا کنیم
459
00:23:12,080 –> 00:23:14,000
الگوریتم های محبوب یادگیری ماشینی
460
00:23:14,000 –> 00:23:16,400
فقط با استفاده از ماژول های داخلی پایتون و
461
00:23:16,400 –> 00:23:19,039
numpy امروز می خواهیم پیاده سازی کنیم
462
00:23:19,039 –> 00:23:21,280
الگوریتم رگرسیون خطی
463
00:23:21,280 –> 00:23:23,039
پس بیایید در مورد مفهوم صحبت کنیم
464
00:23:23,039 –> 00:23:24,799
ابتدا رگرسیون خطی
465
00:23:24,799 –> 00:23:26,880
بنابراین در رگرسیون می خواهیم پیش بینی کنیم
466
00:23:26,880 –> 00:23:28,880
مقادیر پیوسته
467
00:23:28,880 –> 00:23:30,960
در حالی که در طبقه بندی می خواهیم
468
00:23:30,960 –> 00:23:32,799
یک مقدار گسسته را پیش بینی کنید
469
00:23:32,799 –> 00:23:36,240
مانند برچسب کلاس 0 یا 1. بنابراین اگر داشته باشیم
470
00:23:36,240 –> 00:23:38,320
نگاهی به این طرح نمونه
471
00:23:38,320 –> 00:23:41,600
سپس داده هایمان آبی است
472
00:23:41,600 –> 00:23:44,320
نقطه ها و ما می خواهیم این را تقریبی کنیم
473
00:23:44,320 –> 00:23:45,840
داده ها با یک خطی
474
00:23:45,840 –> 00:23:47,919
تابع به همین دلیل خطی نامیده می شود
475
00:23:47,919 –> 00:23:49,120
پسرفت
476
00:23:49,120 –> 00:23:52,799
بنابراین از یک تابع خطی برای پیش بینی استفاده می کنیم
477
00:23:52,799 –> 00:23:54,720
ارزش ها
478
00:23:54,720 –> 00:23:58,240
بنابراین می توانیم تقریب را به صورت تعریف کنیم
479
00:23:58,240 –> 00:24:01,520
y-hat برابر w بار است
480
00:24:01,520 –> 00:24:06,240
x به علاوه b پس این معادله خط a است
481
00:24:06,240 –> 00:24:10,240
جایی که w یا وزن های ما شیب است
482
00:24:10,240 –> 00:24:13,760
و b سوگیری یا فقط تغییر است
483
00:24:13,760 –> 00:24:17,520
در امتداد محور y در حالت 2d
484
00:24:17,520 –> 00:24:20,480
بنابراین این تقریب است و اکنون ما
485
00:24:20,480 –> 00:24:22,000
باید به این موضوع برسند
486
00:24:22,000 –> 00:24:26,720
w و b و چگونه این را پیدا کنیم
487
00:24:26,720 –> 00:24:29,840
بنابراین برای این ما یک تابع هزینه تعریف می کنیم
488
00:24:29,840 –> 00:24:31,919
و در رگرسیون خطی این است
489
00:24:31,919 –> 00:24:33,919
خطای میانگین مربعات
490
00:24:33,919 –> 00:24:37,840
بنابراین این تفاوت است
491
00:24:37,840 –> 00:24:40,960
بین ارزش واقعی
492
00:24:40,960 –> 00:24:44,400
و مقدار تقریبی تا واقعی است
493
00:24:44,400 –> 00:24:46,080
ارزش برای این ما نیاز داریم
494
00:24:46,080 –> 00:24:49,360
نمونه های آموزشی و سپس این را مربع می کنیم
495
00:24:49,360 –> 00:24:50,240
تفاوت
496
00:24:50,240 –> 00:24:53,120
و جمع آوری تمام نمونه ها و سپس
497
00:24:53,120 –> 00:24:55,520
تقسیم بر تعداد نمونه به این ترتیب
498
00:24:55,520 –> 00:24:56,960
روشی که ما به میانگین می رسیم
499
00:24:56,960 –> 00:25:00,000
خطا این هزینه است
500
00:25:00,000 –> 00:25:03,279
تابع پس این خطا است
501
00:25:03,279 –> 00:25:06,559
و البته ما می خواهیم خطا داشته باشیم
502
00:25:06,559 –> 00:25:07,440
به اندازه کوچک
503
00:25:07,440 –> 00:25:10,400
تا حد امکان، بنابراین ما باید آن را پیدا کنیم
504
00:25:10,400 –> 00:25:12,159
حداقل این تابع
505
00:25:12,159 –> 00:25:15,120
و چگونه حداقل را برای آن پیدا کنیم
506
00:25:15,120 –> 00:25:16,240
این ما نیاز داریم
507
00:25:16,240 –> 00:25:18,960
برای محاسبه مشتق یا
508
00:25:18,960 –> 00:25:20,400
شیب
509
00:25:20,400 –> 00:25:23,440
بنابراین ما گرادیان هزینه خود را محاسبه می کنیم
510
00:25:23,440 –> 00:25:25,840
تابع با توجه به w
511
00:25:25,840 –> 00:25:29,039
و با توجه به ب
512
00:25:29,039 –> 00:25:32,000
بنابراین این فرمول گرادیان است
513
00:25:32,000 –> 00:25:32,480
لطفا
514
00:25:32,480 –> 00:25:34,799
این را برای خودتان بررسی کنید و من نیز انجام خواهم داد
515
00:25:34,799 –> 00:25:37,120
چند لینک در توضیحات با
516
00:25:37,120 –> 00:25:38,640
برخی از خواندن های بیشتر
517
00:25:38,640 –> 00:25:42,159
اما اکنون وارد جزئیات نمی شوم
518
00:25:42,159 –> 00:25:45,520
و اکنون با این گرادیان از a استفاده می کنیم
519
00:25:45,520 –> 00:25:47,679
تکنیکی که گرادیان نامیده می شود
520
00:25:47,679 –> 00:25:48,960
نزول
521
00:25:48,960 –> 00:25:52,080
بنابراین این یک روش تکراری برای رسیدن به آن است
522
00:25:52,080 –> 00:25:53,360
حداقل
523
00:25:53,360 –> 00:25:56,159
بنابراین اگر ما هدف یا هزینه خود را داشته باشیم
524
00:25:56,159 –> 00:25:57,600
در اینجا عملکرد کنید
525
00:25:57,600 –> 00:26:00,679
سپس از جایی شروع می کنیم تا مقداری داشته باشیم
526
00:26:00,679 –> 00:26:02,000
مقداردهی اولیه
527
00:26:02,000 –> 00:26:05,039
از وزنه ها و تعصب
528
00:26:05,039 –> 00:26:07,360
و سپس ما می خواهیم وارد آن شویم
529
00:26:07,360 –> 00:26:08,240
جهت
530
00:26:08,240 –> 00:26:11,919
از تندترین فرود و تندترین
531
00:26:11,919 –> 00:26:14,400
نزول نیز شیب است
532
00:26:14,400 –> 00:26:16,799
بنابراین می خواهیم به سمتی برویم
533
00:26:16,799 –> 00:26:17,520
را
534
00:26:17,520 –> 00:26:19,919
در جهت منفی از
535
00:26:19,919 –> 00:26:21,440
شیب
536
00:26:21,440 –> 00:26:23,919
و ما این کار را تکراری انجام می دهیم تا زمانی که ما
537
00:26:23,919 –> 00:26:24,559
سرانجام
538
00:26:24,559 –> 00:26:27,919
رسیدن به حداقل و با هر
539
00:26:27,919 –> 00:26:31,520
تکرار ما یک قانون به روز رسانی برای آن داریم
540
00:26:31,520 –> 00:26:32,480
وزن های جدید
541
00:26:32,480 –> 00:26:35,520
و سوگیری جدید بنابراین جدید
542
00:26:35,520 –> 00:26:39,360
w منهای w قدیمی است
543
00:26:39,360 –> 00:26:42,559
آلفا برابر مشتق است
544
00:26:42,559 –> 00:26:45,200
منهای زیرا ما می خواهیم وارد آن شویم
545
00:26:45,200 –> 00:26:47,360
جهت منفی
546
00:26:47,360 –> 00:26:50,480
و سپس این آلفا به اصطلاح است
547
00:26:50,480 –> 00:26:53,279
نرخ یادگیری و این مهم است
548
00:26:53,279 –> 00:26:55,120
پارامتر برای مدل ما
549
00:26:55,120 –> 00:26:58,799
بنابراین نرخ یادگیری تعیین می کند که چقدر فاصله دارد
550
00:26:58,799 –> 00:27:01,600
تا چه اندازه به این سمت می رویم
551
00:27:01,600 –> 00:27:03,440
با هر مرحله تکرار
552
00:27:03,440 –> 00:27:05,600
بنابراین برای مثال اگر از یک کوچک استفاده می کنید
553
00:27:05,600 –> 00:27:06,880
میزان یادگیری
554
00:27:06,880 –> 00:27:09,279
سپس ممکن است بیشتر طول بکشد اما می تواند
555
00:27:09,279 –> 00:27:10,159
سرانجام
556
00:27:10,159 –> 00:27:13,279
به حداقل برسد و اگر برسیم یا اگر
557
00:27:13,279 –> 00:27:13,919
شما از a استفاده می کنید
558
00:27:13,919 –> 00:27:16,159
نرخ یادگیری بالا در آن صورت ممکن است باشد
559
00:27:16,159 –> 00:27:17,919
سریعتر اما ممکن است
560
00:27:17,919 –> 00:27:20,480
اینجوری بپر و هیچوقت پیداش نکن
561
00:27:20,480 –> 00:27:21,600
کمترین
562
00:27:21,600 –> 00:27:24,320
بنابراین این یک پارامتر مهم است که
563
00:27:24,320 –> 00:27:25,760
باید مشخص کنیم
564
00:27:25,760 –> 00:27:28,799
و لطفا این را در نظر داشته باشید
565
00:27:28,799 –> 00:27:33,760
بنابراین اکنون که قوانین به روز رسانی خود را می دانیم
566
00:27:33,760 –> 00:27:36,080
من فرمول ها را نوشته ام
567
00:27:36,080 –> 00:27:38,159
مشتقات دوباره اینجا
568
00:27:38,159 –> 00:27:41,600
و سپس
569
00:27:41,600 –> 00:27:44,640
آنها را کمی ساده کنید لطفا بررسی کنید
570
00:27:44,640 –> 00:27:46,320
که برای خودت
571
00:27:46,320 –> 00:27:48,640
بنابراین اینها فرمول های به روز رسانی هستند
572
00:27:48,640 –> 00:27:50,240
قوانین و مشتقات
573
00:27:50,240 –> 00:27:52,960
و این تنها چیزی است که اکنون باید بدانیم
574
00:27:52,960 –> 00:27:54,799
می توانیم شروع کنیم
575
00:27:54,799 –> 00:27:58,480
خب حالا بیایید کلاسی به نام تعریف کنیم
576
00:27:58,480 –> 00:28:02,799
رگرسیون خطی و این اراده
577
00:28:02,799 –> 00:28:06,480
البته روش init داره
578
00:28:06,480 –> 00:28:10,000
یا در آن دو خط زیر خط بکشید و سپس آن را
579
00:28:10,000 –> 00:28:10,320
دارد
580
00:28:10,320 –> 00:28:13,279
خود و میزان یادگیری را می گیرد و i
581
00:28:13,279 –> 00:28:14,399
این را خواهد داد
582
00:28:14,399 –> 00:28:17,440
مقدار پیش فرض پس معمولاً این است
583
00:28:17,440 –> 00:28:21,480
مقدار بسیار کمی است، بنابراین من آن را می دهم
584
00:28:21,480 –> 00:28:25,039
0.001 و سپس به آن یک عدد می دهم
585
00:28:25,039 –> 00:28:26,640
از تکرارها
586
00:28:26,640 –> 00:28:29,279
بنابراین ما از چند تکرار در خود استفاده می کنیم
587
00:28:29,279 –> 00:28:31,440
روش شیب مناسب
588
00:28:31,440 –> 00:28:34,880
و من همچنین به این um یک پیش فرض می دهم
589
00:28:34,880 –> 00:28:38,080
ارزش بنابراین من می گویم این 1000 است
590
00:28:38,080 –> 00:28:40,320
و سپس من به سادگی آنها را در اینجا ذخیره می کنم
591
00:28:40,320 –> 00:28:42,080
پس من خودم می گویم
592
00:28:42,080 –> 00:28:45,120
lr برابر lr و
593
00:28:45,120 –> 00:28:48,880
خود و اضافه کننده ها
594
00:28:48,880 –> 00:28:52,399
برابر و تکرار و سپس
595
00:28:52,399 –> 00:28:55,360
بعداً باید به آن بیایم
596
00:28:55,360 –> 00:28:56,080
وزنه ها
597
00:28:56,080 –> 00:28:58,240
اما در اینجا در آغاز من به سادگی
598
00:28:58,240 –> 00:28:59,279
خود بگو
599
00:28:59,279 –> 00:29:03,520
وزن برابر است با هیچ و تعصب
600
00:29:03,520 –> 00:29:07,760
مساوی هیچ و سپس باید تعریف کنیم
601
00:29:07,760 –> 00:29:10,399
دو تابع و ما به دنبال
602
00:29:10,399 –> 00:29:12,640
کنوانسیون های دیگر یادگیری ماشینی
603
00:29:12,640 –> 00:29:14,159
کتابخانه های اینجا
604
00:29:14,159 –> 00:29:17,440
بنابراین ما یک روش مناسب تعریف می کنیم
605
00:29:17,440 –> 00:29:20,880
که نمونه های آموزشی را می گیرد
606
00:29:20,880 –> 00:29:24,240
و برچسب برای آنها بنابراین این خواهد شد
607
00:29:24,240 –> 00:29:26,320
شامل مرحله آموزش و
608
00:29:26,320 –> 00:29:28,559
شیب نزول
609
00:29:28,559 –> 00:29:33,600
و سپس یک روش پیش بینی تعریف می کنیم
610
00:29:33,600 –> 00:29:37,279
پس وقتی جدید شد
611
00:29:37,279 –> 00:29:40,480
نمونه های آزمایشی سپس می تواند تقریبی باشد
612
00:29:40,480 –> 00:29:41,039
ارزش
613
00:29:41,039 –> 00:29:43,440
و مقدار را برگردانید بنابراین اینها هستند
614
00:29:43,440 –> 00:29:44,159
کارکرد
615
00:29:44,159 –> 00:29:48,320
باید اجرا کنیم و قبل از رفتن
616
00:29:48,320 –> 00:29:51,120
اجازه دهید نگاهی گذرا به داده های x داشته باشیم
617
00:29:51,120 –> 00:29:51,840
و y
618
00:29:51,840 –> 00:29:54,880
بنابراین چگونه به نظر می رسد و برای این من
619
00:29:54,880 –> 00:29:56,000
کمی نوشته است
620
00:29:56,000 –> 00:29:59,200
نمونه اسکریپت و من از آن استفاده می کنم
621
00:29:59,200 –> 00:30:02,080
ماژول scikit-learn برای تولید مقداری
622
00:30:02,080 –> 00:30:03,919
داده های نمونه
623
00:30:03,919 –> 00:30:06,720
و من داده ها را به آموزش تقسیم می کنم
624
00:30:06,720 –> 00:30:07,600
و
625
00:30:07,600 –> 00:30:11,600
نمونه های تست و همچنین آموزش و تست
626
00:30:11,600 –> 00:30:15,279
برچسب ها پس اول از همه بیایید a
627
00:30:15,279 –> 00:30:19,360
نگاه کنید که این داده ها چگونه به نظر می رسند
628
00:30:19,360 –> 00:30:22,399
بنابراین در اینجا طرح است
629
00:30:22,399 –> 00:30:24,720
داده های ما اینگونه به نظر می رسد و اکنون ما
630
00:30:24,720 –> 00:30:25,760
می خواهند پیدا کنند
631
00:30:25,760 –> 00:30:29,520
یک تابع در جایی اینجا
632
00:30:29,520 –> 00:30:33,600
که به مقدار تقریبی می رسد
633
00:30:33,600 –> 00:30:36,720
و اجازه دهید نگاهی به
634
00:30:36,720 –> 00:30:40,880
شکل x و y ما بنابراین
635
00:30:40,880 –> 00:30:43,840
بیایید این را اجرا کنیم و حالا من این را نمی خواهم
636
00:30:43,840 –> 00:30:46,720
دیگر اینجا نقشه بکش
637
00:30:46,720 –> 00:30:50,000
اوم پس
638
00:30:50,000 –> 00:30:53,200
اگر ببینیم که x ما
639
00:30:53,200 –> 00:30:56,480
آرایه دوم از اندازه است
640
00:30:56,480 –> 00:31:00,720
80 در 1 و این به این دلیل است که i
641
00:31:00,720 –> 00:31:05,120
در اینجا قرار دهید من می خواهم 100 نمونه داشته باشم
642
00:31:05,120 –> 00:31:08,720
و یک ویژگی برای هر نمونه
643
00:31:08,720 –> 00:31:10,799
و سپس من این را تقسیم می کنم
644
00:31:10,799 –> 00:31:13,840
فقط نمونه های آموزشی
645
00:31:13,840 –> 00:31:18,399
دارای 80 نمونه در آن است، بنابراین این یک دوم است
646
00:31:18,399 –> 00:31:22,080
آرایه سایز 80 در یک و ما
647
00:31:22,080 –> 00:31:25,919
برچسب های آموزشی فقط 1d است
648
00:31:25,919 –> 00:31:29,360
وکتور ردیف نیز در سایز 80
649
00:31:29,360 –> 00:31:32,799
بنابراین برای هر نمونه آموزشی یک نمونه داریم
650
00:31:32,799 –> 00:31:36,399
ارزش پس داده های ما اینگونه به نظر می رسند و
651
00:31:36,399 –> 00:31:37,440
حالا وقته
652
00:31:37,440 –> 00:31:40,000
ادامه دهید پس بیایید تناسب را اجرا کنیم
653
00:31:40,000 –> 00:31:41,120
روش
654
00:31:41,120 –> 00:31:44,399
بنابراین همانطور که گفتم باید آن را پیاده سازی کنیم
655
00:31:44,399 –> 00:31:46,159
روش نزول گرادیان
656
00:31:46,159 –> 00:31:49,360
اینجا و شیب نزول
657
00:31:49,360 –> 00:31:52,799
همیشه باید از جایی شروع کنیم بنابراین ما
658
00:31:52,799 –> 00:31:54,279
نیاز به داشتن مقداری
659
00:31:54,279 –> 00:31:57,840
مقداردهی اولیه بنابراین
660
00:31:57,840 –> 00:32:01,840
بیایید انجام دهیم اجازه دهید ما را راه اندازی کنیم
661
00:32:01,840 –> 00:32:05,360
پارامترها و برای این ابتدا بیایید دریافت کنیم
662
00:32:05,360 –> 00:32:06,399
را
663
00:32:06,399 –> 00:32:10,159
تعداد نمونه و تعداد
664
00:32:10,159 –> 00:32:13,279
ویژگی ها و ما می توانیم این را دریافت کنیم
665
00:32:13,279 –> 00:32:14,159
گفتن این است
666
00:32:14,159 –> 00:32:18,000
شکل نقطه x و سپس
667
00:32:18,000 –> 00:32:20,480
ما به سادگی تمام وزن ها را مقداردهی اولیه می کنیم
668
00:32:20,480 –> 00:32:21,600
با صفر
669
00:32:21,600 –> 00:32:24,880
بنابراین می توان گفت وزن خود برابر است
670
00:32:24,880 –> 00:32:28,399
صفرهای ناقص
671
00:32:28,399 –> 00:32:31,600
از نظر اندازه و ویژگی
672
00:32:31,600 –> 00:32:34,720
و ویژگی های بنابراین برای هر جزء ما
673
00:32:34,720 –> 00:32:35,519
قرار دادن در a
674
00:32:35,519 –> 00:32:38,880
صفر و خود. تعصب
675
00:32:38,880 –> 00:32:42,880
برابر با صفر این فقط یک مقدار um است
676
00:32:42,880 –> 00:32:45,600
بنابراین می توانید در اینجا از مقادیر تصادفی نیز استفاده کنید
677
00:32:45,600 –> 00:32:46,080
ولی
678
00:32:46,080 –> 00:32:49,440
ام 0 خوب است
679
00:32:49,440 –> 00:32:52,240
پس بیایید از صفر در اینجا استفاده کنیم و سپس استفاده کنیم
680
00:32:52,240 –> 00:32:54,720
شیب نزول بنابراین این یک است
681
00:32:54,720 –> 00:32:58,320
فرآیند تکرار شونده بنابراین از یک حلقه for استفاده می کنیم
682
00:32:58,320 –> 00:33:02,559
بنابراین برای من یا در واقع ما به این نیاز نداریم
683
00:33:02,559 –> 00:33:03,200
بنابراین برای
684
00:33:03,200 –> 00:33:06,320
خط زیر در محدوده
685
00:33:06,320 –> 00:33:09,519
و سپس self dot n
686
00:33:09,519 –> 00:33:14,640
چند بار و در حال حاضر آنچه ما نیاز داریم
687
00:33:14,640 –> 00:33:18,320
ابتدا باید تقریب کنیم
688
00:33:18,320 –> 00:33:20,640
یا بیایید نگاهی به فرمول بیندازیم
689
00:33:20,640 –> 00:33:22,080
از نو
690
00:33:22,080 –> 00:33:25,840
بنابراین فرمول برای ما
691
00:33:25,840 –> 00:33:29,519
وزن های جدید منهای وزن قبلی است
692
00:33:29,519 –> 00:33:32,880
نرخ یادگیری ضربدر مشتق
693
00:33:32,880 –> 00:33:36,000
و مشتق با توجه به
694
00:33:36,000 –> 00:33:39,840
w 1 روی n است
695
00:33:39,840 –> 00:33:43,679
و سپس جمع و مجموع را داریم
696
00:33:43,679 –> 00:33:46,960
بیش از 2 برابر x
697
00:33:46,960 –> 00:33:50,880
من بارها و سپس
698
00:33:50,880 –> 00:33:54,559
تفاوت در اینجا این تقریبی است
699
00:33:54,559 –> 00:33:55,760
و واقعی
700
00:33:55,760 –> 00:34:00,399
ارزش ها پس بیایید اول um
701
00:34:00,399 –> 00:34:03,519
ابتدا این تقریب را محاسبه کنید تا ما
702
00:34:03,519 –> 00:34:04,840
این فرمول را داشته باشید
703
00:34:04,840 –> 00:34:07,760
اینجا تقریب
704
00:34:07,760 –> 00:34:10,960
آیا ام
705
00:34:10,960 –> 00:34:16,079
وزن ها برابر x ما به اضافه انحراف است
706
00:34:16,079 –> 00:34:18,879
پس بیایید این کار را انجام دهیم، بگوییم و بیایید
707
00:34:18,879 –> 00:34:20,719
این را y صدا کن
708
00:34:20,719 –> 00:34:24,960
برابر پیش بینی کرد و سپس می توانیم استفاده کنیم
709
00:34:24,960 –> 00:34:28,399
np dot dot و سپس
710
00:34:28,399 –> 00:34:32,839
x و خود نقطه وزن
711
00:34:32,839 –> 00:34:37,839
به علاوه سوگیری بنابراین این چند برابر خواهد شد
712
00:34:37,839 –> 00:34:41,359
x با وزنه ها و اکنون
713
00:34:41,359 –> 00:34:44,000
که ما تقریبی که می توانیم داشته باشیم
714
00:34:44,000 –> 00:34:47,280
مشتق را با احترام محاسبه کنید
715
00:34:47,280 –> 00:34:50,399
به w و این است
716
00:34:50,399 –> 00:34:54,480
بیایید دوباره به این فرمول نگاهی بیندازیم
717
00:34:54,480 –> 00:34:58,000
1 روی n و سپس
718
00:34:58,000 –> 00:35:01,280
مجموع و سپس در داخل جمع ما
719
00:35:01,280 –> 00:35:02,160
محصول
720
00:35:02,160 –> 00:35:07,520
از x برابر این است که ما می گوییم
721
00:35:07,520 –> 00:35:10,640
1 بیش از
722
00:35:10,960 –> 00:35:13,839
n نمونه بنابراین ما قبلاً شماره را دریافت کرده ایم
723
00:35:13,839 –> 00:35:15,760
از نمونه ها در اینجا
724
00:35:15,760 –> 00:35:19,280
و پس از آن بار و سپس ما باید
725
00:35:19,280 –> 00:35:22,880
مجموع محصول بنابراین این چیزی نیست جز
726
00:35:22,880 –> 00:35:24,960
همچنین محصول نقطه است
727
00:35:24,960 –> 00:35:30,560
np dot dot اما حالا باید مراقب باشیم
728
00:35:30,560 –> 00:35:34,079
پس کاری که ما اینجا انجام دادیم
729
00:35:35,280 –> 00:35:38,880
در اینجا هر جزء وزنی را ضرب می کنیم
730
00:35:38,880 –> 00:35:41,200
با مولفه بردار ویژگی و
731
00:35:41,200 –> 00:35:42,480
خلاصه این که
732
00:35:42,480 –> 00:35:45,359
و ما این کار را برای همه نمونه ها و سپس انجام می دهیم
733
00:35:45,359 –> 00:35:45,680
گرفتن
734
00:35:45,680 –> 00:35:49,520
یک مقدار برای هر نمونه و اینجا
735
00:35:49,520 –> 00:35:52,400
ما می خواهیم برای هر کدام یک مقدار بدست آوریم
736
00:35:52,400 –> 00:35:54,640
جزء بردار ویژگی
737
00:35:54,640 –> 00:35:57,440
بنابراین هر نمونه را در ضرب می کنیم
738
00:35:57,440 –> 00:35:59,200
ارزش پیش بینی شده
739
00:35:59,200 –> 00:36:02,720
و آن را خلاصه کنید و سپس این کار را برای
740
00:36:02,720 –> 00:36:04,960
هر جزء بردار ویژگی و دریافت کنید
741
00:36:04,960 –> 00:36:07,760
یک مقدار برای هر جزء پس این است
742
00:36:07,760 –> 00:36:10,560
برعکس پس این هم همراه است
743
00:36:10,560 –> 00:36:13,359
محور دیگر
744
00:36:13,359 –> 00:36:16,800
و ما می توانیم پس باید از نقطه x استفاده کنیم
745
00:36:16,800 –> 00:36:20,240
جابجا شده در اینجا x نقطه t
746
00:36:20,240 –> 00:36:22,359
و این محصول نقطه ای است
747
00:36:22,359 –> 00:36:23,520
جابجا شد
748
00:36:23,520 –> 00:36:26,560
x و سپس داریم
749
00:36:26,560 –> 00:36:30,720
y منهای y واقعی را پیش بینی کرد
750
00:36:30,720 –> 00:36:34,400
بنابراین لطفاً تابع numpy dot را بررسی کنید
751
00:36:34,400 –> 00:36:36,320
برای خودت
752
00:36:36,320 –> 00:36:40,079
بنابراین این مشتق است
753
00:36:40,079 –> 00:36:43,760
w و مشتق
754
00:36:43,760 –> 00:36:46,960
از تعصب نیز است
755
00:36:46,960 –> 00:36:49,599
یکی یا دوباره اجازه دهید نگاهی به
756
00:36:49,599 –> 00:36:50,720
فرمول
757
00:36:50,720 –> 00:36:54,160
پس این همان است جز اینکه ما
758
00:36:54,160 –> 00:36:57,520
x را اینجا ندارید پس این است
759
00:36:57,520 –> 00:37:01,200
یک روی n و سپس فقط حاصل جمع
760
00:37:01,200 –> 00:37:04,800
از این تفاوت و به هر حال من
761
00:37:04,800 –> 00:37:07,440
من این دو را کنار گذاشتم پس این فقط یک است
762
00:37:07,440 –> 00:37:09,440
ضریب مقیاس که ما می توانیم
763
00:37:09,440 –> 00:37:12,800
اوم حذف پس اینجا
764
00:37:12,800 –> 00:37:15,760
یک بر n و سپس مجموع بیش از
765
00:37:15,760 –> 00:37:17,200
تفاوت
766
00:37:17,200 –> 00:37:20,480
بنابراین دوباره یک بار
767
00:37:20,480 –> 00:37:23,800
تعداد نمونه ها و سپس می توان گفت
768
00:37:23,800 –> 00:37:25,520
numpy.sum
769
00:37:25,520 –> 00:37:29,040
و مجموع y پیش بینی شده است
770
00:37:29,040 –> 00:37:32,640
منهای واقعی y بنابراین
771
00:37:32,640 –> 00:37:35,200
اینها مشتقات ما هستند و اکنون
772
00:37:35,200 –> 00:37:36,079
به روز می کنیم
773
00:37:36,079 –> 00:37:39,760
وزن ما بنابراین می گوییم وزن خود
774
00:37:39,760 –> 00:37:43,280
منهای برابر با خود نقطه است
775
00:37:43,280 –> 00:37:46,560
نرخ یادگیری برابر این است
776
00:37:46,560 –> 00:37:50,800
مشتق و خود.تعصب
777
00:37:50,800 –> 00:37:54,960
برابر خود منهای برابر است
778
00:37:54,960 –> 00:37:58,560
زمان نرخ یادگیری خود نقطه
779
00:37:58,560 –> 00:38:01,520
مشتق
780
00:38:02,960 –> 00:38:08,560
و بله، پس این نزول شیب است
781
00:38:08,560 –> 00:38:12,640
و اکنون به روش پیش بینی نیاز داریم
782
00:38:12,640 –> 00:38:17,320
پس دوباره تقریب میزنیم
783
00:38:17,320 –> 00:38:20,510
[موسیقی]
784
00:38:20,880 –> 00:38:24,000
ما مقادیر را با این تقریب می کنیم
785
00:38:24,000 –> 00:38:27,280
فرمول بنابراین ما
786
00:38:27,280 –> 00:38:30,560
در حال حاضر این را در اینجا داشته باشید، بنابراین این همان است
787
00:38:30,560 –> 00:38:33,520
حاصل ضرب نقطه ای x و وزن ها به اضافه
788
00:38:33,520 –> 00:38:36,320
تعصب
789
00:38:36,480 –> 00:38:39,599
و سپس ما به سادگی این را برمی گردانیم
790
00:38:39,599 –> 00:38:42,720
بنابراین این کل اجرا است
791
00:38:42,720 –> 00:38:46,079
که ما نیاز داریم و من فراموش کردم
792
00:38:46,079 –> 00:38:49,040
برای واردات numpy البته که گفتم
793
00:38:49,040 –> 00:38:49,680
بیایید بگوییم
794
00:38:49,680 –> 00:38:55,599
numpy snp را وارد کنید تا بتوانیم از آن استفاده کنیم
795
00:38:55,599 –> 00:39:00,000
و حالا بیایید این را آزمایش کنیم
796
00:39:00,000 –> 00:39:03,920
اوم بیایید
797
00:39:03,920 –> 00:39:07,040
بیایید بگوییم این کلاس را وارد کنید
798
00:39:07,040 –> 00:39:10,079
از خطی
799
00:39:10,079 –> 00:39:13,200
واردات رگرسیونی
800
00:39:13,200 –> 00:39:16,320
رگرسیون خطی و سپس
801
00:39:16,320 –> 00:39:20,079
مقداری رگرسیور برابر ایجاد کنید
802
00:39:20,079 –> 00:39:23,920
رگرسیون خطی و سپس می گوییم
803
00:39:23,920 –> 00:39:28,079
رگرسیور نقطه فیت و ما می خواهیم برازش کنیم
804
00:39:28,079 –> 00:39:31,200
نمونه های آموزشی
805
00:39:31,200 –> 00:39:34,960
و برچسب های آموزشی و سپس ما می توانیم
806
00:39:34,960 –> 00:39:35,520
گفتن
807
00:39:35,520 –> 00:39:40,839
ما می توانیم مقادیر پیش بینی شده برابر را بدست آوریم
808
00:39:40,839 –> 00:39:44,160
پیش بینی نقطه رگرسیون
809
00:39:44,160 –> 00:39:47,440
و اکنون می خواهیم پیش بینی کنیم
810
00:39:47,440 –> 00:39:51,040
تست کن
811
00:39:51,040 –> 00:39:54,960
نمونه ها و در حال حاضر به ترتیب
812
00:39:54,960 –> 00:39:58,320
برای محاسبه و یا برای دیدن چگونه ما
813
00:39:58,320 –> 00:40:01,520
مدل انجام می دهد در حال حاضر ما نمی توانیم
814
00:40:01,520 –> 00:40:04,720
ما نمی توانیم از اندازه گیری دقت استفاده کنیم اما
815
00:40:04,720 –> 00:40:06,240
در اینجا از میانگین استفاده می کنیم
816
00:40:06,240 –> 00:40:10,079
مربع خطا پس همانطور که گفتم این ماست
817
00:40:10,079 –> 00:40:12,960
تابع هزینه میانگین مربعات خطا
818
00:40:12,960 –> 00:40:14,800
که به ما می گوید چگونه
819
00:40:14,800 –> 00:40:18,000
تفاوت بزرگ بین واقعی
820
00:40:18,000 –> 00:40:18,560
ارزش
821
00:40:18,560 –> 00:40:21,760
و مقدار تقریبی است بنابراین اجازه دهید
822
00:40:21,760 –> 00:40:25,119
فرض کنید میانگین مربعات خطا را تعریف کنید
823
00:40:25,119 –> 00:40:30,079
def m s e و این خواهد شد
824
00:40:30,079 –> 00:40:33,119
ارزش های واقعی
825
00:40:33,119 –> 00:40:36,880
و مقادیر پیش بینی شده
826
00:40:36,880 –> 00:40:41,119
و این ناپاک است
827
00:40:41,119 –> 00:40:45,280
در اینجا می توانیم از numpy mean و سپس استفاده کنیم
828
00:40:45,280 –> 00:40:48,720
به سادگی تفاوت به قدرت
829
00:40:48,720 –> 00:40:50,839
دو تا y
830
00:40:50,839 –> 00:40:53,680
منهای واقعی
831
00:40:53,680 –> 00:40:57,040
y به قدرت پیش بینی کرد
832
00:40:57,040 –> 00:41:02,160
دو و سپس می خواهیم این را برگردانیم
833
00:41:02,400 –> 00:41:08,160
پس ببینیم یا بگوییم
834
00:41:10,480 –> 00:41:15,119
مقدار mse برابر با mse است
835
00:41:15,119 –> 00:41:19,200
تست خاموش y
836
00:41:19,200 –> 00:41:22,480
و پیش بینی شده
837
00:41:22,720 –> 00:41:26,720
ارزش ها و بیایید این را چاپ کنیم
838
00:41:28,800 –> 00:41:32,160
پس حالا اگر این را اجرا کنیم
839
00:41:33,119 –> 00:41:36,560
اوم ببین
840
00:41:36,560 –> 00:41:40,720
این در حال اجرا نیست تعصب تعریف نشده است
841
00:41:40,720 –> 00:41:44,640
بیایید بگوییم چه چیزهایی را اینجا از دست دادیم
842
00:41:44,640 –> 00:41:48,160
تعصب خود نقطه ای
843
00:41:48,160 –> 00:41:53,200
و اجازه دهید این را دوباره اجرا کنیم
844
00:41:54,240 –> 00:41:58,160
ام خط 27
845
00:41:58,160 –> 00:42:00,480
اوه ببخشید اینو کپی کردم و فراموش کردم
846
00:42:00,480 –> 00:42:01,839
اینجا هم
847
00:42:01,839 –> 00:42:05,359
پس سعی کنید بعدی
848
00:42:05,520 –> 00:42:08,760
حالا ما می بینیم که ما
849
00:42:08,760 –> 00:42:13,079
عملکرد بنابراین میانگین مربعات خطا است
850
00:42:13,079 –> 00:42:14,880
783 پس این است
851
00:42:14,880 –> 00:42:18,079
خیلی بالاست پس بیایید استفاده کنیم
852
00:42:18,079 –> 00:42:21,599
یکی دیگر از نرخ یادگیری در اینجا بنابراین بیایید بگوییم
853
00:42:21,599 –> 00:42:27,200
lr برابر با 0.01 است
854
00:42:27,200 –> 00:42:31,040
و اجازه دهید این را اجرا کنیم و اکنون آن را می بینیم
855
00:42:31,040 –> 00:42:31,520
ما
856
00:42:31,520 –> 00:42:34,640
خطا کوچکتر است و اجازه دهید در واقع
857
00:42:34,640 –> 00:42:39,040
این طوری طرح کنید
858
00:42:39,040 –> 00:42:42,240
بیایید ابتدا با نسخه اصلی طرح کنیم
859
00:42:42,240 –> 00:42:45,200
نرخ یادگیری بیایید ببینیم چگونه
860
00:42:45,200 –> 00:42:48,720
طرح چگونه به نظر می رسد
861
00:42:49,760 –> 00:42:52,400
بنابراین در حال حاضر
862
00:42:54,400 –> 00:42:58,800
طرح ما شبیه این است پس همینطور است
863
00:42:58,800 –> 00:43:02,000
تقریبا مثل اوم
864
00:43:02,000 –> 00:43:05,040
شیب مناسب اما نه دقیقا
865
00:43:05,040 –> 00:43:08,160
و حالا بیایید یادگیری دیگر را داشته باشیم
866
00:43:08,160 –> 00:43:08,640
نرخ
867
00:43:08,640 –> 00:43:11,520
پس بیایید از این میزان یادگیری استفاده کنیم و
868
00:43:11,520 –> 00:43:14,400
بیایید این را اجرا کنیم
869
00:43:15,760 –> 00:43:18,480
و اکنون طرح ما به این شکل است و
870
00:43:18,480 –> 00:43:20,240
این در واقع خیلی خوب به نظر می رسد
871
00:43:20,240 –> 00:43:23,680
بنابراین این بسیار مناسب یا زیبا است
872
00:43:23,680 –> 00:43:26,000
تقریب خوبی از این داده ها با
873
00:43:26,000 –> 00:43:30,000
یک تابع خطی بنابراین می بینیم که ما
874
00:43:30,000 –> 00:43:31,839
پیاده سازی کار می کند
875
00:43:31,839 –> 00:43:34,400
و امیدوارم از این آموزش لذت برده باشید و
876
00:43:34,400 –> 00:43:37,839
شما را در آموزش بعدی می بینم
877
00:43:38,839 –> 00:43:41,839
خدا حافظ
878
00:43:42,640 –> 00:43:44,800
سلام به یک دستگاه جدید خوش آمدید
879
00:43:44,800 –> 00:43:46,560
آموزش یادگیری از ابتدا
880
00:43:46,560 –> 00:43:48,720
امروز می خواهیم لجستیک را پیاده سازی کنیم
881
00:43:48,720 –> 00:43:50,800
رگرسیون فقط با استفاده از پایتون داخلی
882
00:43:50,800 –> 00:43:52,640
ماژول ها و ناتوانی
883
00:43:52,640 –> 00:43:54,640
اگر ویدیوی قبلی من را ندیده اید
884
00:43:54,640 –> 00:43:56,160
در مورد رگرسیون خطی
885
00:43:56,160 –> 00:43:57,920
تماشای آن را به شدت توصیه می کنم
886
00:43:57,920 –> 00:44:00,240
اول از زمانی که برخی از آنها را توضیح دادم
887
00:44:00,240 –> 00:44:02,000
مفاهیم کمی با جزئیات بیشتر
888
00:44:02,000 –> 00:44:02,880
آنجا
889
00:44:02,880 –> 00:44:04,400
اما من سعی خواهم کرد همه موارد را پوشش دهم
890
00:44:04,400 –> 00:44:06,720
مفاهیم مهم دوباره در این ویدیو
891
00:44:06,720 –> 00:44:08,720
پس بیایید در مورد مفاهیم صحبت کنیم
892
00:44:08,720 –> 00:44:10,720
رگرسیون لجستیک
893
00:44:10,720 –> 00:44:15,040
بنابراین همانطور که در رگرسیون خطی به یاد دارید
894
00:44:15,040 –> 00:44:16,800
ما داده های خود را مدل می کنیم
895
00:44:16,800 –> 00:44:19,839
با تابع خطی w
896
00:44:19,839 –> 00:44:23,520
برابر x به علاوه b پس این خواهد شد
897
00:44:23,520 –> 00:44:27,119
خروجی مقادیر پیوسته و اکنون در
898
00:44:27,119 –> 00:44:28,880
رگرسیون لجستیک
899
00:44:28,880 –> 00:44:32,000
ما ارزش های پیوسته را نمی خواهیم، اما ما
900
00:44:32,000 –> 00:44:34,319
یک احتمال می خواهند
901
00:44:34,319 –> 00:44:37,599
و به منظور مدل سازی این احتمال
902
00:44:37,599 –> 00:44:40,560
تابع سیگموئید را به ما اعمال می کنیم
903
00:44:40,560 –> 00:44:42,240
مدل خطی
904
00:44:42,240 –> 00:44:45,680
بنابراین تابع سیگموئید 1 است
905
00:44:45,680 –> 00:44:49,359
بیش از 1 به علاوه تابع نمایی
906
00:44:49,359 –> 00:44:52,640
منهای x
907
00:44:52,640 –> 00:44:55,599
بنابراین این تابع سیگموئید و
908
00:44:55,599 –> 00:44:56,160
منهای
909
00:44:56,160 –> 00:45:01,119
و x در مورد ما پس ماست
910
00:45:01,119 –> 00:45:04,480
مدل خطی ما بنابراین
911
00:45:04,480 –> 00:45:07,079
و این خروجی a است
912
00:45:07,079 –> 00:45:08,240
احتمال
913
00:45:08,240 –> 00:45:11,280
بین صفر و یک پس اگر نمودار را رسم کنیم
914
00:45:11,280 –> 00:45:13,680
تابع سیگموئید
915
00:45:13,680 –> 00:45:17,520
اوم پس می توانید ببینید که این بین صفر است
916
00:45:17,520 –> 00:45:20,960
و یکی پس با این تابع ما می توانیم
917
00:45:20,960 –> 00:45:21,359
مدل
918
00:45:21,359 –> 00:45:25,119
احتمال داده های ما و اکنون
919
00:45:25,119 –> 00:45:28,640
با این تقریبی
920
00:45:28,640 –> 00:45:32,720
um خروجی پس از آن ما می توانیم
921
00:45:32,720 –> 00:45:35,680
سپس باید به پارامترها برسیم
922
00:45:35,680 –> 00:45:36,720
w
923
00:45:36,720 –> 00:45:40,079
بنابراین وزن و تعصب ما
924
00:45:40,079 –> 00:45:43,200
و چگونه این کار را دوباره انجام دهیم
925
00:45:43,200 –> 00:45:45,280
قبلا در مورد قبلی توضیح داده شده است
926
00:45:45,280 –> 00:45:46,400
ویدئو
927
00:45:46,400 –> 00:45:49,599
بنابراین ما روشی را اعمال می کنیم که نامیده می شود
928
00:45:49,599 –> 00:45:53,440
شیب نزول بنابراین اول از همه ما نیاز داریم
929
00:45:53,440 –> 00:45:53,760
آ
930
00:45:53,760 –> 00:45:57,359
تابع هزینه و در اینجا ما آن را نداریم
931
00:45:57,359 –> 00:45:59,040
میانگین فلش مربع و
932
00:45:59,040 –> 00:46:01,920
دیگر اما ما از تابعی استفاده می کنیم که است
933
00:46:01,920 –> 00:46:03,040
صلیب نامیده می شود
934
00:46:03,040 –> 00:46:07,040
آنتروپی بنابراین این فرمول است
935
00:46:07,040 –> 00:46:09,599
اوم من به جزئیات در این مورد نمی پردازم
936
00:46:09,599 –> 00:46:11,040
اما من مقداری قرار خواهم داد
937
00:46:11,040 –> 00:46:14,400
خواندن بیشتر در توضیحات
938
00:46:14,400 –> 00:46:17,599
پس با این فرمول
939
00:46:17,599 –> 00:46:20,720
با چه کاری می خواهیم این را بهینه کنیم
940
00:46:20,720 –> 00:46:22,800
با احترام به پارامترهای ما
941
00:46:22,800 –> 00:46:25,839
w و b بنابراین استفاده می کنیم
942
00:46:25,839 –> 00:46:28,880
شیب نزول و این یعنی
943
00:46:28,880 –> 00:46:32,480
ما از یک نقطه شروع می کنیم و سپس
944
00:46:32,480 –> 00:46:36,400
به طور مکرر پارامترهای ما را به روز کنید
945
00:46:36,400 –> 00:46:40,079
بنابراین باید مشتق را محاسبه کنیم
946
00:46:40,079 –> 00:46:43,520
و سپس به سمت این بروید
947
00:46:43,520 –> 00:46:44,480
مشتق
948
00:46:44,480 –> 00:46:48,480
تا بالاخره به حداقل برسیم
949
00:46:48,480 –> 00:46:51,680
بنابراین و سپس ما نیز باید تعریف کنیم
950
00:46:51,680 –> 00:46:54,400
نرخ یادگیری به اصطلاح
951
00:46:54,400 –> 00:46:56,400
نرخ یادگیری را تعیین می کند
952
00:46:56,400 –> 00:46:59,200
چقدر به این سمت می رویم
953
00:46:59,200 –> 00:47:00,560
هر مرحله
954
00:47:00,560 –> 00:47:03,359
بنابراین این یک پارامتر مهم آن است
955
00:47:03,359 –> 00:47:04,160
نباید هم باشه
956
00:47:04,160 –> 00:47:07,040
بالا از آن زمان ممکن است به اطراف بپرد و
957
00:47:07,040 –> 00:47:08,800
هرگز حداقل را پیدا نکنید
958
00:47:08,800 –> 00:47:12,640
اما همچنین نباید خیلی کم باشد
959
00:47:12,720 –> 00:47:16,160
متاسفم و اکنون با این شیب
960
00:47:16,160 –> 00:47:18,640
نزول
961
00:47:18,640 –> 00:47:21,920
آنچه ما داریم این است که قوانین به روز رسانی خود را داریم
962
00:47:21,920 –> 00:47:22,319
بنابراین
963
00:47:22,319 –> 00:47:26,480
وزن ما وزن جدید ما است
964
00:47:26,480 –> 00:47:27,440
وزن قدیمی
965
00:47:27,440 –> 00:47:30,160
منهای زیرا ما می خواهیم وارد آن شویم
966
00:47:30,160 –> 00:47:32,000
جهت منفی
967
00:47:32,000 –> 00:47:34,480
منهای نرخ یادگیری ما برابر است
968
00:47:34,480 –> 00:47:36,559
مشتق
969
00:47:36,559 –> 00:47:40,960
و برای تعصب ما هم همینطور است
970
00:47:40,960 –> 00:47:43,359
و سپس در اینجا فرمول هایی هستند که ما
971
00:47:43,359 –> 00:47:44,240
نیاز داشتن
972
00:47:44,240 –> 00:47:48,319
برای مشتقات um ما بنابراین اینها هستند
973
00:47:48,319 –> 00:47:49,200
فرمول ها
974
00:47:49,200 –> 00:47:52,319
و در واقع یکسان هستند
975
00:47:52,319 –> 00:47:56,000
مشتقات um like in
976
00:47:56,000 –> 00:47:58,880
رگرسیون خطی بنابراین شما می توانید بررسی کنید
977
00:47:58,880 –> 00:48:00,720
خودت ریاضی پشتش
978
00:48:00,720 –> 00:48:02,400
من همچنین چند لینک در آن قرار خواهم داد
979
00:48:02,400 –> 00:48:03,839
شرح
980
00:48:03,839 –> 00:48:06,240
و این تمام چیزی است که اکنون برای بدست آوردن نیاز داریم
981
00:48:06,240 –> 00:48:07,200
آغاز شده
982
00:48:07,200 –> 00:48:10,240
و اکنون می توانیم تدارکات خود را پیاده سازی کنیم
983
00:48:10,240 –> 00:48:11,119
پسرفت
984
00:48:11,119 –> 00:48:14,880
پس البته ما دوباره از numpy استفاده می کنیم پس اجازه دهید
985
00:48:14,880 –> 00:48:19,280
numpy را به عنوان np وارد کنید
986
00:48:19,280 –> 00:48:21,680
و سپس کلاسی به نام ایجاد می کنیم
987
00:48:21,680 –> 00:48:23,119
لجستیکی
988
00:48:23,119 –> 00:48:26,720
رگرسیون و این یک خواهد داشت
989
00:48:26,720 –> 00:48:30,880
متد init بنابراین یک init داریم
990
00:48:30,880 –> 00:48:34,079
و init دقیقاً مشابه است
991
00:48:34,079 –> 00:48:35,920
برای رگرسیون خطی بنابراین
992
00:48:35,920 –> 00:48:38,480
من مقداری از میزان یادگیری را در اینجا قرار خواهم داد
993
00:48:38,480 –> 00:48:39,599
که یک را دریافت خواهد کرد
994
00:48:39,599 –> 00:48:43,359
مقدار پیش فرض پس 0.001
995
00:48:43,359 –> 00:48:46,319
معمولا میزان یادگیری بسیار کم است
996
00:48:46,319 –> 00:48:48,720
و همچنین یک عدد می گیرد
997
00:48:48,720 –> 00:48:52,079
از تکرار تا n جمع کننده
998
00:48:52,079 –> 00:48:56,800
و با پیش فرض 1000
999
00:48:56,800 –> 00:48:58,640
بنابراین این تعداد تعیین می کند
1000
00:48:58,640 –> 00:49:00,880
تکرارهایی که برای گرادیان خود استفاده می کنیم
1001
00:49:00,880 –> 00:49:01,680
نزول
1002
00:49:01,680 –> 00:49:05,280
و سپس آنها را ذخیره خواهم کرد تا بگویم
1003
00:49:05,280 –> 00:49:09,599
self lr برابر است با lr و self
1004
00:49:09,599 –> 00:49:13,040
و تکرار برابر است
1005
00:49:13,040 –> 00:49:16,480
و آن است و پس از آن من به سادگی
1006
00:49:16,480 –> 00:49:19,760
چند وزن ایجاد کنید
1007
00:49:19,760 –> 00:49:22,800
اما در ابتدا آنها را روی هیچ تنظیم کنید
1008
00:49:22,800 –> 00:49:26,000
وزن ما هیچ است و تعصب ما نیست
1009
00:49:26,000 –> 00:49:26,480
هیچ یک
1010
00:49:26,480 –> 00:49:29,440
به سادگی می دانیم که اکنون به آن نیاز داریم
1011
00:49:29,440 –> 00:49:31,440
با آنها بیایید
1012
00:49:31,440 –> 00:49:35,280
و سپس یک روش مناسب تعریف می کنیم
1013
00:49:35,280 –> 00:49:37,760
بنابراین در اینجا ما از قراردادها پیروی می کنیم
1014
00:49:37,760 –> 00:49:39,280
scikit یاد بگیرند
1015
00:49:39,280 –> 00:49:42,240
دوباره کتابخانه، بنابراین کمی طول می کشد
1016
00:49:42,240 –> 00:49:43,359
آموزش
1017
00:49:43,359 –> 00:49:47,359
نمونه ها و ارزش های آموزش
1018
00:49:47,359 –> 00:49:51,520
برچسب ها بنابراین این شامل
1019
00:49:51,520 –> 00:49:54,800
مرحله آموزش و شیب نزول
1020
00:49:54,800 –> 00:49:59,200
و سپس یک روش پیش بینی داریم
1021
00:49:59,200 –> 00:50:02,960
و در اینجا نمونه های آزمایشی جدیدی را دریافت می کنیم
1022
00:50:02,960 –> 00:50:04,480
می خواهند پیش بینی کنند
1023
00:50:04,480 –> 00:50:06,559
بنابراین اینها روشهایی هستند که ما می خواهیم
1024
00:50:06,559 –> 00:50:08,000
پیاده سازی
1025
00:50:08,000 –> 00:50:12,160
و ورودی های ما در اینجا بنابراین
1026
00:50:12,160 –> 00:50:15,440
x یک numpy است
1027
00:50:15,440 –> 00:50:19,040
بردار دوم اندازه m بار
1028
00:50:19,040 –> 00:50:22,720
n که m تعداد نمونه هاست
1029
00:50:22,720 –> 00:50:26,240
و n تعداد ویژگی های هر کدام است
1030
00:50:26,240 –> 00:50:30,880
نمونه و چرا
1031
00:50:30,880 –> 00:50:34,400
y یک بردار ردیف 1d یا همچنین از است
1032
00:50:34,400 –> 00:50:37,680
اندازه m بنابراین برای هر نمونه آموزشی ما
1033
00:50:37,680 –> 00:50:38,839
یکی را داشته باش
1034
00:50:38,839 –> 00:50:41,839
بردار بنابراین
1035
00:50:41,839 –> 00:50:44,720
حالا ما می توانیم ادامه دهیم پس اول از همه ما داریم
1036
00:50:44,720 –> 00:50:45,280
به
1037
00:50:45,280 –> 00:50:48,559
در آن وزن های ما را مقداردهی اولیه کنید
1038
00:50:48,559 –> 00:50:51,520
بنابراین بیایید بگوییم که میخواهیم آن را راهاندازی کنیم
1039
00:50:51,520 –> 00:50:53,440
مولفه های
1040
00:50:53,440 –> 00:50:56,160
و برای این عدد به دست می آوریم
1041
00:50:56,160 –> 00:50:58,960
نمونه ها
1042
00:50:59,040 –> 00:51:03,359
و تعداد امکانات
1043
00:51:03,680 –> 00:51:07,680
پس این x است
1044
00:51:07,839 –> 00:51:11,119
شکل دهید بنابراین این شکل را باز می کند
1045
00:51:11,119 –> 00:51:13,359
بعد اول به تعداد
1046
00:51:13,359 –> 00:51:15,440
نمونه ها و بعد دوم به
1047
00:51:15,440 –> 00:51:17,440
تعداد ویژگی ها
1048
00:51:17,440 –> 00:51:20,800
و سپس ما به کار خود پایان دادیم
1049
00:51:21,599 –> 00:51:25,520
وزن فقط با صفر بنابراین ما ایجاد می کنیم
1050
00:51:25,520 –> 00:51:29,040
بردار فقط با صفر
1051
00:51:29,040 –> 00:51:32,640
اندازه تعداد ویژگی ها
1052
00:51:32,640 –> 00:51:37,040
و ابتدا بایاس خود را صفر کردیم
1053
00:51:37,040 –> 00:51:40,240
شما همچنین می توانید برای مثال از تصادفی استفاده کنید
1054
00:51:40,240 –> 00:51:42,240
اعداد برای مقداردهی اولیه اما
1055
00:51:42,240 –> 00:51:46,000
صفر خوب است و بعد از آن
1056
00:51:46,000 –> 00:51:48,880
ما از نزول گرادیان استفاده می کنیم که i
1057
00:51:48,880 –> 00:51:50,480
صحبت کرد
1058
00:51:50,480 –> 00:51:53,680
بنابراین ما به طور تکراری ام
1059
00:51:53,680 –> 00:51:56,720
وزن خود را به روز کنید تا از یک حلقه for استفاده کنیم
1060
00:51:56,720 –> 00:52:00,319
پس بیایید بگوییم برای من و در واقع ما نه
1061
00:52:00,319 –> 00:52:01,440
به این برای
1062
00:52:01,440 –> 00:52:04,559
خط زیر در محدوده
1063
00:52:04,559 –> 00:52:08,240
و سپس خود نقطه و تکرار
1064
00:52:08,240 –> 00:52:11,359
بنابراین این تعداد تکرار ما است
1065
00:52:11,359 –> 00:52:12,800
خواستن برای داشتن
1066
00:52:12,800 –> 00:52:15,520
و حالا بیایید نگاهی به فرمول بیاندازیم
1067
00:52:15,520 –> 00:52:16,880
از نو
1068
00:52:16,880 –> 00:52:19,920
بنابراین اول از همه ما تقریب می کنیم
1069
00:52:19,920 –> 00:52:23,599
y ما با این تابع
1070
00:52:23,599 –> 00:52:26,400
بنابراین ابتدا اجازه دهید این مدل خطی را اعمال کنیم
1071
00:52:26,400 –> 00:52:27,680
و سپس اعمال کنید
1072
00:52:27,680 –> 00:52:32,480
تابع سیگموئید پس بیایید بگوییم
1073
00:52:32,480 –> 00:52:35,680
مدل خطی
1074
00:52:35,680 –> 00:52:40,160
برابر است با w ضربدر x بعلاوه b
1075
00:52:40,160 –> 00:52:43,680
بنابراین می توانیم از تابع numpy dot استفاده کنیم
1076
00:52:43,680 –> 00:52:47,119
تا بردارهایمان را تا این حد ضرب کنیم
1077
00:52:47,119 –> 00:52:51,839
x و self.weights
1078
00:52:52,319 –> 00:52:56,640
به علاوه خود نقطه سوگیری
1079
00:52:56,640 –> 00:53:00,000
و سپس ما آن را اعمال می کنیم
1080
00:53:00,000 –> 00:53:03,359
تابع sigmoid پس بیایید تعدادی ایجاد کنیم
1081
00:53:03,359 –> 00:53:05,280
روش کمکی
1082
00:53:05,280 –> 00:53:08,800
برخی از روش های خصوصی سیگموئید
1083
00:53:08,800 –> 00:53:12,880
که مقداری x می شود
1084
00:53:12,880 –> 00:53:15,839
ام
1085
00:53:16,480 –> 00:53:19,520
بنابراین و اینجا
1086
00:53:19,520 –> 00:53:22,480
این فقط اگر نگاهی به آن داشته باشید
1087
00:53:22,480 –> 00:53:23,839
فرمول
1088
00:53:23,839 –> 00:53:27,599
1 روی 1 به اضافه نمایی
1089
00:53:27,599 –> 00:53:31,040
تابع منهای x بنابراین
1090
00:53:31,040 –> 00:53:34,480
ما می توانیم این را در یک خط یک بنویسیم
1091
00:53:34,480 –> 00:53:37,599
برگرداندن یک به یک
1092
00:53:37,599 –> 00:53:41,680
به علاوه n p نقطه یا اجازه دهید
1093
00:53:41,680 –> 00:53:45,520
دور این یک به علاوه پرانتز بزنید
1094
00:53:45,520 –> 00:53:48,640
np نقطه x
1095
00:53:48,640 –> 00:53:52,079
و سپس منهای x
1096
00:53:52,079 –> 00:53:55,359
و سپس این تمام چیزی است که ما نیاز داریم
1097
00:53:55,359 –> 00:53:58,160
بنابراین اکنون تابع سیگموید را اعمال می کنیم
1098
00:53:58,160 –> 00:53:59,599
در اینجا بنابراین ما می گوییم
1099
00:53:59,599 –> 00:54:02,720
y مساوی را پیش بینی کرد
1100
00:54:02,720 –> 00:54:06,640
خود نقطه سیگموئید خاموش
1101
00:54:06,640 –> 00:54:09,760
و سپس مدل خطی ما این است
1102
00:54:09,760 –> 00:54:12,160
تقریب y
1103
00:54:12,160 –> 00:54:16,960
و سپس باید وزن های خود را به روز کنیم
1104
00:54:16,960 –> 00:54:20,880
بنابراین اگر نگاهی به قوانین به روز رسانی داشته باشیم
1105
00:54:20,880 –> 00:54:25,280
ابتدا مشتقات را محاسبه می کنیم
1106
00:54:25,280 –> 00:54:28,480
از با این دو فرمول بنابراین
1107
00:54:28,480 –> 00:54:31,040
بیایید بگوییم
1108
00:54:32,480 –> 00:54:35,680
d w برابر است
1109
00:54:35,680 –> 00:54:38,880
و این 1 تمام شده است
1110
00:54:38,880 –> 00:54:42,160
n و سپس مجموع
1111
00:54:42,160 –> 00:54:45,680
2 برابر x بار
1112
00:54:45,680 –> 00:54:48,799
تفاوت y پیش بینی شده
1113
00:54:48,799 –> 00:54:52,079
منهای y واقعی
1114
00:54:52,079 –> 00:54:56,000
پس ما یکی داریم
1115
00:54:56,000 –> 00:55:00,960
بیش از تعداد نمونه
1116
00:55:01,280 –> 00:55:04,720
که قبلا اینجا بلند شدیم
1117
00:55:04,720 –> 00:55:09,920
و پس از آن بار و سپس ما باید
1118
00:55:10,000 –> 00:55:13,359
اوه محصول و سپس مجموع بیش از این
1119
00:55:13,359 –> 00:55:13,920
تولید – محصول
1120
00:55:13,920 –> 00:55:17,119
و این چیزی جز این نیست
1121
00:55:17,119 –> 00:55:20,240
حاصل ضرب نقطه ای بردارها پس باید
1122
00:55:20,240 –> 00:55:23,680
می توانید از نقطه numpy dot استفاده کنید
1123
00:55:23,680 –> 00:55:26,960
اما حالا باید مراقب باشیم
1124
00:55:26,960 –> 00:55:30,319
اوم می خواهم این کار را انجام دهم
1125
00:55:30,319 –> 00:55:34,359
بعد دیگر، بنابراین باید از نقطه x استفاده کنیم
1126
00:55:34,359 –> 00:55:37,359
جابجا شد و سپس
1127
00:55:37,359 –> 00:55:40,960
حاصل نقطه این و
1128
00:55:40,960 –> 00:55:45,839
y منهای y واقعی را پیش بینی کرد
1129
00:55:45,839 –> 00:55:48,240
بنابراین لطفا محصول نقطه ای را بررسی کنید
1130
00:55:48,240 –> 00:55:49,920
خودت
1131
00:55:49,920 –> 00:55:53,760
اوم پس این مشتق با است
1132
00:55:53,760 –> 00:55:55,760
احترام به w
1133
00:55:55,760 –> 00:55:58,799
و مشتق با توجه به
1134
00:55:58,799 –> 00:56:02,720
تعصب یکسان است اما
1135
00:56:02,720 –> 00:56:06,079
فقط بدون x پس این فقط یک است
1136
00:56:06,079 –> 00:56:09,760
مجموع و اتفاقا من این دو را کنار گذاشتم
1137
00:56:09,760 –> 00:56:12,000
زیرا این فقط یک عامل مقیاس پذیر است
1138
00:56:12,000 –> 00:56:13,520
که می توانیم حذف کنیم
1139
00:56:13,520 –> 00:56:17,119
بنابراین این یک بر n و سپس مجموع است
1140
00:56:17,119 –> 00:56:22,079
از این تفاوت پس می گوییم
1141
00:56:22,319 –> 00:56:25,920
db برابر است با 1 over
1142
00:56:25,920 –> 00:56:28,960
تعداد نمونه و سپس
1143
00:56:28,960 –> 00:56:32,000
بار np dot sum
1144
00:56:32,000 –> 00:56:35,040
و سپس در اینجا ما به سادگی y را داریم
1145
00:56:35,040 –> 00:56:39,200
منهای y واقعی را پیش بینی کرد
1146
00:56:39,200 –> 00:56:41,359
اینها مشتقات ما هستند و سپس ما
1147
00:56:41,359 –> 00:56:42,799
چاه ما را به روز کنیم
1148
00:56:42,799 –> 00:56:46,160
منتظر پارامترهای ما باشید تا می گوییم خود.
1149
00:56:46,160 –> 00:56:49,680
وزن منهای برابر نقطه خود است
1150
00:56:49,680 –> 00:56:53,200
زمان نرخ یادگیری
1151
00:56:53,200 –> 00:56:57,359
مشتق و همان برای تعصب ما
1152
00:56:57,359 –> 00:57:00,799
بنابراین منهای برابر است با میزان یادگیری خود
1153
00:57:00,799 –> 00:57:04,400
برابر مشتق و این است
1154
00:57:04,400 –> 00:57:07,200
همه برای روش تناسب ما این است
1155
00:57:07,200 –> 00:57:09,839
شیب نزول
1156
00:57:09,839 –> 00:57:12,799
و حالا بیایید پیش بینی را اجرا کنیم
1157
00:57:12,799 –> 00:57:13,920
روش
1158
00:57:13,920 –> 00:57:17,440
بنابراین در اینجا ما همان کاری را انجام می دهیم که انجام دادیم
1159
00:57:17,440 –> 00:57:18,480
اینجا
1160
00:57:18,480 –> 00:57:22,480
بنابراین ابتدا ما را تقریب می کنیم
1161
00:57:22,480 –> 00:57:26,160
داده ها را با یک مدل خطی و سپس اعمال کنید
1162
00:57:26,160 –> 00:57:28,440
تابع سیگموئید برای بدست آوردن a
1163
00:57:28,440 –> 00:57:30,559
احتمال
1164
00:57:30,559 –> 00:57:33,839
و اکنون آنچه ما می خواهیم
1165
00:57:33,839 –> 00:57:37,920
ما می خواهیم بگوییم که هر کدام از این دو کلاس است
1166
00:57:37,920 –> 00:57:43,920
1 یا کلاس 0 بنابراین ما به این تابع نگاه می کنیم
1167
00:57:43,920 –> 00:57:47,359
و می گوییم اگر بزرگتر باشد
1168
00:57:47,359 –> 00:57:50,880
از 0.5 پس کلاس 1 است
1169
00:57:50,880 –> 00:57:54,400
و اگر کمتر باشد کلاس صفر است
1170
00:57:54,400 –> 00:57:57,920
پس بیایید بگوییم ما
1171
00:57:57,920 –> 00:58:01,440
y کلاس را پیش بینی کرد
1172
00:58:01,440 –> 00:58:05,280
یا کلاس ها این برای چندین نمونه است
1173
00:58:05,280 –> 00:58:08,240
برابر است و سپس از لیست استفاده می کنیم
1174
00:58:08,240 –> 00:58:09,920
درک مطلب
1175
00:58:09,920 –> 00:58:13,599
و می گوییم 1 اگر است
1176
00:58:13,599 –> 00:58:16,640
من ما هستم
1177
00:58:16,640 –> 00:58:20,480
بزرگتر از 0.5 و غیره
1178
00:58:20,480 –> 00:58:23,760
این است وگرنه صفر است
1179
00:58:23,760 –> 00:58:27,359
و سپس این کار را برای هر y انجام می دهیم
1180
00:58:27,359 –> 00:58:30,799
برای هر احتمال
1181
00:58:30,799 –> 00:58:34,720
در y ما پیش بینی کرد
1182
00:58:34,720 –> 00:58:39,280
بنابراین اکنون ما صفر یا یک داریم و سپس ما
1183
00:58:39,280 –> 00:58:42,880
فقط این را برگردانید، بنابراین پیش بینی شده را برگردانید
1184
00:58:42,880 –> 00:58:44,559
کلاس ها
1185
00:58:44,559 –> 00:58:47,760
و این کل اجراست
1186
00:58:47,760 –> 00:58:51,200
که ما نیاز داریم و اکنون می توانیم آن را آزمایش کنیم بنابراین من
1187
00:58:51,200 –> 00:58:53,760
قبلاً یک اسکریپت آزمایشی کوچک نوشت که در آن
1188
00:58:53,760 –> 00:58:55,200
من از روان استفاده کردم
1189
00:58:55,200 –> 00:58:58,400
ماژول ها را یاد بگیرید
1190
00:58:58,400 –> 00:59:01,520
مقداری تست بارگذاری کنید
1191
00:59:01,520 –> 00:59:04,720
داده ها بنابراین این مجموعه سرطان سینه است
1192
00:59:04,720 –> 00:59:05,440
تو می توانی
1193
00:59:05,440 –> 00:59:08,480
گوگل که پس این محبوب است
1194
00:59:08,480 –> 00:59:12,319
دو کلاس مشکل و سپس من تقسیم می شود
1195
00:59:12,319 –> 00:59:13,440
داده ها را به
1196
00:59:13,440 –> 00:59:16,880
نمونه های آموزشی و نمونه های آزمایشی
1197
00:59:16,880 –> 00:59:20,079
سپس من مقداری لجستیک ایجاد خواهم کرد
1198
00:59:20,079 –> 00:59:23,280
مدل رگرسیون با ما
1199
00:59:23,280 –> 00:59:26,400
از فایل ما که ما و کلاس ما که
1200
00:59:26,400 –> 00:59:27,119
ما فقط
1201
00:59:27,119 –> 00:59:30,319
ام در اینجا پیاده سازی شده و سپس من مناسب خواهم شد
1202
00:59:30,319 –> 00:59:31,440
داده
1203
00:59:31,440 –> 00:59:33,680
داده های آموزشی ما و آموزش
1204
00:59:33,680 –> 00:59:34,960
برچسب ها
1205
00:59:34,960 –> 00:59:38,079
و سپس من این را پیش بینی خواهم کرد
1206
00:59:38,079 –> 00:59:42,400
و برچسب ها را برای داده های تست پیش بینی کنید
1207
00:59:42,400 –> 00:59:45,520
و سپس من دقت را محاسبه می کنم پس چگونه
1208
00:59:45,520 –> 00:59:46,000
زیاد
1209
00:59:46,000 –> 00:59:49,280
از برچسب ها درست است
1210
00:59:49,280 –> 00:59:52,559
ام تعیین شده
1211
00:59:52,559 –> 00:59:55,359
پس اگر ویدیوی مربوط به آن را تماشا کرده اید
1212
00:59:55,359 –> 00:59:55,920
k
1213
00:59:55,920 –> 00:59:58,839
الگوریتم n سپس شما قبلا دیده اید
1214
00:59:58,839 –> 01:00:00,319
این
1215
01:00:00,319 –> 01:00:03,599
و حالا بیایید این را اجرا کنیم
1216
01:00:03,599 –> 01:00:06,319
بنابراین اینجا
1217
01:00:07,119 –> 01:00:10,160
um یک آرگومان کلمه کلیدی غیرمنتظره دریافت کردم
1218
01:00:10,160 –> 01:00:15,839
نرخ یادگیری ام
1219
01:00:17,680 –> 01:00:20,799
اوه ببخشید من فقط
1220
01:00:20,799 –> 01:00:23,839
به این lr می گویند
1221
01:00:23,839 –> 01:00:28,559
و این تعداد تکرار است
1222
01:00:28,559 –> 01:00:32,079
پس بیایید دوباره این را اجرا کنیم
1223
01:00:32,559 –> 01:00:36,400
و سپس می بینیم که دقت ما 0.92 است
1224
01:00:36,400 –> 01:00:39,839
تقریباً 93 درصد
1225
01:00:39,839 –> 01:00:43,599
داده های تست ما به درستی اختصاص داده شده است
1226
01:00:43,599 –> 01:00:45,920
بنابراین ما می بینیم که کار می کند و امیدوارم شما
1227
01:00:45,920 –> 01:00:47,520
از این آموزش لذت بردم و
1228
01:00:47,520 –> 01:00:51,359
در آموزش بعدی می بینمت خداحافظ
1229
01:00:55,280 –> 01:00:57,440
سلام به همه به یک پایتون جدید خوش آمدید
1230
01:00:57,440 –> 01:01:00,079
آموزش پس در این ویدیو من به سادگی
1231
01:01:00,079 –> 01:01:02,960
کد دو ویدیوی آخر را دوباره فاکتور کنید
1232
01:01:02,960 –> 01:01:04,720
بنابراین اگر قبلی را تماشا نکرده اید
1233
01:01:04,720 –> 01:01:06,319
دو ویدیو در مورد
1234
01:01:06,319 –> 01:01:08,160
رگرسیون خطی و لجستیک
1235
01:01:08,160 –> 01:01:11,200
رگرسیون پس لطفا این کار را انجام دهید
1236
01:01:11,200 –> 01:01:14,640
پس حالا اگر کد را مقایسه کنید
1237
01:01:14,640 –> 01:01:18,559
سپس خواهید دید که تقریباً مشابه است
1238
01:01:18,559 –> 01:01:22,160
بنابراین هر دو کلاس دقیقاً مشابه هستند
1239
01:01:22,160 –> 01:01:25,520
روش init و هر دو دارند
1240
01:01:25,520 –> 01:01:29,119
تقریباً یک روش تناسب مشابه در هر دو
1241
01:01:29,119 –> 01:01:32,319
کلاس ها ما پارامترهای خود را راه اندازی می کنیم
1242
01:01:32,319 –> 01:01:35,599
و سپس همان نزول گرادیان را انجام می دهیم
1243
01:01:35,599 –> 01:01:39,200
به جز اینکه در رگرسیون خطی
1244
01:01:39,200 –> 01:01:42,799
ما به سادگی این مدل خطی را برای خود داریم
1245
01:01:42,799 –> 01:01:46,160
y تقریبی و در لجستیک
1246
01:01:46,160 –> 01:01:48,240
رگرسیون ما نیز این خطی را داریم
1247
01:01:48,240 –> 01:01:48,720
مدل
1248
01:01:48,720 –> 01:01:51,200
اما سپس سیگموئید را نیز اعمال می کنیم
1249
01:01:51,200 –> 01:01:52,960
عملکرد
1250
01:01:52,960 –> 01:01:55,599
و همین تفاوت در
1251
01:01:55,599 –> 01:01:57,359
پیش بینی روش بنابراین در
1252
01:01:57,359 –> 01:01:59,599
رگرسیون خطی را به سادگی اعمال می کنیم
1253
01:01:59,599 –> 01:02:01,039
مدل خطی
1254
01:02:01,039 –> 01:02:03,440
و در رگرسیون لجستیک ما را اعمال می کنیم
1255
01:02:03,440 –> 01:02:05,359
مدل خطی و سپس سیگموئید
1256
01:02:05,359 –> 01:02:06,400
عملکرد
1257
01:02:06,400 –> 01:02:09,760
و سپس بگویید یک یا صفر است
1258
01:02:09,760 –> 01:02:12,960
و ما این تابع کمکی را داریم اما a
1259
01:02:12,960 –> 01:02:15,200
بسیاری از این کد مشابه است
1260
01:02:15,200 –> 01:02:17,920
پس بیایید این را اصلاح کنیم و بله اجازه دهید
1261
01:02:17,920 –> 01:02:18,720
ایجاد یک
1262
01:02:18,720 –> 01:02:22,640
کلاس پایه و آن را پایه بنامید
1263
01:02:22,640 –> 01:02:25,839
رگرسیون و دو کلاس ما
1264
01:02:25,839 –> 01:02:28,720
کلاس ها از این پایه مشتق خواهند شد
1265
01:02:28,720 –> 01:02:32,240
پس بیایید بگوییم
1266
01:02:32,240 –> 01:02:35,200
رگرسیون خطی به دست آمده از پایه
1267
01:02:35,200 –> 01:02:36,720
پسرفت
1268
01:02:36,720 –> 01:02:41,520
و همینطور برای رگرسیون لجستیک ما
1269
01:02:42,559 –> 01:02:46,960
و سپس می توانیم روش init را برش دهیم
1270
01:02:46,960 –> 01:02:48,960
و آن را در رگرسیون پایه قرار دهید
1271
01:02:48,960 –> 01:02:50,640
زیرا این همان است
1272
01:02:50,640 –> 01:02:54,880
برای هر دو، پس بیایید این را در اینجا قطع کنیم
1273
01:02:54,880 –> 01:02:59,760
و سپس روش فیت را نیز برش می دهیم
1274
01:02:59,760 –> 01:03:03,119
بنابراین این تقریباً یکسان است بنابراین ما این کار را نمی کنیم
1275
01:03:03,119 –> 01:03:05,039
به این اینجا نیاز دارید
1276
01:03:05,039 –> 01:03:08,319
و آن را اینجا قرار دهید
1277
01:03:08,319 –> 01:03:12,440
اوم تنها چیزی که اکنون باید انجام دهیم
1278
01:03:12,440 –> 01:03:13,680
[موسیقی]
1279
01:03:13,680 –> 01:03:16,799
که متفاوت است چرا پیش بینی شده است
1280
01:03:16,799 –> 01:03:18,240
چون یک بار
1281
01:03:18,240 –> 01:03:21,760
ما به سادگی به مدل خطی و یک نیاز داریم
1282
01:03:21,760 –> 01:03:22,799
زمان
1283
01:03:22,799 –> 01:03:25,920
ما به مدل خطی و سیگموئید نیاز داریم
1284
01:03:25,920 –> 01:03:27,280
عملکرد
1285
01:03:27,280 –> 01:03:30,559
پس بیایید تماس بگیریم بیایید ایجاد کنیم
1286
01:03:30,559 –> 01:03:33,599
تابع helper و فراخوانی آن
1287
01:03:33,599 –> 01:03:37,280
زیر خط تقریبی
1288
01:03:37,280 –> 01:03:40,319
که داده های ما را دریافت می کند
1289
01:03:40,319 –> 01:03:43,680
x نمونه های ما و سپس آن
1290
01:03:43,680 –> 01:03:47,359
اوزان و تعصب را نیز می گیرد
1291
01:03:47,359 –> 01:03:50,640
و در کلاس پایه خود را افزایش خواهیم داد
1292
01:03:50,640 –> 01:03:54,559
خطای اجرا نشده
1293
01:03:54,559 –> 01:03:57,359
بنابراین این باید در اجرا شود
1294
01:03:57,359 –> 01:03:59,520
کلاس های مشتق شده
1295
01:03:59,520 –> 01:04:03,200
بنابراین اکنون در رگرسیون خطی
1296
01:04:03,200 –> 01:04:07,599
ام کلاس بیایید همچنین
1297
01:04:07,599 –> 01:04:10,240
این را ایجاد کنید و در اینجا اجرا خواهیم کرد
1298
01:04:10,240 –> 01:04:11,359
این
1299
01:04:11,359 –> 01:04:16,000
و در رگرسیون خطی ما
1300
01:04:16,000 –> 01:04:20,160
مدل um این به سادگی مدل خطی است
1301
01:04:20,160 –> 01:04:21,440
بنابراین می توانیم
1302
01:04:21,440 –> 01:04:24,480
این بازگشت را برگردانید
1303
01:04:24,480 –> 01:04:28,640
حاصل ضرب نقطه ای x و w
1304
01:04:28,640 –> 01:04:32,319
به علاوه تعصب
1305
01:04:32,400 –> 01:04:36,640
و سپس ما نیز باید um
1306
01:04:36,640 –> 01:04:41,039
یا می توانیم روش فیت را از خودمان برش دهیم
1307
01:04:41,039 –> 01:04:43,039
روش رگرسیون لجستیک و
1308
01:04:43,039 –> 01:04:46,319
روش تقریب را اجرا کنید
1309
01:04:46,319 –> 01:04:47,280
اینجا
1310
01:04:47,280 –> 01:04:50,960
اوم بیایید این را کپی کنیم
1311
01:04:50,960 –> 01:04:54,319
بنابراین یا بیایید به یاد داشته باشیم که ما
1312
01:04:54,319 –> 01:04:56,880
نیاز به داشتن مدل خطی و سپس
1313
01:04:56,880 –> 01:04:59,200
تابع سیگموئید را اعمال کنید
1314
01:04:59,200 –> 01:05:04,400
پس بیایید این را قطع کنیم و خودمان را ایجاد کنیم
1315
01:05:04,400 –> 01:05:10,079
بر یک آشفتگی نزدیکی تاکید کنید
1316
01:05:10,079 –> 01:05:13,119
روش با خود x
1317
01:05:13,119 –> 01:05:16,960
w و تعصب
1318
01:05:16,960 –> 01:05:20,160
و سپس ما خود را ایجاد می کنیم
1319
01:05:20,160 –> 01:05:23,599
مدل خطی که است
1320
01:05:23,599 –> 01:05:27,839
نقطه ناتوانی
1321
01:05:27,839 –> 01:05:31,200
x w
1322
01:05:31,200 –> 01:05:35,520
به علاوه بایاس و سپس سیگموئید را اعمال می کنیم
1323
01:05:35,520 –> 01:05:37,440
تابع و آن را برگردانید پس اجازه دهید
1324
01:05:37,440 –> 01:05:41,440
بازگشت خود نقطه زیر خط
1325
01:05:41,440 –> 01:05:47,119
سیگموید مدل خطی ما
1326
01:05:47,200 –> 01:05:50,480
بنابراین این تقریب و اکنون است
1327
01:05:50,480 –> 01:05:52,960
روش پیش بینی کمی است
1328
01:05:52,960 –> 01:05:54,240
ناهمسان
1329
01:05:54,240 –> 01:05:57,839
پس بیایید
1330
01:05:57,839 –> 01:06:01,520
اوم در کلاس پایه ما بیایید
1331
01:06:01,520 –> 01:06:05,839
این روش پیش بینی را تعریف کنید
1332
01:06:06,120 –> 01:06:08,319
[موسیقی]
1333
01:06:08,319 –> 01:06:11,359
و در اینجا خواهیم کرد
1334
01:06:11,359 –> 01:06:15,839
یک کمک کننده را اجرا کنید
1335
01:06:15,839 –> 01:06:20,079
تابع و ما آن را زیر خط می نامیم
1336
01:06:20,079 –> 01:06:23,359
پیش بینی کنید که به دست خواهد آمد
1337
01:06:23,359 –> 01:06:26,799
خود x و همچنین w
1338
01:06:26,799 –> 01:06:30,559
و b و همچنین در کلاس پایه اینجا ما
1339
01:06:30,559 –> 01:06:32,319
به سادگی یک not را پاک می کند
1340
01:06:32,319 –> 01:06:35,520
خطا اجرا شد پس این در حال حاضر
1341
01:06:35,520 –> 01:06:38,319
باید در مشتق شده پیاده سازی شود
1342
01:06:38,319 –> 01:06:39,680
کلاس ها
1343
01:06:39,680 –> 01:06:42,960
بنابراین ما تماس گرفته و این را برگردانیم
1344
01:06:42,960 –> 01:06:46,799
در روش پیش بینی ما در کلاس پایه
1345
01:06:46,799 –> 01:06:48,000
پس بیایید برگردیم
1346
01:06:48,000 –> 01:06:51,359
پیش بینی خود نقطه زیر خط
1347
01:06:51,359 –> 01:06:55,119
و با نمونه های آزمایشی و سپس
1348
01:06:55,119 –> 01:06:58,640
اکنون با وزن های محاسبه شده ما
1349
01:06:58,640 –> 01:07:01,839
و تعصب محاسبه شده
1350
01:07:01,839 –> 01:07:05,520
و اکنون در رگرسیون خطی ما
1351
01:07:05,520 –> 01:07:09,440
کلاس ما این پیش بینی خط خطی را تعریف می کنیم
1352
01:07:09,440 –> 01:07:10,480
که بدست خواهد آورد
1353
01:07:10,480 –> 01:07:14,559
x w و تعصب
1354
01:07:14,559 –> 01:07:17,920
بنابراین و اینجا خواهد شد
1355
01:07:17,920 –> 01:07:22,799
بنابراین این همان کد خواهد بود
1356
01:07:22,880 –> 01:07:26,079
محصول نقطه ای حاصل ضرب نقطه ای x و w
1357
01:07:26,079 –> 01:07:30,160
به علاوه تعصب و ما می توانیم این را برگردانیم
1358
01:07:30,160 –> 01:07:33,359
در این خط، بنابراین ما به این نیاز نداریم
1359
01:07:33,359 –> 01:07:36,640
و سپس در رگرسیون لجستیک
1360
01:07:36,640 –> 01:07:37,760
ما
1361
01:07:37,760 –> 01:07:40,799
اوم این را به عنوان پیشبینی زیر خط تعریف کنید
1362
01:07:40,799 –> 01:07:41,280
با
1363
01:07:41,280 –> 01:07:46,000
x w و b و سپس همان کد را داریم
1364
01:07:46,000 –> 01:07:48,000
اینجا پس ما
1365
01:07:48,000 –> 01:07:51,280
از w و b استفاده کنید
1366
01:07:51,280 –> 01:07:54,799
سپس سیگموید را اعمال کنید
1367
01:07:54,799 –> 01:07:58,480
یک یا صفر و برگردانید
1368
01:07:58,480 –> 01:08:01,680
و اکنون می توانیم این را کپی کنیم
1369
01:08:01,680 –> 01:08:05,359
اینجا و در همان فایل قرار دهید
1370
01:08:05,359 –> 01:08:08,880
اینجا و بعد کار ما تمام می شود
1371
01:08:08,880 –> 01:08:11,680
بنابراین اکنون دو مدل خطی داریم
1372
01:08:11,680 –> 01:08:12,480
پسرفت
1373
01:08:12,480 –> 01:08:15,440
و رگرسیون لجستیک فقط در 60
1374
01:08:15,440 –> 01:08:16,640
خطوط پایتون
1375
01:08:16,640 –> 01:08:19,839
و اکنون بسیار تمیزتر به نظر می رسد بنابراین بله
1376
01:08:19,839 –> 01:08:21,439
همین است امیدوارم از این لذت برده باشید
1377
01:08:21,439 –> 01:08:23,439
آموزش و دفعه بعد می بینمت
1378
01:08:23,439 –> 01:08:25,838
خدا حافظ
1379
01:08:29,600 –> 01:08:31,679
سلام به یک دستگاه جدید خوش آمدید
1380
01:08:31,679 –> 01:08:33,920
امروز ما آموزش از ابتدا یاد می گیریم
1381
01:08:33,920 –> 01:08:36,000
قرار است خلیج های ساده لوح را اجرا کنند
1382
01:08:36,000 –> 01:08:38,399
طبقه بندی کننده که فقط در پایتون ساخته شده است
1383
01:08:38,399 –> 01:08:39,198
ماژول ها و
1384
01:08:39,198 –> 01:08:42,719
numpy بنابراین طبقه بندی کننده ساده و بی تکلف بیز
1385
01:08:42,719 –> 01:08:46,000
مبتنی بر قضیه بایاس است که
1386
01:08:46,000 –> 01:08:46,479
می گوید
1387
01:08:46,479 –> 01:08:49,759
که اگر دو رویداد a و b داشته باشیم
1388
01:08:49,759 –> 01:08:53,198
سپس احتمال رویداد داده شده است
1389
01:08:53,198 –> 01:08:53,679
که
1390
01:08:53,679 –> 01:08:57,198
b قبلاً اتفاق افتاده است برابر است با
1391
01:08:57,198 –> 01:08:58,880
احتمال
1392
01:08:58,880 –> 01:09:02,399
b با توجه به اینکه a بارها اتفاق افتاده است
1393
01:09:02,399 –> 01:09:03,520
احتمال
1394
01:09:03,520 –> 01:09:07,520
تقسیم a بر احتمال b
1395
01:09:07,520 –> 01:09:10,640
و اگر این را در مورد خود اعمال کنیم
1396
01:09:10,640 –> 01:09:14,799
سپس فرمول ما احتمال است
1397
01:09:14,799 –> 01:09:18,000
از y از کلاس ما y
1398
01:09:18,000 –> 01:09:21,040
با توجه به بردار ویژگی x
1399
01:09:21,040 –> 01:09:24,080
برابر با احتمال است
1400
01:09:24,080 –> 01:09:27,198
x داده شده y ضربدر p از
1401
01:09:27,198 –> 01:09:31,839
y تقسیم بر p از x
1402
01:09:31,839 –> 01:09:36,080
و x بردار ویژگی ما است که
1403
01:09:36,080 –> 01:09:36,799
تشکیل می شود
1404
01:09:36,799 –> 01:09:40,080
از چندین ویژگی و
1405
01:09:40,080 –> 01:09:43,359
در حال حاضر آن را خلیج ساده لوح نامیده می شود زیرا
1406
01:09:43,359 –> 01:09:45,679
اکنون ما این فرض را می کنیم که همه
1407
01:09:45,679 –> 01:09:46,399
امکانات
1408
01:09:46,399 –> 01:09:49,439
متقابل مستقل هستند که
1409
01:09:49,439 –> 01:09:52,319
یعنی برای مثال اگر می خواهید پیش بینی کنید
1410
01:09:52,319 –> 01:09:54,719
احتمال اینکه یک فرد
1411
01:09:54,719 –> 01:09:58,080
برای دویدن به بیرون می رود
1412
01:09:58,080 –> 01:10:00,880
این ویژگی که خورشید می تابد و
1413
01:10:00,880 –> 01:10:02,560
همچنین با توجه به ویژگی
1414
01:10:02,560 –> 01:10:05,920
که فرد سالم است پس هر دو از
1415
01:10:05,920 –> 01:10:07,280
این ویژگی ها
1416
01:10:07,280 –> 01:10:11,040
ممکن است مستقل باشد اما هر دو
1417
01:10:11,040 –> 01:10:13,520
به این احتمال کمک می کند که
1418
01:10:13,520 –> 01:10:14,840
فرد می رود
1419
01:10:14,840 –> 01:10:17,679
در زندگی واقعی
1420
01:10:17,679 –> 01:10:20,560
بسیاری از ویژگی ها متقابل نیستند
1421
01:10:20,560 –> 01:10:22,480
مستقل اما این فرض
1422
01:10:22,480 –> 01:10:25,760
برای بسیاری از مشکلات و
1423
01:10:25,760 –> 01:10:27,360
با این فرض
1424
01:10:27,360 –> 01:10:30,719
می توانیم تقسیم کنیم
1425
01:10:30,719 –> 01:10:33,920
این احتمال
1426
01:10:33,920 –> 01:10:37,520
از قانون زنجیره استفاده کنید
1427
01:10:37,520 –> 01:10:41,120
بنابراین ما احتمال را برای
1428
01:10:41,120 –> 01:10:45,280
هر ویژگی داده شده y
1429
01:10:45,280 –> 01:10:49,679
و هر کدام را ضرب می کنیم و سپس ضرب می کنیم
1430
01:10:49,679 –> 01:10:50,159
آن را با
1431
01:10:50,159 –> 01:10:54,640
p از y و تقسیم بر p از x
1432
01:10:54,640 –> 01:10:58,480
و به هر حال اوم این
1433
01:10:58,480 –> 01:11:02,000
p از y x را پسین می نامند
1434
01:11:02,000 –> 01:11:03,760
احتمال
1435
01:11:03,760 –> 01:11:07,040
p از x با توجه به y کلاس نامیده می شود
1436
01:11:07,040 –> 01:11:09,280
احتمال شرطی
1437
01:11:09,280 –> 01:11:12,159
و p از y را پیشین می نامند
1438
01:11:12,159 –> 01:11:14,000
احتمال y
1439
01:11:14,000 –> 01:11:16,000
و p از x را پیشین می نامند
1440
01:11:16,000 –> 01:11:18,800
احتمال x
1441
01:11:18,800 –> 01:11:22,080
و اکنون می خواهیم یک طبقه بندی انجام دهیم
1442
01:11:22,080 –> 01:11:25,600
بنابراین با توجه به این احتمال پسین
1443
01:11:25,600 –> 01:11:28,159
ما می خواهیم کلاس را با
1444
01:11:28,159 –> 01:11:30,239
بالاترین احتمال
1445
01:11:30,239 –> 01:11:33,280
بنابراین ما y را انتخاب می کنیم که همان است
1446
01:11:33,280 –> 01:11:36,640
حداکثر قوس y
1447
01:11:36,640 –> 01:11:40,080
از این احتمال پسین
1448
01:11:40,080 –> 01:11:43,120
و اکنون می توانیم فرمول خود را اعمال کنیم
1449
01:11:43,120 –> 01:11:46,560
و از آنجایی که ما فقط به y علاقه مندیم
1450
01:11:46,560 –> 01:11:49,440
ما به این p از x نیاز نداریم تا بتوانیم
1451
01:11:49,440 –> 01:11:51,280
این را خط بزن
1452
01:11:51,280 –> 01:11:54,880
و سپس فرمول ما این است
1453
01:11:54,880 –> 01:11:58,000
y حداکثر قوس است
1454
01:11:58,000 –> 01:12:01,280
و سپس هر کلاس را ضرب می کنیم
1455
01:12:01,280 –> 01:12:03,120
احتمال شرطی
1456
01:12:03,120 –> 01:12:06,400
و سپس احتمال قبلی
1457
01:12:06,400 –> 01:12:09,520
و سپس از یک ترفند کوچک از همه استفاده می کنیم
1458
01:12:09,520 –> 01:12:11,040
این ارزش ها
1459
01:12:11,040 –> 01:12:15,280
are احتمالات بین 0 و 1 هستند
1460
01:12:15,280 –> 01:12:18,000
بنابراین اگر مقدار زیادی از این مقادیر را ضرب کنیم
1461
01:12:18,000 –> 01:12:18,960
سپس دریافت می کنیم
1462
01:12:18,960 –> 01:12:22,000
تعداد بسیار کم و ممکن است اجرا کنیم
1463
01:12:22,000 –> 01:12:25,199
به مشکلات سرریز بنابراین به منظور
1464
01:12:25,199 –> 01:12:26,960
جلوگیری از این ما اعمال می کنیم
1465
01:12:26,960 –> 01:12:30,400
تابع log بنابراین ما log را برای اعمال می کنیم
1466
01:12:30,400 –> 01:12:32,800
هر یک از این احتمالات
1467
01:12:32,800 –> 01:12:35,679
و با ورود به سیستم یا قوانین برای
1468
01:12:35,679 –> 01:12:37,600
لگاریتمی که می توانیم تغییر دهیم
1469
01:12:37,600 –> 01:12:40,719
علامت ضرب در یک
1470
01:12:40,719 –> 01:12:43,520
یک علامت مثبت بنابراین اکنون ما یک اضافه داریم
1471
01:12:43,520 –> 01:12:45,360
اینجا
1472
01:12:45,360 –> 01:12:47,840
و اکنون ما این فرمول را داریم که ما
1473
01:12:47,840 –> 01:12:48,400
نیاز داشتن
1474
01:12:48,400 –> 01:12:51,600
و اکنون باید به این موضوع بپردازیم
1475
01:12:51,600 –> 01:12:54,000
احتمال قبلی پس پیشین
1476
01:12:54,000 –> 01:12:57,760
احتمال فقط فرکانس است
1477
01:12:57,760 –> 01:13:00,800
اوم ما می توانیم این را در یک ثانیه و بعد ببینیم
1478
01:13:00,800 –> 01:13:03,199
این کلاس مشروط چیست
1479
01:13:03,199 –> 01:13:04,400
احتمال
1480
01:13:04,400 –> 01:13:07,440
p از x با y و
1481
01:13:07,440 –> 01:13:10,480
در اینجا ما این را با یک گاوسی مدل می کنیم
1482
01:13:10,480 –> 01:13:12,239
توزیع
1483
01:13:12,239 –> 01:13:15,520
بنابراین در اینجا ما می توانیم فرمول به این صورت را ببینیم
1484
01:13:15,520 –> 01:13:18,560
یک بالاتر و سپس جذر است
1485
01:13:18,560 –> 01:13:18,960
2
1486
01:13:18,960 –> 01:13:22,000
پی برابر واریانس
1487
01:13:22,000 –> 01:13:26,080
y برابر تابع نمایی از
1488
01:13:26,080 –> 01:13:30,000
منهای x منهای مقدار میانگین
1489
01:13:30,000 –> 01:13:32,640
مربع تقسیم بر دو برابر
1490
01:13:32,640 –> 01:13:33,920
واریانس
1491
01:13:33,920 –> 01:13:36,800
و در اینجا طرحی از گاوسیان را می بینیم
1492
01:13:36,800 –> 01:13:37,440
عملکرد
1493
01:13:37,440 –> 01:13:40,719
برای ابزارها و تغییرات مختلف
1494
01:13:40,719 –> 01:13:44,320
اکنون واریانس است بنابراین این یک احتمال است
1495
01:13:44,320 –> 01:13:45,679
که همیشه بین
1496
01:13:45,679 –> 01:13:49,280
صفر و یک و
1497
01:13:49,280 –> 01:13:52,239
بله با این فرمول ها این همه ما هستیم
1498
01:13:52,239 –> 01:13:55,520
باید شروع کنیم تا اکنون بتوانیم
1499
01:13:55,520 –> 01:13:58,480
شروع کنید و آن را اجرا کنید و اول از همه
1500
01:13:58,480 –> 01:14:00,239
همه البته ما وارد می کنیم
1501
01:14:00,239 –> 01:14:04,800
numpy به عنوان np و سپس یک کلاس ایجاد می کنیم
1502
01:14:04,800 –> 01:14:08,560
بایز ساده لوح نامیده می شود
1503
01:14:08,560 –> 01:14:12,000
و نیازی به روش init ندارد بنابراین ما
1504
01:14:12,000 –> 01:14:12,400
می توان
1505
01:14:12,400 –> 01:14:15,199
ابتدا روش تناسب را اجرا کنید تا ما
1506
01:14:15,199 –> 01:14:15,679
خواستن
1507
01:14:15,679 –> 01:14:18,800
برازش داده های آموزشی و
1508
01:14:18,800 –> 01:14:22,239
برچسب های آموزشی و سپس ما نیز می خواهیم
1509
01:14:22,239 –> 01:14:22,880
پیاده سازی
1510
01:14:22,880 –> 01:14:26,640
یک روش پیش بینی بنابراین
1511
01:14:26,640 –> 01:14:30,320
در اینجا ما برچسب های تست را پیش بینی می کنیم
1512
01:14:30,320 –> 01:14:34,719
یا نمونه های آزمایشی و حالا بیایید شروع کنیم
1513
01:14:34,719 –> 01:14:35,920
بیایید با
1514
01:14:35,920 –> 01:14:39,040
روش مناسب بنابراین چه کاری می توانیم انجام دهیم
1515
01:14:39,040 –> 01:14:42,400
در اینجا است بنابراین ما نیاز داریم
1516
01:14:42,400 –> 01:14:45,760
قبل و ما می توانیم آنها را محاسبه کنیم
1517
01:14:45,760 –> 01:14:49,280
در این روش مناسب و ما نیاز داریم
1518
01:14:49,280 –> 01:14:52,480
کلاس شرطی است بنابراین در اینجا ما به آن نیاز داریم
1519
01:14:52,480 –> 01:14:55,679
میانگین برای هر کلاس و واریانس برای
1520
01:14:55,679 –> 01:14:56,000
هر یک
1521
01:14:56,000 –> 01:14:59,679
کلاس تا بتوانیم اینها را هم محاسبه کنیم
1522
01:14:59,679 –> 01:15:03,120
پس بیایید این کار را انجام دهیم تا شماره را بدست آوریم
1523
01:15:03,120 –> 01:15:06,320
نمونه ها و تعداد
1524
01:15:06,320 –> 01:15:10,159
از ویژگی های اول و به هر حال ما
1525
01:15:10,159 –> 01:15:13,600
در اینجا x یک numpy است
1526
01:15:13,600 –> 01:15:16,640
آرایه دوم جایی که بعد اول است
1527
01:15:16,640 –> 01:15:18,320
تعداد نمونه ها
1528
01:15:18,320 –> 01:15:21,280
و بعد دوم یا عدد
1529
01:15:21,280 –> 01:15:21,600
از
1530
01:15:21,600 –> 01:15:23,840
ردیف تعداد نمونه ها و
1531
01:15:23,840 –> 01:15:25,120
تعداد ستون ها
1532
01:15:25,120 –> 01:15:27,840
تعداد امکانات است تا بتوانیم
1533
01:15:27,840 –> 01:15:28,719
این را باز کنید
1534
01:15:28,719 –> 01:15:33,679
و بگویید این شکل نقطه x است
1535
01:15:35,280 –> 01:15:38,560
و y ما یک بردار ردیف 1 بعدی است
1536
01:15:38,560 –> 01:15:41,840
همچنین اندازه تعداد نمونه
1537
01:15:41,840 –> 01:15:45,520
بنابراین این ورودی ماست و حالا بیایید دریافت کنیم
1538
01:15:45,520 –> 01:15:46,000
را
1539
01:15:46,000 –> 01:15:49,760
کلاس های منحصر به فرد پس بیایید بگوییم خود
1540
01:15:49,760 –> 01:15:53,760
کلاس ها برابر numpy منحصر به فرد است
1541
01:15:53,760 –> 01:15:57,760
از y بنابراین این منحصر به فرد را پیدا خواهد کرد
1542
01:15:57,760 –> 01:16:00,239
عناصر یک آرایه پس اگر دو عنصر داشته باشیم
1543
01:16:00,239 –> 01:16:00,960
کلاس ها
1544
01:16:00,960 –> 01:16:05,280
صفر و یک سپس این یک آرایه خواهد بود
1545
01:16:05,280 –> 01:16:08,560
فقط با یک صفر و یک y در آن
1546
01:16:08,560 –> 01:16:12,320
و یکی در آن و سپس اجازه دهید
1547
01:16:12,320 –> 01:16:16,239
می گویند تعداد کلاس ها برابر است
1548
01:16:16,239 –> 01:16:19,360
طول این خود
1549
01:16:19,360 –> 01:16:22,960
کلاس ها و حالا بیایید
1550
01:16:22,960 –> 01:16:26,080
در آن یا در آغاز
1551
01:16:26,080 –> 01:16:30,640
میانگین واریانس و مقدمات
1552
01:16:30,640 –> 01:16:34,960
بنابراین بیایید بگوییم خود نقطه به معنای
1553
01:16:34,960 –> 01:16:38,159
برابر است و ما می خواهیم آنها را با آنها شروع کنیم
1554
01:16:38,159 –> 01:16:41,600
در ابتدا صفر می شود و می شود
1555
01:16:41,600 –> 01:16:45,280
اندازه ای که شماره دارد
1556
01:16:45,280 –> 01:16:48,800
کلاس ها و تعداد ویژگی ها
1557
01:16:48,800 –> 01:16:51,620
به عنوان چند تا در اینجا آن را نیز
1558
01:16:51,620 –> 01:16:53,040
[موسیقی]
1559
01:16:53,040 –> 01:16:57,360
برای هر کلاس
1560
01:16:57,360 –> 01:17:00,400
همین را دارد
1561
01:17:00,400 –> 01:17:05,360
تعداد یا برای هر کلاس
1562
01:17:06,719 –> 01:17:12,080
ما برای هر ویژگی به وسیله ای نیاز داریم
1563
01:17:12,080 –> 01:17:15,040
و ما می خواهیم این را بدست آوریم یا به این a
1564
01:17:15,040 –> 01:17:16,000
نوع داده
1565
01:17:16,000 –> 01:17:19,120
از float numpy
1566
01:17:19,120 –> 01:17:23,760
dot float 64 و ما می خواهیم این کار را با
1567
01:17:23,760 –> 01:17:24,960
همان
1568
01:17:24,960 –> 01:17:29,120
برای واریانس ها پس بیایید خود نقطه را بگوییم
1569
01:17:29,120 –> 01:17:33,120
var برابر با این است
1570
01:17:33,120 –> 01:17:37,360
و سپس می خواهیم خود نقطه را انجام دهیم
1571
01:17:37,360 –> 01:17:40,560
priors برابر است با np dot
1572
01:17:40,560 –> 01:17:43,760
صفر و اینجا برای هر کلاس
1573
01:17:43,760 –> 01:17:47,199
ما یک قبل می خواهیم پس این فقط یک است
1574
01:17:47,199 –> 01:17:50,719
بردار 1d از اندازه تعداد
1575
01:17:50,719 –> 01:17:54,000
کلاس هایی با نوع داده
1576
01:17:54,000 –> 01:17:57,040
از np.float
1577
01:17:57,040 –> 01:18:00,159
64. و
1578
01:18:00,159 –> 01:18:03,360
حالا بیایید آنها را برای آن محاسبه کنیم
1579
01:18:03,360 –> 01:18:07,120
هر کلاس در خود نقطه
1580
01:18:07,120 –> 01:18:09,680
کلاس ما
1581
01:18:09,680 –> 01:18:11,520
[موسیقی]
1582
01:18:11,520 –> 01:18:15,840
اکنون فقط ما نمونه ها را می خواهیم
1583
01:18:15,840 –> 01:18:18,880
که این کلاس را به عنوان برچسب دارد
1584
01:18:18,880 –> 01:18:22,480
بیایید این x c را مساوی بنامیم
1585
01:18:22,480 –> 01:18:25,920
x و سپس کجا
1586
01:18:25,920 –> 01:18:29,199
c برابر است
1587
01:18:29,199 –> 01:18:33,920
y و اکنون می توانیم میانگین را محاسبه کنیم
1588
01:18:33,920 –> 01:18:38,800
برای هر کلاس و خودمان را پر کنیم
1589
01:18:38,800 –> 01:18:42,560
بنابراین ما می خواهیم این را پر کنیم
1590
01:18:42,560 –> 01:18:46,640
سطر و تمام ستون ها
1591
01:18:46,640 –> 01:18:49,760
اینجا و ما می گوییم این است
1592
01:18:49,760 –> 01:18:53,440
x x c
1593
01:18:53,440 –> 01:18:57,199
dot و numpy یک یا a دارد
1594
01:18:57,199 –> 01:19:01,040
آرایه nd دارای داخلی است
1595
01:19:01,040 –> 01:19:04,800
تابع متوسط تا بتوانیم بگوییم میانگین
1596
01:19:04,800 –> 01:19:08,400
در امتداد محور صفر بنابراین
1597
01:19:08,400 –> 01:19:11,600
لطفاً تابع میانگین را بررسی کنید
1598
01:19:11,600 –> 01:19:13,520
خودت
1599
01:19:13,520 –> 01:19:17,199
و ما می خواهیم همین کار را انجام دهیم
1600
01:19:17,199 –> 01:19:20,480
var بنابراین خود var
1601
01:19:20,480 –> 01:19:23,600
در این ردیف برای هر ستون
1602
01:19:23,600 –> 01:19:28,400
xc dot var است بنابراین numpy یک var نیز دارد
1603
01:19:28,400 –> 01:19:32,400
روش و سپس ما قبل را محاسبه می کنیم
1604
01:19:32,400 –> 01:19:32,960
بنابراین
1605
01:19:32,960 –> 01:19:37,679
خود رهیبان
1606
01:19:37,679 –> 01:19:41,040
از این کلاس برابر است
1607
01:19:41,040 –> 01:19:44,640
به و در حال حاضر چه اطلاعاتی داریم
1608
01:19:44,640 –> 01:19:47,840
در حال حاضر um اگر ما داشته باشیم
1609
01:19:47,840 –> 01:19:51,520
نمونه های آموزشی و برچسب های آموزشی
1610
01:19:51,520 –> 01:19:54,800
بنابراین می توانیم احتمال قبلی را بگوییم
1611
01:19:54,800 –> 01:19:57,840
که این کلاس رخ خواهد داد
1612
01:19:57,840 –> 01:20:01,760
برابر فرکانس این کلاس است
1613
01:20:01,760 –> 01:20:05,520
در نمونه های آموزشی
1614
01:20:05,520 –> 01:20:08,719
پس می گوییم x می گیریم
1615
01:20:08,719 –> 01:20:13,199
شکل نقطه ج
1616
01:20:13,600 –> 01:20:17,199
صفر بنابراین فقط این مقدار را دریافت می کند
1617
01:20:17,199 –> 01:20:20,719
تعداد نمونه ها
1618
01:20:20,719 –> 01:20:25,040
با این برچسب و سپس آن را تقسیم می کنیم
1619
01:20:25,040 –> 01:20:28,320
با تعداد کل نمونه ها
1620
01:20:28,320 –> 01:20:31,280
بنابراین و ما باید این را به a تبدیل کنیم
1621
01:20:31,280 –> 01:20:32,320
شناور
1622
01:20:32,320 –> 01:20:35,520
زیرا ما در اینجا اعداد صحیح نمی خواهیم
1623
01:20:35,520 –> 01:20:37,520
بیایید بگوییم شناور
1624
01:20:37,520 –> 01:20:40,719
تعداد نمونه بنابراین این است
1625
01:20:40,719 –> 01:20:42,159
فرکانس
1626
01:20:42,159 –> 01:20:46,480
هر چند وقت یکبار این کلاس c رخ می دهد
1627
01:20:46,480 –> 01:20:49,520
و اکنون این همه برای ماست
1628
01:20:49,520 –> 01:20:52,880
روش مناسب و حالا بیایید
1629
01:20:52,880 –> 01:20:56,000
روش پیش بینی را اجرا کنید
1630
01:20:56,000 –> 01:20:58,560
و برای این ما یک یاور کوچک ایجاد می کنیم
1631
01:20:58,560 –> 01:20:59,360
روش
1632
01:20:59,360 –> 01:21:03,600
بنابراین بیایید این را پیشبینی خط خطی بنامیم
1633
01:21:03,600 –> 01:21:06,719
خود و این تنها خواهد شد
1634
01:21:06,719 –> 01:21:10,159
یک نمونه بنابراین در اینجا ما داریم
1635
01:21:10,159 –> 01:21:13,600
ما می توانیم چندین نمونه را در اینجا داشته باشیم
1636
01:21:13,600 –> 01:21:17,280
می گوییم y برابر است
1637
01:21:17,280 –> 01:21:20,400
و سپس از درک لیست و
1638
01:21:20,400 –> 01:21:21,199
این را صدا کن
1639
01:21:21,199 –> 01:21:25,920
روش پیشبینی زیرخط
1640
01:21:26,080 –> 01:21:29,360
فقط برای یک نمونه
1641
01:21:29,360 –> 01:21:33,040
و سپس این کار را برای هر نمونه انجام می دهیم
1642
01:21:33,040 –> 01:21:37,360
در نمونه های آزمایشی ما و سپس برمی گردیم
1643
01:21:37,360 –> 01:21:39,679
آنها
1644
01:21:39,840 –> 01:21:42,239
و اکنون باید خودمان را پیاده کنیم
1645
01:21:42,239 –> 01:21:45,040
روش پیشبینی زیرخط
1646
01:21:45,040 –> 01:21:48,400
بنابراین در اینجا آنچه ما در حال حاضر نیاز داریم
1647
01:21:48,400 –> 01:21:51,520
آیا ما نیاز داریم
1648
01:21:51,520 –> 01:21:54,840
این تابع را اعمال کنید
1649
01:21:54,840 –> 01:21:58,880
بنابراین ما باید پسین را محاسبه کنیم
1650
01:21:58,880 –> 01:22:01,040
احتمال
1651
01:22:01,040 –> 01:22:05,280
و کلاس شرطی را محاسبه کنید
1652
01:22:05,280 –> 01:22:08,400
و قبل از هر یک و سپس
1653
01:22:08,400 –> 01:22:11,040
کلاس با بالاترین را انتخاب کنید
1654
01:22:11,040 –> 01:22:13,199
احتمال
1655
01:22:13,199 –> 01:22:17,040
پس بیایید یک خالی ایجاد کنیم
1656
01:22:17,040 –> 01:22:21,280
لیستی به نام پسین
1657
01:22:21,280 –> 01:22:24,320
برابر با یک لیست خالی است
1658
01:22:24,320 –> 01:22:28,239
و حالا بیایید هر کلاس را مرور کنیم
1659
01:22:28,239 –> 01:22:31,520
بنابراین بیایید برای شاخص و می گویند
1660
01:22:31,520 –> 01:22:36,400
ج در برشمردن
1661
01:22:36,560 –> 01:22:39,679
کلاس های خود نقطه بنابراین اینجا
1662
01:22:39,679 –> 01:22:43,199
شاخص را نیز دریافت می کنیم
1663
01:22:43,199 –> 01:22:46,719
و برچسب کلاس با این enumerate
1664
01:22:46,719 –> 01:22:48,080
عملکرد
1665
01:22:48,080 –> 01:22:52,159
و حالا می توانیم بگوییم امم
1666
01:22:52,159 –> 01:22:55,520
اول ما قبل را می گیریم پس
1667
01:22:55,520 –> 01:22:58,719
برابرهای قبلی و ما از قبل داریم
1668
01:22:58,719 –> 01:23:02,000
قیمت را محاسبه کرد پس این است
1669
01:23:02,000 –> 01:23:06,080
قبل از خود نقطه
1670
01:23:06,080 –> 01:23:09,520
پیشینیان با این در
1671
01:23:09,520 –> 01:23:13,280
شاخص فعلی و اکنون همانطور که گفتم
1672
01:23:13,280 –> 01:23:16,080
سپس در پایان لاگ را اعمال می کنیم
1673
01:23:16,080 –> 01:23:16,800
عملکرد
1674
01:23:16,800 –> 01:23:20,000
بنابراین بیایید این را در اینجا اعمال کنیم
1675
01:23:20,000 –> 01:23:23,840
فرض کنید np dot log
1676
01:23:23,840 –> 01:23:28,480
و سپس um را ایجاد کنید
1677
01:23:28,480 –> 01:23:32,320
پس خلفی برابر است
1678
01:23:32,320 –> 01:23:37,520
یا بیایید این کلاس را صدا کنیم
1679
01:23:37,880 –> 01:23:41,679
مشروط برابر است
1680
01:23:41,679 –> 01:23:45,440
و سپس تابع گاوسی را اعمال می کنیم
1681
01:23:45,440 –> 01:23:48,639
بنابراین برای این اجازه دهید این کمک کننده را ایجاد کنیم
1682
01:23:48,639 –> 01:23:50,000
عملکرد
1683
01:23:50,000 –> 01:23:53,280
و این را چگالی احتمال می نامیم
1684
01:23:53,280 –> 01:23:56,560
عملکرد با خود
1685
01:23:56,560 –> 01:24:00,080
و سپس کلاس را می گیرد
1686
01:24:00,080 –> 01:24:04,719
شاخص و سپس x می شود
1687
01:24:04,719 –> 01:24:08,000
و در اینجا این فرمول را اعمال می کنیم
1688
01:24:08,000 –> 01:24:11,199
در اینجا بنابراین ما نیاز داریم
1689
01:24:11,199 –> 01:24:16,159
میانگین و واریانس و سپس
1690
01:24:16,159 –> 01:24:19,679
um این تابع را اعمال کنید
1691
01:24:19,679 –> 01:24:23,440
پس اول از همه بیایید میانگین را بدست آوریم
1692
01:24:23,440 –> 01:24:26,719
برابر است و ما در حال حاضر میانگین را داریم
1693
01:24:26,719 –> 01:24:27,520
می توانیم بگوییم
1694
01:24:27,520 –> 01:24:31,040
منظور خود از این است
1695
01:24:31,040 –> 01:24:34,400
شاخص کلاس و همچنین واریانس
1696
01:24:34,400 –> 01:24:37,760
برابر با خود var
1697
01:24:37,760 –> 01:24:41,840
از این شاخص کلاس و سپس
1698
01:24:41,840 –> 01:24:44,880
بیایید یک شمارنده ایجاد کنیم که هست
1699
01:24:44,880 –> 01:24:48,480
برابر با numpy dot است
1700
01:24:48,480 –> 01:24:52,080
x پس تابع نمایی از
1701
01:24:52,080 –> 01:24:55,280
منهای و سپس x داریم
1702
01:24:55,280 –> 01:24:58,719
منهای میانگین
1703
01:24:58,719 –> 01:25:01,920
به توان 2
1704
01:25:01,920 –> 01:25:05,040
تقسیم بر و سپس
1705
01:25:05,040 –> 01:25:08,719
2 بار
1706
01:25:09,520 –> 01:25:13,520
واریانس و سپس ما داریم
1707
01:25:13,520 –> 01:25:16,560
مخرج پس مخرج
1708
01:25:16,560 –> 01:25:20,239
برابر است و در اینجا np داریم
1709
01:25:20,239 –> 01:25:25,280
نقطه s
1710
01:25:25,280 –> 01:25:28,560
q r t پس جذر
1711
01:25:28,560 –> 01:25:32,000
دو بار و داریم
1712
01:25:32,000 –> 01:25:34,960
pi را نیز می توانیم از numpy و p دریافت کنیم
1713
01:25:34,960 –> 01:25:35,440
نقطه
1714
01:25:35,440 –> 01:25:39,280
پی بار
1715
01:25:39,280 –> 01:25:43,360
var و سپس برمی گردیم
1716
01:25:43,360 –> 01:25:48,159
صورت تقسیم بر مخرج
1717
01:25:48,159 –> 01:25:50,719
بنابراین این چگالی احتمال ما است
1718
01:25:50,719 –> 01:25:51,840
عملکرد
1719
01:25:51,840 –> 01:25:54,000
و سپس می توانیم کلاس خود را بگوییم
1720
01:25:54,000 –> 01:25:56,000
مشروط
1721
01:25:56,000 –> 01:25:58,400
است
1722
01:26:00,000 –> 01:26:02,719
[موسیقی]
1723
01:26:02,719 –> 01:26:06,560
خود نقطه
1724
01:26:06,560 –> 01:26:10,000
تابع چگالی احتمال ما
1725
01:26:10,000 –> 01:26:14,639
شاخص و x
1726
01:26:14,639 –> 01:26:18,480
و سپس اوم
1727
01:26:18,480 –> 01:26:22,000
ما می خواهیم ما می خواهیم
1728
01:26:22,000 –> 01:26:25,360
لگاریتم ها را داشته باشیم، بنابراین می گوید
1729
01:26:25,360 –> 01:26:28,880
np dot log
1730
01:26:29,920 –> 01:26:33,679
و سپس جمع می کنیم
1731
01:26:33,679 –> 01:26:39,120
همه آنها بالاست تا بتوانیم استفاده کنیم
1732
01:26:40,600 –> 01:26:44,560
numpy.بعضی از این
1733
01:26:45,490 –> 01:26:47,120
[موسیقی]
1734
01:26:47,120 –> 01:26:51,199
و سپس ما می گوییم پوزمان
1735
01:26:51,199 –> 01:26:55,440
تریا برابر با قبل است
1736
01:26:55,440 –> 01:27:00,639
به علاوه شرطی های کلاس
1737
01:27:00,880 –> 01:27:04,239
کلاس ما شرطی است و سپس اضافه می کنیم
1738
01:27:04,239 –> 01:27:04,639
آنها
1739
01:27:04,639 –> 01:27:07,760
به پسین ما بنابراین خلفی نقطه
1740
01:27:07,760 –> 01:27:11,760
ضمیمه خلفی
1741
01:27:11,760 –> 01:27:15,199
و اکنون از آن استفاده می کنیم یا اعمال می کنیم
1742
01:27:15,199 –> 01:27:18,400
حداکثر قوس این را انتخاب کنید
1743
01:27:18,400 –> 01:27:21,520
کلاس با بیشترین احتمال
1744
01:27:21,520 –> 01:27:22,239
بی حسی
1745
01:27:22,239 –> 01:27:25,280
r همچنین یک تابع arc max دارد
1746
01:27:25,280 –> 01:27:28,639
بنابراین این بسیار آسان است، بنابراین اکنون می توانیم بگوییم
1747
01:27:28,639 –> 01:27:29,679
برگشت
1748
01:27:29,679 –> 01:27:33,440
کلاس های خود نقطه
1749
01:27:33,440 –> 01:27:37,120
از و شاخص در حال حاضر
1750
01:27:37,120 –> 01:27:41,000
شاخص از
1751
01:27:41,000 –> 01:27:45,040
پسین ها با بالاترین
1752
01:27:45,040 –> 01:27:48,320
احتمال تا بتوانیم بگوییم
1753
01:27:48,320 –> 01:27:52,800
np dot arc max
1754
01:27:52,800 –> 01:27:56,080
از این پسین ها
1755
01:27:56,080 –> 01:27:59,280
و اکنون کار ما تمام شده است
1756
01:27:59,280 –> 01:28:04,080
بنابراین این کل اجرا و
1757
01:28:04,080 –> 01:28:06,560
حالا ما می توانیم آن را اجرا کنیم، بنابراین من قبلا یک
1758
01:28:06,560 –> 01:28:07,840
مقدار کمی
1759
01:28:07,840 –> 01:28:10,719
اسکریپت تست که در آن از scikit Learn استفاده می کنم
1760
01:28:10,719 –> 01:28:12,400
کتابخانه برای بارگذاری a
1761
01:28:12,400 –> 01:28:15,760
مجموعه داده و ایجاد یک مجموعه داده با
1762
01:28:15,760 –> 01:28:19,280
1000 نمونه و 10 ویژگی برای هر کدام
1763
01:28:19,280 –> 01:28:22,560
نمونه و ما دو کلاس داریم
1764
01:28:22,560 –> 01:28:25,360
سپس داده های خود را به آموزش و تقسیم می کنیم
1765
01:28:25,360 –> 01:28:26,719
نمونه های آزمایش
1766
01:28:26,719 –> 01:28:30,480
و برچسب ها و سپس ما ساده لوح خود را ایجاد می کنیم
1767
01:28:30,480 –> 01:28:31,040
خلیج ها
1768
01:28:31,040 –> 01:28:35,600
طبقه بندی که من از این فایل وارد می کنم
1769
01:28:35,600 –> 01:28:38,800
که من اینجا دارم و پس از آن جا می شوم
1770
01:28:38,800 –> 01:28:40,719
داده های آموزشی و آموزش
1771
01:28:40,719 –> 01:28:42,000
برچسب ها و سپس
1772
01:28:42,000 –> 01:28:45,040
من پیش بینی می کنم که پیش بینی ها را برای
1773
01:28:45,040 –> 01:28:46,960
نمونه های آزمایشی
1774
01:28:46,960 –> 01:28:50,480
و سپس دقت را محاسبه خواهم کرد
1775
01:28:50,480 –> 01:28:53,679
پس بیایید این را اجرا کنیم و ببینیم آیا این اتفاق می افتد یا خیر
1776
01:28:53,679 –> 01:28:57,280
اگر این کار می کند، بله درست است
1777
01:28:57,280 –> 01:28:59,920
کار می کند و ما یک طبقه بندی داریم
1778
01:28:59,920 –> 01:29:01,239
دقت از
1779
01:29:01,239 –> 01:29:05,199
0.96 خیلی خوبه
1780
01:29:05,199 –> 01:29:07,280
پس بله همین است امیدوارم لذت برده باشید
1781
01:29:07,280 –> 01:29:08,320
این آموزش
1782
01:29:08,320 –> 01:29:12,080
و دفعه بعد خداحافظ
1783
01:29:15,760 –> 01:29:17,840
سلام به همه به یک دستگاه جدید خوش آمدید
1784
01:29:17,840 –> 01:29:19,840
آموزش یادگیری از ابتدا
1785
01:29:19,840 –> 01:29:21,600
امروز قصد داریم یک را پیاده سازی کنیم
1786
01:29:21,600 –> 01:29:24,159
پرسپترون فقط در پایتون ساخته شده است
1787
01:29:24,159 –> 01:29:24,960
ماژول ها و
1788
01:29:24,960 –> 01:29:28,159
numpy پرسپترون را می توان به عنوان یک مشاهده کرد
1789
01:29:28,159 –> 01:29:30,320
واحد یک عصبی مصنوعی
1790
01:29:30,320 –> 01:29:31,440
شبکه
1791
01:29:31,440 –> 01:29:33,920
بنابراین پرسپترون یک مدل ساده شده است
1792
01:29:33,920 –> 01:29:35,920
یک نورون بیولوژیکی
1793
01:29:35,920 –> 01:29:38,080
و رفتار تنها را شبیه سازی می کند
1794
01:29:38,080 –> 01:29:38,960
یک سلول
1795
01:29:38,960 –> 01:29:41,360
پس بیایید نگاهی به این تصویر در اینجا بیاندازیم
1796
01:29:41,360 –> 01:29:42,320
ما یکی داریم
1797
01:29:42,320 –> 01:29:45,440
سلول و سلول ما یک می شود
1798
01:29:45,440 –> 01:29:48,639
ورودی بنابراین سیگنال های ورودی و آنها را دریافت می کند
1799
01:29:48,639 –> 01:29:51,440
وزن و خلاصه می شوند و اگر
1800
01:29:51,440 –> 01:29:53,679
سپس کل سیگنال ورودی به a می رسد
1801
01:29:53,679 –> 01:29:55,040
آستانه معین
1802
01:29:55,040 –> 01:29:57,920
سلول ما یک سیگنال شلیک می کند و یک سیگنال را ارسال می کند
1803
01:29:57,920 –> 01:29:58,960
خروجی
1804
01:29:58,960 –> 01:30:01,760
بنابراین در مورد ما یا یکی را شلیک می کند یا
1805
01:30:01,760 –> 01:30:03,679
یک صفر
1806
01:30:03,679 –> 01:30:06,480
و حالا اگر این را به صورت ریاضی مدل کنیم
1807
01:30:06,480 –> 01:30:08,800
سپس به نظر می رسد این است
1808
01:30:08,800 –> 01:30:12,080
بنابراین ما ویژگی های ورودی خود را داریم
1809
01:30:12,080 –> 01:30:14,239
و با مقداری ضرب می شوند
1810
01:30:14,239 –> 01:30:15,120
وزنه ها
1811
01:30:15,120 –> 01:30:18,159
و سپس جمع بندی می کنیم و سپس یک را اعمال می کنیم
1812
01:30:18,159 –> 01:30:19,520
عملکرد فعال سازی
1813
01:30:19,520 –> 01:30:23,120
و کلاس خروجی ما را دریافت کنید
1814
01:30:23,120 –> 01:30:26,560
بنابراین این مدل و اکنون خطی است
1815
01:30:26,560 –> 01:30:29,280
بخش مدل خطی به سادگی به نظر می رسد
1816
01:30:29,280 –> 01:30:29,840
این
1817
01:30:29,840 –> 01:30:33,280
بنابراین این فقط یک تابع خطی w است
1818
01:30:33,280 –> 01:30:37,280
بار x به اضافه b را جابجا کنید بنابراین ما در اینجا هستیم
1819
01:30:37,280 –> 01:30:40,719
وزن هایمان را ضرب و جمع کنیم
1820
01:30:40,719 –> 01:30:44,199
و سوگیری بنابراین تعصب است
1821
01:30:44,199 –> 01:30:48,400
w0 اینجا در این تصویر و
1822
01:30:48,400 –> 01:30:51,040
بعد از این مدل خطی ما آن را اعمال می کنیم
1823
01:30:51,040 –> 01:30:53,040
عملکرد فعال سازی
1824
01:30:53,040 –> 01:30:55,600
و در ساده ترین حالت ما به سادگی استفاده می کنیم
1825
01:30:55,600 –> 01:30:58,320
به اصطلاح تابع گام واحد
1826
01:30:58,320 –> 01:31:01,920
و این به عنوان یکی از آنها تعریف می شود
1827
01:31:01,920 –> 01:31:04,639
اگر ورودی ما به یک سوم و a برسد
1828
01:31:04,639 –> 01:31:06,239
آستانه معین
1829
01:31:06,239 –> 01:31:10,000
یا صفر در غیر این صورت در این تصویر چنین است
1830
01:31:10,000 –> 01:31:13,679
آستانه صفر است بنابراین اگر ورودی باشد
1831
01:31:13,679 –> 01:31:15,199
بزرگتر از صفر
1832
01:31:15,199 –> 01:31:18,400
سپس خروجی یک است و در غیر این صورت
1833
01:31:18,400 –> 01:31:18,719
این است
1834
01:31:18,719 –> 01:31:22,159
صفر و اکنون این تمام چیزی است که ما نیاز داریم
1835
01:31:22,159 –> 01:31:22,880
مدل کردن
1836
01:31:22,880 –> 01:31:26,719
خروجی و اکنون کل خروجی است
1837
01:31:26,719 –> 01:31:30,320
به نظر می رسد این است بنابراین ابتدا ما درخواست می کنیم
1838
01:31:30,320 –> 01:31:33,280
تابع خطی و سپس اعمال می کنیم
1839
01:31:33,280 –> 01:31:36,000
تابع تحریک
1840
01:31:36,000 –> 01:31:38,000
و در حال حاضر ما باید با
1841
01:31:38,000 –> 01:31:40,000
وزن ها و تعصب
1842
01:31:40,000 –> 01:31:43,280
و برای این ما از یک ساده استفاده می کنیم
1843
01:31:43,280 –> 01:31:45,280
قانون به روز رسانی که به نام
1844
01:31:45,280 –> 01:31:47,360
قانون پرسپترون
1845
01:31:47,360 –> 01:31:50,480
بنابراین ما به هر نمونه آموزشی x نگاه می کنیم
1846
01:31:50,480 –> 01:31:54,480
من و برای هر نمونه آموزشی ما سپس
1847
01:31:54,480 –> 01:31:55,840
به روز رسانی را اعمال کنید
1848
01:31:55,840 –> 01:31:58,719
مرحله و این به عنوان جدید تعریف شده است
1849
01:31:58,719 –> 01:31:59,679
وزن
1850
01:31:59,679 –> 01:32:03,840
وزن قدیمی به اضافه وزن دلتا است
1851
01:32:03,840 –> 01:32:06,880
و وزن دلتا یا دلتا w است
1852
01:32:06,880 –> 01:32:08,239
که تعریف میشود
1853
01:32:08,239 –> 01:32:12,320
آلفا برابر واقعی
1854
01:32:12,320 –> 01:32:15,520
برچسب منهای برچسب پیش بینی شده
1855
01:32:15,520 –> 01:32:18,800
برابر نمونه آموزشی x و اینجا
1856
01:32:18,800 –> 01:32:20,960
آلفا نرخ یادگیری بین
1857
01:32:20,960 –> 01:32:24,840
صفر و یک پس این فقط یک مقیاس است
1858
01:32:24,840 –> 01:32:27,600
فاکتور و حالا بیایید نگاهی به آن بیندازیم
1859
01:32:27,600 –> 01:32:30,080
این قانون به روز رسانی به چه معناست پس اجازه دهید
1860
01:32:30,080 –> 01:32:31,600
نگاهی به
1861
01:32:31,600 –> 01:32:34,800
چهار مورد ممکن در الف
1862
01:32:34,800 –> 01:32:38,639
مشکل دو کلاس بنابراین ما
1863
01:32:38,639 –> 01:32:43,040
خروجی می تواند یکی از برچسب های واقعی باشد
1864
01:32:43,040 –> 01:32:46,159
می تواند یکی و پیش بینی شده باشد
1865
01:32:46,159 –> 01:32:49,280
برچسب نیز یکی پس از آن تفاوت است
1866
01:32:49,280 –> 01:32:50,400
صفر
1867
01:32:50,400 –> 01:32:53,120
بنابراین ما تغییری برای وزن خود نداریم
1868
01:32:53,120 –> 01:32:54,320
اینجا
1869
01:32:54,320 –> 01:32:57,440
و همان طور که اگر کلاس واقعی باشد
1870
01:32:57,440 –> 01:32:58,159
صفر
1871
01:32:58,159 –> 01:33:00,960
و کلاس پیش بینی شده نیز صفر است
1872
01:33:00,960 –> 01:33:02,800
به درستی طبقه بندی شده است
1873
01:33:02,800 –> 01:33:05,440
تفاوت صفر است و باز هم خیر
1874
01:33:05,440 –> 01:33:07,360
برای وزنمان تغییر دهیم
1875
01:33:07,360 –> 01:33:09,800
اما حالا چه اتفاقی می افتد اگر ما یک
1876
01:33:09,800 –> 01:33:11,440
طبقه بندی اشتباه
1877
01:33:11,440 –> 01:33:14,400
بنابراین اگر کلاس واقعی یک باشد و
1878
01:33:14,400 –> 01:33:15,679
کلاس پیش بینی شده
1879
01:33:15,679 –> 01:33:19,280
صفر است این بدان معناست که وزن های ما هستند
1880
01:33:19,280 –> 01:33:19,600
هم
1881
01:33:19,600 –> 01:33:23,280
پایین است و سپس می بینیم که تفاوت
1882
01:33:23,280 –> 01:33:23,679
است
1883
01:33:23,679 –> 01:33:28,159
1 بنابراین وزن ما در اینجا افزایش می یابد
1884
01:33:28,159 –> 01:33:31,199
و اگر کلاس واقعی 0 باشد
1885
01:33:31,199 –> 01:33:34,320
و کلاس پیش بینی شده 1 است سپس ما
1886
01:33:34,320 –> 01:33:35,120
وزن ها هستند
1887
01:33:35,120 –> 01:33:38,400
خیلی بالاست و ما این تفاوت را می بینیم
1888
01:33:38,400 –> 01:33:38,800
است
1889
01:33:38,800 –> 01:33:41,760
منهای یک پس وزن ما برابر است
1890
01:33:41,760 –> 01:33:43,040
کاهش یافته
1891
01:33:43,040 –> 01:33:45,360
بنابراین وزنه ها به سمت رانده می شوند
1892
01:33:45,360 –> 01:33:46,880
مثبت یا منفی
1893
01:33:46,880 –> 01:33:50,639
کلاس در صورت طبقه بندی اشتباه
1894
01:33:50,639 –> 01:33:53,440
و این یک قانون ساده و شهودی است
1895
01:33:53,440 –> 01:33:53,840
ولی
1896
01:33:53,840 –> 01:33:57,679
کار می کند و این تمام چیزی است که ما نیاز داریم
1897
01:33:57,679 –> 01:34:01,120
بنابراین ما به هر نمونه آموزشی نگاه می کنیم
1898
01:34:01,120 –> 01:34:03,760
و سپس قانون به روز رسانی را اعمال کنید و سپس
1899
01:34:03,760 –> 01:34:04,639
ما
1900
01:34:04,639 –> 01:34:07,199
این کار را چند بار انجام دهید تا تکرار کنیم
1901
01:34:07,199 –> 01:34:10,159
برای تعداد معینی از تکرار
1902
01:34:10,159 –> 01:34:12,480
و سپس اوزان نهایی و
1903
01:34:12,480 –> 01:34:13,280
انجام شد
1904
01:34:13,280 –> 01:34:15,920
بنابراین این تمام چیزی است که ما باید بدانیم و اکنون
1905
01:34:15,920 –> 01:34:18,080
می توانیم شروع کنیم و اجرا کنیم
1906
01:34:18,080 –> 01:34:21,280
بنابراین اول از همه البته ما استفاده می کنیم
1907
01:34:21,280 –> 01:34:24,719
numpy بنابراین ما numpy را وارد می کنیم
1908
01:34:24,719 –> 01:34:28,000
به صورت np و سپس a ایجاد می کنیم
1909
01:34:28,000 –> 01:34:33,840
کلاس و آن را پرسپترون می نامند
1910
01:34:35,440 –> 01:34:39,600
و البته یک روش init دریافت می کند
1911
01:34:39,600 –> 01:34:43,040
و در اینجا خودش را دارد و می شود
1912
01:34:43,040 –> 01:34:44,239
یادگیری
1913
01:34:44,239 –> 01:34:47,840
نرخ و من این را به طور پیش فرض
1914
01:34:47,840 –> 01:34:52,400
از 0.01 سپس یک عدد می گیرد
1915
01:34:52,400 –> 01:34:55,520
از تکرار تا n خطا
1916
01:34:55,520 –> 01:34:58,400
و من هم این را پیش فرض می دهم
1917
01:34:58,400 –> 01:35:00,239
فرض کنید 1000
1918
01:35:00,239 –> 01:35:02,560
سپس من آنها را به سادگی ذخیره می کنم تا من ذخیره کنم
1919
01:35:02,560 –> 01:35:04,560
بگو self.lr
1920
01:35:04,560 –> 01:35:10,080
برابر است با نرخ یادگیری و خود.ن
1921
01:35:10,080 –> 01:35:14,320
iters برابر است و iters
1922
01:35:14,320 –> 01:35:18,960
سپس یک تابع فعال سازی ایجاد می کنیم
1923
01:35:18,960 –> 01:35:19,840
پس بیایید بگوییم
1924
01:35:19,840 –> 01:35:22,960
خود نقطه فعال
1925
01:35:22,960 –> 01:35:26,159
func برابر است
1926
01:35:26,159 –> 01:35:30,320
و حالا بیایید این را در اینجا ایجاد کنیم
1927
01:35:30,320 –> 01:35:35,040
و همانطور که گفتم عملکرد فعال سازی
1928
01:35:35,040 –> 01:35:38,239
به سادگی تابع گام واحد است
1929
01:35:38,239 –> 01:35:40,239
بیایید این را صدا کنیم
1930
01:35:40,239 –> 01:35:43,280
مرحله واحد
1931
01:35:43,280 –> 01:35:46,719
با خود کار کن
1932
01:35:46,719 –> 01:35:51,679
و یک ورودی x و
1933
01:35:52,080 –> 01:35:55,360
ما به سادگی می توانیم بگوییم بازگشت
1934
01:35:55,360 –> 01:35:58,560
یکی اگر x بزرگتر باشد یا
1935
01:35:58,560 –> 01:36:01,760
برابر با صفر و غیره
1936
01:36:01,760 –> 01:36:05,199
صفر را برمی گرداند اما
1937
01:36:05,199 –> 01:36:08,480
و بعداً می بینیم که ما
1938
01:36:08,480 –> 01:36:12,639
این فقط برای یک تک کار می کند
1939
01:36:12,639 –> 01:36:15,199
نمونه اما بعداً می بینیم که می خواهیم
1940
01:36:15,199 –> 01:36:17,920
تابع تحریک را اعمال کنید
1941
01:36:17,920 –> 01:36:20,960
در روش پیش بینی برای همه آزمون ها
1942
01:36:20,960 –> 01:36:23,119
نمونه بنابراین ما می خواهیم
1943
01:36:23,119 –> 01:36:26,320
این را برای آرایه دوم اعمال کنید
1944
01:36:26,320 –> 01:36:29,920
همچنین و برای این کار می توانیم از یک ساده استفاده کنیم
1945
01:36:29,920 –> 01:36:32,960
تابعی که numpy.where نامیده می شود
1946
01:36:32,960 –> 01:36:36,639
بنابراین ما numpy.where برمی گردیم
1947
01:36:36,639 –> 01:36:39,920
و این یک شرط به دست می آورد تا x
1948
01:36:39,920 –> 01:36:43,760
بزرگتر یا مساوی از صفر است
1949
01:36:43,760 –> 01:36:46,320
و اگر شرط درست باشد پس ما
1950
01:36:46,320 –> 01:36:46,880
برگشت
1951
01:36:46,880 –> 01:36:50,320
یک و در غیر این صورت صفر
1952
01:36:50,320 –> 01:36:53,600
بنابراین این برای یک نمونه کار خواهد کرد
1953
01:36:53,600 –> 01:36:54,480
بلکه برای
1954
01:36:54,480 –> 01:36:57,520
چندین نمونه در یک بردار
1955
01:36:57,520 –> 01:37:00,480
بنابراین اکنون این تابع فعال سازی ما است
1956
01:37:00,480 –> 01:37:02,440
بنابراین اکنون می توانیم بگوییم
1957
01:37:02,440 –> 01:37:06,080
self.activationfunc برابر با خودش.
1958
01:37:06,080 –> 01:37:09,199
تابع مرحله واحد
1959
01:37:09,199 –> 01:37:12,880
و حالا بیایید ایجاد کنیم
1960
01:37:12,880 –> 01:37:15,920
وزن ها می گویند خود نقطه
1961
01:37:15,920 –> 01:37:19,199
وزن مساوی هیچ و
1962
01:37:19,199 –> 01:37:22,800
تعصب خود نقطه برابر است
1963
01:37:22,800 –> 01:37:26,320
هیچکدام، حالا که می دانیم مجبوریم
1964
01:37:26,320 –> 01:37:29,679
آنها را اجرا کنید یا آنها را دریافت کنید و
1965
01:37:29,679 –> 01:37:33,199
اکنون اجرا می کنیم
1966
01:37:33,199 –> 01:37:37,040
دو تابع مانند همیشه ما اجرا می کنیم
1967
01:37:37,040 –> 01:37:41,040
برازش و روش پیش بینی بنابراین ابتدا
1968
01:37:41,040 –> 01:37:44,480
روش برازش را با x تعریف کنید
1969
01:37:44,480 –> 01:37:48,960
و y بنابراین این آموزش را دریافت می کند
1970
01:37:48,960 –> 01:37:52,560
نمونه ها و برچسب های آموزشی
1971
01:37:52,560 –> 01:37:57,119
و البته اوه من خودم را فراموش کردم
1972
01:37:57,119 –> 01:38:01,360
و سپس ما نیز تعریف می کنیم
1973
01:38:01,360 –> 01:38:04,400
روشی را پیش بینی کنید که خود به دست می آید
1974
01:38:04,400 –> 01:38:07,440
و سپس نمونه های آزمایشی
1975
01:38:07,440 –> 01:38:11,440
و اکنون با این پیش بینی شروع می کنیم
1976
01:38:11,440 –> 01:38:13,040
روش زیرا این است
1977
01:38:13,040 –> 01:38:16,760
خیلی ساده بیایید نگاهی به آن بیندازیم
1978
01:38:16,760 –> 01:38:18,000
تقریب از
1979
01:38:18,000 –> 01:38:21,440
خروجی ما دوباره بنابراین اینجا اول ما اعمال می کنیم
1980
01:38:21,440 –> 01:38:21,840
این
1981
01:38:21,840 –> 01:38:24,639
تابع خطی و سپس فعال سازی
1982
01:38:24,639 –> 01:38:25,920
عملکرد
1983
01:38:25,920 –> 01:38:28,880
پس بیایید این کار را انجام دهیم، بنابراین ابتدا خطی
1984
01:38:28,880 –> 01:38:29,440
عملکرد
1985
01:38:29,440 –> 01:38:32,560
بنابراین بیایید بگوییم خطی
1986
01:38:32,560 –> 01:38:36,000
خروجی برابر است و این
1987
01:38:36,000 –> 01:38:39,199
زمان انتقال w است
1988
01:38:39,199 –> 01:38:42,639
x به اضافه تعصب و w
1989
01:38:42,639 –> 01:38:45,280
transpose بار x چیزی نیست جز
1990
01:38:45,280 –> 01:38:45,679
را
1991
01:38:45,679 –> 01:38:49,920
محصول نقطه ای تا بتوانیم از numpy dot استفاده کنیم
1992
01:38:49,920 –> 01:38:53,840
از x و خود
1993
01:38:53,840 –> 01:38:57,600
وزن نقطه خود نقطه
1994
01:38:57,600 –> 01:39:00,719
به علاوه خود نقطه سوگیری
1995
01:39:00,719 –> 01:39:03,119
بنابراین اکنون تابع خطی و را داریم
1996
01:39:03,119 –> 01:39:06,000
اکنون تابع فعال سازی را اعمال می کنیم
1997
01:39:06,000 –> 01:39:09,119
بنابراین می گوییم y پیش بینی کرد
1998
01:39:09,119 –> 01:39:13,280
برابر است با عملکرد خود نقطه حرکت
1999
01:39:13,280 –> 01:39:16,000
و به عنوان ورودی خطی را دریافت می کند
2000
01:39:16,000 –> 01:39:17,199
خروجی اینجا
2001
01:39:17,199 –> 01:39:20,000
و سپس به سادگی y را برمی گردانیم
2002
01:39:20,000 –> 01:39:21,040
پیش بینی کرد
2003
01:39:21,040 –> 01:39:23,679
بنابراین این کل روش پیش بینی است و
2004
01:39:23,679 –> 01:39:26,639
حالا بیایید به روش تناسب پرش کنیم
2005
01:39:26,639 –> 01:39:30,320
پس اول از همه بیایید ابعاد را بدست آوریم
2006
01:39:30,320 –> 01:39:30,960
از
2007
01:39:30,960 –> 01:39:34,159
بردار x پس این یک nd است
2008
01:39:34,159 –> 01:39:37,360
آرایه ای به اندازه m برابر
2009
01:39:37,360 –> 01:39:41,520
n که در آن m یا تعداد
2010
01:39:41,520 –> 01:39:44,800
ردیف تعداد نمونه و
2011
01:39:44,800 –> 01:39:47,440
n یا تعداد ستون ها عدد است
2012
01:39:47,440 –> 01:39:49,280
از ویژگی ها
2013
01:39:49,280 –> 01:39:52,880
بنابراین می گوییم n نمونه
2014
01:39:52,880 –> 01:39:56,560
و n ویژگی
2015
01:39:56,560 –> 01:40:00,480
برابر x شکل نقطه است
2016
01:40:00,480 –> 01:40:04,320
و در حال حاضر ما در آن وزن خود را به طوری که ما داریم
2017
01:40:04,320 –> 01:40:05,280
به آنها بدهید
2018
01:40:05,280 –> 01:40:08,480
مقدار اولیه و ما به سادگی می توانیم
2019
01:40:08,480 –> 01:40:11,280
آنها را در ابتدا صفر قرار دهید بنابراین ما
2020
01:40:11,280 –> 01:40:11,600
گفتن
2021
01:40:11,600 –> 01:40:14,719
وزن نقطه خود برابر است
2022
01:40:14,719 –> 01:40:18,320
صفرهای نقطه ناتوانی اندازه
2023
01:40:18,320 –> 01:40:21,440
تعداد ویژگی ها برای هر کدام
2024
01:40:21,440 –> 01:40:24,639
ویژگی ما در اینجا یک صفر برای خود قرار می دهیم
2025
01:40:24,639 –> 01:40:25,760
وزن
2026
01:40:25,760 –> 01:40:29,840
و همچنین تعصب خود ما این به سادگی است
2027
01:40:29,840 –> 01:40:33,199
صفر و اکنون می توانیم شروع کنیم
2028
01:40:33,199 –> 01:40:36,159
یا یک کار دیگر که باید انجام دهیم این است که ما
2029
01:40:36,159 –> 01:40:37,760
می خواهم مطمئن شوم
2030
01:40:37,760 –> 01:40:41,920
که y ما فقط از کلاس 0 تشکیل شده است
2031
01:40:41,920 –> 01:40:46,159
و 1 پس بیایید بگوییم
2032
01:40:46,159 –> 01:40:49,679
زیر خط y برابر است و حالا اجازه دهید
2033
01:40:49,679 –> 01:40:50,560
تبدیل
2034
01:40:50,560 –> 01:40:54,239
تمام مقادیر به صفر یا یک اگر این باشد
2035
01:40:54,239 –> 01:40:54,560
نه
2036
01:40:54,560 –> 01:40:57,440
در حال حاضر مورد، بنابراین ما از لیست استفاده می کنیم
2037
01:40:57,440 –> 01:40:59,199
درک برای این
2038
01:40:59,199 –> 01:41:02,880
بنابراین ما می گوییم یکی اگر من
2039
01:41:02,880 –> 01:41:06,239
بزرگتر از 0 دیگر آن است
2040
01:41:06,239 –> 01:41:09,600
0 4 من اینچ
2041
01:41:09,600 –> 01:41:12,639
y و حالا بیایید
2042
01:41:12,639 –> 01:41:16,800
این را به آرایه numpy تبدیل کنید
2043
01:41:16,800 –> 01:41:20,480
بنابراین اکنون ما خودمان را داریم
2044
01:41:20,480 –> 01:41:24,080
y و اکنون می توانیم آموزش را شروع کنیم
2045
01:41:24,080 –> 01:41:27,679
پس بیایید دوباره به این نگاه کنیم
2046
01:41:27,679 –> 01:41:30,960
قانون به روز رسانی بنابراین ما می خواهیم به هر یک نگاه کنیم
2047
01:41:30,960 –> 01:41:34,880
نمونه آموزشی و ما نیز می خواهیم انجام دهیم
2048
01:41:34,880 –> 01:41:37,840
این چند تکرار است بنابراین ما نیاز داریم
2049
01:41:37,840 –> 01:41:41,600
دو حلقه for در اینجا بنابراین بیایید بگوییم
2050
01:41:41,600 –> 01:41:45,199
اولین مورد برای زیر خط
2051
01:41:45,199 –> 01:41:49,360
زیرا ما به این در محدوده نیاز نداریم
2052
01:41:49,360 –> 01:41:52,719
خود نقطه و ضربه زن
2053
01:41:52,719 –> 01:41:54,800
بنابراین این تعداد تکرار ما است
2054
01:41:54,800 –> 01:41:55,840
تعریف شده است
2055
01:41:55,840 –> 01:41:58,800
و سپس حلقه دوم ما و برای این i
2056
01:41:58,800 –> 01:41:59,520
استفاده کرد
2057
01:41:59,520 –> 01:42:03,679
روش enumerate تا بتوانم برای آن بگویم
2058
01:42:03,679 –> 01:42:07,600
شاخص و همچنین x y
2059
01:42:07,600 –> 01:42:11,199
در شمارش x
2060
01:42:11,199 –> 01:42:14,480
بنابراین من می خواهم به تکرار بیش از
2061
01:42:14,480 –> 01:42:18,719
نمونه های آموزشی
2062
01:42:18,719 –> 01:42:21,040
و تابع enumerate به من می دهد
2063
01:42:21,040 –> 01:42:22,159
شاخص
2064
01:42:22,159 –> 01:42:26,880
و سپس نمونه فعلی
2065
01:42:26,880 –> 01:42:30,239
بنابراین این دو حلقه و
2066
01:42:30,239 –> 01:42:35,679
حالا ببخشید بیایید درخواست کنیم
2067
01:42:35,679 –> 01:42:38,480
اوم این قانون به روز رسانی پس بیایید دوباره ما
2068
01:42:38,480 –> 01:42:41,440
باید مقدار پیش بینی شده را محاسبه کرد
2069
01:42:41,440 –> 01:42:44,480
و سپس به روز رسانی را اعمال کنید
2070
01:42:44,480 –> 01:42:48,239
خروجی خطی را فرض کنید
2071
01:42:48,239 –> 01:42:52,000
برابر است با نقطه ناقص
2072
01:42:52,000 –> 01:42:56,080
از نمونه فعلی
2073
01:42:56,080 –> 01:42:59,440
و خودمان.وزن به علاوه
2074
01:42:59,440 –> 01:43:03,360
تعصب خود را پس از آن اعمال می کنیم
2075
01:43:03,360 –> 01:43:05,760
عملکرد فعال سازی و دریافت پیش بینی شده
2076
01:43:05,760 –> 01:43:07,760
ارزش تا y
2077
01:43:07,760 –> 01:43:11,040
پیش بینی شده برابر با خود نقطه است
2078
01:43:11,040 –> 01:43:15,199
تابع فعال سازی خروجی خطی
2079
01:43:15,199 –> 01:43:18,480
بنابراین در اینجا ما می توانیم آن را در این مورد ببینیم
2080
01:43:18,480 –> 01:43:22,000
ما از آن فقط برای یک مورد استفاده می کنیم
2081
01:43:22,000 –> 01:43:25,119
نمونه و اینجا پایین در پیش بینی
2082
01:43:25,119 –> 01:43:25,679
روش
2083
01:43:25,679 –> 01:43:28,400
ما از تابع فعال سازی برای
2084
01:43:28,400 –> 01:43:30,400
نمونه های متعدد
2085
01:43:30,400 –> 01:43:33,840
و به همین دلیل است که ما به این ناپاک نیاز داریم
2086
01:43:33,840 –> 01:43:36,840
که در اینجا در فعال سازی ما عمل می کند
2087
01:43:36,840 –> 01:43:38,000
عملکرد
2088
01:43:38,000 –> 01:43:40,719
پس آره و حالا بیایید ادامه دهیم پس حالا ما
2089
01:43:40,719 –> 01:43:42,480
ما پیش بینی کرده ایم
2090
01:43:42,480 –> 01:43:45,280
y و حالا بیایید نگاهی به آن بیندازیم
2091
01:43:45,280 –> 01:43:47,280
دوباره فرمول را داریم
2092
01:43:47,280 –> 01:43:51,679
نرخ یادگیری ضربدر تفاوت
2093
01:43:51,679 –> 01:43:55,520
و سپس برابر x است
2094
01:43:55,520 –> 01:43:58,719
بیایید این به روز رسانی را صدا کنیم
2095
01:43:58,719 –> 01:44:02,159
برابر با نرخ یادگیری خود نقطه است
2096
01:44:02,159 –> 01:44:06,800
بار و در اینجا ما واقعی است
2097
01:44:06,800 –> 01:44:09,920
برچسب بزنید تا زیر خط بکشید
2098
01:44:09,920 –> 01:44:13,600
از این شاخص فعلی منهای
2099
01:44:13,600 –> 01:44:17,840
y پیش بینی کرد و سپس
2100
01:44:17,840 –> 01:44:21,119
می گوییم خود نقطه اوزان
2101
01:44:21,119 –> 01:44:24,400
به علاوه مساوی به روز رسانی
2102
01:44:24,400 –> 01:44:27,600
برابر x i
2103
01:44:27,600 –> 01:44:30,960
و تعصب خود نقطه
2104
01:44:30,960 –> 01:44:34,480
به علاوه برابر است با بار
2105
01:44:34,480 –> 01:44:38,239
یک تا ما به این بار یک نیاز نداریم
2106
01:44:38,239 –> 01:44:41,760
و اکنون کار ما تمام شده است، بنابراین این کل است
2107
01:44:41,760 –> 01:44:43,360
پیاده سازی
2108
01:44:43,360 –> 01:44:47,119
از پرسپترون و حالا بیایید آزمایش کنیم
2109
01:44:47,119 –> 01:44:48,000
این طوری اینجا
2110
01:44:48,000 –> 01:44:50,800
من نوشته ام قبلاً یک نوشته ام
2111
01:44:50,800 –> 01:44:51,280
مقدار کمی
2112
01:44:51,280 –> 01:44:54,360
اسکریپت تست اینجا بنابراین من
2113
01:44:54,360 –> 01:44:57,920
پرسپترون را اینجا وارد کنید
2114
01:44:57,920 –> 01:45:01,600
و سپس من دو دو ایجاد خواهم کرد
2115
01:45:01,600 –> 01:45:04,880
blobs بنابراین من می توانم از این از sk استفاده کنم
2116
01:45:04,880 –> 01:45:07,520
یادگیری ماژول من می توانم از تابعی استفاده کنم که
2117
01:45:07,520 –> 01:45:08,239
نامیده میشود
2118
01:45:08,239 –> 01:45:11,119
blops درست کنید تا دو تا ایجاد کنید
2119
01:45:11,119 –> 01:45:12,800
کلاس ها
2120
01:45:12,800 –> 01:45:16,239
و سپس ما را تقسیم خواهم کرد
2121
01:45:16,239 –> 01:45:19,600
داده ها به نمونه های آموزشی و آزمون
2122
01:45:19,600 –> 01:45:20,320
نمونه ها
2123
01:45:20,320 –> 01:45:24,320
و آموزش برچسب ها و تست
2124
01:45:24,320 –> 01:45:25,520
برچسب ها
2125
01:45:25,520 –> 01:45:28,320
سپس من یک پرسپترون ایجاد خواهم کرد
2126
01:45:28,320 –> 01:45:30,080
متناسب با داده های آموزشی
2127
01:45:30,080 –> 01:45:33,199
و سپس آزمایش را پیش بینی خواهم کرد
2128
01:45:33,199 –> 01:45:36,800
برچسب ها و سپس من محاسبه می کنم
2129
01:45:36,800 –> 01:45:37,760
دقت
2130
01:45:37,760 –> 01:45:41,600
و من هم این را طرح خواهم کرد، پس بیایید اجرا کنیم
2131
01:45:41,600 –> 01:45:43,520
این
2132
01:45:43,520 –> 01:45:47,440
و امیدوارم چیزی را فراموش نکرده باشم
2133
01:45:47,440 –> 01:45:51,280
بنابراین در حال حاضر در اینجا طرح است بنابراین در اینجا ما می بینیم
2134
01:45:51,280 –> 01:45:52,960
دو حباب ما
2135
01:45:52,960 –> 01:45:55,920
و در اینجا ما تصمیم خطی خود را داریم
2136
01:45:55,920 –> 01:45:56,880
مرز
2137
01:45:56,880 –> 01:46:00,239
بنابراین این تابع تصمیم است که
2138
01:46:00,239 –> 01:46:01,760
پرسپترون ما
2139
01:46:01,760 –> 01:46:04,800
تولید شده و می بینیم که آن را
2140
01:46:04,800 –> 01:46:08,320
در اینجا دو کلاس ما را کاملاً جدا می کند
2141
01:46:08,320 –> 01:46:12,000
بنابراین و ما همچنین می بینیم که دقت ما
2142
01:46:12,000 –> 01:46:15,840
یکی است بنابراین در این مورد کامل است
2143
01:46:15,840 –> 01:46:18,320
و بله، ما آن پرسپترون را می بینیم
2144
01:46:18,320 –> 01:46:19,040
آثار
2145
01:46:19,040 –> 01:46:21,679
و یک چیز که ما باید از آن آگاه باشیم
2146
01:46:21,679 –> 01:46:23,199
این پرسپترون است
2147
01:46:23,199 –> 01:46:25,520
فقط برای جداسازی خطی کار می کند
2148
01:46:25,520 –> 01:46:26,719
کلاس ها
2149
01:46:26,719 –> 01:46:29,119
بنابراین اگر بتوان کلاس ها را با a جدا کرد
2150
01:46:29,119 –> 01:46:30,320
تابع خطی
2151
01:46:30,320 –> 01:46:33,199
مانند اینجا در مورد ما بیایید نگاهی بیندازیم
2152
01:46:33,199 –> 01:46:34,400
در این دوباره
2153
01:46:34,400 –> 01:46:37,040
سپس آن را بسیار خوب کار می کند اما در غیر این صورت
2154
01:46:37,040 –> 01:46:38,800
نه چندان
2155
01:46:38,800 –> 01:46:41,199
و برای بهبود بیشتر می توانیم تلاش کنیم
2156
01:46:41,199 –> 01:46:43,520
توابع فعال سازی مختلف
2157
01:46:43,520 –> 01:46:45,920
برای مثال تابع سیگموئید و
2158
01:46:45,920 –> 01:46:48,639
سپس یک روش گرادیان مناسب را اعمال کنید
2159
01:46:48,639 –> 01:46:50,719
به جای قاعده ادراک به ترتیب
2160
01:46:50,719 –> 01:46:52,639
وزن هایمان را به روز کنیم
2161
01:46:52,639 –> 01:46:54,719
اما بله در حال حاضر این باید تمام من باشد
2162
01:46:54,719 –> 01:46:55,840
می خواست به شما نشان دهد
2163
01:46:55,840 –> 01:46:58,000
و امیدوارم از این آموزش لذت برده باشید و
2164
01:46:58,000 –> 01:46:59,119
بعدا می بینمت
2165
01:46:59,119 –> 01:47:01,440
خدا حافظ
2166
01:47:05,040 –> 01:47:07,199
سلام به یک دستگاه جدید خوش آمدید
2167
01:47:07,199 –> 01:47:09,040
آموزش یادگیری از ابتدا
2168
01:47:09,040 –> 01:47:11,440
امروز می خواهیم svm را پیاده سازی کنیم
2169
01:47:11,440 –> 01:47:13,520
الگوریتم فقط با استفاده از پایتون داخلی
2170
01:47:13,520 –> 01:47:14,320
ماژول ها و
2171
01:47:14,320 –> 01:47:18,239
دستگاه svm یا پشتیبان را خالی کنید
2172
01:47:18,239 –> 01:47:21,199
الگوریتم بسیار محبوبی است که از آن پیروی می کند
2173
01:47:21,199 –> 01:47:23,280
ایده استفاده از مدل خطی
2174
01:47:23,280 –> 01:47:26,239
و برای یافتن یک مرز تصمیم خطی
2175
01:47:26,239 –> 01:47:28,560
هایپرپلن نیز نامیده می شود
2176
01:47:28,560 –> 01:47:31,920
که به بهترین وجه داده های ما و اینجا را جدا می کند
2177
01:47:31,920 –> 01:47:34,400
انتخاب به عنوان بهترین هایپر هواپیما
2178
01:47:34,400 –> 01:47:36,560
یکی است که بزرگترین را نشان می دهد
2179
01:47:36,560 –> 01:47:37,600
جدایش، جدایی
2180
01:47:37,600 –> 01:47:40,080
یا بزرگترین راهپیمایی بین این دو
2181
01:47:40,080 –> 01:47:41,520
کلاس ها
2182
01:47:41,520 –> 01:47:44,080
بنابراین ما ابر صفحه را انتخاب می کنیم تا
2183
01:47:44,080 –> 01:47:45,679
فاصله از آن
2184
01:47:45,679 –> 01:47:48,400
به نزدیکترین نقطه داده در هر طرف
2185
01:47:48,400 –> 01:47:50,320
به حداکثر می رسد
2186
01:47:50,320 –> 01:47:53,040
پس اگر به این تصویر نگاهی بیندازید
2187
01:47:53,040 –> 01:47:54,000
می خواهیم پیدا کنیم
2188
01:47:54,000 –> 01:47:58,000
یک هایپرپلن و هایپر هواپیما
2189
01:47:58,000 –> 01:48:01,199
باید این معادله w را برآورده کند
2190
01:48:01,199 –> 01:48:06,000
برابر x منهای b برابر با صفر است
2191
01:48:06,000 –> 01:48:10,000
و ما میخواهیم ابر هواپیما را پیدا کنیم
2192
01:48:10,000 –> 01:48:10,800
که
2193
01:48:10,800 –> 01:48:13,920
فاصله تا هر دو
2194
01:48:13,920 –> 01:48:17,520
زیر به هر دو کلاس حداکثر شده است
2195
01:48:17,520 –> 01:48:20,719
بنابراین ما از کلاس به علاوه یک در اینجا استفاده کردیم
2196
01:48:20,719 –> 01:48:24,239
و منهای یک در اینجا بنابراین
2197
01:48:24,239 –> 01:48:27,520
این فاصله یا حاشیه باید باشد
2198
01:48:27,520 –> 01:48:29,520
به حداکثر رساند
2199
01:48:29,520 –> 01:48:32,239
و ابتدا بیایید نگاهی به ریاضیات بیندازیم
2200
01:48:32,239 –> 01:48:32,800
پشت
2201
01:48:32,800 –> 01:48:35,280
بنابراین کمی پیچیده تر است
2202
01:48:35,280 –> 01:48:37,679
نسبت به آموزش های قبلی من
2203
01:48:37,679 –> 01:48:39,520
اما من قول می دهم که یک بار شما
2204
01:48:39,520 –> 01:48:41,840
اجرای نهایی آن را درک کرد
2205
01:48:41,840 –> 01:48:44,000
نسبتا ساده است
2206
01:48:44,000 –> 01:48:47,199
بنابراین از مدل خطی استفاده می کنیم
2207
01:48:47,199 –> 01:48:50,719
w ضربدر x منهای b که باید باشد
2208
01:48:50,719 –> 01:48:55,090
صفر و سپس ما
2209
01:48:55,090 –> 01:48:56,800
[موسیقی]
2210
01:48:56,800 –> 01:48:59,760
عملکرد ما نیز باید برآورده کند
2211
01:48:59,760 –> 01:49:01,040
وضعیت
2212
01:49:01,040 –> 01:49:04,719
که w ضربدر x منهای b
2213
01:49:04,719 –> 01:49:08,320
باید بزرگتر یا مساوی از یک باشد
2214
01:49:08,320 –> 01:49:11,679
برای کلاس ما به علاوه یک بنابراین همه
2215
01:49:11,679 –> 01:49:13,199
نمونه ها در اینجا
2216
01:49:13,199 –> 01:49:16,719
باید در سمت چپ این دراز بکشید
2217
01:49:16,719 –> 01:49:20,159
معادله یا این خط در اینجا
2218
01:49:20,159 –> 01:49:24,320
و تمامی نمونه های
2219
01:49:24,320 –> 01:49:28,880
کلاس منهای یک باید روی آن دراز بکشد
2220
01:49:28,880 –> 01:49:32,000
سمت راست از این معادله پس اگر ما
2221
01:49:32,000 –> 01:49:34,239
این را به صورت ریاضی بیان کنید
2222
01:49:34,239 –> 01:49:37,760
پس باید آن را برآورده کنیم
2223
01:49:37,760 –> 01:49:40,960
w ضربدر x منهای b باید بزرگتر یا باشد
2224
01:49:40,960 –> 01:49:42,080
برابر با یک
2225
01:49:42,080 –> 01:49:46,320
برای کلاس یک یا باید باشد
2226
01:49:46,320 –> 01:49:49,360
کمتر یا مساوی از منهای یک برای کلاس
2227
01:49:49,360 –> 01:49:52,960
منهای یک بنابراین اگر این را فقط در یکی قرار دهید
2228
01:49:52,960 –> 01:49:58,239
معادله را ضرب می کنیم
2229
01:49:58,320 –> 01:50:01,840
تابع خطی با برچسب کلاس
2230
01:50:01,840 –> 01:50:04,080
و این باید بزرگتر یا مساوی باشد
2231
01:50:04,080 –> 01:50:05,199
یکی
2232
01:50:05,199 –> 01:50:07,520
بنابراین این شرطی است که ما می خواهیم
2233
01:50:07,520 –> 01:50:08,960
راضی کردن
2234
01:50:08,960 –> 01:50:12,239
و اکنون میخواهیم w را بیاوریم
2235
01:50:12,239 –> 01:50:16,719
و b بنابراین وزن ما و تعصب
2236
01:50:16,719 –> 01:50:20,239
و برای این کار از تابع هزینه استفاده می کنیم
2237
01:50:20,239 –> 01:50:23,360
و سپس گرادیان نزول را اعمال کنید
2238
01:50:23,360 –> 01:50:25,760
بنابراین اگر با گرادیان آشنا نیستید
2239
01:50:25,760 –> 01:50:27,920
فرود در حال حاضر پس لطفا تماشا کنید
2240
01:50:27,920 –> 01:50:30,960
به عنوان مثال یکی از آموزش های قبلی من
2241
01:50:30,960 –> 01:50:33,199
با رگرسیون خطی
2242
01:50:33,199 –> 01:50:35,119
در آنجا من این را کمی بیشتر توضیح دادم
2243
01:50:35,119 –> 01:50:37,440
در جزئیات
2244
01:50:37,440 –> 01:50:41,599
پس حالا بیایید ادامه دهیم تا استفاده کنیم
2245
01:50:41,599 –> 01:50:45,679
تابع هزینه کاربر در اینجا و در این
2246
01:50:45,679 –> 01:50:48,320
در مورد از دست دادن لولا استفاده می کنیم
2247
01:50:48,320 –> 01:50:52,960
و این به عنوان حداکثر 0 تعریف می شود
2248
01:50:52,960 –> 01:50:57,119
و 1 منهای و در اینجا ما خود را داریم
2249
01:50:57,119 –> 01:50:58,000
وضعیت
2250
01:50:58,000 –> 01:51:01,119
y برابر مدل خطی ما
2251
01:51:01,119 –> 01:51:04,320
بنابراین اگر ما نمودار را ترسیم کنیم، این به معنای آن است
2252
01:51:04,320 –> 01:51:05,679
از دست دادن لولا
2253
01:51:05,679 –> 01:51:09,280
و در اینجا خط آبی از دست دادن لولا است
2254
01:51:09,280 –> 01:51:12,560
پس این یا صفر است
2255
01:51:12,560 –> 01:51:16,560
اگر چند بار
2256
01:51:16,560 –> 01:51:22,000
f بزرگتر یا مساوی از یک است پس اگر
2257
01:51:22,000 –> 01:51:25,360
آنها همان علامت را دارند
2258
01:51:25,360 –> 01:51:29,599
سپس آن را صفر است و بنابراین اگر آنها
2259
01:51:29,599 –> 01:51:32,880
اوم بله اگر به درستی طبقه بندی شده باشند
2260
01:51:32,880 –> 01:51:34,719
و بزرگتر از یک هستند
2261
01:51:34,719 –> 01:51:37,679
پس از دست دادن ما صفر است پس این به این معنی است که اگر
2262
01:51:37,679 –> 01:51:40,239
ما دوباره به این تصویر نگاه می کنیم
2263
01:51:40,239 –> 01:51:43,840
اگر برای کلاس سبز است
2264
01:51:43,840 –> 01:51:48,560
اگر در این طرف قرار بگیرد، صفر است
2265
01:51:48,560 –> 01:51:50,960
و برای کلاس آبی اگر در آن قرار دارد
2266
01:51:50,960 –> 01:51:54,239
این طرف پس آن نیز صفر است
2267
01:51:54,239 –> 01:51:57,440
و در غیر این صورت و سپس ما یک
2268
01:51:57,440 –> 01:52:00,320
تابع خطی پس هر چه جلوتر باشیم
2269
01:52:00,320 –> 01:52:02,800
دور از ما
2270
01:52:02,800 –> 01:52:06,320
خط مرز تصمیم هر چه ما بالاتر باشد
2271
01:52:06,320 –> 01:52:08,080
ضرر – زیان
2272
01:52:08,080 –> 01:52:11,199
و بنابراین این یک بخشی از
2273
01:52:11,199 –> 01:52:14,639
تابع هزینه ما و بخش دیگر است
2274
01:52:14,639 –> 01:52:18,000
همانطور که قبلاً گفتم ما می خواهیم به حداکثر برسیم
2275
01:52:18,000 –> 01:52:21,280
حاشیه اینجا
2276
01:52:21,280 –> 01:52:24,480
و بنابراین بین این دو کلاس و
2277
01:52:24,480 –> 01:52:25,440
لبه
2278
01:52:25,440 –> 01:52:28,480
به صورت 2 تعریف شده است
2279
01:52:28,480 –> 01:52:31,840
بیش از قدر w پس این است
2280
01:52:31,840 –> 01:52:33,679
وابسته به ما
2281
01:52:33,679 –> 01:52:37,199
وزن بستگی به بردار وزن ما دارد
2282
01:52:37,199 –> 01:52:40,239
بنابراین ما می خواهیم این را به حداکثر برسانیم
2283
01:52:40,239 –> 01:52:43,280
و بنابراین ما می خواهیم به حداقل برسانیم
2284
01:52:43,280 –> 01:52:46,560
قدر پس این را قرار می دهیم یا این را اضافه می کنیم
2285
01:52:46,560 –> 01:52:48,400
به ما
2286
01:52:48,400 –> 01:52:51,440
تابع هزینه بنابراین ما نیز این را قرار می دهیم
2287
01:52:51,440 –> 01:52:55,040
قدر w را بنویسید
2288
01:52:55,040 –> 01:52:58,480
به توان 2 برابر لامبدا
2289
01:52:58,480 –> 01:53:01,599
پارامتر و سپس در اینجا ما خود را داریم
2290
01:53:01,599 –> 01:53:03,199
از دست دادن لولا
2291
01:53:03,199 –> 01:53:06,320
بنابراین پارامتر لامبدا سعی می کند a را پیدا کند
2292
01:53:06,320 –> 01:53:09,920
مبادله بین این دو اصطلاح
2293
01:53:09,920 –> 01:53:13,360
بنابراین ما می گوید اساسا می گوید که است
2294
01:53:13,360 –> 01:53:15,040
مهم تر
2295
01:53:15,040 –> 01:53:17,280
ما می خواهیم البته ما می خواهیم آن را داشته باشیم
2296
01:53:17,280 –> 01:53:19,679
طبقه بندی درست ما می خواهیم دروغ بگوییم
2297
01:53:19,679 –> 01:53:22,880
در سمت درست خطوط ما
2298
01:53:22,880 –> 01:53:25,920
اما ما همچنین می خواهیم خط را داشته باشیم
2299
01:53:25,920 –> 01:53:29,440
به طوری که حاشیه است
2300
01:53:29,440 –> 01:53:33,280
به حداکثر می رسد um
2301
01:53:33,280 –> 01:53:36,639
پس بله، پس اگر به این دو نگاه کنید
2302
01:53:36,639 –> 01:53:40,719
موارد اگر ما اگر ما در
2303
01:53:40,719 –> 01:53:43,840
سمت صحیح خط پس اگر y
2304
01:53:43,840 –> 01:53:47,199
i ضربدر f روی x f از x
2305
01:53:47,199 –> 01:53:50,639
بزرگتر یا مساوی از یک است
2306
01:53:50,639 –> 01:53:53,679
ما فقط این اصطلاح را داریم زیرا
2307
01:53:53,679 –> 01:53:54,080
این
2308
01:53:54,080 –> 01:53:57,119
آیا افت لولا صفر است
2309
01:53:57,119 –> 01:54:01,360
و در غیر این صورت تابع هزینه ماست
2310
01:54:01,360 –> 01:54:04,480
این اینجاست
2311
01:54:04,480 –> 01:54:07,599
و اکنون می خواهیم به حداقل برسانیم
2312
01:54:07,599 –> 01:54:11,440
بنابراین ما می خواهیم مشتقات را بدست آوریم
2313
01:54:11,440 –> 01:54:13,199
یا شیب ها
2314
01:54:13,199 –> 01:54:16,639
تابع هزینه ما بنابراین
2315
01:54:16,639 –> 01:54:19,920
در حالت اول اگر بزرگتر باشیم یا
2316
01:54:19,920 –> 01:54:22,480
برابر با یک
2317
01:54:22,480 –> 01:54:25,520
اوم مشتق ما
2318
01:54:25,520 –> 01:54:30,000
فقط دو برابر بار لامبدا است
2319
01:54:30,000 –> 01:54:33,040
w so و اینجا ما فقط نگاه می کنیم
2320
01:54:33,040 –> 01:54:36,159
یکی از اجزای w ما
2321
01:54:36,159 –> 01:54:39,679
بنابراین ما از بزرگی خلاص می شویم
2322
01:54:39,679 –> 01:54:42,960
و مشتق با توجه به b
2323
01:54:42,960 –> 01:54:46,480
صفر است پس لطفاً آن را دوباره بررسی کنید
2324
01:54:46,480 –> 01:54:48,560
خودت اینجا توضیح نمیدم
2325
01:54:48,560 –> 01:54:50,719
مشتقات و جزئیات
2326
01:54:50,719 –> 01:54:53,760
و در مورد دیگر بنابراین اگر آن
2327
01:54:53,760 –> 01:54:57,280
اگر y i ضربدر f روی x نیست
2328
01:54:57,280 –> 01:55:01,199
بزرگتر یا مساوی از یک پس
2329
01:55:01,199 –> 01:55:04,480
مشتق ما با توجه به
2330
01:55:04,480 –> 01:55:08,560
w در اینجا این معادله است
2331
01:55:08,560 –> 01:55:10,960
و مشتق با توجه به ما
2332
01:55:10,960 –> 01:55:12,320
تعصب فقط
2333
01:55:12,320 –> 01:55:15,440
من دوباره لطفاً آن را دوباره بررسی کنید
2334
01:55:15,440 –> 01:55:16,960
برای خودت
2335
01:55:16,960 –> 01:55:20,639
و سپس هنگامی که ما شیب های خود را داریم
2336
01:55:20,639 –> 01:55:21,679
می تواند استفاده کند
2337
01:55:21,679 –> 01:55:24,719
قانون به روز رسانی بنابراین وزن جدید است
2338
01:55:24,719 –> 01:55:28,400
وزن قدیمی منهای چون ما از گرادیان استفاده می کنیم
2339
01:55:28,400 –> 01:55:30,000
فرود بنابراین ما به داخل
2340
01:55:30,000 –> 01:55:33,440
جهت منفی منهای یادگیری
2341
01:55:33,440 –> 01:55:34,400
نرخ
2342
01:55:34,400 –> 01:55:38,560
یا اندازه گام ضربدر مشتق
2343
01:55:38,560 –> 01:55:42,719
بنابراین این قوانین به روز رسانی ما هستند و
2344
01:55:42,719 –> 01:55:46,239
اکنون امیدوارم که مفهوم را درک کرده باشید
2345
01:55:46,239 –> 01:55:49,679
و ریاضی پشت این و حالا ما می توانیم
2346
01:55:49,679 –> 01:55:51,599
بنابراین شروع به اجرای آن کنید
2347
01:55:51,599 –> 01:55:54,719
این در حال حاضر ساده است بنابراین اول از همه
2348
01:55:54,719 –> 01:55:55,760
همه ما وارد می کنیم
2349
01:55:55,760 –> 01:55:59,280
البته s و p numpy
2350
01:55:59,280 –> 01:56:03,440
و سپس کلاس svm خود را ایجاد می کنیم
2351
01:56:03,440 –> 01:56:08,159
که یک متد init دریافت می کند
2352
01:56:08,159 –> 01:56:12,080
و در اینجا من یک را قرار خواهم داد
2353
01:56:12,080 –> 01:56:15,119
نرخ یادگیری که به صورت پیش فرض دریافت می شود
2354
01:56:15,119 –> 01:56:16,679
ارزش
2355
01:56:16,679 –> 01:56:19,679
0.001 می شود و a می گیرد
2356
01:56:19,679 –> 01:56:23,679
پارامتر lambda که همچنین یک را دریافت می کند
2357
01:56:23,679 –> 01:56:24,560
پیش فرض
2358
01:56:24,560 –> 01:56:27,760
و من می گویم این نکته است
2359
01:56:27,760 –> 01:56:30,960
صفر یک، بنابراین این نیز معمولا کوچک است
2360
01:56:30,960 –> 01:56:32,880
ارزش
2361
01:56:32,880 –> 01:56:35,119
و سپس آن را به تعداد
2362
01:56:35,119 –> 01:56:37,840
تکرار برای بهینه سازی ما
2363
01:56:37,840 –> 01:56:40,080
که پیش فرض یک را دریافت می کند
2364
01:56:40,080 –> 01:56:41,440
هزار
2365
01:56:41,440 –> 01:56:44,080
بنابراین من به سادگی آنها را ذخیره می کنم
2366
01:56:44,080 –> 01:56:44,719
خواهم گفت
2367
01:56:44,719 –> 01:56:47,920
خود نقطه lr برابر است
2368
01:56:47,920 –> 01:56:52,480
میزان یادگیری خود نقطه
2369
01:56:53,599 –> 01:56:57,840
پارام برابر با پارام لامبدا است
2370
01:56:57,840 –> 01:57:00,960
بنابراین توجه داشته باشید که من نمی توانم از لامبدا در اینجا استفاده کنم
2371
01:57:00,960 –> 01:57:01,520
زیرا
2372
01:57:01,520 –> 01:57:04,960
lambda یک کلمه کلیدی در پایتون برای
2373
01:57:04,960 –> 01:57:08,480
تابع لامبدا پس بله
2374
01:57:08,480 –> 01:57:12,320
خود نقطه n
2375
01:57:12,320 –> 01:57:15,599
iters برابر با n واحد است
2376
01:57:15,599 –> 01:57:18,880
سپس من می گویم self.w برابر است
2377
01:57:18,880 –> 01:57:22,800
هیچ و self.b برابر است
2378
01:57:22,800 –> 01:57:24,960
هیچکدوم پس باید باهاشون بیام
2379
01:57:24,960 –> 01:57:25,920
بعد
2380
01:57:25,920 –> 01:57:29,040
و سپس دو تابع خود را به این صورت تعریف می کنیم
2381
01:57:29,040 –> 01:57:30,000
مثل همیشه
2382
01:57:30,000 –> 01:57:34,159
یکی تابع پیش بینی است که در آن جا قرار می گیریم
2383
01:57:34,159 –> 01:57:37,199
نمونه های آموزشی و آموزش
2384
01:57:37,199 –> 01:57:40,239
برچسب ها و
2385
01:57:40,239 –> 01:57:43,840
متاسفم این روش مناسب است
2386
01:57:43,840 –> 01:57:48,320
و دیگری روش پیش بینی است
2387
01:57:48,320 –> 01:57:51,360
جایی که ما برچسب های را پیش بینی می کنیم
2388
01:57:51,360 –> 01:57:55,360
نمونه های آزمایشی و حالا بیایید با آن شروع کنیم
2389
01:57:55,360 –> 01:57:55,760
را
2390
01:57:55,760 –> 01:57:58,080
روش پیش بینی کنید زیرا این بسیار است
2391
01:57:58,080 –> 01:57:59,119
کوتاه
2392
01:57:59,119 –> 01:58:01,360
بنابراین
2393
01:58:03,520 –> 01:58:06,239
ما می خواهیم همانطور که گفتم اگر به آن نگاه کنیم
2394
01:58:06,239 –> 01:58:06,960
ریاضی
2395
01:58:06,960 –> 01:58:10,880
ما این مدل خطی را اعمال می کنیم و سپس
2396
01:58:10,880 –> 01:58:14,719
ما به نشانه این نگاه می کنیم تا اگر باشد
2397
01:58:14,719 –> 01:58:17,760
مثبت است سپس می گوییم کلاس یک است
2398
01:58:17,760 –> 01:58:20,080
و اگر منفی باشد می گوییم که هست
2399
01:58:20,080 –> 01:58:21,360
کلاس
2400
01:58:21,360 –> 01:58:24,639
منهای یک پس می گوییم
2401
01:58:24,639 –> 01:58:28,960
خروجی خطی برابر است
2402
01:58:28,960 –> 01:58:32,400
نقطه ناتوانی
2403
01:58:32,400 –> 01:58:35,920
پس حاصل ضرب نقطه ای x
2404
01:58:35,920 –> 01:58:39,679
و خود نقطه w منهای خود
2405
01:58:39,679 –> 01:58:43,440
نقطه b و سپس
2406
01:58:43,440 –> 01:58:46,840
ما علامت را انتخاب می کنیم تا بتوانیم به سادگی بگوییم
2407
01:58:46,840 –> 01:58:50,239
برگشت ناپخته
2408
01:58:50,239 –> 01:58:53,360
علامت نقطه این خطی
2409
01:58:53,360 –> 01:58:56,080
خروجی بنابراین این کل پیش بینی است
2410
01:58:56,080 –> 01:58:57,520
پیاده سازی
2411
01:58:57,520 –> 01:59:00,400
و حالا بیایید به تناسب ادامه دهیم
2412
01:59:00,400 –> 01:59:02,320
روش بنابراین
2413
01:59:02,320 –> 01:59:06,400
اول از همه، همانطور که گفتم ما از آن استفاده کردیم
2414
01:59:06,400 –> 01:59:07,119
کلاس ها
2415
01:59:07,119 –> 01:59:10,080
به علاوه یک و منهای یک در اینجا بنابراین ما می خواهیم
2416
01:59:10,080 –> 01:59:12,000
تا مطمئن شویم که ما
2417
01:59:12,000 –> 01:59:15,280
y فقط منهای یک و به علاوه یک دارد
2418
01:59:15,280 –> 01:59:18,400
بنابراین اغلب اوقات آن صفر و یک است
2419
01:59:18,400 –> 01:59:19,119
اجازه دهید
2420
01:59:19,119 –> 01:59:22,480
این را تبدیل کنید پس فرض کنید y
2421
01:59:22,480 –> 01:59:25,920
underscore برابر است و در اینجا می توانیم استفاده کنیم
2422
01:59:25,920 –> 01:59:28,960
نقطه خالی که در آن یک نقطه ایجاد می شود
2423
01:59:28,960 –> 01:59:29,760
وضعیت
2424
01:59:29,760 –> 01:59:33,440
بنابراین ما می گوییم y um اگر این است
2425
01:59:33,440 –> 01:59:37,360
کمتر یا مساوی از صفر است
2426
01:59:37,360 –> 01:59:40,800
اوم منهای یک را می گذاریم و در غیر این صورت ما
2427
01:59:40,800 –> 01:59:41,760
قرار دادن
2428
01:59:41,760 –> 01:59:45,679
به علاوه یک بنابراین
2429
01:59:45,679 –> 01:59:48,880
این همه صفرها را تبدیل می کند
2430
01:59:48,880 –> 01:59:52,239
یا اعداد کوچکتر به منهای یک و
2431
01:59:52,239 –> 01:59:55,760
اعداد دیگر به مثبت یک و
2432
01:59:55,760 –> 01:59:58,960
حالا بیایید تعداد نمونه ها و
2433
01:59:58,960 –> 01:59:59,679
را
2434
01:59:59,679 –> 02:00:02,800
تعداد ویژگی ها
2435
02:00:02,800 –> 02:00:07,119
و این به سادگی x نقطه است
2436
02:00:07,119 –> 02:00:10,400
شکل چون بردار ورودی ما
2437
02:00:10,400 –> 02:00:14,880
x آرایه nd numpy نیست
2438
02:00:14,880 –> 02:00:18,400
که در آن تعداد ردیف ها عدد است
2439
02:00:18,400 –> 02:00:18,639
از
2440
02:00:18,639 –> 02:00:21,040
نمونه ها و تعداد ستون ها برابر است
2441
02:00:21,040 –> 02:00:23,440
تعداد ویژگی ها
2442
02:00:23,440 –> 02:00:26,719
سپس می خواهیم w خود را مقداردهی اولیه کنیم
2443
02:00:26,719 –> 02:00:30,000
و b ما و ما به سادگی وارد می کنیم
2444
02:00:30,000 –> 02:00:33,840
صفرها در ابتدا پس می گوییم خود
2445
02:00:33,840 –> 02:00:37,599
نقطه w برابر numpy است
2446
02:00:37,599 –> 02:00:41,199
صفر اندازه و
2447
02:00:41,199 –> 02:00:44,400
ویژگی ها برای هر کدام
2448
02:00:44,400 –> 02:00:47,440
جزء ویژگی را در یک عدد صفر قرار می دهیم
2449
02:00:47,440 –> 02:00:50,719
برای جزء وزن ما و سپس می گوییم
2450
02:00:50,719 –> 02:00:52,080
خود.ب
2451
02:00:52,080 –> 02:00:55,440
برابر با صفر است و اکنون می توانیم
2452
02:00:55,440 –> 02:00:58,480
با نزول شیب ما شروع کنیم بنابراین ما
2453
02:00:58,480 –> 02:00:58,800
گفتن
2454
02:00:58,800 –> 02:01:01,520
برای زیر خط چون ما نیاز نداریم
2455
02:01:01,520 –> 02:01:02,400
این
2456
02:01:02,400 –> 02:01:05,760
در محدوده خود نقطه
2457
02:01:05,760 –> 02:01:08,639
و تعداد تکرارها را تکرار می کند
2458
02:01:08,639 –> 02:01:11,040
ما می خواهیم این کار را انجام دهیم
2459
02:01:11,040 –> 02:01:14,159
و سپس ما روی خودمان تکرار می کنیم
2460
02:01:14,159 –> 02:01:17,440
نمونه های آموزشی پس می گویم برای
2461
02:01:17,440 –> 02:01:21,360
شاخص و x i در
2462
02:01:21,360 –> 02:01:25,760
x را بشمارید تا به من بدهد
2463
02:01:25,760 –> 02:01:28,239
شاخص فعلی و همچنین جریان
2464
02:01:28,239 –> 02:01:29,840
نمونه
2465
02:01:29,840 –> 02:01:33,520
و حالا چیکار میخوام بکنم
2466
02:01:33,520 –> 02:01:37,840
است بیایید نگاهی به
2467
02:01:37,840 –> 02:01:41,679
دوباره ریاضی پس من می خواهم
2468
02:01:41,679 –> 02:01:44,719
بیا می خواهم وزن ها را محاسبه کنم و
2469
02:01:44,719 –> 02:01:46,080
یا مشتق
2470
02:01:46,080 –> 02:01:49,280
تابع هزینه ما با توجه به
2471
02:01:49,280 –> 02:01:50,000
w
2472
02:01:50,000 –> 02:01:54,159
و با توجه به تعصب و اینجا i
2473
02:01:54,159 –> 02:01:57,040
اول اما ابتدا به این شرایط نگاه می کنم
2474
02:01:57,040 –> 02:01:58,000
است
2475
02:01:58,000 –> 02:02:02,159
راضی هستم پس خواهم کرد
2476
02:02:02,159 –> 02:02:05,679
بگو و شرط y i است
2477
02:02:05,679 –> 02:02:09,599
برابر تابع خطی ما، بنابراین من می گویم
2478
02:02:09,599 –> 02:02:13,119
شرط برابر است
2479
02:02:13,119 –> 02:02:17,440
y زیرخط شاخص فعلی
2480
02:02:17,440 –> 02:02:21,599
بار و سپس تابع خطی بنابراین
2481
02:02:21,599 –> 02:02:25,599
نقطه ناتوانی اوم
2482
02:02:25,599 –> 02:02:29,040
از نمونه فعلی و
2483
02:02:29,040 –> 02:02:32,639
خود ما نقطه w منهای
2484
02:02:32,639 –> 02:02:35,920
خود نقطه ب
2485
02:02:35,920 –> 02:02:39,280
اوم این باید بزرگتر باشد
2486
02:02:39,280 –> 02:02:42,960
یا مساوی از یک تا
2487
02:02:42,960 –> 02:02:45,599
اگر این راضی است پس شرط
2488
02:02:45,599 –> 02:02:46,480
درست است
2489
02:02:46,480 –> 02:02:50,000
و در غیر این صورت نادرست است، بنابراین اکنون می گویم
2490
02:02:50,000 –> 02:02:53,119
اگر شرط است اگر این باشد
2491
02:02:53,119 –> 02:02:57,360
درست است پس ما
2492
02:02:57,360 –> 02:03:00,000
مشتقات شبیه این هستند
2493
02:03:00,000 –> 02:03:02,159
مشتق با توجه به
2494
02:03:02,159 –> 02:03:05,920
b فقط صفر است و بنابراین ما فقط به این نیاز داریم
2495
02:03:05,920 –> 02:03:07,199
بنابراین
2496
02:03:07,199 –> 02:03:11,520
من می گویم ام
2497
02:03:11,520 –> 02:03:14,800
بنابراین دو برابر بار لامبدا است
2498
02:03:14,800 –> 02:03:18,400
w و سپس در به روز رسانی ما
2499
02:03:18,400 –> 02:03:22,960
ما وارد می شویم پس می گوییم
2500
02:03:22,960 –> 02:03:26,080
وزن جدید وزن قدیمی است
2501
02:03:26,080 –> 02:03:29,360
منهای نرخ یادگیری برابر این است
2502
02:03:29,360 –> 02:03:32,719
بنابراین من این را در یک مرحله می نویسم بنابراین می گویم
2503
02:03:32,719 –> 02:03:36,320
خود نقطه w منهای برابر است
2504
02:03:36,320 –> 02:03:40,639
زمان نرخ یادگیری خود نقطه
2505
02:03:40,639 –> 02:03:43,760
و حالا اینجا
2506
02:03:43,760 –> 02:03:47,199
دو بار داریم
2507
02:03:47,199 –> 02:03:51,360
پارامتر لامبدا خود نقطه
2508
02:03:51,360 –> 02:03:55,599
بار خود نقطه w
2509
02:03:55,599 –> 02:03:59,679
بنابراین این اولین آپدیت است
2510
02:03:59,679 –> 02:04:02,400
یا اگر شرایط ما راضی است و ما
2511
02:04:02,400 –> 02:04:02,960
فقط نیاز
2512
02:04:02,960 –> 02:04:06,480
این به روز رسانی و در غیر این صورت ما می گوییم
2513
02:04:06,480 –> 02:04:10,159
خود نقطه w منهای برابر
2514
02:04:10,159 –> 02:04:13,520
خود بار بر میزان یادگیری
2515
02:04:13,520 –> 02:04:16,960
بارها و بیایید دوباره نگاهی بیندازیم
2516
02:04:16,960 –> 02:04:20,480
در معادله پس 2 برابر است
2517
02:04:20,480 –> 02:04:24,000
لامبدا برابر w منهای y i
2518
02:04:24,000 –> 02:04:27,760
بار x من همینطور
2519
02:04:27,760 –> 02:04:31,599
دو برابر لامبدای ما
2520
02:04:31,599 –> 02:04:34,719
برابر w
2521
02:04:34,719 –> 02:04:39,040
منهای numpy dot بنابراین می خواهم ضرب کنم
2522
02:04:39,040 –> 02:04:40,800
بردارهای ما
2523
02:04:40,800 –> 02:04:44,079
x i و
2524
02:04:44,079 –> 02:04:48,000
y i بنابراین زیرخط y جریان
2525
02:04:48,000 –> 02:04:49,440
فهرست مطالب
2526
02:04:49,440 –> 02:04:52,880
بنابراین این به روز رسانی ما برای w است
2527
02:04:52,880 –> 02:04:56,800
و خود ما نقطه ب
2528
02:04:56,800 –> 02:04:59,920
منهای برابر بار خود است
2529
02:04:59,920 –> 02:05:03,199
نرخ یادگیری ضربدر مشتق
2530
02:05:03,199 –> 02:05:06,639
و مشتق فقط یا عادل است
2531
02:05:06,639 –> 02:05:10,000
y من پس فقط y
2532
02:05:10,000 –> 02:05:13,760
خط زیر شاخص
2533
02:05:13,760 –> 02:05:16,480
و اکنون کار ما تمام شده است بنابراین این کل است
2534
02:05:16,480 –> 02:05:18,239
پیاده سازی
2535
02:05:18,239 –> 02:05:21,119
و حالا بیایید این را آزمایش کنیم، بنابراین من نوشتم
2536
02:05:21,119 –> 02:05:22,239
کمی
2537
02:05:22,239 –> 02:05:25,920
اسکریپت آزمایشی که این را وارد می کند
2538
02:05:25,920 –> 02:05:28,960
کلاس svm و سپس تولید خواهد شد
2539
02:05:28,960 –> 02:05:33,119
چند نمونه آزمایش تا تولید شود
2540
02:05:33,119 –> 02:05:35,440
دو کلاس
2541
02:05:35,440 –> 02:05:38,480
و سپس من svm خود را ایجاد خواهم کرد
2542
02:05:38,480 –> 02:05:41,679
طبقه بندی و برازش داده ها
2543
02:05:41,679 –> 02:05:45,040
و سپس یک تابع کوچک نوشتم
2544
02:05:45,040 –> 02:05:47,840
این را تجسم کنید تا بتوانید آن را پیدا کنید
2545
02:05:47,840 –> 02:05:49,840
به هر حال کد در github
2546
02:05:49,840 –> 02:05:52,480
پس لطفا خودتان آن را بررسی کنید
2547
02:05:52,480 –> 02:05:52,960
و
2548
02:05:52,960 –> 02:05:56,000
حالا اگر این را اجرا کنیم
2549
02:05:56,000 –> 02:06:02,239
فرض کنید python svm underscore test.pi
2550
02:06:02,239 –> 02:06:05,440
حالا این باید وزن ها را محاسبه کند
2551
02:06:05,440 –> 02:06:07,840
و سوگیری و آن را نیز باید طرح
2552
02:06:07,840 –> 02:06:11,119
تابع تصمیم گیری
2553
02:06:11,119 –> 02:06:15,119
بنابراین خط زرد و دو خط در
2554
02:06:15,119 –> 02:06:17,119
هر دو طرف اینجا
2555
02:06:17,119 –> 02:06:20,880
و می بینیم که اینطور کار می کند
2556
02:06:20,880 –> 02:06:24,960
بله همه چیز در مورد svm است
2557
02:06:24,960 –> 02:06:28,239
امیدوارم از این لذت برده باشید و اگر دوست داشتید
2558
02:06:28,239 –> 02:06:30,000
این لطفا در کانال من عضو شوید
2559
02:06:30,000 –> 02:06:33,520
و دفعه بعد خداحافظ
2560
02:06:37,280 –> 02:06:39,440
سلام به یک دستگاه جدید خوش آمدید
2561
02:06:39,440 –> 02:06:41,199
آموزش یادگیری از ابتدا
2562
02:06:41,199 –> 02:06:42,880
امروز قصد داریم یک را پیاده سازی کنیم
2563
02:06:42,880 –> 02:06:45,280
درخت تصمیم فقط با استفاده از پایتون داخلی
2564
02:06:45,280 –> 02:06:46,079
ماژول ها و
2565
02:06:46,079 –> 02:06:48,960
numpy درخت تصمیم بسیار ساده است
2566
02:06:48,960 –> 02:06:50,719
اما مفهوم قدرتمند
2567
02:06:50,719 –> 02:06:53,040
ایده این است که درختی بسازیم که شکافته شود
2568
02:06:53,040 –> 02:06:55,199
داده های ما به گونه ای است که بهترین ها را داشته باشیم
2569
02:06:55,199 –> 02:06:57,760
جداسازی کلاس های ما
2570
02:06:57,760 –> 02:07:00,079
درخت تصمیم نیز مبنایی برای
2571
02:07:00,079 –> 02:07:02,400
مدل جنگل تصادفی بسیار محبوب
2572
02:07:02,400 –> 02:07:04,159
که در ادامه اجرا خواهیم کرد
2573
02:07:04,159 –> 02:07:04,960
آموزش
2574
02:07:04,960 –> 02:07:07,840
بنابراین امیدوارم که با من و به عنوان همراه باشید
2575
02:07:07,840 –> 02:07:09,920
همیشه با تئوری شروع می کنیم
2576
02:07:09,920 –> 02:07:10,800
اول اینطوری
2577
02:07:10,800 –> 02:07:13,280
بیایید به یک مثال نگاه کنیم تا متوجه شویم
2578
02:07:13,280 –> 02:07:15,199
مفهوم و ریاضی پشت
2579
02:07:15,199 –> 02:07:16,800
درخت تصمیم
2580
02:07:16,800 –> 02:07:19,199
بیایید بگوییم که می خواهیم پیش بینی کنیم که آیا یک فرد
2581
02:07:19,199 –> 02:07:21,119
در حال پیاده روی یا سوار شدن به اتوبوس است
2582
02:07:21,119 –> 02:07:23,679
برای رفتن به سر کار و ما 10 تا داریم
2583
02:07:23,679 –> 02:07:24,719
مشاهدات
2584
02:07:24,719 –> 02:07:27,040
یا 10 نمونه با دو نمونه متفاوت
2585
02:07:27,040 –> 02:07:28,400
امکانات
2586
02:07:28,400 –> 02:07:31,520
بنابراین اگر باران می بارد این ویژگی را داریم
2587
02:07:31,520 –> 02:07:33,679
و سپس ما ویژگی چقدر است
2588
02:07:33,679 –> 02:07:35,520
وقت دارند
2589
02:07:35,520 –> 02:07:37,920
و سپس ما پیش بینی یا
2590
02:07:37,920 –> 02:07:39,199
برچسب کلاس
2591
02:07:39,199 –> 02:07:43,119
بله یا خیر و اکنون می خواهیم
2592
02:07:43,119 –> 02:07:46,159
درخت ما را بسازیم که داده های ما را تقسیم می کند
2593
02:07:46,159 –> 02:07:49,679
بنابراین ما تمام نمونه ها را قرار می دهیم
2594
02:07:49,679 –> 02:07:52,639
در گره ریشه و سپس a را اعمال می کنیم
2595
02:07:52,639 –> 02:07:54,480
سوال پس پرسیدیم که آیا
2596
02:07:54,480 –> 02:07:57,840
باران می بارد و اگر پاسخ مثبت است
2597
02:07:57,840 –> 02:08:00,960
سپس به سمت راست می رویم و همه را می گذاریم
2598
02:08:00,960 –> 02:08:03,760
نمونه هایی که پاسخ مثبت است
2599
02:08:03,760 –> 02:08:08,159
بنابراین این سه را به سمت راست توجه داشته باشید و
2600
02:08:08,159 –> 02:08:09,199
اگر پاسخ است
2601
02:08:09,199 –> 02:08:12,079
نه پس به سمت چپ می رویم و همه را می گذاریم
2602
02:08:12,079 –> 02:08:13,360
نمونه های دیگر
2603
02:08:13,360 –> 02:08:17,280
در یادداشت سمت چپ و اینجا در سمت راست
2604
02:08:17,280 –> 02:08:19,199
بلافاصله می توانیم بگوییم
2605
02:08:19,199 –> 02:08:22,480
که جواب منفی است راه نمی روند
2606
02:08:22,480 –> 02:08:27,119
بنابراین ما برچسب کلاس را یا برگردانیم
2607
02:08:27,119 –> 02:08:28,320
0
2608
02:08:28,320 –> 02:08:31,360
و اینجا در سمت چپ ما می توانیم بیشتر
2609
02:08:31,360 –> 02:08:34,560
داده ها را تقسیم کنید و درخت ما را رشد دهید
2610
02:08:34,560 –> 02:08:37,760
پس سوال بعدی را می پرسیم
2611
02:08:37,760 –> 02:08:41,119
بنابراین آنها بیش از 10 دقیقه و
2612
02:08:41,119 –> 02:08:43,679
دوباره اگر پاسخ مثبت است، ما به
2613
02:08:43,679 –> 02:08:45,040
حق
2614
02:08:45,040 –> 02:08:48,159
و همه را قرار دهید
2615
02:08:48,159 –> 02:08:50,400
ام نمونه جایی که هستند
2616
02:08:50,400 –> 02:08:52,159
بیش از 10 دقیقه زمان دارند
2617
02:08:52,159 –> 02:08:54,880
در یادداشت سمت راست و همه موارد دیگر
2618
02:08:54,880 –> 02:08:56,400
در یادداشت سمت چپ
2619
02:08:56,400 –> 02:08:59,040
و سپس دوباره در اینجا می توانیم بگوییم که
2620
02:08:59,040 –> 02:08:59,679
پاسخ است
2621
02:08:59,679 –> 02:09:02,239
بله یا برچسب کلاس یک و اینجاست
2622
02:09:02,239 –> 02:09:05,040
برچسب کلاس صفر است
2623
02:09:05,040 –> 02:09:08,159
و همچنین می توانستیم متوقف شویم
2624
02:09:08,159 –> 02:09:11,199
با رشد در اینجا و بازگشت
2625
02:09:11,199 –> 02:09:11,679
اکثر
2626
02:09:11,679 –> 02:09:14,239
برچسب کلاس مشترک بنابراین در اینجا می توانیم بگوییم
2627
02:09:14,239 –> 02:09:14,800
که آن است
2628
02:09:14,800 –> 02:09:19,119
به احتمال زیاد آنها راه می روند
2629
02:09:19,119 –> 02:09:22,079
اما ما همچنین می توانیم داده های خود را بیشتر تقسیم کنیم
2630
02:09:22,079 –> 02:09:23,840
و اما ما نمی خواهیم
2631
02:09:23,840 –> 02:09:26,800
داده های خود را بیش از حد رشد می دهیم زیرا ما این کار را نمی کنیم
2632
02:09:26,800 –> 02:09:27,360
خواستن
2633
02:09:27,360 –> 02:09:30,480
بیش از حد مناسب داده های ما است، اما ما نیز می خواهیم
2634
02:09:30,480 –> 02:09:31,520
خوبی داشته باشی
2635
02:09:31,520 –> 02:09:36,079
پیش بینی پس این مفهوم چگونه است
2636
02:09:36,079 –> 02:09:39,440
درخت تصمیم کار می کند
2637
02:09:39,440 –> 02:09:42,480
و اکنون تنها چیزی که باید انجام دهیم
2638
02:09:42,480 –> 02:09:43,520
پیدا کردن است
2639
02:09:43,520 –> 02:09:47,760
در چه و کدام گره می خواهیم اعمال کنیم
2640
02:09:47,760 –> 02:09:51,280
کدام سوال پس چرا ما بپرسیم
2641
02:09:51,280 –> 02:09:54,639
باران در ابتدا و نه برای زمان
2642
02:09:54,639 –> 02:09:58,320
و چرا ما برای زمان درخواست است
2643
02:09:58,320 –> 02:10:01,679
بیشتر از 10 و چرا ما درخواست نمی کنیم
2644
02:10:01,679 –> 02:10:04,560
اگر بزرگتر از 5 یا بیشتر از
2645
02:10:04,560 –> 02:10:05,679
20
2646
02:10:05,679 –> 02:10:10,079
بنابراین این بهترین به اصطلاح بهترین است
2647
02:10:10,079 –> 02:10:13,520
ویژگی تقسیم و بهترین تقسیم
2648
02:10:13,520 –> 02:10:16,639
مقدار یا آستانه تقسیمی که می خواهیم
2649
02:10:16,639 –> 02:10:17,119
پیدا کردن
2650
02:10:17,119 –> 02:10:20,560
بنابراین مفهوم
2651
02:10:20,560 –> 02:10:24,480
این است که در هر گره ای که می خواهیم آن را پیدا کنیم
2652
02:10:24,480 –> 02:10:25,040
بهترین
2653
02:10:25,040 –> 02:10:28,400
تقسیم ارزش و بهترین تقسیم
2654
02:10:28,400 –> 02:10:31,679
آستانه و ذخیره آنها و
2655
02:10:31,679 –> 02:10:34,719
این مرحله آموزش ما و بعد از آن است
2656
02:10:34,719 –> 02:10:36,000
وقتی می خواهیم
2657
02:10:36,000 –> 02:10:39,360
یک نمونه آزمایش جدید را پیش بینی کنید سپس شروع می کنیم
2658
02:10:39,360 –> 02:10:43,440
در بالا و سپس از درخت خود عبور می کنیم
2659
02:10:43,440 –> 02:10:46,400
و سوالات یا
2660
02:10:46,400 –> 02:10:47,520
امکانات
2661
02:10:47,520 –> 02:10:50,880
که ذخیره کردیم و به سمت چپ یا به سمت چپ می رویم
2662
02:10:50,880 –> 02:10:53,599
سمت راست تا زمانی که به یک گره برگ برسیم
2663
02:10:53,599 –> 02:10:54,719
یک گره برگ است
2664
02:10:54,719 –> 02:10:57,679
گره در پایین و سپس اعمال می کنیم
2665
02:10:57,679 –> 02:10:58,560
را
2666
02:10:58,560 –> 02:11:00,880
رایج ترین برچسبی که ما ذخیره کرده ایم
2667
02:11:00,880 –> 02:11:02,079
بر اساس ما
2668
02:11:02,079 –> 02:11:05,760
نمونه های آزمایشی پس مفهوم این است
2669
02:11:05,760 –> 02:11:08,840
و حالا چگونه بهترین ها را پیدا کنیم
2670
02:11:08,840 –> 02:11:10,159
شکاف
2671
02:11:10,159 –> 02:11:13,920
بنابراین برای این ما به مقداری ریاضی نیاز داریم
2672
02:11:13,920 –> 02:11:17,199
ما آنتروپی را محاسبه می کنیم
2673
02:11:17,199 –> 02:11:20,000
و آنتروپی نیز مش a است
2674
02:11:20,000 –> 02:11:20,719
اندازه گیری برای
2675
02:11:20,719 –> 02:11:24,159
عدم قطعیت بنابراین فرمول
2676
02:11:24,159 –> 02:11:27,520
منهای است و سپس مجموع را داریم
2677
02:11:27,520 –> 02:11:30,719
از p از x بار ورود به سیستم p
2678
02:11:30,719 –> 02:11:34,639
از x و p از x عدد است
2679
02:11:34,639 –> 02:11:35,840
ظهور
2680
02:11:35,840 –> 02:11:39,199
بیش از تعداد کل نمونه ها در
2681
02:11:39,199 –> 02:11:40,639
مثال ما
2682
02:11:40,639 –> 02:11:43,679
ما 10 10 نمونه داریم
2683
02:11:43,679 –> 02:11:47,040
و پنج بار ام جواب این است
2684
02:11:47,040 –> 02:11:49,760
یا برچسب صفر و پنج برابر است
2685
02:11:49,760 –> 02:11:51,360
پاسخ است
2686
02:11:51,360 –> 02:11:55,360
یک و بعد داریم
2687
02:11:55,360 –> 02:11:58,960
آنتروپی ما منهای است
2688
02:11:58,960 –> 02:12:03,840
پنج روی ده بار لاگ پنج روی ده
2689
02:12:03,840 –> 02:12:07,520
منهای و سپس به بعدی نگاه می کنیم
2690
02:12:07,520 –> 02:12:11,199
um برچسب پس یکی دوباره ما پنج داریم
2691
02:12:11,199 –> 02:12:14,800
برچسب ها تا منهای پنج تا ده برابر
2692
02:12:14,800 –> 02:12:17,119
ورود به سیستم از پنج بر ده و اگر شما
2693
02:12:17,119 –> 02:12:18,480
پس این را محاسبه کن
2694
02:12:18,480 –> 02:12:21,360
این یکی پس این بدترین است
2695
02:12:21,360 –> 02:12:23,360
مورد احتمالی
2696
02:12:23,360 –> 02:12:26,880
در اینجا در گره اول ما نمی توانیم
2697
02:12:26,880 –> 02:12:29,040
پیش بینی کنید که
2698
02:12:29,040 –> 02:12:32,239
هستند اگر یک یا صفر باشد زیرا داریم
2699
02:12:32,239 –> 02:12:35,599
به مقدار مساوی از هر دو
2700
02:12:35,599 –> 02:12:39,440
نمونه ها یا هر دو کلاس در اینجا
2701
02:12:39,440 –> 02:12:42,400
پس یکی بدترین حالت ممکن و
2702
02:12:42,400 –> 02:12:43,360
مثل اینجا
2703
02:12:43,360 –> 02:12:46,800
آنتروپی در اینجا صفر خواهد بود پس این
2704
02:12:46,800 –> 02:12:48,960
بهترین مورد در اینجا ما بسیار است
2705
02:12:48,960 –> 02:12:49,920
مسلم – قطعی
2706
02:12:49,920 –> 02:12:53,920
که ما کلاس صفر داریم
2707
02:12:53,920 –> 02:12:57,840
و اکنون آنتروپی را محاسبه می کنیم
2708
02:12:57,840 –> 02:13:01,520
و سپس داده های خود را تقسیم کرده و محاسبه می کنیم
2709
02:13:01,520 –> 02:13:02,719
آنتروپی
2710
02:13:02,719 –> 02:13:06,880
برای فرزندانمان و سپس محاسبه می کنیم که چگونه
2711
02:13:06,880 –> 02:13:07,280
بسیار
2712
02:13:07,280 –> 02:13:10,400
اطلاعاتی که از طریق این تقسیم به دست می آوریم
2713
02:13:10,400 –> 02:13:13,119
و این اندازه گیری در واقع واقعا است
2714
02:13:13,119 –> 02:13:15,520
کسب اطلاعات نامیده می شود
2715
02:13:15,520 –> 02:13:18,880
و این توسط محاسبه می شود
2716
02:13:18,880 –> 02:13:22,320
آنتروپی والد منهای
2717
02:13:22,320 –> 02:13:25,520
میانگین وزنی همه بچه ها
2718
02:13:25,520 –> 02:13:27,119
آنتروپی ها
2719
02:13:27,119 –> 02:13:30,159
بنابراین مانند مثال ما داریم
2720
02:13:30,159 –> 02:13:34,159
یادداشت ریشه با 10 مشاهدات ما
2721
02:13:34,159 –> 02:13:36,880
و سپس در سمت چپ ما هفت
2722
02:13:36,880 –> 02:13:37,920
مشاهدات
2723
02:13:37,920 –> 02:13:41,599
با اینجا دو صفر
2724
02:13:41,599 –> 02:13:44,639
و پنج بار و در سمت راست ما
2725
02:13:44,639 –> 02:13:44,960
دارند
2726
02:13:44,960 –> 02:13:48,239
سه صفر پس آنتروپی ما
2727
02:13:48,239 –> 02:13:52,320
آنتروپی منهای والد است
2728
02:13:52,320 –> 02:13:55,679
هفت تا ده برابر آنتروپی روی
2729
02:13:55,679 –> 02:13:56,560
سمت چپ
2730
02:13:56,560 –> 02:14:00,480
به علاوه 3 بیش از 10 برابر آنتروپی از
2731
02:14:00,480 –> 02:14:01,599
سمت راست
2732
02:14:01,599 –> 02:14:04,800
بنابراین این به دست آوردن اطلاعات و اکنون است
2733
02:14:04,800 –> 02:14:05,599
ما انجام می دهیم
2734
02:14:05,599 –> 02:14:09,040
جستجوی حریصانه بنابراین ما به همه موارد می رویم
2735
02:14:09,040 –> 02:14:10,480
ویژگی های ممکن
2736
02:14:10,480 –> 02:14:13,760
و بیش از همه مقادیر ویژگی ممکن است
2737
02:14:13,760 –> 02:14:15,360
یا آستانه ها
2738
02:14:15,360 –> 02:14:18,400
بنابراین برای باران بررسی می کنیم که آیا بله
2739
02:14:18,400 –> 02:14:22,159
یا نه یا به معنای یک یا صفر است
2740
02:14:22,159 –> 02:14:24,960
و اگر پاسخ و برای زمان
2741
02:14:24,960 –> 02:14:26,480
ویژگی که ما بررسی می کنیم
2742
02:14:26,480 –> 02:14:29,599
برای 5 10 15
2743
02:14:29,599 –> 02:14:34,400
20 25 و 30 بنابراین ما یک جستجوی حریصانه انجام می دهیم
2744
02:14:34,400 –> 02:14:37,520
و سپس ذخیره می کنیم یا
2745
02:14:37,520 –> 02:14:40,079
انتخاب و ذخیره بهترین ویژگی و
2746
02:14:40,079 –> 02:14:41,119
بهترین
2747
02:14:41,119 –> 02:14:44,880
آستانه بنابراین این است
2748
02:14:44,880 –> 02:14:47,599
مفهوم پس بیایید به رویکرد الف نگاه کنیم
2749
02:14:47,599 –> 02:14:48,239
کمی
2750
02:14:48,239 –> 02:14:51,360
با جزئیات بیشتر، بنابراین ابتدا ما آن را داریم
2751
02:14:51,360 –> 02:14:53,760
مرحله آموزش جایی که ما می خواهیم
2752
02:14:53,760 –> 02:14:56,880
درختمان را بسازیم تا از بالا شروع کنیم
2753
02:14:56,880 –> 02:14:57,440
گره
2754
02:14:57,440 –> 02:15:00,079
و در هر گره بهترین را انتخاب می کنیم
2755
02:15:00,079 –> 02:15:00,639
شکاف
2756
02:15:00,639 –> 02:15:03,760
بر اساس بهترین کسب اطلاعات
2757
02:15:03,760 –> 02:15:06,079
و ما یک جستجوی حریصانه انجام می دهیم بنابراین حلقه می زنیم
2758
02:15:06,079 –> 02:15:08,159
بیش از همه ویژگی ها و به طور کلی
2759
02:15:08,159 –> 02:15:11,679
آستانه ها و سپس بهترین تقسیم را ذخیره می کنیم
2760
02:15:11,679 –> 02:15:14,639
ویژگی و آستانه تقسیم در هر گره
2761
02:15:14,639 –> 02:15:18,079
و درخت را به صورت بازگشتی می سازیم
2762
02:15:18,079 –> 02:15:20,719
و همچنین باید توقفی اعمال کنیم
2763
02:15:20,719 –> 02:15:22,159
معیارهایی برای توقف
2764
02:15:22,159 –> 02:15:25,920
در حال رشد و در مثال ما از a استفاده خواهیم کرد
2765
02:15:25,920 –> 02:15:29,840
حداکثر عمق بنابراین برای مثال می گوییم اگر
2766
02:15:29,840 –> 02:15:31,360
عمق می رسد
2767
02:15:31,360 –> 02:15:34,400
5 سپس ما متوقف می شویم
2768
02:15:34,400 –> 02:15:37,920
و از حداقل نمونه در یک گره استفاده می کنیم
2769
02:15:37,920 –> 02:15:38,400
بنابراین
2770
02:15:38,400 –> 02:15:41,040
برای مثال میتوانیم بگوییم اگر کمتر داریم
2771
02:15:41,040 –> 02:15:41,760
از پنج
2772
02:15:41,760 –> 02:15:44,960
نمونه ها را در یک گره قرار می دهیم و هیچ کدام را تقسیم نمی کنیم
2773
02:15:44,960 –> 02:15:46,239
به علاوه
2774
02:15:46,239 –> 02:15:48,079
و اگر دیگر کلاسی نداشته باشیم
2775
02:15:48,079 –> 02:15:50,639
توزیع در یک گره مانند اینجا
2776
02:15:50,639 –> 02:15:53,599
پس ما دیگر نمی توانیم از هم جدا شویم زیرا ما
2777
02:15:53,599 –> 02:15:54,880
فقط داشتن
2778
02:15:54,880 –> 02:15:58,320
برچسبهای کلاس صفر اینجا هستند، بنابراین اینها ما هستند
2779
02:15:58,320 –> 02:16:00,880
معیارهای توقفی که به آن نیاز داریم
2780
02:16:00,880 –> 02:16:03,520
و سپس هنگامی که ما یک گره برگ داریم
2781
02:16:03,520 –> 02:16:06,079
ما رایج ترین برچسب کلاس را ذخیره می کنیم
2782
02:16:06,079 –> 02:16:07,920
این گره بنابراین در اینجا ما ذخیره می کنیم
2783
02:16:07,920 –> 02:16:11,679
صفر یک و صفر پس این ماست
2784
02:16:11,679 –> 02:16:12,719
مرحله آموزش
2785
02:16:12,719 –> 02:16:15,760
و بعداً وقتی آزمایش را انجام می دهیم
2786
02:16:15,760 –> 02:16:16,159
با
2787
02:16:16,159 –> 02:16:19,679
نمونه های جدید و سپس از درخت عبور می کنیم
2788
02:16:19,679 –> 02:16:22,639
و ما همچنین این کار را به صورت بازگشتی انجام می دهیم بنابراین ما
2789
02:16:22,639 –> 02:16:24,000
اجرای الف
2790
02:16:24,000 –> 02:16:27,520
تابعی که خود را و
2791
02:16:27,520 –> 02:16:30,719
در هر گره به بهترین تقسیم نگاه می کنیم
2792
02:16:30,719 –> 02:16:33,519
ویژگی بردار ویژگی آزمون و
2793
02:16:33,519 –> 02:16:33,920
برو
2794
02:16:33,920 –> 02:16:37,679
چپ یا راست بسته به اینکه
2795
02:16:37,679 –> 02:16:41,519
ارزش این ویژگی
2796
02:16:41,519 –> 02:16:45,040
ام کوچکتر یا مساوی از ماست
2797
02:16:45,040 –> 02:16:47,359
آستانه ای که ذخیره کردیم
2798
02:16:47,359 –> 02:16:49,920
و سپس وقتی به گره برگ رسیدیم یا
2799
02:16:49,920 –> 02:16:51,200
پایین
2800
02:16:51,200 –> 02:16:54,478
ما رایج ترین کلاس ذخیره شده را برمی گردانیم
2801
02:16:54,478 –> 02:16:55,519
برچسب
2802
02:16:55,519 –> 02:16:59,519
بنابراین این مفهوم است
2803
02:16:59,519 –> 02:17:03,040
درخت تصمیم و حالا فکر می کنم این کار را خواهم کرد
2804
02:17:03,040 –> 02:17:04,959
این ویدیو را در اینجا متوقف کنید و ما انجام خواهیم داد
2805
02:17:04,959 –> 02:17:07,120
ادامه در قسمت بعدی یا در
2806
02:17:07,120 –> 02:17:07,599
دومین
2807
02:17:07,599 –> 02:17:12,000
از اجرا جدا شوید پس شما را ببینم
2808
02:17:12,840 –> 02:17:15,840
سپس
2809
02:17:15,920 –> 02:17:18,080
سلام به همگی به قسمت دوم خوش آمدید
2810
02:17:18,080 –> 02:17:20,000
آموزش درخت تصمیم
2811
02:17:20,000 –> 02:17:21,760
اگر قسمت اول را ندیده اید
2812
02:17:21,760 –> 02:17:23,760
پس لطفا این کار را انجام دهید زیرا من این کار را خواهم کرد
2813
02:17:23,760 –> 02:17:24,718
شرح دهید، توضیح دهید
2814
02:17:24,718 –> 02:17:27,599
نظریه بنابراین در اینجا ما به ادامه می دهیم
2815
02:17:27,599 –> 02:17:28,718
پیاده سازی
2816
02:17:28,718 –> 02:17:31,120
و ما می توانیم بلافاصله شروع کنیم بنابراین می گوییم
2817
02:17:31,120 –> 02:17:32,398
وارد كردن
2818
02:17:32,398 –> 02:17:37,519
numpy s و p و سپس
2819
02:17:37,519 –> 02:17:39,920
قبل از اجرای درخت تصمیم
2820
02:17:39,920 –> 02:17:42,240
کلاس ما اول
2821
02:17:42,240 –> 02:17:45,120
روش آنتروپی خود را برای محاسبه ایجاد کنید
2822
02:17:45,120 –> 02:17:45,439
را
2823
02:17:45,439 –> 02:17:48,718
آنتروپی و ما آن را به عنوان جهانی اجرا می کنیم
2824
02:17:48,718 –> 02:17:50,638
عملکرد بنابراین ما می گوییم
2825
02:17:50,638 –> 02:17:54,160
آنتروپی را تعریف کنید و این یک به دست می آید
2826
02:17:54,160 –> 02:17:55,120
بردار
2827
02:17:55,120 –> 02:17:59,200
y از همه برچسب های کلاس ما
2828
02:17:59,200 –> 02:18:02,318
و اجازه دهید نگاهی به فرمول داشته باشیم
2829
02:18:02,318 –> 02:18:05,840
بنابراین باید تعداد آنها را محاسبه کنیم
2830
02:18:05,840 –> 02:18:09,679
رخ می دهد و ما می توانیم
2831
02:18:09,679 –> 02:18:12,718
این کار را با یک تابع انجام دهید و ما این را صدا می کنیم
2832
02:18:12,718 –> 02:18:14,160
هیستوگرام یا هیستوگرام
2833
02:18:14,160 –> 02:18:18,318
و می توانیم از numpy bin count استفاده کنیم
2834
02:18:18,318 –> 02:18:21,200
از y بنابراین این عدد را محاسبه می کند
2835
02:18:21,200 –> 02:18:22,718
از رخدادها
2836
02:18:22,718 –> 02:18:26,318
از تمام برچسب های کلاس و سپس تقسیم می کنیم
2837
02:18:26,318 –> 02:18:27,120
آنها
2838
02:18:27,120 –> 02:18:31,040
با تعداد کل نمونه ها
2839
02:18:31,040 –> 02:18:34,398
و می گوییم قطعه برابر است
2840
02:18:34,398 –> 02:18:37,599
تاریخ تقسیم بر طول
2841
02:18:37,599 –> 02:18:41,679
از y و سپس
2842
02:18:41,679 –> 02:18:45,679
ما فرمول واقعی را اعمال می کنیم بنابراین می گوییم
2843
02:18:45,679 –> 02:18:48,959
منهای مجموع p از x
2844
02:18:48,959 –> 02:18:52,000
برابر log p از x
2845
02:18:52,000 –> 02:18:54,879
بنابراین ما می توانیم این کار را در یک خط انجام دهیم و بگوییم
2846
02:18:54,879 –> 02:18:56,398
برگشت
2847
02:18:56,398 –> 02:18:59,840
منهای مجموع ناقص
2848
02:18:59,840 –> 02:19:02,318
و در اینجا از درک لیست استفاده می کنیم بنابراین ما
2849
02:19:02,318 –> 02:19:03,040
میتوان گفت
2850
02:19:03,040 –> 02:19:06,638
p ضربدر عدد پی
2851
02:19:06,638 –> 02:19:09,760
ورود به سیستم 2 از p برای
2852
02:19:09,760 –> 02:19:12,840
همه p در
2853
02:19:12,840 –> 02:19:17,120
ps و ما نیز باید از یک شرط استفاده کنیم
2854
02:19:17,120 –> 02:19:20,160
اگر p بزرگتر از صفر باشد
2855
02:19:20,160 –> 02:19:22,240
زیرا لاگ برای آن تعریف نشده است
2856
02:19:22,240 –> 02:19:24,160
اعداد منفی
2857
02:19:24,160 –> 02:19:27,280
بنابراین این آنتروپی است و اکنون ما نیز
2858
02:19:27,280 –> 02:19:31,200
یک کلاس کمکی پیاده سازی کنید و این را صدا بزنید
2859
02:19:31,200 –> 02:19:33,920
گره بنابراین در اینجا ما را ذخیره خواهیم کرد
2860
02:19:33,920 –> 02:19:35,200
اطلاعات برای
2861
02:19:35,200 –> 02:19:40,479
توجه داشته باشید تا این یک شروع دریافت کند
2862
02:19:40,799 –> 02:19:43,840
که می شود خود و سپس اجازه دهید یک
2863
02:19:43,840 –> 02:19:48,640
به این نگاه کنید تا اگر ما در وسط هستیم
2864
02:19:48,640 –> 02:19:52,399
سپس می خواهیم بهترین تقسیم را ذخیره کنیم
2865
02:19:52,399 –> 02:19:56,240
ویژگی و بهترین آستانه تقسیم
2866
02:19:56,240 –> 02:19:59,760
و همچنین می خواهیم سمت چپ و را ذخیره کنیم
2867
02:19:59,760 –> 02:20:00,560
حق
2868
02:20:00,560 –> 02:20:03,760
درختان کودک چون بعداً به آنها نیاز داریم
2869
02:20:03,760 –> 02:20:08,399
و اگر ما و حالا اگر در یک برگی هستیم
2870
02:20:08,399 –> 02:20:08,960
گره
2871
02:20:08,960 –> 02:20:12,240
سپس ما همچنین می خواهیم واقعی را ذخیره کنیم
2872
02:20:12,240 –> 02:20:14,840
ارزش در اینجا بنابراین رایج ترین کلاس است
2873
02:20:14,840 –> 02:20:16,080
برچسب
2874
02:20:16,080 –> 02:20:20,960
پس می گوییم ویژگی
2875
02:20:22,399 –> 02:20:26,640
برابر با هیچ آستانه است
2876
02:20:26,640 –> 02:20:30,960
مساوی هیچ چپ مساوی هیچ
2877
02:20:30,960 –> 02:20:34,800
حق برابر با هیچ است و سپس از a استفاده می کنیم
2878
02:20:34,800 –> 02:20:36,720
ترفند کوچک در اینجا بنابراین ما
2879
02:20:36,720 –> 02:20:40,000
از یک ستاره و یک کاما و سپس ما استفاده کنید
2880
02:20:40,000 –> 02:20:40,399
گفتن
2881
02:20:40,399 –> 02:20:43,520
ارزش برابر با هیچ کدام نیست
2882
02:20:43,520 –> 02:20:46,399
حالا اگر بخواهیم از این مقدار استفاده کنیم
2883
02:20:46,399 –> 02:2