در این مطلب، ویدئو هوش مصنوعی با پایتون | آموزش هوش مصنوعی با استفاده از پایتون | ادورکا با زیرنویس فارسی را برای دانلود قرار داده ام. شما میتوانید با پرداخت 15 هزار تومان ، این ویدیو به علاوه تمامی فیلم های سایت را دانلود کنید.اکثر فیلم های سایت به زبان انگلیسی می باشند. این ویدئو دارای زیرنویس فارسی ترجمه شده توسط هوش مصنوعی می باشد که میتوانید نمونه ای از آن را در قسمت پایانی این مطلب مشاهده کنید.
مدت زمان فیلم: 1:42:23
تصاویر این ویدئو:
قسمتی از زیرنویس این فیلم:
00:00:00,810 –> 00:00:10,730
[موسیقی]
2
00:00:10,730 –> 00:00:13,650
بدون شک هوش مصنوعی
3
00:00:13,650 –> 00:00:15,929
پرطرفدارترین فناوری در حال حاضر
4
00:00:15,929 –> 00:00:19,109
غول فناوری مانند تسلا آمازون و
5
00:00:19,109 –> 00:00:21,630
نتفلیکس است که تکنیکهای هوش مصنوعی را برای به دست
6
00:00:21,630 –> 00:00:23,550
آوردن بینش مفید از دادهها و
7
00:00:23,550 –> 00:00:26,160
رشد تجارت خود پیادهسازی میکنند.
8
00:00:26,160 –> 00:00:28,199
9
00:00:28,199 –> 00:00:29,939
همه چیز در مورد
10
00:00:29,939 –> 00:00:31,890
هوش مصنوعی و اینکه چگونه می توان آن را
11
00:00:31,890 –> 00:00:34,620
با استفاده از پایتون پیاده سازی کرد، همچنین قبل
12
00:00:34,620 –> 00:00:36,329
از شروع، مطمئن شوید که
13
00:00:36,329 –> 00:00:38,280
در کانال YouTube ما در Drake مشترک شوید تا
14
00:00:38,280 –> 00:00:40,170
در مورد پرطرفدارترین فناوری ها به روز بمانید،
15
00:00:40,170 –> 00:00:42,239
بنابراین اجازه دهید با
16
00:00:42,239 –> 00:00:44,850
بحث در مورد دستور کار امروزی که می خواهم شروع کنم. برای
17
00:00:44,850 –> 00:00:46,320
شروع جلسه با
18
00:00:46,320 –> 00:00:48,960
توضیح چند دلیل برای اینکه چرا ما
19
00:00:48,960 –> 00:00:50,629
مبارزات را برای هوش مصنوعی انتخاب می
20
00:00:50,629 –> 00:00:52,920
کنیم، سپس به
21
00:00:52,920 –> 00:00:55,020
مهم ترین و محبوب ترین
22
00:00:55,020 –> 00:00:57,300
بسته های پایتون نگاه می کنیم که به طور خاص برای
23
00:00:57,300 –> 00:00:58,890
یادگیری عمیق و یادگیری ماشینی استفاده می شوند.
24
00:00:58,890 –> 00:01:00,090
هوش مصنوعی
25
00:01:00,090 –> 00:01:02,129
پس از آن در نهایت
26
00:01:02,129 –> 00:01:03,989
هوش مصنوعی را معرفی کردیم که در آن بحث خواهیم کرد
27
00:01:03,989 –> 00:01:05,729
– چه چیزی منجر به نیاز به
28
00:01:05,729 –> 00:01:08,100
مصنوعات شد هوش مصنوعی ما همچنین
29
00:01:08,100 –> 00:01:09,810
در مورد اینکه دقیقاً
30
00:01:09,810 –> 00:01:11,729
انواع مختلف
31
00:01:11,729 –> 00:01:14,310
هوش مصنوعی چیست بحث خواهیم کرد، سپس
32
00:01:14,310 –> 00:01:15,540
تفاوت بین
33
00:01:15,540 –> 00:01:17,250
یادگیری ماشینی هوش مصنوعی و
34
00:01:17,250 –> 00:01:19,200
یادگیری عمیق را مورد بحث قرار خواهیم داد، سپس به
35
00:01:19,200 –> 00:01:21,030
ماژول یادگیری ماشین میرویم که در آن بحث خواهم کرد.
36
00:01:21,030 –> 00:01:22,890
با شما دقیقاً چه چیزی
37
00:01:22,890 –> 00:01:24,720
یادگیری ماشینی است انواع مختلف
38
00:01:24,720 –> 00:01:26,100
39
00:01:26,100 –> 00:01:28,049
مشکلات یادگیری ماشینی یادگیری ماشینی فرآیند
40
00:01:28,049 –> 00:01:30,270
یادگیری ماشین الگوریتم های یادگیری ماشین و
41
00:01:30,270 –> 00:01:31,939
ماژول یادگیری ماشین را با
42
00:01:31,939 –> 00:01:34,680
اجرای یک نسخه نمایشی کوچک با استفاده از
43
00:01:34,680 –> 00:01:37,049
Python به پایان می رسانیم خیلی خب بعد به
44
00:01:37,049 –> 00:01:39,180
محدودیت های یادگیری ماشین نگاه می کنیم و آنچه
45
00:01:39,180 –> 00:01:41,100
منجر به معرفی یادگیری عمیق
46
00:01:41,100 –> 00:01:43,470
در اینجا شد، خواهیم فهمید که یادگیری عمیق دقیقاً
47
00:01:43,470 –> 00:01:46,350
چیست که چگونه کار می کند یادگیری عمیق.
48
00:01:46,350 –> 00:01:48,329
49
00:01:48,329 –> 00:01:50,729
50
00:01:50,729 –> 00:01:52,619
51
00:01:52,619 –> 00:01:54,450
52
00:01:54,450 –> 00:01:56,549
در مورد آخرین
53
00:01:56,549 –> 00:01:58,049
ماژول ما که پردازش زبان طبیعی است
54
00:01:58,049 –> 00:02:00,060
در اینجا wh را مورد بحث قرار خواهیم داد
55
00:02:00,060 –> 00:02:02,880
دقیقاً در NLP جایی است که از
56
00:02:02,880 –> 00:02:04,560
برنامههای کاربردی و اصطلاحات مختلف
57
00:02:04,560 –> 00:02:06,420
در پردازش زبان طبیعی
58
00:02:06,420 –> 00:02:08,250
استفاده میشود، بنابراین بچهها
59
00:02:08,250 –> 00:02:09,989
در جلسه امروز چیزهای زیادی برای پوشش دادن
60
00:02:09,989 –> 00:02:12,790
وجود دارد.
61
00:02:12,790 –> 00:02:14,920
62
00:02:14,920 –> 00:02:16,989
آیا ما
63
00:02:16,989 –> 00:02:19,450
در حال حاضر از هیچ زبان دیگری استفاده نمی کنیم
64
00:02:19,450 –> 00:02:21,849
چند دلیل برای اینکه چرا پایتون در یادگیری
65
00:02:21,849 –> 00:02:24,069
ماشین هوش مصنوعی
66
00:02:24,069 –> 00:02:25,870
و یادگیری عمیق بسیار محبوب است، اولین
67
00:02:25,870 –> 00:02:28,659
دلیل این است که نیاز به کدنویسی کمتر است، اکنون
68
00:02:28,659 –> 00:02:30,519
هوش مصنوعی
69
00:02:30,519 –> 00:02:32,470
الگوریتم های زیادی دارد. برای پیاده سازی هوش مصنوعی
70
00:02:32,470 –> 00:02:35,980
در هر کد یا در هر مشکلی
71
00:02:35,980 –> 00:02:37,629
، هزاران هزار
72
00:02:37,629 –> 00:02:39,549
الگوریتم یادگیری ماشینی وجود خواهد داشت که الگوریتم های
73
00:02:39,549 –> 00:02:41,680
یادگیری عمیق درگیر هستند،
74
00:02:41,680 –> 00:02:44,290
آزمایش همه اینها می تواند به یک کار بسیار خسته کننده تبدیل شود،
75
00:02:44,290 –> 00:02:45,670
76
00:02:45,670 –> 00:02:48,400
به همین دلیل است که پایتون معمولاً در
77
00:02:48,400 –> 00:02:50,620
حال حاضر به کار می آید. دارای چیزی است که به نام
78
00:02:50,620 –> 00:02:53,560
روش کد نویسی check as you شناخته
79
00:02:53,560 –> 00:02:56,200
می شود که فرآیند تست را آسان می کند،
80
00:02:56,200 –> 00:02:58,120
می توانید برنامه خود را همانطور که اساساً آن را کد می کنید بررسی کنید
81
00:02:58,120 –> 00:03:00,310
شما در حال تایپ هر جمله
82
00:03:00,310 –> 00:03:02,950
هستید، خطاهای شما یا هر نوع اشتباهی
83
00:03:02,950 –> 00:03:04,480
در کد شما به درستی به شما داده می شود،
84
00:03:04,480 –> 00:03:06,489
بنابراین تست کردن زمانی که پایتون به میان می آید بسیار آسان تر می شود.
85
00:03:06,489 –> 00:03:08,919
86
00:03:08,919 –> 00:03:11,019
دلیل مهم بعدی انتخاب پایتون این است که
87
00:03:11,019 –> 00:03:13,810
از کتابخانه های از پیش ساخته شده پشتیبانی می کند.
88
00:03:13,810 –> 00:03:16,450
پایتون برای توسعه دهندگان هوش مصنوعی بسیار راحت است
89
00:03:16,450 –> 00:03:18,790
زیرا همه الگوریتمهای
90
00:03:18,790 –> 00:03:20,739
الگوریتمهای یادگیری ماشینی و الگوریتمهای یادگیری عمیق
91
00:03:20,739 –> 00:03:22,540
از قبل
92
00:03:22,540 –> 00:03:24,760
در کتابخانهها از پیش تعریف شدهاند، بنابراین
93
00:03:24,760 –> 00:03:26,440
مجبور نیستید بنشینید
94
00:03:26,440 –> 00:03:28,659
و هر الگوریتمی را کدنویسی کنید که
95
00:03:28,659 –> 00:03:30,400
زمان زیادی را صرف میکند. این یک کار بسیار
96
00:03:30,400 –> 00:03:33,040
وقت گیر است و به لطف پایتون
97
00:03:33,040 –> 00:03:34,720
شما مجبور نیستید این کار را انجام دهید زیرا آنها
98
00:03:34,720 –> 00:03:36,970
دارای کتابخانه ها و بسته هایی هستند که
99
00:03:36,970 –> 00:03:39,430
همه الگوریتم ها را به درستی در خود دارند،
100
00:03:39,430 –> 00:03:42,489
بنابراین اگر می خواهید هر الگوریتمی را اجرا
101
00:03:42,489 –> 00:03:43,659
کنید تنها کاری که باید انجام دهید این است که داشته باشید. برای فراخوانی
102
00:03:43,659 –> 00:03:45,849
تابع و بارگذاری کتابخانه
103
00:03:45,849 –> 00:03:48,220
، به
104
00:03:48,220 –> 00:03:49,659
همین سادگی، دلیل بعدی یادگیری آسان است،
105
00:03:49,659 –> 00:03:51,609
بنابراین بچه ها، پایتون در واقع
106
00:03:51,609 –> 00:03:53,650
ساده ترین زبان برنامه نویسی است.
107
00:03:53,650 –> 00:03:55,840
از من بپرس فکر می کنم
108
00:03:55,840 –> 00:03:58,030
ساده ترین زبان برنامه نویسی است و بسیار
109
00:03:58,030 –> 00:04:00,220
شبیه به زبان انگلیسی است، درست است
110
00:04:00,220 –> 00:04:02,169
اگر چند خط در پایتون بخوانید متوجه خواهید شد
111
00:04:02,169 –> 00:04:04,060
که کد دقیقاً چه کاری
112
00:04:04,060 –> 00:04:06,819
انجام می دهد. نحو بسیار ساده ای دارد و
113
00:04:06,819 –> 00:04:09,400
این نحو ساده می تواند باشد. برای
114
00:04:09,400 –> 00:04:11,739
حل مسائل ساده مانند جمع
115
00:04:11,739 –> 00:04:13,959
دو رشته پیاده سازی شده است و همچنین می تواند برای
116
00:04:13,959 –> 00:04:16,180
حل مسائل پیچیده مانند ساخت
117
00:04:16,180 –> 00:04:18,159
مدل های یادگیری ماشینی و
118
00:04:18,159 –> 00:04:20,529
مدل های یادگیری عمیق استفاده شود، بنابراین سهولت یادگیری
119
00:04:20,529 –> 00:04:23,260
عامل مهمی در مورد اینکه چرا پایتون
120
00:04:23,260 –> 00:04:24,580
در حال حاضر هوش مصنوعی را انتخاب کرده است، است.
121
00:04:24,580 –> 00:04:26,230
122
00:04:26,230 –> 00:04:28,870
ما مستقل از پلتفرم داریم، بنابراین یک
123
00:04:28,870 –> 00:04:30,490
چیز خوب در مورد پایتون این است که می توانید
124
00:04:30,490 –> 00:04:32,500
پروژه خود را به درستی بر روی
125
00:04:32,500 –> 00:04:35,590
سیستم عامل های مختلف اجرا کنید و
126
00:04:35,590 –> 00:04:37,360
وقتی کد خود را از یک
127
00:04:37,360 –> 00:04:39,160
سیستم عامل به سیستم عامل دیگر منتقل می کنید چه اتفاقی می افتد
128
00:04:39,160 –> 00:04:41,920
این است که ما بسیاری از
129
00:04:41,920 –> 00:04:44,290
مشکلات وابستگی را برای حل پیدا می کنیم. که پایتون
130
00:04:44,290 –> 00:04:46,450
چند بسته دارد، مانند بستهای
131
00:04:46,450 –> 00:04:48,580
که به نام pi installer شناخته میشود، این
132
00:04:48,580 –> 00:04:50,230
نصبکننده PI تمام این
133
00:04:50,230 –> 00:04:51,550
بستهها را بر عهده خواهد گرفت. مشکلات ncy زمانی که شما در حال
134
00:04:51,550 –> 00:04:53,650
انتقال کد خود از یک پلتفرم
135
00:04:53,650 –> 00:04:56,320
به پلتفرم دیگر هستید، بنابراین تمام این
136
00:04:56,320 –> 00:04:58,720
پشتیبانی توسط پایتون ارائه می شود، آخرین
137
00:04:58,720 –> 00:05:01,060
دلیل پشتیبانی گسترده جامعه
138
00:05:01,060 –> 00:05:03,670
است، این نکته بسیار مهمی است زیرا
139
00:05:03,670 –> 00:05:05,890
مهم است که یک انجمن بزرگ داشته باشید
140
00:05:05,890 –> 00:05:08,110
که در مورد
141
00:05:08,110 –> 00:05:11,020
هر گونه خطا یا هر نوع مشکلی
142
00:05:11,020 –> 00:05:13,810
در کد خود به شما کمک می کند تا پایتون چندین
143
00:05:13,810 –> 00:05:15,760
انجمن و چندین انجمن و
144
00:05:15,760 –> 00:05:17,860
گروه در فیس بوک داشته باشد، بنابراین اگر
145
00:05:17,860 –> 00:05:20,470
در مورد هر خطای شک دارید، می
146
00:05:20,470 –> 00:05:22,360
توانید آن خطاها را در این گروه ها ارسال
147
00:05:22,360 –> 00:05:23,950
کنید. مثل یک دسته از افراد
148
00:05:23,950 –> 00:05:26,530
به شما کمک می کنند، بنابراین بچه ها
149
00:05:26,530 –> 00:05:28,450
اینها چند دلیل است که چرا پایتون
150
00:05:28,450 –> 00:05:30,490
برای هوش مصنوعی انتخاب شده است، در
151
00:05:30,490 –> 00:05:32,770
واقع محبوب
152
00:05:32,770 –> 00:05:35,050
ترین و پرکاربردترین زبان برای
153
00:05:35,050 –> 00:05:37,900
یادگیری ماشینی هوش مصنوعی و یادگیری عمیق برای علم داده در
154
00:05:37,900 –> 00:05:39,670
نظر گرفته می شود. در اینجا آماری از
155
00:05:39,670 –> 00:05:42,460
Stack Overflow است Stack Overflow اخیراً
156
00:05:42,460 –> 00:05:44,770
بیان کرده است که پایتون
157
00:05:44,770 –> 00:05:46,900
سریعترین زبان برنامه نویسی در حال رشد است اگر
158
00:05:46,900 –> 00:05:48,220
به نمودار نگاه کنید که می توانید ببینید. این
159
00:05:48,220 –> 00:05:51,370
که جاوا اسکریپت و جاوا و سی
160
00:05:51,370 –> 00:05:55,030
هش C++ و PHP گرفته شده است و بنابراین پایتون در
161
00:05:55,030 –> 00:05:57,160
واقع با سرعتی تصاعدی در حال رشد است، به
162
00:05:57,160 –> 00:05:59,230
خصوص وقتی صحبت از علم داده
163
00:05:59,230 –> 00:06:01,360
و هوش مصنوعی به میان میآید، بسیاری از
164
00:06:01,360 –> 00:06:02,980
توسعهدهندگان با زبان پایتون خیلی راحت هستند،
165
00:06:02,980 –> 00:06:04,630
زیرا میدانید که این زبان یک
166
00:06:04,630 –> 00:06:06,760
زبان همه منظوره اول از همه، بنابراین
167
00:06:06,760 –> 00:06:08,470
اکثر توسعه دهندگان از قبل
168
00:06:08,470 –> 00:06:10,510
از پایتون آگاه هستند و سپس از همان
169
00:06:10,510 –> 00:06:13,210
زبان برای حل
170
00:06:13,210 –> 00:06:15,310
مشکلات پیچیده مانند
171
00:06:15,310 –> 00:06:17,050
یادگیری ماشینی هوش مصنوعی و یادگیری عمیق استفاده می کنند،
172
00:06:17,050 –> 00:06:19,150
چیزی است که هر توسعه دهنده ای به درستی می خواهد و
173
00:06:19,150 –> 00:06:20,800
می خواهد یک زبان ساده در آن داشته باشد. به منظور
174
00:06:20,800 –> 00:06:23,590
کدنویسی یا الگوریتم های پیچیده یا
175
00:06:23,590 –> 00:06:26,290
مدل های پیچیده و به همین دلیل است که
176
00:06:26,290 –> 00:06:28,000
پایتون بهترین انتخاب برای
177
00:06:28,000 –> 00:06:30,190
هوش مصنوعی برای کسانی از شماست که
178
00:06:30,190 –> 00:06:32,200
از برنامه نویسی پایتون آگاهی ندارند و
179
00:06:32,200 –> 00:06:34,480
چیز زیادی در مورد پایتون نمی دانند من می خواهم
180
00:06:34,480 –> 00:06:35,800
چند نفر را ترک کنم. از پیوندهای موجود در
181
00:06:35,800 –> 00:06:37,750
جعبه توضیحات درست می توانید از طریق
182
00:06:37,750 –> 00:06:39,620
آن پیوندها بروید و کمی بیشتر متاسفم
183
00:06:39,620 –> 00:06:42,050
اما چگونه پایتون کار می کند یا چگونه قسمت کدنویسی کار می کند.
184
00:06:42,050 –> 00:06:43,880
خیلی خب، من
185
00:06:43,880 –> 00:06:45,320
عمدتاً روی
186
00:06:45,320 –> 00:06:47,419
هوش مصنوعی تمرکز میکنم و دموهای زیادی را به شما نشان میدهم،
187
00:06:47,419 –> 00:06:49,610
بنابراین کسانی از شما
188
00:06:49,610 –> 00:06:51,470
که از پایتون آگاه نیستند مطمئن شوید که
189
00:06:51,470 –> 00:06:54,500
کادر توضیحات را دقیقاً در ادامه بررسی میکنم.
190
00:06:54,500 –> 00:06:56,570
بستههای مختلف پایتون
191
00:06:56,570 –> 00:06:58,729
برای هوش مصنوعی اکنون اینها
192
00:06:58,729 –> 00:07:00,380
بستههایی هستند که مخصوصاً
193
00:07:00,380 –> 00:07:01,790
برای یادگیری ماشینی
194
00:07:01,790 –> 00:07:04,729
پردازش زبان طبیعی و غیره هستند، بنابراین
195
00:07:04,729 –> 00:07:06,650
بیایید نگاهی به همه این بستهها
196
00:07:06,650 –> 00:07:09,650
بیندازیم، بنابراین اگر در
197
00:07:09,650 –> 00:07:12,169
حال حاضر روی پروژه یادگیری ماشینی کار میکنید، ابتدا tensorflow
198
00:07:12,169 –> 00:07:14,510
داریم. پس حتماً در
199
00:07:14,510 –> 00:07:16,010
مورد این کتابخانه منبع باز
200
00:07:16,010 –> 00:07:18,740
معروف به نام tensorflow شنیده اید که این
201
00:07:18,740 –> 00:07:20,680
کتابخانه توسط گوگل
202
00:07:20,680 –> 00:07:23,240
با همکاری تیم مغز ساخته شده است. جریان متراکم
203
00:07:23,240 –> 00:07:24,800
تقریباً در هر
204
00:07:24,800 –> 00:07:27,169
برنامه Google برای یادگیری ماشین استفاده
205
00:07:27,169 –> 00:07:28,699
206
00:07:28,699 –> 00:07:29,419
207
00:07:29,419 –> 00:07:32,419
می شود. یک ساختار پاسخگو دارد به
208
00:07:32,419 –> 00:07:34,070
این معنی که با tensorflow میتوانیم به راحتی تک تک قسمتهای نمودار
209
00:07:34,070 –> 00:07:36,590
را تجسم کنیم
210
00:07:36,590 –> 00:07:38,180
که گزینهای نیست. شما
211
00:07:38,180 –> 00:07:40,160
از بسته های دیگری مانند numpy
212
00:07:40,160 –> 00:07:42,979
یا cycle right استفاده می کنید یکی دیگر از ویژگی های این است
213
00:07:42,979 –> 00:07:45,169
که بسیار منعطف است در حال حاضر یکی از
214
00:07:45,169 –> 00:07:48,260
مهم ترین ویژگی های tensorflow این است
215
00:07:48,260 –> 00:07:51,169
که در عملکرد انعطاف پذیر است،
216
00:07:51,169 –> 00:07:54,080
ممکن است ماژولار بودن و مسیری که
217
00:07:54,080 –> 00:07:56,810
می خواهید آن را مستقل بسازید.
218
00:07:56,810 –> 00:07:58,940
این گزینه را به شما ارائه می دهد، بسیار منعطف است
219
00:07:58,940 –> 00:08:00,889
به این ترتیب دقیقاً همان چیزی را که
220
00:08:00,889 –> 00:08:03,320
می خواهید به شما می دهد ویژگی خوب Anza
221
00:08:03,320 –> 00:08:04,880
flow این است که می توانید آن را روی
222
00:08:04,880 –> 00:08:07,789
CPU و GPU آموزش دهید و بنابراین برای محاسبات توزیع شده
223
00:08:07,789 –> 00:08:09,470
می توانید هر دو
224
00:08:09,470 –> 00:08:12,560
گزینه را نیز داشته باشید. از آموزش شبکه های عصبی موازی پشتیبانی می
225
00:08:12,560 –> 00:08:15,139
کند، بنابراین تنسورفلو خط لوله گذاری را ارائه می دهد
226
00:08:15,139 –> 00:08:17,360
به این معنا که می توانید
227
00:08:17,360 –> 00:08:19,220
چندین شبکه عصبی و
228
00:08:19,220 –> 00:08:22,039
چندین پردازنده گرافیکی را آموزش دهید که باعث می شود مدل ها
229
00:08:22,039 –> 00:08:24,620
در هر سیستم مقیاس بزرگ بسیار کارآمد باشند،
230
00:08:24,620 –> 00:08:26,630
بنابراین آموزش شبکه عصبی موازی
231
00:08:26,630 –> 00:08:28,699
توسط Delta flow پشتیبانی می شود.
232
00:08:28,699 –> 00:08:31,070
مهم ترین
233
00:08:31,070 –> 00:08:33,229
ویژگی تنسورفلو جدای از این
234
00:08:33,229 –> 00:08:35,419
، جامعه بسیار بزرگی دارد و
235
00:08:35,419 –> 00:08:37,580
نیازی به گفتن نیست که آیا توسط گوگل توسعه یافته است یا خیر
236
00:08:37,580 –> 00:08:38,330
237
00:08:38,330 –> 00:08:40,490
در حال حاضر یک تیم بزرگ از
238
00:08:40,490 –> 00:08:43,370
مهندسان نرم افزار وجود دارد که روی بهبود پایداری کار می کنند
239
00:08:43,370 –> 00:08:46,370
و همه اینها درست است
240
00:08:46,370 –> 00:08:47,900
کتابخانه بعدی که می خواهم در مورد آن صحبت کنم
241
00:08:47,900 –> 00:08:49,360
cyclone
242
00:08:49,360 –> 00:08:51,579
now cyclone یک کتابخانه Python است
243
00:08:51,579 –> 00:08:53,949
که با لوله های خالی و جانبی مرتبط است
244
00:08:53,949 –> 00:08:56,139
درست به همین دلیل نام دارد. سیکلوترون
245
00:08:56,139 –> 00:08:58,329
در حال حاضر یکی از
246
00:08:58,329 –> 00:09:00,369
بهترین کتابخانه ها برای کار با
247
00:09:00,369 –> 00:09:03,009
داده های پیچیده در نظر گرفته می
248
00:09:03,009 –> 00:09:05,049
شود، تغییرات زیادی در این کتابخانه در حال انجام است و یکی از
249
00:09:05,049 –> 00:09:06,970
اصلاحات ویژگی اعتبارسنجی متقاطع
250
00:09:06,970 –> 00:09:10,179
است که امکان
251
00:09:10,179 –> 00:09:12,459
استفاده از بیش از یک ضربدر نوشتن متریک را فراهم می کند.
252
00:09:12,459 –> 00:09:14,529
اعتبارسنجی
253
00:09:14,529 –> 00:09:16,899
یکی از مهمترین و یکی از سادهترین روشها برای
254
00:09:16,899 –> 00:09:18,999
بررسی صحت یک مدل است،
255
00:09:18,999 –> 00:09:20,860
بنابراین اعتبارسنجی متقاطع در سیکلون پیادهسازی میشود
256
00:09:20,860 –> 00:09:23,829
و جدای از آن دوباره
257
00:09:23,829 –> 00:09:25,509
الگوریتمهای گستردهای وجود دارد
258
00:09:25,509 –> 00:09:26,860
که میتوانید با استفاده از سیکلوترون درست آنها را پیادهسازی کنید.
259
00:09:26,860 –> 00:09:29,049
شامل
260
00:09:29,049 –> 00:09:30,639
الگوریتمهای یادگیری بدون نظارت
261
00:09:30,639 –> 00:09:33,639
که از تجزیه و تحلیل عاملی خوشهبندی شروع میشود
262
00:09:33,639 –> 00:09:35,709
263
00:09:35,709 –> 00:09:38,429
– هر چند عصبی بدون نظارت سیکلون شبکه های l
264
00:09:38,429 –> 00:09:41,079
برای
265
00:09:41,079 –> 00:09:44,619
استخراج ویژگی در تصاویر و متن نیز بسیار ضروری است، بنابراین
266
00:09:44,619 –> 00:09:47,049
سیکلون عمدتاً برای اجرای
267
00:09:47,049 –> 00:09:49,420
تمام وظایف استاندارد یادگیری ماشین و
268
00:09:49,420 –> 00:09:51,689
داده کاوی مانند کاهش
269
00:09:51,689 –> 00:09:54,119
طبقه بندی ابعاد، خوشه بندی رگرسیون
270
00:09:54,119 –> 00:09:56,919
و انتخاب مدل در مرحله بعدی استفاده می شود.
271
00:09:56,919 –> 00:09:59,499
272
00:09:59,499 –> 00:10:01,419
از محبوبترین
273
00:10:01,419 –> 00:10:03,579
کتابخانههای یادگیری ماشینی و پایتون، اکنون اجازه دهید
274
00:10:03,579 –> 00:10:05,110
به شما بگویم که tensorflow و
275
00:10:05,110 –> 00:10:07,619
کتابخانههای دیگر از numpy به صورت
276
00:10:07,619 –> 00:10:10,209
داخلی برای انجام چندین
277
00:10:10,209 –> 00:10:12,579
عملیات روی tencel استفاده میکنند،
278
00:10:12,579 –> 00:10:15,519
مهمترین ویژگی numpy رابط addi
279
00:10:15,519 –> 00:10:18,040
است که از آرایههای چند بعدی پشتیبانی میکند.
280
00:10:18,040 –> 00:10:19,839
یکی از
281
00:10:19,839 –> 00:10:21,910
مهم ترین ویژگی های numpy یکی دیگر
282
00:10:21,910 –> 00:10:25,059
از ویژگی های این است که پیاده سازی های ریاضی پیچیده را
283
00:10:25,059 –> 00:10:27,639
بسیار ساده می کند، به
284
00:10:27,639 –> 00:10:30,759
طور عمده برای محاسبه داده های ریاضی شناخته شده است،
285
00:10:30,759 –> 00:10:32,829
بنابراین numpy بسته ای است که
286
00:10:32,829 –> 00:10:34,509
باید برای هر نوع
287
00:10:34,509 –> 00:10:37,419
تجزیه و تحلیل آماری یا تجزیه و تحلیل داده ها
288
00:10:37,419 –> 00:10:39,850
که شامل ریاضیات زیادی است از آن استفاده کنید. جدا از
289
00:10:39,850 –> 00:10:41,739
اینکه کدنویسی را بسیار آسان می کند و
290
00:10:41,739 –> 00:10:43,989
درک مفهوم بسیار آسان
291
00:10:43,989 –> 00:10:45,369
است تا کنون انجام شده است
292
00:10:45,369 –> 00:10:47,709
numpy عمدتاً برای بیان
293
00:10:47,709 –> 00:10:49,660
تصاویر امواج صوتی و سایر
294
00:10:49,660 –> 00:10:52,869
محاسبات ریاضی استفاده می شود.
295
00:10:52,869 –> 00:10:55,119
296
00:10:55,119 –> 00:10:58,749
297
00:10:58,749 –> 00:11:01,149
298
00:11:01,149 –> 00:11:01,810
299
00:11:01,810 –> 00:11:04,000
no در واقع بسیار
300
00:11:04,000 –> 00:11:06,790
شبیه تنسورفلو عمل می کند اما تنها ایراد آن
301
00:11:06,790 –> 00:11:09,490
این است که شما نمی توانید پیانو را در
302
00:11:09,490 –> 00:11:11,740
محیط های تولید قرار دهید اما جدا از آن Tiano
303
00:11:11,740 –> 00:11:14,260
به شما امکان می دهد
304
00:11:14,260 –> 00:11:16,600
عبارات ریاضی را که
305
00:11:16,600 –> 00:11:18,640
شامل آرایه های چند بعدی هستند تعریف و ارزیابی کنید و
306
00:11:18,640 –> 00:11:21,070
این کتابخانه دیگری است که به شما امکان می دهد.
307
00:11:21,070 –> 00:11:23,260
پیاده سازی آرایه های چند بعدی
308
00:11:23,260 –> 00:11:25,300
اینها Theano شامل یکپارچگی فشرده
309
00:11:25,300 –> 00:11:28,360
با numpy است. مزیت Tiano این است که
310
00:11:28,360 –> 00:11:30,730
می توانید آنها را به راحتی توسط DS در theano پیاده سازی
311
00:11:30,730 –> 00:11:31,450
312
00:11:31,450 –> 00:11:32,650
کنید، به همین دلیل است که
313
00:11:32,650 –> 00:11:35,470
بین Theano و Numpy ارتباط وجود دارد زیرا هر دو به
314
00:11:35,470 –> 00:11:37,450
طور موثر از
315
00:11:37,450 –> 00:11:40,450
آرایه های چند بعدی استفاده می کنند. استفاده شفاف از GPU که اکنون
316
00:11:40,450 –> 00:11:42,760
محاسبات فشرده داده
317
00:11:42,760 –> 00:11:45,100
را با سرعت بسیار زیادی انجام می دهد هنگامی که صحبت از Tianna به میان می آید، به
318
00:11:45,100 –> 00:11:48,070
دلیل استفاده از GPU مناسب
319
00:11:48,070 –> 00:11:50,650
ابزار Theon o.o به شما امکان می دهد
320
00:11:50,650 –> 00:11:53,260
چندین نوع خطا و هر نوع
321
00:11:53,260 –> 00:11:56,260
ابهام در مدل را شناسایی و تشخیص دهید، بنابراین casiano در
322
00:11:56,260 –> 00:11:58,750
واقع برای انجام انواع
323
00:11:58,750 –> 00:12:01,240
محاسبات مورد نیاز برای
324
00:12:01,240 –> 00:12:03,490
شبکه های عصبی بزرگ طراحی شده است. الگوریتمهایی که
325
00:12:03,490 –> 00:12:05,650
عمدتاً برای یادگیری عمیق و
326
00:12:05,650 –> 00:12:08,200
شبکههای عصبی ساخته شده بود، یکی از اولین
327
00:12:08,200 –> 00:12:10,450
کتابخانههای در نوع خود بود و
328
00:12:10,450 –> 00:12:13,120
به عنوان استاندارد صنعتی برای
329
00:12:13,120 –> 00:12:15,280
تحقیق و توسعه یادگیری
330
00:12:15,280 –> 00:12:17,680
عمیق محسوب میشود.
331
00:12:17,680 –> 00:12:19,720
332
00:12:19,720 –> 00:12:21,550
با گذشت زمان رشد میکند
333
00:12:21,550 –> 00:12:23,710
درست است که بسیاری از مردم در واقع نام
334
00:12:23,710 –> 00:12:25,570
siano را نشنیدهاند، اما اجازه دهید به شما بگویم که
335
00:12:25,570 –> 00:12:27,040
این یکی از بهترین راهها برای
336
00:12:27,040 –> 00:12:28,600
پیادهسازی مدلهای یادگیری عمیق و
337
00:12:28,600 –> 00:12:31,900
شبکههای عصبی در حال حرکت
338
00:12:31,900 –> 00:12:34,720
است.
339
00:12:34,720 –> 00:12:37,750
محبوب ترین بسته پایتون باشد، برخی
340
00:12:37,750 –> 00:12:39,280
از بهترین عملکردها را برای
341
00:12:39,280 –> 00:12:41,710
کامپایل کردن مدل هایی که مجموعه داده های شما را پردازش می کنند
342
00:12:41,710 –> 00:12:44,230
و نمودارها را تجسم می کنند، ارائه
343
00:12:44,230 –> 00:12:46,210
می دهد. در اجرای
344
00:12:46,210 –> 00:12:48,400
شبکههای عصبی بسیار محبوب
345
00:12:48,400 –> 00:12:50,440
است، این سادهترین بستهای است که با آن
346
00:12:50,440 –> 00:12:53,350
میتوانید شبکههای عصبی را پیادهسازی کنید، در واقع در
347
00:12:53,350 –> 00:12:55,270
نسخه آزمایشی امروز ما برای یادگیری عمیق،
348
00:12:55,270 –> 00:12:57,010
Kira را پیادهسازی خواهیم کرد تا
349
00:12:57,010 –> 00:12:58,630
بفهمیم شبکههای عصبی چگونه
350
00:12:58,630 –> 00:13:00,850
از طریق ویژگیهای کارا شامل
351
00:13:00,850 –> 00:13:03,520
این است که بر روی CPU و GPU بسیار روان اجرا می شود
352
00:13:03,520 –> 00:13:06,610
و تقریباً از تمام
353
00:13:06,610 –> 00:13:09,160
مدل های یک شبکه عصبی درست از
354
00:13:09,160 –> 00:13:11,350
طریق جاسازی مکرر ادغام کانولوشنال کاملاً متصل
355
00:13:11,350 –> 00:13:13,570
356
00:13:13,570 –> 00:13:14,930
پشتیبانی می کند همه این مدل ها توسط Kiera پشتیبانی می شوند
357
00:13:14,930 –> 00:13:18,080
و نه تنها می توانید این
358
00:13:18,080 –> 00:13:20,330
مدل ها را برای ساخت بیشتر ترکیب کنید. مدلهای پیچیده
359
00:13:20,330 –> 00:13:23,000
caris کاملاً مبتنی بر دکمه است که
360
00:13:23,000 –> 00:13:25,130
اشکالزدایی و کاوش درست را بسیار آسان میکند،
361
00:13:25,130 –> 00:13:27,290
زیرا پایتون دارای جامعه بزرگی
362
00:13:27,290 –> 00:13:30,170
از فالوورها است،
363
00:13:30,170 –> 00:13:32,450
برای رفع اشکال هر نوع خطایی که
364
00:13:32,450 –> 00:13:34,760
در حین پیادهسازی Kiera پیدا میکنید بسیار ساده است.
365
00:13:34,760 –> 00:13:36,740
366
00:13:36,740 –> 00:13:38,750
367
00:13:38,750 –> 00:13:40,399
368
00:13:40,399 –> 00:13:43,459
ما معروف ترین کتابخانه را به یادگیری ماشین و یادگیری عمیق برای پردازش زبان طبیعی اختصاص خواهیم داد به عنوان
369
00:13:43,459 –> 00:13:46,010
ابزار زبان طبیعی شناخته می شود که یک
370
00:13:46,010 –> 00:13:48,589
کتابخانه منبع باز پایتون است که عمدتاً
371
00:13:48,589 –> 00:13:50,660
برای
372
00:13:50,660 –> 00:13:53,000
تجزیه و تحلیل متن و متن کاوی پردازش زبان طبیعی استفاده می شود.
373
00:13:53,000 –> 00:13:55,040
ویژگی های اصلی آن شامل این است که مطالعه آن در
374
00:13:55,040 –> 00:13:57,620
تجزیه و تحلیل متن زبان طبیعی
375
00:13:57,620 –> 00:13:59,810
به منظور استخراج اطلاعات مفید از همه این
376
00:13:59,810 –> 00:14:02,510
متن زبان طبیعی است.
377
00:14:02,510 –> 00:14:05,270
تحلیل متن و تحلیل احساسات را با
378
00:14:05,270 –> 00:14:07,820
انجام وظایفی مانند ریشهیابی
379
00:14:07,820 –> 00:14:11,120
پیوندهای لم یک سازمان شینتو و غیره
380
00:14:11,120 –> 00:14:12,560
انجام میدهد، حالا نگران نباشید اگر در مورد هر یک
381
00:14:12,560 –> 00:14:14,209
از این اصطلاحات نمیدانید، به این معنی است که من در مورد
382
00:14:14,209 –> 00:14:16,370
همه آن اصطلاحات با شما بحث خواهم کرد. در
383
00:14:16,370 –> 00:14:18,290
پایان جلسه امروز، بچه ها اینها
384
00:14:18,290 –> 00:14:21,170
چند کتابخانه مبتنی بر پایتون
385
00:14:21,170 –> 00:14:22,940
هستند که برای پیاده سازی
386
00:14:22,940 –> 00:14:25,430
یادگیری ماشینی و یادگیری عمیق و
387
00:14:25,430 –> 00:14:27,589
هوش مصنوعی بسیار ضروری هستند، زمانی که
388
00:14:27,589 –> 00:14:29,750
از پایتون به درستی استفاده می کنید، این آزمایشگاه
389
00:14:29,750 –> 00:14:32,510
ها برای پیاده سازی هوش مصنوعی عالی هستند، بنابراین دوستان
390
00:14:32,510 –> 00:14:34,610
اگر هر کدام از شما دارید هر گونه شک در
391
00:14:34,610 –> 00:14:36,529
مورد کتابخانه ها یا اگر می خواهید
392
00:14:36,529 –> 00:14:38,660
در مورد کتابخانه ها بیشتر بدانید، من
393
00:14:38,660 –> 00:14:40,310
چند پیوند را در توضیحات می گذارم. در کادر n
394
00:14:40,310 –> 00:14:42,260
شما می توانید آن ویدیوها را نیز مرور کنید،
395
00:14:42,260 –> 00:14:44,180
بنابراین اکنون اجازه دهید به موضوع
396
00:14:44,180 –> 00:14:45,860
اصلی بحث یعنی
397
00:14:45,860 –> 00:14:48,650
هوش مصنوعی برویم، اکنون قبل از اینکه
398
00:14:48,650 –> 00:14:50,990
با تقاضای هوش مصنوعی شروع
399
00:14:50,990 –> 00:14:52,970
کنیم، اجازه دهید به شما بگویم که هوا
400
00:14:52,970 –> 00:14:55,820
مدت ها پیش اختراع شده است که هوش مصنوعی به عقب باز می گردد. تا
401
00:14:55,820 –> 00:14:57,770
قرن نوزدهم این چیزی نبود
402
00:14:57,770 –> 00:15:00,050
که اخیراً اختراع شده باشد، اگرچه
403
00:15:00,050 –> 00:15:02,150
هوش مصنوعی اخیراً محبوبیت زیادی
404
00:15:02,150 –> 00:15:04,670
پیدا کرده است، می توان گفت که در دهه گذشته
405
00:15:04,670 –> 00:15:07,250
هوش مصنوعی بیشترین محبوبیت را به دست آورده است
406
00:15:07,250 –> 00:15:09,980
اما در واقع در
407
00:15:09,980 –> 00:15:12,620
قرن نوزدهم اکنون به ویژه در
408
00:15:12,620 –> 00:15:14,420
سال 1950 اختراع شد. روزی به نام
409
00:15:14,420 –> 00:15:16,670
آلن تورینگ شناخته می شد، مطمئنم که بسیاری از شما در
410
00:15:16,670 –> 00:15:19,640
مورد تست تورینگ شنیده اید.
411
00:15:19,640 –> 00:15:21,079
412
00:15:21,079 –> 00:15:24,230
413
00:15:24,230 –> 00:15:26,540
414
00:15:26,540 –> 00:15:28,410
415
00:15:28,410 –> 00:15:30,810
این
416
00:15:30,810 –> 00:15:33,000
اولین پیشنهاد بود و این یکی
417
00:15:33,000 –> 00:15:35,250
از مهمترین پیشرفتها در
418
00:15:35,250 –> 00:15:36,840
هوش مصنوعی
419
00:15:36,840 –> 00:15:39,000
بود که کسی معروف به آلن تورینگ
420
00:15:39,000 –> 00:15:41,520
زمینی را منتشر کرد مقاله ark که در آن او
421
00:15:41,520 –> 00:15:43,530
در مورد امکان
422
00:15:43,530 –> 00:15:46,290
ایجاد ماشین ها و اینکه درست فکر می کند حدس و گمان می زند
423
00:15:46,290 –> 00:15:48,480
پس آزمایش در طول اولین
424
00:15:48,480 –> 00:15:50,910
پیشنهاد جدی در فلسفه
425
00:15:50,910 –> 00:15:51,570
426
00:15:51,570 –> 00:15:54,660
هوش مصنوعی بود که در سال 1950 انجام شد و پس از
427
00:15:54,660 –> 00:15:57,420
آن خطاهای هوش مصنوعی داشتیم بازی هوش مصنوعی را داشتیم
428
00:15:57,420 –> 00:15:59,490
که در سال 1951 بود و
429
00:15:59,490 –> 00:16:03,150
اکنون از زمان ظهور هوش مصنوعی در دهه 1950
430
00:16:03,150 –> 00:16:05,910
، شاهد رشد تصاعدی در
431
00:16:05,910 –> 00:16:07,980
سمت راست بالقوه او بودیم که
432
00:16:07,980 –> 00:16:10,050
دامنه هایی مانند یادگیری ماشینی یادگیری عمیق
433
00:16:10,050 –> 00:16:11,850
شبکه های عصبی
434
00:16:11,850 –> 00:16:13,980
پردازش زبان طبیعی زنبورهای دانش را پوشش می دهد و
435
00:16:13,980 –> 00:16:15,930
غیره نیز راه خود را به
436
00:16:15,930 –> 00:16:18,420
بینایی کامپیوتر و پردازش تصویر باز کرده است.
437
00:16:18,420 –> 00:16:20,760
اما سوال اینجاست که اگر هوش مصنوعی
438
00:16:20,760 –> 00:16:23,940
بیش از نیم قرن است که اینجا بوده است، چرا ناگهان
439
00:16:23,940 –> 00:16:27,060
اینقدر اهمیت پیدا کرده است، چرا
440
00:16:27,060 –> 00:16:28,560
در حال حاضر در مورد هوش مصنوعی صحبت می
441
00:16:28,560 –> 00:16:30,870
کنیم، دلایل اصلی
442
00:16:30,870 –> 00:16:33,900
محبوبیت گسترده هوش مصنوعی موارد زیر است:
443
00:16:33,900 –> 00:16:35,970
درست اولین دلیل محاسباتی است.
444
00:16:35,970 –> 00:16:38,670
قدرت در حال حاضر هوش مصنوعی به قدرت محاسباتی زیادی نیاز دارد
445
00:16:38,670 –> 00:16:41,280
اخیراً پیشرفتهای زیادی حاصل
446
00:16:41,280 –> 00:16:43,800
شده است و مدلهای یادگیری عمیق پیچیده
447
00:16:43,800 –> 00:16:46,170
ج یکی از بزرگترین
448
00:16:46,170 –> 00:16:47,970
فناوریهایی که این امکان را فراهم کرد،
449
00:16:47,970 –> 00:16:50,790
پردازندههای گرافیکی هستند که از زمان اختراع پردازندههای گرافیکی، ما میتوانیم
450
00:16:50,790 –> 00:16:53,250
با رایانههایمان خیلی بیشتر را محاسبه کنیم،
451
00:16:53,250 –> 00:16:55,950
در ابتدا به سختی میتوانستیم 1
452
00:16:55,950 –> 00:16:58,020
گیگابایت داده را درست پردازش کنیم. آنها فقط هارد دیسک
453
00:16:58,020 –> 00:16:59,820
برای ذخیره حافظه اضافی داشتند.
454
00:16:59,820 –> 00:17:00,150
455
00:17:00,150 –> 00:17:03,360
اکنون رایانههای ما میتوانند تنها و
456
00:17:03,360 –> 00:17:05,130
تنها داده را پردازش کنند، بنابراین اکنون ما
457
00:17:05,130 –> 00:17:07,109
قدرت محاسباتی بیشتری داریم که یکی از
458
00:17:07,109 –> 00:17:09,329
دلایل اصلی محبوبیت هوش مصنوعی است،
459
00:17:09,329 –> 00:17:12,270
بنابراین با داشتن قدرت محاسباتی بیشتر،
460
00:17:12,270 –> 00:17:13,949
461
00:17:13,949 –> 00:17:16,560
پیادهسازی هوش مصنوعی بسیار آسانتر میشود
462
00:17:16,560 –> 00:17:19,260
دلیل بعدی دادههای بیشتر است. اکنون دادههای بزرگ یکی
463
00:17:19,260 –> 00:17:21,869
از مهمترین دلایل
464
00:17:21,869 –> 00:17:23,760
توسعه هوش مصنوعی است،
465
00:17:23,760 –> 00:17:27,060
اکنون هوش مصنوعی و علم داده و
466
00:17:27,060 –> 00:17:29,160
یادگیری ماشینی یادگیری عمیق همه این
467
00:17:29,160 –> 00:17:31,890
فرآیندها تنها به این دلیل است که ما
468
00:17:31,890 –> 00:17:34,320
در حال حاضر دادههای زیادی داریم و
469
00:17:34,320 –> 00:17:36,660
ایده اصلی پشت همه این فناوریها است. این است که
470
00:17:36,660 –> 00:17:39,270
اکنون بینش های مفیدی از داده ها به دست
471
00:17:39,270 –> 00:17:41,430
آوریم، زیرا شاهد تولید داده های زیادی هستیم، باید
472
00:17:41,430 –> 00:17:42,330
473
00:17:42,330 –> 00:17:44,519
سومی را پیدا کنیم که بتواند این مقدار داده را پردازش کند.
474
00:17:44,519 –> 00:17:47,610
و بینش های مفیدی را از داده ها به دست آورید
475
00:17:47,610 –> 00:17:50,700
که به نفع یک سازمان باشد یا
476
00:17:50,700 –> 00:17:53,159
یک کسب و کار را رشد دهد، به همین دلیل است که
477
00:17:53,159 –> 00:17:54,870
هوش مصنوعی و یادگیری ماشینی
478
00:17:54,870 –> 00:17:57,240
به درستی وارد تصویر می شوند، بنابراین داده های بیشتر منجر
479
00:17:57,240 –> 00:18:00,019
به تقاضای هوش مصنوعی می شود،
480
00:18:00,019 –> 00:18:02,279
جدا از این،
481
00:18:02,279 –> 00:18:04,080
اکنون الگوریتم های بهتری نیز داریم.
482
00:18:04,080 –> 00:18:06,390
دارای الگوریتم های پیشرفته ای هستند که اکثر
483
00:18:06,390 –> 00:18:08,730
آنها بر اساس ایده شبکه های عصبی هستند
484
00:18:08,730 –> 00:18:10,309
و اینها مدام در حال بهتر شدن
485
00:18:10,309 –> 00:18:12,659
هستند شبکه های عصبی در واقع یکی از
486
00:18:12,659 –> 00:18:15,090
مهم ترین اکتشافات در
487
00:18:15,090 –> 00:18:17,159
هوش مصنوعی هستند زیرا با
488
00:18:17,159 –> 00:18:19,889
شبکه های عصبی می توانید هزاران لایه را بردارید
489
00:18:19,889 –> 00:18:22,139
. داده های ورودی درست شما می توانید
490
00:18:22,139 –> 00:18:24,000
داده های ورودی زیادی را برای انجام محاسبات بگیرید،
491
00:18:24,000 –> 00:18:26,399
بنابراین از طریق شبکه های عصبی
492
00:18:26,399 –> 00:18:27,809
در واقع قادر به حل بسیاری از
493
00:18:27,809 –> 00:18:29,940
مشکلات از جمله مشکلات بهداشت و درمان
494
00:18:29,940 –> 00:18:32,220
مشکلات تشخیص تقلب و غیره هستند و
495
00:18:32,220 –> 00:18:35,190
دلیل دیگر سرمایه گذاری گسترده است
496
00:18:35,190 –> 00:18:37,970
بنابراین دانشگاه ها و دولت ها و
497
00:18:37,970 –> 00:18:40,350
استارتاپ های ما و هر غولهای فناوری مانند گوگل
498
00:18:40,350 –> 00:18:42,899
آمازون و فیسبوک همگی در حال
499
00:18:42,899 –> 00:18:44,610
سرمایهگذاری هنگفتی روی آثار هنری هستند
500
00:18:44,610 –> 00:18:46,620
هوش مصنوعی که منجر به
501
00:18:46,620 –> 00:18:49,080
تقاضای a.m. نیز شد، بنابراین هوش مصنوعی
502
00:18:49,080 –> 00:18:52,230
هم به عنوان یک رشته تحصیلی و هم به عنوان یک
503
00:18:52,230 –> 00:18:54,330
اقتصاد به سرعت در حال رشد است و به اقتصاد بسیار اضافه می
504
00:18:54,330 –> 00:18:56,850
کند و من فکر می کنم این زمان مناسبی
505
00:18:56,850 –> 00:18:58,740
برای ورود شما به حوزه است.
506
00:18:58,740 –> 00:19:00,720
هوش مصنوعی به دلیل اینکه
507
00:19:00,720 –> 00:19:03,659
در حال حاضر هوش مصنوعی بسیار تقاضای بالایی دارد
508
00:19:03,659 –> 00:19:05,730
علم داده یادگیری ماشینی همه
509
00:19:05,730 –> 00:19:07,350
اینها در حال حاضر تقاضای بسیار بالایی
510
00:19:07,350 –> 00:19:09,389
دارند و بنابراین اکنون زمان
511
00:19:09,389 –> 00:19:10,860
مناسبی برای شروع کار با
512
00:19:10,860 –> 00:19:12,840
هوش مصنوعی است، اجازه دهید به شما بگویم که
513
00:19:12,840 –> 00:19:14,940
این اصطلاح هوش مصنوعی برای
514
00:19:14,940 –> 00:19:18,269
اولین بار در سال 1956 توسط
515
00:19:18,269 –> 00:19:21,000
دانشمندی به نام جان مک کارتی ابداع شد و اکنون
516
00:19:21,000 –> 00:19:23,250
جان مک کارتی
517
00:19:23,250 –> 00:19:24,990
هوش مصنوعی را علم و
518
00:19:24,990 –> 00:19:26,730
مهندسی ساخت ماشین های هوشمند تعریف کرده است،
519
00:19:26,730 –> 00:19:28,919
حال اجازه دهید
520
00:19:28,919 –> 00:19:30,929
تعریفی توصیفی از
521
00:19:30,929 –> 00:19:33,330
هوش مصنوعی به شما ارائه دهم هوش مصنوعی
522
00:19:33,330 –> 00:19:35,820
یک نظریه و توسعه است.
523
00:19:35,820 –> 00:19:38,580
سیستمهای رایانهای قادر به انجام وظایفی هستند
524
00:19:38,580 –> 00:19:41,130
که معمولاً به هوش انسانی نیاز دارند، مانند
525
00:19:41,130 –> 00:19:43,460
ادراک بصری تشخیص گفتار.
526
00:19:43,460 –> 00:19:45,750
در حال ساخت و ترجمه بین
527
00:19:45,750 –> 00:19:48,059
زبان ها به یک معنا
528
00:19:48,059 –> 00:19:49,919
هوش مصنوعی تکنیکی است که
529
00:19:49,919 –> 00:19:52,380
ماشین ها را به کار می اندازد و مانند انسان ها رفتار می
530
00:19:52,380 –> 00:19:54,929
531
00:19:54,929 –> 00:19:56,010
532
00:19:56,010 –> 00:19:57,900
533
00:19:57,900 –> 00:20:00,360
کند.
534
00:20:00,360 –> 00:20:03,090
از جمله تجزیه و تحلیل تجاری بازاریابی رباتیک مراقبت های بهداشتی
535
00:20:03,090 –> 00:20:05,100
و بسیاری موارد دیگر درست است،
536
00:20:05,100 –> 00:20:07,980
بنابراین هوش مصنوعی در واقع یک زمینه بسیار گسترده است
537
00:20:07,980 –> 00:20:10,410
و دامنه های زیادی از جمله
538
00:20:10,410 –> 00:20:12,690
یادگیری ماشینی
539
00:20:12,690 –> 00:20:15,230
مبتنی بر دانش پردازش زبان طبیعی مبتنی بر دانش
540
00:20:15,230 –> 00:20:18,540
بینایی کامپیوتری و سیستم های خبره را
541
00:20:18,540 –> 00:20:20,640
پوشش می دهد، بنابراین اینها چند حوزه هستند که هوش مصنوعی
542
00:20:20,640 –> 00:20:22,800
اکنون آنها را پوشش می دهد. ادامه دهید و در مورد
543
00:20:22,800 –> 00:20:24,090
انواع مختلف
544
00:20:24,090 –> 00:20:26,760
هوش مصنوعی بحث کنید، بچه ها، هوش مصنوعی در
545
00:20:26,760 –> 00:20:29,370
طول سه مرحله تکاملی ساختار یافته است، می توانید
546
00:20:29,370 –> 00:20:31,800
بگویید که هوش مصنوعی در طول سه مرحله تکاملی توسعه یافته است،
547
00:20:31,800 –> 00:20:34,050
ما چیزی
548
00:20:34,050 –> 00:20:35,940
به نام هوش مصنوعی باریک
549
00:20:35,940 –> 00:20:37,890
و به دنبال آن هوش مصنوعی عمومی داریم
550
00:20:37,890 –> 00:20:39,750
و در نهایت ما
551
00:20:39,750 –> 00:20:42,330
فوق هوش مصنوعی داریم.
552
00:20:42,330 –> 00:20:44,190
هوش باریک مصنوعی که همچنین به
553
00:20:44,190 –> 00:20:47,820
عنوان یک هوش مصنوعی ضعیف شناخته می شود، این شامل اعمال هوش مصنوعی یا
554
00:20:47,820 –> 00:20:50,550
نیاز به افکار خاص است، بسیاری از
555
00:20:50,550 –> 00:20:53,220
سیستم های موجود در حال حاضر که ادعا می کنند
556
00:20:53,220 –> 00:20:55,590
از هوش مصنوعی استفاده می کنند، در واقع
557
00:20:55,590 –> 00:20:58,410
به عنوان هوش مصنوعی ضعیف عمل می کنند که بر روی
558
00:20:58,410 –> 00:21:01,530
یک مشکل خاص متمرکز است که
559
00:21:01,530 –> 00:21:03,510
اکنون الکسا الکسا در واقع یک مشکل است.
560
00:21:03,510 –> 00:21:05,490
مثال خوبی از هوش باریک مصنوعی
561
00:21:05,490 –> 00:21:07,770
که در
562
00:21:07,770 –> 00:21:10,050
محدوده محدودی از عملکردهای از پیش تعریف شده عمل می کند،
563
00:21:10,050 –> 00:21:12,090
564
00:21:12,090 –> 00:21:15,450
علیرغم اینکه
565
00:21:15,450 –> 00:21:18,060
نمونه ای پیچیده از موتور جستجوی vki گوگل در صوفیه
566
00:21:18,060 –> 00:21:20,130
و
567
00:21:20,130 –> 00:21:22,980
ماشین های خودران و حتی آلفاگوی معروف است، هیچ هوش واقعی یا خودآگاهی وجود ندارد.
568
00:21:22,980 –> 00:21:25,500
رده هوش مصنوعی ضعیف پس ما
569
00:21:25,500 –> 00:21:27,150
چیزی به نام هوش عمومی مصنوعی داریم که به عنوان هوش مصنوعی
570
00:21:27,150 –> 00:21:29,250
571
00:21:29,250 –> 00:21:32,280
قوی نیز شناخته میشود و شامل ماشینهایی میشود
572
00:21:32,280 –> 00:21:34,140
که توانایی انجام هر
573
00:21:34,140 –> 00:21:36,420
کار فکری را دارند که یک انسان
574
00:21:36,420 –> 00:21:38,370
اکنون میتواند ماشینها
575
00:21:38,370 –> 00:21:40,980
تواناییهای انسانمانندی ندارند. یک
576
00:21:40,980 –> 00:21:42,980
واحد پردازشی بسیار قوی که می تواند
577
00:21:42,980 –> 00:21:45,630
محاسبات سطح بالا را انجام دهد اما
578
00:21:45,630 –> 00:21:47,730
هنوز قادر به انجام این کار نیست
579
00:21:47,730 –> 00:21:50,040
مانند یک انسان استدلال میکند و مردانی نیز وجود دارند که میپرسید
580
00:21:50,040 –> 00:21:51,960
آیا مطلوب است،
581
00:21:51,960 –> 00:21:55,110
مثلاً استیون هاوکینگ هشدار
582
00:21:55,110 –> 00:21:57,960
داد که هوش مصنوعی قوی خود به خود بلند میشود
583
00:21:57,960 –> 00:22:00,030
و خود
584
00:22:00,030 –> 00:22:01,200
را با سرعت فزایندهای طراحی میکند که
585
00:22:01,200 –> 00:22:03,360
انسانهایی که توسط تکامل بیولوژیکی آهسته محدود شدهاند.
586
00:22:03,360 –> 00:22:05,520
رقابت
587
00:22:05,520 –> 00:22:08,040
نمیکنیم و به درستی جایگزین میشویم، بنابراین ما
588
00:22:08,040 –> 00:22:09,600
فناوریهای
589
00:22:09,600 –> 00:22:12,390
زیادی داریم و نابغههای زیادی که در واقع
590
00:22:12,390 –> 00:22:14,700
نگران هستند اگر هوش مصنوعی قوی پیادهسازی
591
00:22:14,700 –> 00:22:17,790
شود، ممکن است جهان را به درستی در اختیار بگیرد،
592
00:22:17,790 –> 00:22:19,140
بنابراین ممکن است به شما بگویم که هوش مصنوعی قوی
593
00:22:19,140 –> 00:22:20,580
چیزی است که هنوز پیاده سازی
594
00:22:20,580 –> 00:22:22,830
نشده است ما فقط در مرحله اول
595
00:22:22,830 –> 00:22:24,360
هوش مصنوعی هستیم که هوش
596
00:22:24,360 –> 00:22:26,670
مصنوعی ضعیف است
597
00:22:26,670 –> 00:22:29,250
که به هوش مصنوعی ضعیف نیز معروف است درست است ما هنوز
598
00:22:29,250 –> 00:22:32,460
به هوش مصنوعی قوی یا ابر
599
00:22:32,460 –> 00:22:34,680
هوش مصنوعی نرسیده ایم بنابراین ابر هوش مصنوعی
600
00:22:34,680 –> 00:22:36,780
اصطلاحی است که به
601
00:22:36,780 –> 00:22:39,000
زمانی اطلاق می شود که توانایی های یک
602
00:22:39,000 –> 00:22:42,030
کامپیوتر در ESI از انسان پیشی می گیرد در
603
00:22:42,030 –> 00:22:44,400
حال حاضر به عنوان یک
604
00:22:44,400 –> 00:22:47,400
موقعیت فرضی در فیلم ها و
605
00:22:47,400 –> 00:22:49,500
کتاب های علمی-تخیلی نشان داده می شود که ماشین
606
00:22:49,500 –> 00:22:50,580
همه دنیا را به
607
00:22:50,580 –> 00:22:52,170
خوبی تسخیر کردهاند، بنابراین ابر هوش مصنوعی
608
00:22:52,170 –> 00:22:55,170
چیزی است که بسیار دور از ذهن است، اما
609
00:22:55,170 –> 00:22:57,690
مغز متفکران فناوری مانند ایلان ماسک معتقد بودند
610
00:22:57,690 –> 00:23:00,120
که ابر هوش مصنوعی
611
00:23:00,120 –> 00:23:02,490
تا سال 2040 جهان را تسخیر خواهد کرد،
612
00:23:02,490 –> 00:23:05,130
درست است بسیاری از افرادی که
613
00:23:05,130 –> 00:23:07,230
مخالف توسعه مصنوعی هستند.
614
00:23:07,230 –> 00:23:08,940
هوش عمومی و ابر
615
00:23:08,940 –> 00:23:11,130
هوش مصنوعی بسیاری از ما معتقدیم که
616
00:23:11,130 –> 00:23:13,410
باید به هوش مصنوعی ضعیف پایبند باشیم و
617
00:23:13,410 –> 00:23:16,410
جلوتر از این حرکت نکنیم و وجود تمدن بشری
618
00:23:16,410 –> 00:23:18,510
را به خطر بیندازیم، بنابراین بچه ها
619
00:23:18,510 –> 00:23:19,800
نظرات خود را در مورد هوش مصنوعی
620
00:23:19,800 –> 00:23:21,930
در بخش نظرات به من بگویید. دوست دارم بدانم.
621
00:23:21,930 –> 00:23:24,330
بچه ها در مورد هوش مصنوعی چه فکر می کنید و
622
00:23:24,330 –> 00:23:26,490
آیا معتقدید بله من جهان را تسخیر خواهم کرد
623
00:23:26,490 –> 00:23:28,590
یا نه، پس حالا بیایید ادامه دهیم و
624
00:23:28,590 –> 00:23:31,470
در مورد
625
00:23:31,470 –> 00:23:33,030
تفاوت هوش مصنوعی با یادگیری ماشینی و
626
00:23:33,030 –> 00:23:35,370
یادگیری عمیق صحبت کنیم، بسیاری از مردم تمایل
627
00:23:35,370 –> 00:23:36,990
دارند این تصور را مصنوعی کنند.
628
00:23:36,990 –> 00:23:39,450
یادگیری ماشین هوشمند و یادگیری عمیق
629
00:23:39,450 –> 00:23:41,250
یکسان هستند زیرا آنها
630
00:23:41,250 –> 00:23:44,250
برنامه های مشترک دارند، به عنوان مثال سیری
631
00:23:44,250 –> 00:23:46,620
یک اپلیکیشن کاربردی است در مورد یادگیری ماشینی هوش مصنوعی
632
00:23:46,620 –> 00:23:49,050
و یادگیری عمیق، بنابراین چگونه این
633
00:23:49,050 –> 00:23:51,540
فناوریها به درستی به هم مرتبط هستند یا چگونه با
634
00:23:51,540 –> 00:23:52,710
یکدیگر متفاوت هستند،
635
00:23:52,710 –> 00:23:54,870
اکنون هوش مصنوعی
636
00:23:54,870 –> 00:23:57,600
علم تقلید ماشینها از
637
00:23:57,600 –> 00:23:59,970
رفتار انسانها
638
00:23:59,970 –> 00:24:02,520
یادگیری ماشینی زیرمجموعهای از
639
00:24:02,520 –> 00:24:04,890
هوش مصنوعی است که بر از
640
00:24:04,890 –> 00:24:07,230
سوی دیگر، تصمیم گیری ماشینها با
641
00:24:07,230 –> 00:24:09,540
تغذیه دادههای یادگیری عمیق
642
00:24:09,540 –> 00:24:11,910
، زیرمجموعهای از یادگیری ماشینی است
643
00:24:11,910 –> 00:24:14,520
که از مفهوم شبکههای عصبی
644
00:24:14,520 –> 00:24:17,520
برای حل مسائل پیچیده استفاده میکند، بنابراین به طور
645
00:24:17,520 –> 00:24:19,200
خلاصه به شما امکان میدهد
646
00:24:19,200 –> 00:24:21,779
یادگیری ماشینی هوش مصنوعی و یادگیری عمیق
647
00:24:21,779 –> 00:24:23,879
زمینههای کاملاً بهم پیوسته را به شما نشان دهد.
648
00:24:23,879 –> 00:24:25,619
یادگیری ماشینی و یادگیری عمیق
649
00:24:25,619 –> 00:24:27,929
با ارائه
650
00:24:27,929 –> 00:24:30,299
مجموعهای از الگوریتمها و شبکههای عصبی برای
651
00:24:30,299 –> 00:24:33,239
حل مشکلات دادهمحور به هوش مصنوعی کمک میکند، اما هوش مصنوعی
652
00:24:33,239 –> 00:24:35,309
فقط به یادگیری ماشین
653
00:24:35,309 –> 00:24:37,619
و یادگیری عمیق محدود نمیشود، بلکه دامنه وسیعی
654
00:24:37,619 –> 00:24:39,690
از زمینهها را شامل میشود که شامل
655
00:24:39,690 –> 00:24:41,729
تشخیص اشیا پردازش زبان طبیعی میشود.
656
00:24:41,729 –> 00:24:44,279
سیستم های خبره رباتیک بینایی کامپیوتر
657
00:24:44,279 –> 00:24:44,969
و غیره
658
00:24:44,969 –> 00:24:47,519
درست است، پس هوش مصنوعی حوزه بسیار وسیعی است بچه ها،
659
00:24:47,519 –> 00:24:49,679
امیدوارم تفاوت بین یادگیری ماشینی هوش مصنوعی و یادگیری عمیق را برطرف کرده باشم،
660
00:24:49,679 –> 00:24:52,049
661
00:24:52,049 –> 00:24:54,029
همچنین ممکن است بسیاری از شما در مورد
662
00:24:54,029 –> 00:24:56,549
علم داده گیج شده باشید علم داده اکنون یک
663
00:24:56,549 –> 00:24:57,899
اصطلاح چتر درست
664
00:24:57,899 –> 00:24:59,820
است که اساساً به معنای بدست آوردن
665
00:24:59,820 –> 00:25:02,159
بینش مفید است. از دادهها، بنابراین
666
00:25:02,159 –> 00:25:04,889
علم داده در واقع از یادگیری ماشینی هوش مصنوعی
667
00:25:04,889 –> 00:25:07,109
و یادگیری عمیق استفاده میکند،
668
00:25:07,109 –> 00:25:08,639
بنابراین همه این سه
669
00:25:08,639 –> 00:25:11,279
فناوری را به منظور استخراج
670
00:25:11,279 –> 00:25:14,099
بینش مفید از دادهها در حال حاضر پیادهسازی میکند، اجازه دهید
671
00:25:14,099 –> 00:25:16,200
به جالبترین موضوع در
672
00:25:16,200 –> 00:25:18,239
هوش مصنوعی برویم که
673
00:25:18,239 –> 00:25:20,219
یادگیری ماشین است. اصطلاح
674
00:25:20,219 –> 00:25:22,799
یادگیری ماشین برای اولین بار توسط دانشمندی
675
00:25:22,799 –> 00:25:25,739
به نام آرتور ساموئل در سال 1959 ابداع شد که با
676
00:25:25,739 –> 00:25:28,649
نگاهی به گذشته، احتمالاً شما از
677
00:25:28,649 –> 00:25:30,359
نظر
678
00:25:30,359 –> 00:25:32,940
پیشرفت های تکنولوژیکی مهم ترین بود تا
679
00:25:32,940 –> 00:25:35,369
اگر
680
00:25:35,369 –> 00:25:37,080
در اینترنت برای یادگیری ماشین جستجو کنید،
681
00:25:37,080 –> 00:25:38,609
یادگیری ماشین را تعریف کنید. دست کم 100
682
00:25:38,609 –> 00:25:40,950
تعریف مختلف به زبان ساده دریافت کنید
683
00:25:40,950 –> 00:25:43,440
یادگیری ماشین زیرمجموعه ای از
684
00:25:43,440 –> 00:25:45,719
هوش مصنوعی است h
685
00:25:45,719 –> 00:25:47,669
این توانایی را برای ماشینها فراهم میکند که به
686
00:25:47,669 –> 00:25:49,859
طور خودکار یاد بگیرند و از روی
687
00:25:49,859 –> 00:25:52,679
تجربه پیشرفت کنند، بدون اینکه به طور صریح
688
00:25:52,679 –> 00:25:55,979
برای انجام این کار برنامهریزی شده باشند، به یک معنا این
689
00:25:55,979 –> 00:25:58,080
تمرین وادار کردن ماشینها برای حل
690
00:25:58,080 –> 00:26:00,509
مشکلات با به دست آوردن توانایی فکر کردن است،
691
00:26:00,509 –> 00:26:03,299
اکنون سوال اینجاست که آیا ماشین
692
00:26:03,299 –> 00:26:05,849
میتواند فکر کند یا میتواند ماشین به خوبی تصمیم می
693
00:26:05,849 –> 00:26:08,580
گیرد اگر از مقدار زیادی داده ترس از ماشین
694
00:26:08,580 –> 00:26:10,700
دارید، یاد می گیرد که چگونه
695
00:26:10,700 –> 00:26:13,529
فرآیند را تفسیر کند و داده ها را با استفاده از
696
00:26:13,529 –> 00:26:15,089
چیزی که به عنوان الگوریتم های یادگیری ماشینی شناخته می شود تجزیه و تحلیل کند
697
00:26:15,089 –> 00:26:18,119
تا به شما یک ایده اولیه از
698
00:26:18,119 –> 00:26:19,919
نحوه عملکرد فرآیند یادگیری ماشین بدهد
699
00:26:19,919 –> 00:26:22,379
، به شکل زیر نگاه کنید. در این اسلاید یک
700
00:26:22,379 –> 00:26:25,109
فرآیند یادگیری ماشینی همیشه
701
00:26:25,109 –> 00:26:27,359
با داده های زیادی به ماشین
702
00:26:27,359 –> 00:26:29,999
داده می شود و اکنون با استفاده از این داده ها،
703
00:26:29,999 –> 00:26:32,519
ماشین آموزش می بیند تا هر گونه بینش
704
00:26:32,519 –> 00:26:34,490
و روند پنهان در
705
00:26:34,490 –> 00:26:36,860
این بینش ها را شناسایی کند و سپس برای ساخت یک
706
00:26:36,860 –> 00:26:39,050
مدل یادگیری ماشین با استفاده از
707
00:26:39,050 –> 00:26:41,180
ماشین استفاده می شود. الگوریتم یادگیری به منظور
708
00:26:41,180 –> 00:26:43,970
حل یک مسئله، هدف اصلی
709
00:26:43,970 –> 00:26:46,430
یادگیری ماشینی، حل یک مسئله یا یافتن
710
00:26:46,430 –> 00:26:49,310
راه حل با استفاده از داده های موجود است. پیش از
711
00:26:49,310 –> 00:26:51,050
این، من در مورد فرآیند یادگیری ماشینی به طور عمیق بحث خواهم کرد،
712
00:26:51,050 –> 00:26:53,300
بنابراین
713
00:26:53,300 –> 00:26:55,730
اگر ایده دقیقی از چیستی
714
00:26:55,730 –> 00:26:57,830
یادگیری ماشینی ندارید و
715
00:26:57,830 –> 00:27:00,260
فرآیند یادگیری ماشینی شامل ساخت یک
716
00:27:00,260 –> 00:27:02,570
مدل پیشبینی است که میتواند برای یافتن یک مورد استفاده قرار گیرد، نگران نباشید.
717
00:27:02,570 –> 00:27:04,880
راه حل برای یک مشکل خاص،
718
00:27:04,880 –> 00:27:06,950
یک چاه به چالش کشیدن فرآیند یادگیری ماشینی
719
00:27:06,950 –> 00:27:09,590
حدود هفت مرحله خواهد داشت که
720
00:27:09,590 –> 00:27:11,840
همیشه با تعریف
721
00:27:11,840 –> 00:27:14,570
هدف و سپس جمع آوری داده ها یا جمع آوری داده ها شروع می شود،
722
00:27:14,570 –> 00:27:16,700
سپس چیزی
723
00:27:16,700 –> 00:27:19,190
به نام آماده سازی داده ها داریم که به
724
00:27:19,190 –> 00:27:21,710
آن پیش پردازش داده نیز می گویند.
725
00:27:21,710 –> 00:27:24,320
اکتشاف داده یا
726
00:27:24,320 –> 00:27:27,320
تجزیه و تحلیل داده های اکتشافی که با ساختن یک
727
00:27:27,320 –> 00:27:29,450
مدل یادگیری ماشین دنبال می شود، سپس ما
728
00:27:29,450 –> 00:27:31,880
ارزیابی مدل داریم و در نهایت پیش بینی ها به
729
00:27:31,880 –> 00:27:34,040
این صورت است که فرآیند
730
00:27:34,040 –> 00:27:36,080
یادگیری ماشین برای درک فرآیند یادگیری ماشینی کار
731
00:27:36,080 –> 00:27:37,700
می کند، فرض کنیم
732
00:27:37,700 –> 00:27:40,220
مشکلی به شما داده شده است که نیاز دارد.
733
00:27:40,220 –> 00:27:41,870
با استفاده از یادگیری ماشین حل می شود
734
00:27:41,870 –> 00:27:44,510
، فرض کنید که مشکل پیش
735
00:27:44,510 –> 00:27:46,160
بینی وقوع باران در منطقه محلی شما
736
00:27:46,160 –> 00:27:48,860
توسط شما است. اکنون
737
00:27:48,860 –> 00:27:50,750
گام اول این است که
738
00:27:50,750 –> 00:27:52,700
هدف مسئله را به درستی تعریف کنیم زیرا در این مرحله باید
739
00:27:52,700 –> 00:27:55,070
بفهمیم که دقیقاً چه چیزی باید
740
00:27:55,070 –> 00:27:57,680
پیش بینی شود در مورد ما هدف
741
00:27:57,680 –> 00:27:59,960
پیش بینی احتمال بارش باران با
742
00:27:59,960 –> 00:28:02,510
مطالعه شرایط آب و هوایی است اما در این
743
00:28:02,510 –> 00:28:04,850
مرحله این است.
744
00:28:04,850 –> 00:28:07,460
یادداشت برداری ذهنی در مورد اینکه چه نوع داده ای می تواند
745
00:28:07,460 –> 00:28:10,040
برای حل این مشکل استفاده شود یا نوع
746
00:28:10,040 –> 00:28:12,230
رویکردی که باید برای رسیدن به
747
00:28:12,230 –> 00:28:14,450
راه حل
748
00:28:14,450 –> 00:28:16,640
دنبال کنید ضروری است.
749
00:28:16,640 –> 00:28:18,560
برای
750
00:28:18,560 –> 00:28:20,570
پیشبینی اینکه باران میبارد یا نه،
751
00:28:20,570 –> 00:28:23,150
باید بدانید
752
00:28:23,150 –> 00:28:25,730
ویژگیهای هدف چیست، ویژگیهای هدف
753
00:28:25,730 –> 00:28:27,770
اساساً متغیری هستند که باید
754
00:28:27,770 –> 00:28:29,780
در اینجا پیشبینی کنید، ما باید متغیری را پیشبینی
755
00:28:29,780 –> 00:28:31,400
کنیم که به ما نشان دهد آیا
756
00:28:31,400 –> 00:28:33,830
فردا باران خواهد بارید یا نه.
757
00:28:33,830 –> 00:28:36,080
همچنین باید درک کنید که
758
00:28:36,080 –> 00:28:37,570
برای حل این مشکل به چه نوع دادههایی نیاز دارید،
759
00:28:37,570 –> 00:28:39,590
جدای از اینکه باید بدانید با چه
760
00:28:39,590 –> 00:28:41,420
نوع مشکلی روبرو هستید که
761
00:28:41,420 –> 00:28:43,970
طبقهبندی باینری است. مشکل یا
762
00:28:43,970 –> 00:28:46,490
مشکل خوشهبندی است، اگر
763
00:28:46,490 –> 00:28:47,960
نمیدانید طبقهبندی و
764
00:28:47,960 –> 00:28:49,520
رشته چیست، نگران نباشید،
765
00:28:49,520 –> 00:28:51,350
در اسلایدهای آینده در مورد همه این موارد صحبت خواهم کرد،
766
00:28:51,350 –> 00:28:54,470
بنابراین اولین قدم شما این است
767
00:28:54,470 –> 00:28:56,990
که هدف مشکل خود را تعریف کنید.
768
00:28:56,990 –> 00:28:59,000
برای اینکه بفهمید دقیقاً
769
00:28:59,000 –> 00:29:01,100
در اینجا چه کاری باید انجام شود، چگونه می توانید این مشکل را حل کنید
770
00:29:01,100 –> 00:29:03,830
و در مرحله بعدی خود قرار دهید،
771
00:29:03,830 –> 00:29:06,200
جمع آوری داده هایی است که در این مرحله به آن نیاز دارید،
772
00:29:06,200 –> 00:29:08,270
باید سؤالاتی بپرسید مانند
773
00:29:08,270 –> 00:29:10,610
اینکه چه نوع داده ای برای حل
774
00:29:10,610 –> 00:29:13,370
این مشکل نیاز است. داده هایی که در دسترس من است
775
00:29:13,370 –> 00:29:15,380
و اگر در دسترس نیست چگونه می
776
00:29:15,380 –> 00:29:17,960
توانم داده ها را به درستی دریافت کنم، زمانی که نوع
777
00:29:17,960 –> 00:29:20,030
داده های مورد نیاز را شناختید، باید
778
00:29:20,030 –> 00:29:22,100
بدانید که چگونه می توانید این مجموعه داده ها را استخراج کنید که
779
00:29:22,100 –> 00:29:24,620
می تواند به
780
00:29:24,620 –> 00:29:26,690
صورت دستی یا توسط وب انجام شود.
781
00:29:26,690 –> 00:29:28,880
خراش دادن اما نگران نباشید اگر
782
00:29:28,880 –> 00:29:30,710
مبتدی هستید و فقط به دنبال
783
00:29:30,710 –> 00:29:32,690
یادگیری یادگیری ماشینی هستید، لازم نیست
784
00:29:32,690 –> 00:29:35,210
نگران دریافت داده باشید،
785
00:29:35,210 –> 00:29:37,130
هزاران منبع داده در وب وجود دارد
786
00:29:37,130 –> 00:29:39,140
که فقط می توانید مجموعه داده را دانلود کنید و
787
00:29:39,140 –> 00:29:41,540
تو می توانی بازگشت به
788
00:29:41,540 –> 00:29:43,580
مشکل در دست داده های مورد نیاز برای
789
00:29:43,580 –> 00:29:46,340
پیش بینی آب و هوا شامل معیارهایی
790
00:29:46,340 –> 00:29:48,890
مانند سطح رطوبت دمای شما
791
00:29:48,890 –> 00:29:51,920
، فشار محل
792
00:29:51,920 –> 00:29:54,700
زندگی شما در یک موسسه یا غیره و غیره
793
00:29:54,700 –> 00:29:57,230
Sajida باید جمع آوری شود و
794
00:29:57,230 –> 00:29:59,720
باید برای تجزیه و تحلیل ذخیره شود. اینجا جایی است که
795
00:29:59,720 –> 00:30:02,300
تمام داده ها را جمع آوری می کنید و اکنون به
796
00:30:02,300 –> 00:30:04,660
مرحله شماره سه
797
00:30:04,660 –> 00:30:07,910
می روید، یعنی آماده سازی داده ها.
798
00:30:07,910 –> 00:30:10,670
799
00:30:10,670 –> 00:30:12,860
800
00:30:12,860 –> 00:30:14,750
801
00:30:14,750 –> 00:30:17,210
دادههای شما
802
00:30:17,210 –> 00:30:19,370
تمیز نمیشوند
803
00:30:19,370 –> 00:30:21,050
، فرمت درستی ندارند، همیشه
804
00:30:21,050 –> 00:30:23,090
805
00:30:23,090 –> 00:30:26,480
نوعی ناسازگاری در دادههای شما وجود
806
00:30:26,480 –> 00:30:28,820
807
00:30:28,820 –> 00:30:31,550
دارد.
808
00:30:31,550 –> 00:30:34,550
809
00:30:34,550 –> 00:30:36,620
این بسیار ضروری است زیرا ممکن است
810
00:30:36,620 –> 00:30:38,960
منجر به محاسبه اشتباه شود،
811
00:30:38,960 –> 00:30:41,450
بنابراین در این مرحله می توانید
812
00:30:41,450 –> 00:30:43,760
کل مجموعه داده ها را برای هر m اسکن کنید.
813
00:30:43,760 –> 00:30:47,060
814
00:30:47,060 –> 00:30:48,380
815
00:30:48,380 –> 00:30:50,450
816
00:30:50,450 –> 00:30:52,550
اگر از یک دانشمند داده بپرسید از
817
00:30:52,550 –> 00:30:55,190
کدام مرحله بیشتر متنفر است
818
00:30:55,190 –> 00:30:56,870
یا کدام مرحله را زمانبرتر میدانید، این یکی
819
00:30:56,870 –> 00:30:58,700
از زمانبرترین مراحل در فرآیند یادگیری ماشینی است و شما باید آنها را در اینجا اصلاح کنید. آنها احتمالاً
820
00:30:58,700 –> 00:31:00,290
به شما می گویند پردازش و تمیز کردن داده ها به
821
00:31:00,290 –> 00:31:02,300
درستی یکی از
822
00:31:02,300 –> 00:31:04,550
خسته کننده ترین کارها است زیرا شما باید
823
00:31:04,550 –> 00:31:06,320
به تمام مقادیری که در آنجا هستند نگاه کنید و
824
00:31:06,320 –> 00:31:08,720
مقادیر گم شده را پیدا کنید و هر داده ای
825
00:31:08,720 –> 00:31:10,790
که به شما مربوط نیست را پیدا
826
00:31:10,790 –> 00:31:12,740
کنید. باید حذف شود تا
827
00:31:12,740 –> 00:31:14,630
بتوانید داده ها را به روشی بهتر تجزیه و تحلیل کنید، اکنون
828
00:31:14,630 –> 00:31:17,480
مرحله شماره چهار تجزیه و تحلیل داده های اکتشافی است،
829
00:31:17,480 –> 00:31:20,740
بنابراین بچه ها این موضوع
830
00:31:20,740 –> 00:31:23,900
به عمیق شدن در داده های خود و یافتن
831
00:31:23,900 –> 00:31:27,380
تمام اسرار داده های پنهان است EDA یا
832
00:31:27,380 –> 00:31:29,990
تجزیه و تحلیل داده های اکتشافی مانند
833
00:31:29,990 –> 00:31:31,940
مرحله طوفان فکری
834
00:31:31,940 –> 00:31:34,400
کاوش داده های یادگیری ماشینی شامل
835
00:31:34,400 –> 00:31:36,550
درک الگوها و روندهای داده های شما می شود،
836
00:31:36,550 –> 00:31:39,470
بنابراین در این مرحله تمام بینش های مفید
837
00:31:39,470 –> 00:31:42,110
و هر گونه همبستگی بین var ترسیم می شود.
838
00:31:42,110 –> 00:31:44,870
به عنوان مثال
839
00:31:44,870 –> 00:31:47,480
در مورد پیش بینی بارندگی، می
840
00:31:47,480 –> 00:31:49,130
دانیم که
841
00:31:49,130 –> 00:31:51,500
اگر دما پایین آمده باشد، احتمال قوی منطقه وجود دارد،
842
00:31:51,500 –> 00:31:53,840
چنین همبستگی هایی باید
843
00:31:53,840 –> 00:31:56,900
درک شود و در این مرحله نقشه برداری شود
844
00:31:56,900 –> 00:31:59,420
، در واقع مهمترین مرحله در
845
00:31:59,420 –> 00:32:01,460
فرآیند یادگیری ماشین است. زیرا در اینجا
846
00:32:01,460 –> 00:32:03,800
جایی است که دادههای خود را درک میکنید، میدانید
847
00:32:03,800 –> 00:32:05,960
که چگونه دادههای
848
00:32:05,960 –> 00:32:08,960
شما به شما کمک میکند تا نتیجه را پیشبینی کنید و
849
00:32:08,960 –> 00:32:11,210
به مرحله شماره پنج بروید، ما یک
850
00:32:11,210 –> 00:32:13,280
مدل یادگیری ماشینی میسازیم تا تمام
851
00:32:13,280 –> 00:32:16,130
بینشها و همه الگوهایی
852
00:32:16,130 –> 00:32:18,290
که از مرحله اکتشاف داده به دست آوردهاید.
853
00:32:18,290 –> 00:32:20,630
این بینشها برای ساختن
854
00:32:20,630 –> 00:32:22,580
مدل یادگیری ماشینی استفاده میشوند، بنابراین این کار
855
00:32:22,580 –> 00:32:25,100
همیشه با تقسیم مجموعه دادهها
856
00:32:25,100 –> 00:32:27,200
به دو بخش آغاز میشود که دادههای آموزشی و
857
00:32:27,200 –> 00:32:30,020
آزمایشی است، اکنون به یاد
858
00:32:30,020 –> 00:32:32,180
داشته باشید که دادههای آموزشی برای ساخت و
859
00:32:32,180 –> 00:32:35,150
تجزیه و تحلیل مدلی که مدل
860
00:32:35,150 –> 00:32:37,280
اساساً ماشین است استفاده خواهد شد. الگوریتم یادگیری که
861
00:32:37,280 –> 00:32:39,590
خروجی را با استفاده از داده
862
00:32:39,590 –> 00:32:41,870
هایی که به آن تغذیه می کنید پیش بینی می کند، نمونه ای از
863
00:32:41,870 –> 00:32:44,270
الگوریتم یادگیری ماشینی لاگ است.
864
00:32:44,270 –> 00:32:46,430
رگرسیون ایستیک و رگرسیون خطی همه
865
00:32:46,430 –> 00:32:47,990
اینها الگوریتم های یادگیری ماشینی هستند،
866
00:32:47,990 –> 00:32:50,120
حالا نگران انتخاب درست الگوریتم نباشید،
867
00:32:50,120 –> 00:32:52,700
ابتدا بر روی فرآیندهای یادگیری ماشین تمرکز می کنیم،
868
00:32:52,700 –> 00:32:54,800
اما
869
00:32:54,800 –> 00:32:57,080
به هر حال انتخاب الگوریتم مناسب
870
00:32:57,080 –> 00:32:59,360
به عوامل مختلفی
871
00:32:59,360 –> 00:33:00,830
بستگی دارد، درست به نوع آن بستگی دارد. مشکلی که شما در
872
00:33:00,830 –> 00:33:01,700
حال تلاش برای حل
873
00:33:01,700 –> 00:33:04,340
مجموعه داده ها و سطح
874
00:33:04,340 –> 00:33:06,710
پیچیدگی مسئله هستید در بخش های آینده
875
00:33:06,710 –> 00:33:08,240
در مورد انواع مختلفی از
876
00:33:08,240 –> 00:33:09,710
مشکلاتی که می توان با استفاده از یادگیری ماشینی حل کرد بحث خواهیم
877
00:33:09,710 –> 00:33:11,960
کرد و به مرحله
878
00:33:11,960 –> 00:33:14,070
شماره شش می رویم که ارزیابی مدل را داریم
879
00:33:14,070 –> 00:33:16,980
و بهینهسازی اکنون پس از ساختن یک
880
00:33:16,980 –> 00:33:19,530
مدل با استفاده از مجموعه دادههای آموزشی
881
00:33:19,530 –> 00:33:21,900
، در نهایت زمان آزمایش مدل فرا رسیده
882
00:33:21,900 –> 00:33:24,480
است. مجموعه دادههای آزمایش برای
883
00:33:24,480 –> 00:33:26,490
بررسی کارایی مدل و
884
00:33:26,490 –> 00:33:29,310
اینکه چقدر میتواند
885
00:33:29,310 –> 00:33:29,940
886
00:33:29,940 –> 00:33:32,610
نتیجه را با دقت پیشبینی کند، استفاده میشود. محاسبه شده و
887
00:33:32,610 –> 00:33:35,250
هر گونه پیشرفت بیشتر در مدلی
888
00:33:35,250 –> 00:33:37,050
که باید در این
889
00:33:37,050 –> 00:33:39,870
مرحله اجرا شود، می توان از روش هایی مانند تنظیم پارامتر و
890
00:33:39,870 –> 00:33:41,760
اعتبار سنجی متقابل استفاده کرد. d برای
891
00:33:41,760 –> 00:33:44,250
بهبود عملکرد مدل قبل از اینکه
892
00:33:44,250 –> 00:33:46,620
بیشتر حرکت کنم نمی دانم آیا همه
893
00:33:46,620 –> 00:33:48,180
شما می دانید مجموعه داده های آموزشی و آزمایشی
894
00:33:48,180 –> 00:33:51,330
در یادگیری ماشینی به چه معناست،
895
00:33:51,330 –> 00:33:54,240
داده های ورودی همیشه به دو مجموعه تقسیم می شوند،
896
00:33:54,240 –> 00:33:55,710
ما چیزی به نام داده های آموزشی داریم.
897
00:33:55,710 –> 00:33:57,300
مجموعه و ما چیزی به نام
898
00:33:57,300 –> 00:33:59,850
مجموعه دادههای آزمایشی داریم، بنابراین در
899
00:33:59,850 –> 00:34:02,070
یادگیری ماشینی شما همیشه دادهها را به
900
00:34:02,070 –> 00:34:04,740
دو قسمت تقسیم میکنید درست این فرآیند به عنوان
901
00:34:04,740 –> 00:34:07,500
اتصال دادهها شناخته میشود و اکنون مجموعه دادههای آموزشی
902
00:34:07,500 –> 00:34:09,150
برای ساخت
903
00:34:09,150 –> 00:34:11,250
مدل یادگیری ماشین و مجموعه دادههای آزمایشی استفاده خواهد شد.
904
00:34:11,250 –> 00:34:13,590
برای آزمایش
905
00:34:13,590 –> 00:34:16,050
کارایی مدلی که ساخته
906
00:34:16,050 –> 00:34:18,540
907
00:34:18,540 –> 00:34:20,310
908
00:34:20,310 –> 00:34:21,870
909
00:34:21,870 –> 00:34:24,418
اید استفاده می شود.
910
00:34:24,418 –> 00:34:26,460
مجموعه داده به طوری که بتوانید مدل را
911
00:34:26,460 –> 00:34:28,679
بر روی یک داده آموزش دهید و مدل را روی داده دیگری آزمایش کنید،
912
00:34:28,679 –> 00:34:31,230
اکنون به یاد داشته باشید که
913
00:34:31,230 –> 00:34:33,750
مجموعه داده های آموزشی در مقایسه با مجموعه داده های آزمایشی همیشه از نظر اندازه بزرگتر
914
00:34:33,750 –> 00:34:35,699
915
00:34:35,699 –> 00:34:38,340
است زیرا بدیهی است که شما tras هستید ایجاد
916
00:34:38,340 –> 00:34:39,929
و ساخت مدل با استفاده از
917
00:34:39,929 –> 00:34:42,210
مجموعه داده های آموزشی، مجموعه داده های تست
918
00:34:42,210 –> 00:34:44,639
فقط برای ارزیابی
919
00:34:44,639 –> 00:34:47,070
عملکرد مدل شما است، حالا بیایید
920
00:34:47,070 –> 00:34:49,409
به مرحله هفتم برویم که
921
00:34:49,409 –> 00:34:51,830
پیش بینی است و زمانی که مدل
922
00:34:51,830 –> 00:34:54,480
ارزیابی شد و مدل را بهبود
923
00:34:54,480 –> 00:34:56,449
بخشید در نهایت برای پیشبینی استفاده میشود.
924
00:34:56,449 –> 00:34:59,580
خروجی نهایی میتواند یک
925
00:34:59,580 –> 00:35:01,770
متغیر طبقهای باشد یا میتواند یک کمیت پیوسته باشد
926
00:35:01,770 –> 00:35:04,140
و همه اینها بستگی به
927
00:35:04,140 –> 00:35:05,580
نوع مشکلی دارد که میخواهید حل
928
00:35:05,580 –> 00:35:07,590
کنید، نگران نباشید، من در مورد نوع مشکلات صحبت خواهم کرد.
929
00:35:07,590 –> 00:35:09,180
که می توان با استفاده از
930
00:35:09,180 –> 00:35:11,400
یادگیری ماشین در اسلایدهای آتی
931
00:35:11,400 –> 00:35:13,680
در مورد ما برای پیش بینی
932
00:35:13,680 –> 00:35:15,540
وقوع بارندگی حل کرد و خروجی
933
00:35:15,540 –> 00:35:17,420
یک متغیر
934
00:35:17,420 –> 00:35:19,620
طبقه بندی خواهد بود متغیر طبقه بندی هر چیزی است که
935
00:35:19,620 –> 00:35:22,830
دارای مقادیر مقوله ای باشد به عنوان مثال
936
00:35:22,830 –> 00:35:25,730
جنسیت یک متغیر طبقه بندی
937
00:35:25,730 –> 00:35:29,000
شده یا دارای مرد/زن یا از سوی دیگر،
938
00:35:29,000 –> 00:35:31,490
مجموعه ای از مقادیر تعریف شده دارد که یک
939
00:35:31,490 –> 00:35:33,710
متغیر طبقه بندی شده است، بنابراین بچه ها، من در
940
00:35:33,710 –> 00:35:36,290
حال حاضر کل فرآیند یادگیری ماشینی بودم، همانطور
941
00:35:36,290 –> 00:35:38,900
که با این آموزش در th ادامه می دهیم.
942
00:35:38,900 –> 00:35:41,330
بخشهای بعدی من یک
943
00:35:41,330 –> 00:35:43,430
نسخه آزمایشی را در پایتون اجرا میکنم که در آن
944
00:35:43,430 –> 00:35:45,770
پیشبینی آب و هوا را انجام خواهیم داد، بنابراین
945
00:35:45,770 –> 00:35:47,240
مطمئن شوید که تمام این مراحلی را که
946
00:35:47,240 –> 00:35:48,740
در مورد آنها صحبت کردم به خاطر میآورید زیرا
947
00:35:48,740 –> 00:35:51,350
همه این مراحل را با استفاده از پایتون طی
948
00:35:51,350 –> 00:35:53,180
میکنم و همه را کدنویسی میکنیم. از این موضوع که
949
00:35:53,180 –> 00:35:55,460
اکنون در مورد آن صحبت کردیم، موضوع بعدی
950
00:35:55,460 –> 00:35:57,830
که قرار است در مورد آن صحبت کنیم، انواع
951
00:35:57,830 –> 00:36:01,040
یادگیری ماشینی است که یک ماشین می تواند حل یک
952
00:36:01,040 –> 00:36:03,800
مشکل را با پیروی از هر یک از این
953
00:36:03,800 –> 00:36:06,290
سه رویکرد یاد
954
00:36:06,290 –> 00:36:08,270
بگیرد. یاد می گیرد
955
00:36:08,270 –> 00:36:10,930
سه روش یادگیری تحت نظارت، یادگیری
956
00:36:10,930 –> 00:36:13,160
بدون نظارت و یادگیری تقویتی
957
00:36:13,160 –> 00:36:16,010
، این سه روشی هستند
958
00:36:16,010 –> 00:36:18,400
که در آنها می توانید ماشینی را برای یادگیری آموزش
959
00:36:18,400 –> 00:36:21,020
دهید، بنابراین ابتدا اجازه دهید در مورد یادگیری نظارت شده بحث کنیم،
960
00:36:21,020 –> 00:36:23,500
بنابراین آنچه که یادگیری
961
00:36:23,500 –> 00:36:26,030
نظارت شده است، یادگیری نظارت شده تکنیکی است
962
00:36:26,030 –> 00:36:28,400
که در آن ما ماشین را آموزش می دهیم یا آموزش می دهیم. با
963
00:36:28,400 –> 00:36:30,859
استفاده از داده هایی که برای درک بهتر این موضوع برچسب گذاری شده اند،
964
00:36:30,859 –> 00:36:33,140
بیایید یک قیاس را در نظر بگیریم
965
00:36:33,140 –> 00:36:36,290
زیرا بچه ها
966
00:36:36,290 –> 00:36:39,020
برای حل مسائل ریاضی به راهنمایی نیاز دارند حداقل من واقعاً مشکلی داشتم.
967
00:36:39,020 –> 00:36:40,810
خیلی وقت است که حل مسائل ریاضی
968
00:36:40,810 –> 00:36:43,790
بله، بنابراین معلمان همیشه به ما کمک می کردند تا
969
00:36:43,790 –> 00:36:46,190
بفهمیم جمع چیست و
970
00:36:46,190 –> 00:36:48,350
چگونه انجام می شود، می توانید
971
00:36:48,350 –> 00:36:50,540
به یادگیری نظارت شده به عنوان نوعی از
972
00:36:50,540 –> 00:36:53,630
یادگیری ماشینی فکر کنید که شامل راهنمای
973
00:36:53,630 –> 00:36:55,550
مجموعه داده برچسب است، معلمی که ماشین را آموزش می دهد.
974
00:36:55,550 –> 00:36:57,680
برای درک الگوهای
975
00:36:57,680 –> 00:36:59,780
موجود در دادهها، مجموعه داده برچسب
976
00:36:59,780 –> 00:37:02,510
چیزی نیست جز مجموعه دادههای آموزشی، بنابراین برای
977
00:37:02,510 –> 00:37:04,490
درک بهتر آن
978
00:37:04,490 –> 00:37:06,770
شکل را در اینجا در نظر بگیرید، ما از
979
00:37:06,770 –> 00:37:09,530
تصاویر ماشین تام و جری میترسیم و
980
00:37:09,530 –> 00:37:12,020
هدف این است که ماشین شناسایی و
981
00:37:12,020 –> 00:37:14,240
طبقهبندی کند. تصاویر در دو
982
00:37:14,240 –> 00:37:16,730
گروه جداگانه اساساً یک گروه شامل
983
00:37:16,730 –> 00:37:18,619
تصاویر تام و گروه دیگر
984
00:37:18,619 –> 00:37:20,900
شامل تصاویر جری است. اکنون
985
00:37:20,900 –> 00:37:23,330
به مجموعه داده های آموزشی توجه کنید مجموعه داده های
986
00:37:23,330 –> 00:37:25,730
آموزشی که به یک مدل تغذیه می
987
00:37:25,730 –> 00:37:28,340
شود برچسب زده شده است همانطور که در گفتن من به ماشین
988
00:37:28,340 –> 00:37:31,130
گوش دهید این است. تام چگونه به نظر می رسد و
989
00:37:31,130 –> 00:37:33,800
جری اینگونه به نظر می رسد، اما اساساً
990
00:37:33,800 –> 00:37:35,960
هر نقطه داده ای را که به دستگاه تغذیه می کرد،
991
00:37:35,960 –> 00:37:37,819
دقیقاً اگر
992
00:37:37,819 –> 00:37:41,059
تصویر تام را به عنوان برچسب گذاری کرده باشیم، برچسب گذاری می کنیم. تام و
993
00:37:41,059 –> 00:37:43,279
اگر تصویر یک تصویر
994
00:37:43,279 –> 00:37:46,099
جری است، با انجام این کار آن را به عنوان جری برچسب گذاری
995
00:37:46,099 –> 00:37:47,719
می کنیم، شما با استفاده از داده های برچسب، دستگاه را آموزش می دهید،
996
00:37:47,719 –> 00:37:51,380
بنابراین برای خلاصه کردن آن در
997
00:37:51,380 –> 00:37:52,969
یادگیری نظارت شده، یک مرحله آموزشی کاملاً تعریف شده وجود دارد.
998
00:37:52,969 –> 00:37:55,400
کمک
999
00:37:55,400 –> 00:37:57,829
دادههای برچسب مانند بقیه
1000
00:37:57,829 –> 00:38:00,380
مراحل یکسان است، پس از تغذیه دادههای برچسب ماشین،
1001
00:38:00,380 –> 00:38:02,059
1002
00:38:02,059 –> 00:38:04,849
پاکسازی دادهها و تجزیه و تحلیل دادههای اکتشافی و
1003
00:38:04,849 –> 00:38:06,829
سپس ساخت
1004
00:38:06,829 –> 00:38:08,630
مدل یادگیری ماشین و سپس ارزیابی مدل
1005
00:38:08,630 –> 00:38:11,749
و در نهایت پیشبینیهای شما انجام میشود.
1006
00:38:11,749 –> 00:38:13,519
نکته دیگری که باید به خاطر بسپارید این است که
1007
00:38:13,519 –> 00:38:14,869
خروجی ای که می خواهید در
1008
00:38:14,869 –> 00:38:16,999
یک الگوریتم یادگیری نظارت شده
1009
00:38:16,999 –> 00:38:19,519
1010
00:38:19,519 –> 00:38:21,650
1011
00:38:21,650 –> 00:38:23,989
دریافت کنید،
1012
00:38:23,989 –> 00:38:26,719
خروجی برچسب گذاری شده
1013
00:38:26,719 –> 00:38:29,749
است. یادگیری بدون نظارت یادگیری بدون نظارت
1014
00:38:29,749 –> 00:38:32,029
شامل آموزش با استفاده از
1015
00:38:32,029 –> 00:38:35,089
داده های بدون برچسب و اجازه دادن به مدل برای
1016
00:38:35,089 –> 00:38:37,190
عمل بر روی آن اطلاعات بدون هیچ
1017
00:38:37,190 –> 00:38:39,650
راهنمایی است، بنابراین به یادگیری بدون نظارت
1018
00:38:39,650 –> 00:38:41,900
به عنوان یک کودک باهوش فکر کنید. که
1019
00:38:41,900 –> 00:38:44,239
بدون هیچ راهنمایی در این نوع
1020
00:38:44,239 –> 00:38:46,459
یادگیری ماشینی یاد می گیرد، مدل
1021
00:38:46,459 –> 00:38:49,699
با داده های برچسبی تغذیه نمی شود، زیرا در مدل
1022
00:38:49,699 –> 00:38:52,400
هیچ سرنخی ندارد که این تصویر تام است و این
1023
00:38:52,400 –> 00:38:54,920
تصویر جری است، الگوها
1024
00:38:54,920 –> 00:38:56,749
و تفاوت های بین تام و
1025
00:38:56,749 –> 00:38:59,359
جری را در آن مشخص می کند. با در نظر گرفتن هزاران
1026
00:38:59,359 –> 00:39:02,809
داده، به عنوان مثال، ویژگی های برجسته تام را شناسایی می کند،
1027
00:39:02,809 –> 00:39:04,880
مانند اشاره به تصویر شما
1028
00:39:04,880 –> 00:39:07,609
در اندازه بزرگتر و غیره برای درک
1029
00:39:07,609 –> 00:39:10,279
اینکه این تصویر از نوع 1 است، به طور مشابه
1030
00:39:10,279 –> 00:39:12,349
، چنین ویژگی هایی را در جری پیدا می کند و
1031
00:39:12,349 –> 00:39:14,479
می داند که این نوع دیگری از تصویر است. تصویر
1032
00:39:14,479 –> 00:39:16,759
ممکن است خیلی درست تایپ شده باشد، بنابراین
1033
00:39:16,759 –> 00:39:18,769
تصاویر را به دو خوشه مختلف طبقه بندی می کند
1034
00:39:18,769 –> 00:39:21,589
بدون اینکه بداند کیست تام
1035
00:39:21,589 –> 00:39:23,599
و کیست جری، اکنون ایده اصلی در
1036
00:39:23,599 –> 00:39:25,579
پشت یادگیری بدون نظارت این است
1037
00:39:25,579 –> 00:39:27,559
که الگوهای موجود در مجموعه داده خود را درک کنید
1038
00:39:27,559 –> 00:39:29,749
و بر اساس
1039
00:39:29,749 –> 00:39:32,029
شباهت ویژگی ها، خوشه ها را تشکیل دهید.
1040
00:39:32,029 –> 00:39:34,880
تصاویر مشابه یا نقاط داده مشابه را
1041
00:39:34,880 –> 00:39:37,369
در یک خوشه نشان می دهد و خوشه دیگری را تشکیل می دهد
1042
00:39:37,369 –> 00:39:38,839
که کاملاً
1043
00:39:38,839 –> 00:39:41,119
با خوشه اول متفاوت است، بنابراین
1044
00:39:41,119 –> 00:39:42,979
به خروجی نگاه کنید. از جایی که خروجی بدون برچسب
1045
00:39:42,979 –> 00:39:45,259
اساساً خوشهها یا گروههایی
1046
00:39:45,259 –> 00:39:48,469
از دو داده متفاوت است، در مرحله بعد
1047
00:39:48,469 –> 00:39:49,640
چیزی به نام
1048
00:39:49,640 –> 00:39:51,060
1049
00:39:51,060 –> 00:39:53,250
یادگیری تقویتی داریم.
1050
00:39:53,250 –> 00:39:55,050
1051
00:39:55,050 –> 00:39:58,050
1052
00:39:58,050 –> 00:39:59,400
1053
00:39:59,400 –> 00:40:02,220
در یک محیط
1054
00:40:02,220 –> 00:40:05,280
و این عامل
1055
00:40:05,280 –> 00:40:07,050
با انجام برخی
1056
00:40:07,050 –> 00:40:09,840
اقدامات و مشاهده پاداش هایی که
1057
00:40:09,840 –> 00:40:12,750
از این اقدامات دریافت می کند یاد می گیرد که در محیط رفتار کند تا بفهمد
1058
00:40:12,750 –> 00:40:14,010
یادگیری تقویتی
1059
00:40:14,010 –> 00:40:16,710
تصور کنید شما را در
1060
00:40:16,710 –> 00:40:18,810
جزیره ای دورافتاده رها کرده اند در ابتدا چه می کنید،
1061
00:40:18,810 –> 00:40:21,960
همه ما وحشت می کنیم. درست است، اما
1062
00:40:21,960 –> 00:40:24,120
با گذشت زمان یاد می گیرید که چگونه
1063
00:40:24,120 –> 00:40:26,580
در جزیره زندگی کنید،
1064
00:40:26,580 –> 00:40:28,590
محیط زیست را کشف خواهید کرد،
1065
00:40:28,590 –> 00:40:30,450
شرایط آب و هوایی را درک خواهید کرد
1066
00:40:30,450 –> 00:40:32,790
، نوع غذایی را که در آنجا رشد می کند، متوجه خواهید شد
1067
00:40:32,790 –> 00:40:34,980
که چه چیزی برای شما خطرناک است و چه
1068
00:40:34,980 –> 00:40:37,290
چیزی برای شما نیست. خواهد فهمید که کدام
1069
00:40:37,290 –> 00:40:39,360
غذا برای شما مفید است و کدام غذا درست نیست این
1070
00:40:39,360 –> 00:40:41,130
دقیقاً چگونه یادگیری تقویتی است g کار
1071
00:40:41,130 –> 00:40:43,950
می کند که شامل عاملی است که اساساً
1072
00:40:43,950 –> 00:40:46,620
شما در جزیره گیر کرده اید که در
1073
00:40:46,620 –> 00:40:48,570
یک محیط ناشناخته قرار می گیرد،
1074
00:40:48,570 –> 00:40:51,180
جزیره ای است که عامل باید با
1075
00:40:51,180 –> 00:40:53,490
مشاهده و انجام اقداماتی که
1076
00:40:53,490 –> 00:40:56,010
منجر به پاداش می شود یاد بگیرد
1077
00:40:56,010 –> 00:40:58,350
. یادگیری تقویتی عمدتاً در منطقه یادگیری ماشین پیشرفته استفاده
1078
00:40:58,350 –> 00:41:00,510
می شود. به عنوان ماشین های
1079
00:41:00,510 –> 00:41:03,030
خودران و غیره، بچه ها که
1080
00:41:03,030 –> 00:41:05,430
انواع یادگیری ماشینی را خلاصه می کند قبل از اینکه جلوتر برویم،
1081
00:41:05,430 –> 00:41:07,410
می خواهم
1082
00:41:07,410 –> 00:41:08,610
تفاوت بین آموزش
1083
00:41:08,610 –> 00:41:10,680
بدون نظارت سرپرست و یادگیری تقویتی را
1084
00:41:10,680 –> 00:41:13,040
1085
00:41:13,040 –> 00:41:15,390
مورد بحث قرار دهم. در مورد
1086
00:41:15,390 –> 00:41:18,230
آموزش ماشین با استفاده از دادههای برچسب،
1087
00:41:18,230 –> 00:41:20,550
یادگیری بدون نظارت، مانند نام
1088
00:41:20,550 –> 00:41:22,560
نشان میدهد که در اینجا هیچ نظارتی وجود ندارد
1089
00:41:22,560 –> 00:41:25,410
، ماشین روی
1090
00:41:25,410 –> 00:41:28,590
دادههای بدون برچسب بدون هیچ راهنمایی
1091
00:41:28,590 –> 00:41:30,330
آموزش دیده است.
1092
00:41:30,330 –> 00:41:32,070
1093
00:41:32,070 –> 00:41:34,440
1094
00:41:34,440 –> 00:41:37,500
برخی از خطاها و پاداش ها در حال
1095
00:41:37,500 –> 00:41:39,180
حاضر نوع مشکلی است که با استفاده از
1096
00:41:39,180 –> 00:41:41,250
lea نظارت شده حل می شود rning مشکلات رگرسیون و
1097
00:41:41,250 –> 00:41:43,710
طبقهبندی است، ما
1098
00:41:43,710 –> 00:41:45,420
1099
00:41:45,420 –> 00:41:47,280
در اسلاید آینده در
1100
00:41:47,280 –> 00:41:48,900
مورد طبقهبندی و خوشهبندی رگرسیون بحث خواهیم کرد، بنابراین اگر نمیدانید
1101
00:41:48,900 –> 00:41:51,060
یادگیری بدون نظارت چیست،
1102
00:41:51,060 –> 00:41:53,130
عمدتاً برای حل مشکلات مرتبط و
1103
00:41:53,130 –> 00:41:55,350
خوشهبندی است،
1104
00:41:55,350 –> 00:41:57,390
یادگیری تقویتی برای پاداش است. مشکلات مبتنی بر
1105
00:41:57,390 –> 00:41:59,580
اکنون نوع دادهها در
1106
00:41:59,580 –> 00:42:01,950
یادگیری نظارتشده چیست، دادههای برچسبگذاری شده است
1107
00:42:01,950 –> 00:42:02,910
1108
00:42:02,910 –> 00:42:04,559
که تفاوت اصلی بین نظارتشده
1109
00:42:04,559 –> 00:42:06,240
نسبت به هر نوع دیگری از یادگیری ماشینی
1110
00:42:06,240 –> 00:42:08,819
و تحت نظارت، دادههای تحت نظارت را برچسبگذاری کردهاید،
1111
00:42:08,819 –> 00:42:10,880
ما دادههای بدون برچسب داریم در
1112
00:42:10,880 –> 00:42:13,380
حالی که در یادگیری تقویتی
1113
00:42:13,380 –> 00:42:16,200
هیچ داده از پیش تعریفشدهای نداریم. اصلاً
1114
00:42:16,200 –> 00:42:18,089
ماشین باید همه چیز را از
1115
00:42:18,089 –> 00:42:20,160
ابتدا انجام دهد باید تجزیه و تحلیل داده ها را جمع آوری
1116
00:42:20,160 –> 00:42:22,589
کند همه چیز را به تنهایی انجام دهد در حال حاضر
1117
00:42:22,589 –> 00:42:24,180
آموزش در یادگیری
1118
00:42:24,180 –> 00:42:26,940
تحت نظارت نظارت خارجی است به این معنی که
1119
00:42:26,940 –> 00:42:29,220
نظارت خارجی داریم به شکل
1120
00:42:29,220 –> 00:42:31,549
مجموعه داده های آموزشی برچسب زده شده در
1121
00:42:31,549 –> 00:42:34,170
بدون نظارت وجود دارد واضح است.
1122
00:42:34,170 –> 00:42:36,329
هیچ نسخه فوق العاده ای یک مجموعه داده بدون برچسب
1123
00:42:36,329 –> 00:42:37,970
وجود ندارد، بنابراین وجود ندارد نظارت در
1124
00:42:37,970 –> 00:42:39,690
یادگیری تقویتی هیچ
1125
00:42:39,690 –> 00:42:42,299
نظارتی وجود ندارد در حال حاضر رویکرد برای
1126
00:42:42,299 –> 00:42:44,069
حل مشکل یادگیری نظارت شده این است که
1127
00:42:44,069 –> 00:42:45,510
اساساً شما
1128
00:42:45,510 –> 00:42:48,200
ورودی برچسب گذاری شده خود را به خروجی شناخته شده خود
1129
00:42:48,200 –> 00:42:50,460
ترسیم می کنید و یادگیری بدون نظارت دستگاه قرار است
1130
00:42:50,460 –> 00:42:52,079
الگوها را درک کند و
1131
00:42:52,079 –> 00:42:53,990
خروجی را در خود کشف کند.
1132
00:42:53,990 –> 00:42:56,670
یادگیری تقویتی خود در اینجا عامل
1133
00:42:56,670 –> 00:42:58,650
از چیزی پیروی می کند که به عنوان روش آزمون
1134
00:42:58,650 –> 00:43:01,230
و خطا شناخته می شود درست است که کاملاً
1135
00:43:01,230 –> 00:43:03,809
مبتنی بر مفهوم آزمون و خطا است.
1136
00:43:03,809 –> 00:43:06,030
1137
00:43:06,030 –> 00:43:08,180
1138
00:43:08,180 –> 00:43:10,710
1139
00:43:10,710 –> 00:43:13,049
1140
00:43:13,049 –> 00:43:14,609
کلید معروف به معنای الگوریتم خوشه بندی
1141
00:43:14,609 –> 00:43:17,069
تحت یادگیری تقویتی است،
1142
00:43:17,069 –> 00:43:19,319
ما الگوریتم یادگیری نشانه را داریم
1143
00:43:19,319 –> 00:43:21,809
که یکی از مهمترین الگوریتم ها
1144
00:43:21,809 –> 00:43:24,210
است، اساساً منطق پشت
1145
00:43:24,210 –> 00:43:26,549
بازی معروف آلفاگو است، مطمئنم که همه شما
1146
00:43:26,549 –> 00:43:28,559
در مورد آن شنیده اید، بنابراین بچه ها
1147
00:43:28,559 –> 00:43:29,910
اینها تفاوت های بین آنها بود. تحت نظارت
1148
00:43:29,910 –> 00:43:31,680
بدون نظارت و یادگیری
1149
00:43:31,680 –> 00:43:34,109
تقویتی اکنون اجازه دهید حرکت کنیم و در مورد
1150
00:43:34,109 –> 00:43:36,359
نوع مشکلاتی که می توانید با استفاده از
1151
00:43:36,359 –> 00:43:38,579
یادگیری ماشین حل کنید بحث کنید، اکنون سه
1152
00:43:38,579 –> 00:43:40,890
نوع مشکل در یادگیری ماشین وجود دارد،
1153
00:43:40,890 –> 00:43:43,589
اکنون هر مشکلی که باید
1154
00:43:43,589 –> 00:43:46,230
در یادگیری ماشین حل شود می تواند در یکی از
1155
00:43:46,230 –> 00:43:48,480
این سه دسته قرار گیرد.
1156
00:43:48,480 –> 00:43:51,480
این نوع مسئله،
1157
00:43:51,480 –> 00:43:54,420
خروجی یک کمیت پیوسته است، به
1158
00:43:54,420 –> 00:43:56,760
عنوان مثال، اگر بخواهید
1159
00:43:56,760 –> 00:43:59,640
سرعت یک ماشین را با توجه به مسافت پیش بینی کنید، به این معنی است
1160
00:43:59,640 –> 00:44:01,920
که این یک مسئله رگرسیونی است، اول از همه
1161
00:44:01,920 –> 00:44:03,450
مقدار پیوسته چیست، یک
1162
00:44:03,450 –> 00:44:05,940
کمیت پیوسته هر متغیری است که
1163
00:44:05,940 –> 00:44:08,700
بتواند یک مقدار را نگه دارد. مقدار پیوسته
1164
00:44:08,700 –> 00:44:11,220
متغیر پیوسته هر متغیری است که می تواند
1165
00:44:11,220 –> 00:44:14,490
بی نهایت مقدار داشته باشد به عنوان
1166
00:44:14,490 –> 00:44:16,559
مثال قد یک فرد یا وزن
1167
00:44:16,559 –> 00:44:16,750
1168
00:44:16,750 –> 00:44:19,390
a یک کمیت پیوسته است و من می
1169
00:44:19,390 –> 00:44:22,690
توانم وزن 50 نقطه 1 کیلوگرم یا 50 نقطه 1
1170
00:44:22,690 –> 00:44:26,320
2 یا 50 امتیاز داشته باشم. 1 1 2 کیلوگرم این یک
1171
00:44:26,320 –> 00:44:29,170
مقدار پیوسته است مشکلات رگرسیون کمیت را
1172
00:44:29,170 –> 00:44:31,240
می توان با استفاده از
1173
00:44:31,240 –> 00:44:33,550
الگوریتم های یادگیری نظارت
1174
00:44:33,550 –> 00:44:35,440
شده حل
1175
00:44:35,440 –> 00:44:38,590
کرد. یک
1176
00:44:38,590 –> 00:44:41,350
مقدار طبقهبندی که ایمیلها را به دو
1177
00:44:41,350 –> 00:44:43,420
کلاس طبقهبندی میکند، بهعنوان مثال، طبقهبندی
1178
00:44:43,420 –> 00:44:45,550
ایمیلهای شما به عنوان هرزنامه و غیر هرزنامه، یک
1179
00:44:45,550 –> 00:44:48,100
مشکل طبقهبندی است در اینجا دوباره
1180
00:44:48,100 –> 00:44:49,410
از الگوریتمهای طبقهبندی یادگیری نظارت
1181
00:44:49,410 –> 00:44:51,370
شده مانند
1182
00:44:51,370 –> 00:44:53,770
ماشینهای بردار پشتیبانی،
1183
00:44:53,770 –> 00:44:56,530
رگرسیون لجستیک سوگیری ساده و غیره استفاده میکنید، سپس ما
1184
00:44:56,530 –> 00:44:58,540
خوشهبندی داریم. مشکل و این نوع
1185
00:44:58,540 –> 00:45:01,240
مشکل شامل تخصیص ورودی
1186
00:45:01,240 –> 00:45:03,970
به دو یا چند خوشه بر اساس
1187
00:45:03,970 –> 00:45:06,340
شباهت ویژگی است، به عنوان مثال
1188
00:45:06,340 –> 00:45:08,560
خوشهبندی بینندگان در
1189
00:45:08,560 –> 00:45:11,170
گروههای مشابه بر اساس علاقه آنها یا بر
1190
00:45:11,170 –> 00:45:13,780
اساس سن یا جغرافیای آنها میتواند با
1191
00:45:13,780 –> 00:45:16,060
استفاده از الگوریتمهای یادگیری بدون نظارت
1192
00:45:16,060 –> 00:45:18,580
مانند k-means انجام شود. خوشه بندی یکی از چیزهایی که
1193
00:45:18,580 –> 00:45:20,470
باید درک کنید این است که تحت یادگیری نظارت شده
1194
00:45:20,470 –> 00:45:22,420
می توانید مشکلات رگرسیون و
1195
00:45:22,420 –> 00:45:24,880
طبقه بندی را با
1196
00:45:24,880 –> 00:45:26,800
یادگیری بدون نظارت حل کنید، می توانید
1197
00:45:26,800 –> 00:45:29,230
مشکلات خوشه بندی
1198
00:45:29,230 –> 00:45:30,880
1199
00:45:30,880 –> 00:45:33,460
1200
00:45:33,460 –> 00:45:36,640
1201
00:45:36,640 –> 00:45:39,430
را حل کنید. و
1202
00:45:39,430 –> 00:45:41,320
متفاوت را درک کنید الگوریتمهای یادگیری ماشینی
1203
00:45:41,320 –> 00:45:43,990
اکنون به عمق
1204
00:45:43,990 –> 00:45:45,490
الگوریتمهای یادگیری ماشین نمیپردازم، زیرا
1205
00:45:45,490 –> 00:45:47,680
الگوریتمهای زیادی برای پوشش دادن وجود دارد، اما
1206
00:45:47,680 –> 00:45:49,990
ما تقریباً در مورد هر
1207
00:45:49,990 –> 00:45:52,060
الگوریتم یادگیری ماشینی محتوا داریم، بنابراین
1208
00:45:52,060 –> 00:45:54,010
من چند پیوند را در
1209
00:45:54,010 –> 00:45:55,930
کادر توضیحات درست میگذارم. شما می توانید
1210
00:45:55,930 –> 00:45:58,150
همه این پیوندها را بررسی کنید و درک کنید که هر یک
1211
00:45:58,150 –> 00:45:59,950
از این الگوریتم های یادگیری ماشینی چگونه
1212
00:45:59,950 –> 00:46:02,440
کار می کنند، بنابراین من فقط می
1213
00:46:02,440 –> 00:46:04,600
خواهم یک نمودار سلسله مراتبی از نحوه ساختار الگوریتم ها را به شما نشان دهم،
1214
00:46:04,600 –> 00:46:07,150
بنابراین تحت
1215
00:46:07,150 –> 00:46:08,560
یادگیری ماشینی، ما سه نوع
1216
00:46:08,560 –> 00:46:10,570
یادگیری داریم که ما نظارت کرده ایم. بدون نظارت
1217
00:46:10,570 –> 00:46:12,670
و تقویت تحت
1218
00:46:12,670 –> 00:46:14,500
یادگیری نظارت شده مشکلات رگرسیون و
1219
00:46:14,500 –> 00:46:16,990
طبقه بندی داریم و تحت
1220
00:46:16,990 –> 00:46:19,000
یادگیری بدون نظارت مشکلات خوشه بندی
1221
00:46:19,000 –> 00:46:21,280
داریم یادگیری تقویتی
1222
00:46:21,280 –> 00:46:22,270
کاملاً متفاوت است.
1223
00:46:22,270 –> 00:46:23,560
من یک لینک در
1224
00:46:23,560 –> 00:46:25,180
توضیحات مخصوصاً برای
1225
00:46:25,180 –> 00:46:27,040
یادگیری تقویتی می گذارم شما می
1226
00:46:27,040 –> 00:46:28,930
توانید کل محتوای
1227
00:46:28,930 –> 00:46:29,660
یادگیری تقویتی را در آنجا مشاهده کنید.
1228
00:46:29,660 –> 00:46:31,940
اکنون مشکلات رگرسیون را می توان با
1229
00:46:31,940 –> 00:46:34,759
استفاده از خط خطی حل کرد الگوریتم رگرسیون r
1230
00:46:34,759 –> 00:46:37,099
مانند درختهای تصمیم رگرسیون خطی و
1231
00:46:37,099 –> 00:46:38,960
جنگلهای تصادفی نیز میتوانند در
1232
00:46:38,960 –> 00:46:41,720
مسائل رگرسیونی استفاده شوند، اما معمولاً
1233
00:46:41,720 –> 00:46:43,849
درختهای تصمیمگیری و جنگلهای تصادفی همه
1234
00:46:43,849 –> 00:46:45,970
اینها برای مرتبسازی مسائل
1235
00:46:45,970 –> 00:46:48,890
طبقهبندی استفاده میشوند. الگوریتمهای طبقهبندی معروف شامل
1236
00:46:48,890 –> 00:46:51,380
K نزدیکترین همسایه است که اساساً KN
1237
00:46:51,380 –> 00:46:53,960
n درخت تصمیم است و جنگلهای تصادفی
1238
00:46:53,960 –> 00:46:57,140
رگرسیون لجستیک بایاس ساده
1239
00:46:57,140 –> 00:46:58,849
ماشینهای بردار پشتیبان همه اینها
1240
00:46:58,849 –> 00:47:01,220
الگوریتمهای
1241
00:47:01,220 –> 00:47:03,349
طبقهبندی هستند که به یادگیری بدون نظارت میرسند.
1242
00:47:03,349 –> 00:47:06,109
1243
00:47:06,109 –> 00:47:08,000
1244
00:47:08,000 –> 00:47:10,759
1245
00:47:10,759 –> 00:47:13,460
1246
00:47:13,460 –> 00:47:15,859
به طور عمده در
1247
00:47:15,859 –> 00:47:18,529
تجزیه و تحلیل سبد بازار درست برای این
1248
00:47:18,529 –> 00:47:20,329
الگوریتم استفاده می شود و همچنین لینکی را در
1249
00:47:20,329 –> 00:47:22,609
توضیحات می گذارم ما یک
1250
00:47:22,609 –> 00:47:24,980
نسخه نمایشی بسیار عالی را انجام دادیم که در آن enma نشان داد که چگونه
1251
00:47:24,980 –> 00:47:27,289
می توان تحلیل سبد بازار را با
1252
00:47:27,289 –> 00:47:30,410
استفاده از الگوریتم پیشینی با استفاده از الگوریتم مارکوف انجام داد.
1253
00:47:30,410 –> 00:47:32,480
توضیح داده شده در یکی از ویدیوها
1254
00:47:32,480 –> 00:47:34,460
معتقدند که پیوند در t او
1255
00:47:34,460 –> 00:47:36,920
اکنون جعبه توضیحات برای خلاصه کردن یادگیری ماشین برای
1256
00:47:36,920 –> 00:47:38,930
شما، من یک
1257
00:47:38,930 –> 00:47:41,569
نمایش کوچک در پایتون اجرا خواهم کرد، همانطور که
1258
00:47:41,569 –> 00:47:42,109
1259
00:47:42,109 –> 00:47:44,000
قبلا قول داده بودم، از پایتون برای
1260
00:47:44,000 –> 00:47:45,440
درک کل
1261
00:47:45,440 –> 00:47:47,299
فرآیند یادگیری ماشین استفاده خواهم کرد، بنابراین بیایید
1262
00:47:47,299 –> 00:47:50,119
با آن نسخه ی نمایشی شروع کنیم تا بچه ها برای آن ها از شما
1263
00:47:50,119 –> 00:47:52,160
که پایتون را نمی شناسید من
1264
00:47:52,160 –> 00:47:53,809
چند لینک در کادر توضیحات می گذارم
1265
00:47:53,809 –> 00:47:56,210
تا پایتون را بفهمید اما جدا
1266
00:47:56,210 –> 00:47:57,529
از آن پایتون کاملا
1267
00:47:57,529 –> 00:47:59,119
قابل درک است اگر فقط به کد نگاه کنید
1268
00:47:59,119 –> 00:48:00,440
متوجه می شوید که دقیقا در مورد چه چیزی صحبت می کنم.
1269
00:48:00,440 –> 00:48:02,720
درست است پس نگران نباشید و
1270
00:48:02,720 –> 00:48:04,730
همچنین من همه چیز را در مخروط توضیح خواهم داد
1271
00:48:04,730 –> 00:48:08,359
، بنابراین از pycharm
1272
00:48:08,359 –> 00:48:10,970
برای اجرای درست نسخه ی نمایشی استفاده می کنم، بنابراین دوستان همانطور که
1273
00:48:10,970 –> 00:48:12,410
گفتم اگر پایتون را نمی شناسید
1274
00:48:12,410 –> 00:48:14,180
و چند لینک در آن بگذارید. جعبه توضیحات
1275
00:48:14,180 –> 00:48:16,819
شما می توانید از طریق آن ویدئوها و
1276
00:48:16,819 –> 00:48:20,329
همچنین هدف اصلی نمایش ما ایجاد یک
1277
00:48:20,329 –> 00:48:21,890
ماژول یادگیری ماشینی است که با مطالعه مجموعه داده های گذشته
1278
00:48:21,890 –> 00:48:23,839
پیش بینی می کند که آیا فردا باران خواهد بارید یا خیر،
1279
00:48:23,839 –> 00:48:26,180
1280
00:48:26,180 –> 00:48:29,269
اکنون این مجموعه داده شامل حدود
1281
00:48:29,269 –> 00:48:30,529
صد و چهل و پنج است. هزار
1282
00:48:30,529 –> 00:48:32,299
مشاهدات روزانه بر اساس
1283
00:48:32,299 –> 00:48:34,970
شرایطی که در استرالیا مشاهده شده
1284
00:48:34,970 –> 00:48:37,549
است، مجموعه دادهها حدود 24
1285
00:48:37,549 –> 00:48:39,920
ویژگی دارد و ما از 23
1286
00:48:39,920 –> 00:48:41,750
ویژگی از آن برای پیشبینی
1287
00:48:41,750 –> 00:48:42,940
متغیر هدف
1288
00:48:42,940 –> 00:48:45,700
آرام فردا استفاده خواهیم کرد، بنابراین این دادههایی که
1289
00:48:45,700 –> 00:48:47,650
از CAG جمعآوری میشود برای آنها مینویسد.
1290
00:48:47,650 –> 00:48:49,810
اگر نمیدانید Cargill یک
1291
00:48:49,810 –> 00:48:51,880
پلتفرم آنلاین است که صدها مجموعه داده خوب را تولید میکند
1292
00:48:51,880 –> 00:48:53,290
و میدانید که
1293
00:48:53,290 –> 00:48:55,540
مسابقات زیادی توسط مهندسان یادگیری ماشین برگزار میشود
1294
00:48:55,540 –> 00:48:58,210
و همه اینها یک
1295
00:48:58,210 –> 00:49:00,490
وبسایت جالب است، اکنون
1296
00:49:00,490 –> 00:49:02,530
بیان مشکل خود ساختن یک
1297
00:49:02,530 –> 00:49:04,540
مدل یادگیری ماشین است. که پیشبینی میکند
1298
00:49:04,540 –> 00:49:06,579
فردا تمرین خواهد کرد یا نه،
1299
00:49:06,579 –> 00:49:08,770
این به وضوح یک مشکل طبقهبندی است
1300
00:49:08,770 –> 00:49:10,839
که مدل یادگیری ماشینی باید
1301
00:49:10,839 –> 00:49:13,329
خروجی را به دو کلاس طبقهبندی کند
1302
00:49:13,329 –> 00:49:16,569
که یا بله یا خیر بله،
1303
00:49:16,569 –> 00:49:18,819
فردا باران خواهد آمد و Noble
1304
00:49:18,819 –> 00:49:20,380
اساساً نمیداند که
1305
00:49:20,380 –> 00:49:22,150
فردا باران نخواهد بارید، این یک
1306
00:49:22,150 –> 00:49:24,640
مشکل طبقه بندی است، بنابراین امیدوارم
1307
00:49:24,640 –> 00:49:26,950
هدف مشخص باشد، بنابراین ما
1308
00:49:26,950 –> 00:49:29,500
تظاهرات را با وارد کردن
1309
00:49:29,500 –> 00:49:32,079
کتابخانه های مورد نیاز بنابراین اول از همه برای
1310
00:49:32,079 –> 00:49:33,880
محاسبات ریاضی
1311
00:49:33,880 –> 00:49:36,460
وارد کردن کتابخانه numpy خواهد شد همچنین
1312
00:49:36,460 –> 00:49:38,770
کتابخانه پاندا را برای پردازش داده وارد می
1313
00:49:38,770 –> 00:49:41,859
کنیم بعد فایل CSV را بارگذاری می کنیم
1314
00:49:41,859 –> 00:49:44,500
اساساً داده های من در
1315
00:49:44,500 –> 00:49:47,319
قالب CSV در این فایل ذخیره می شود که آیا
1316
00:49:47,319 –> 00:49:49,930
CSV شترمرغ داده های من است. set بنابراین اساساً من
1317
00:49:49,930 –> 00:49:52,420
این فایل را در این مسیر به درستی ذخیره کردهام، بنابراین
1318
00:49:52,420 –> 00:49:53,890
این کاری است که من در اینجا انجام میدهم،
1319
00:49:53,890 –> 00:49:56,619
مجموعه دادههای خود را بارگیری میکنم و آن را در
1320
00:49:56,619 –> 00:49:59,619
متغیری به نام DF ذخیره میکنم و سپس کاری که ما انجام خواهیم داد این
1321
00:49:59,619 –> 00:50:02,050
است که ما اندازه قاب داده خود را ببینید،
1322
00:50:02,050 –> 00:50:04,569
بیایید اندازه قاب داده را چاپ
1323
00:50:04,569 –> 00:50:06,670
کنیم، همچنین پنج
1324
00:50:06,670 –> 00:50:09,760
مشاهده اول را در قاب داده خود نشان خواهیم داد، اجازه دهید
1325
00:50:09,760 –> 00:50:12,760
به خروجی نگاه کنیم اساساً حدود
1326
00:50:12,760 –> 00:50:14,140
صد و چهل و پنج هزار
1327
00:50:14,140 –> 00:50:16,720
مشاهده و بیست و چهار ویژگی
1328
00:50:16,720 –> 00:50:18,849
اکنون بیست و چهار ویژگی
1329
00:50:18,849 –> 00:50:20,800
اساساً متغیرهایی هستند که در مجموعه دادههای من وجود دارند،
1330
00:50:20,800 –> 00:50:23,020
شما میدانید به عنوان مثال تاریخ
1331
00:50:23,020 –> 00:50:25,750
موجود است مکان در دسترس است حداقل
1332
00:50:25,750 –> 00:50:27,670
دما تا باران فردا همه
1333
00:50:27,670 –> 00:50:29,530
اینها متغیر هستند، بنابراین حدود 24
1334
00:50:29,530 –> 00:50:32,500
ویژگی در مجموعه دادههای من وجود دارد. ht اکنون
1335
00:50:32,500 –> 00:50:34,750
متغیرهایی که باید پیش بینی
1336
00:50:34,750 –> 00:50:37,240
کنم فردا باران خواهد بود، اگر مقدار باران
1337
00:50:37,240 –> 00:50:39,520
فردا خیر باشد، نشان دهنده این است که
1338
00:50:39,520 –> 00:50:41,740
فردا باران نخواهد بارید، اما اگر مقدار
1339
00:50:41,740 –> 00:50:43,569
آن بله باشد، نشان دهنده این است که
1340
00:50:43,569 –> 00:50:45,819
فردا باران خواهد بارید، بنابراین باران فردا
1341
00:50:45,819 –> 00:50:48,520
اساساً برای من است. متغیر هدف درست است من متوجه خواهم
1342
00:50:48,520 –> 00:50:50,349
شد که
1343
00:50:50,349 –> 00:50:51,970
فردا باران خواهد بارید یا نه، بنابراین این متغیر هدف من است که
1344
00:50:51,970 –> 00:50:53,980
به عنوان متغیر ورودی متغیر خروجی شما نیز شناخته
1345
00:50:53,980 –> 00:50:55,630
1346
00:50:55,630 —