1 00:00:00,680 --> 00:00:03,720 You're listening to Daily Shit. 2 00:00:08,680 --> 00:00:10,720 З вами Daily Shittiki. 3 00:00:11,100 --> 00:00:12,260 Ну і ви все знаєте. 4 00:00:12,900 --> 00:00:16,560 І так, мій Daily Shit, про який я сьогодні хочу з тобою поговорити, 5 00:00:16,680 --> 00:00:21,660 і знов, знов, знов, і я затягую тебе в пучину штучного інтелекту. 6 00:00:22,400 --> 00:00:24,420 І тут насправді три штуки. 7 00:00:24,420 --> 00:00:30,580 Я перший, я побачив, як штучний інтелект змінив мій підхід до того, 8 00:00:30,700 --> 00:00:32,920 як я використовую комп'ютери, як інтернет. 9 00:00:33,680 --> 00:00:36,120 Ми якраз перед тим, як записувалися, я тобі показав, 10 00:00:36,220 --> 00:00:40,580 яким чином я роблю картинки для нашого найкрутішого курсу 11 00:00:40,580 --> 00:00:41,900 по інженерінг-менеджменту. 12 00:00:42,200 --> 00:00:44,060 А яка в мене інтеграція? 13 00:00:44,060 --> 00:00:46,420 Отакий вам прогрів, блядь. 14 00:00:48,680 --> 00:00:50,580 Такий дуже продуманий, знаєш? 15 00:00:51,200 --> 00:00:52,440 Мягенький, мягенький. 16 00:00:53,240 --> 00:00:53,840 От. 17 00:00:54,420 --> 00:00:56,780 Не запишетесь на курс, будете жаліти. 18 00:00:56,920 --> 00:00:58,340 Це так, просто кажу. 19 00:00:58,620 --> 00:00:58,860 Так. 20 00:00:59,420 --> 00:01:04,540 Ладно, по суті, я ще генерю, ну там, ми з тобою генеруємо якийсь там 21 00:01:04,540 --> 00:01:07,060 графічний матеріал, як я його раніше робив. 22 00:01:07,820 --> 00:01:12,180 Я для того, щоб знайти якусь картинку, шукав десь в інтернеті. 23 00:01:12,180 --> 00:01:15,320 Я зараз говорю не про чарти і так далі, а просто про картинку, 24 00:01:15,420 --> 00:01:17,580 яка, вроді, як задає настрій. 25 00:01:17,740 --> 00:01:18,800 Так, про Google Images. 26 00:01:19,540 --> 00:01:21,140 І ти шукаєш ті картинки. 27 00:01:21,340 --> 00:01:24,380 Ті картинки дуже часто захищені якимось правом. 28 00:01:24,420 --> 00:01:26,820 Ті картинки дуже часто... 29 00:01:26,820 --> 00:01:28,100 Розміру хренового. 30 00:01:28,360 --> 00:01:31,940 Хреновий розмір, ватермарки ще такі огромні. 31 00:01:32,020 --> 00:01:33,900 Ну, коротше, використовувати це дуже важко. 32 00:01:34,640 --> 00:01:37,660 Ми там, коли робимо ютубчики, використовуємо наші картинки. 33 00:01:37,780 --> 00:01:42,120 В нас є підписка на всякі там імідж-хостинги, де можна брати легально. 34 00:01:42,860 --> 00:01:45,160 Але це, це просто сраний кашмар. 35 00:01:46,040 --> 00:01:46,320 От. 36 00:01:46,460 --> 00:01:49,200 І я зараз використовую мій джорні. 37 00:01:49,200 --> 00:01:53,880 І я просто йому кажу, чувак, давай там Imagine то, сьо, п'яте, десяте. 38 00:01:53,880 --> 00:01:55,320 І намалюй мені цю штуку. 39 00:01:55,900 --> 00:02:02,200 Ну, і три-чотири хвилинки, і в мене є картинка, яку я вже можу використовувати на слайді. 40 00:02:02,720 --> 00:02:08,580 Причому там, звичайно, є якісь всякі, знаєш, імідж-глічі, багі, вісім пальців, ще якась штука. 41 00:02:09,600 --> 00:02:13,080 Але ж цілому людям, та пофігу, це просто презентація. 42 00:02:13,100 --> 00:02:14,320 Ну, і стилістично вони все однаково, так. 43 00:02:15,000 --> 00:02:18,640 Так, тобто, ну, стиль ти можеш інший взагалі зробити. 44 00:02:18,760 --> 00:02:20,340 Там що завгодно можна конфігурувати. 45 00:02:20,980 --> 00:02:21,460 От. 46 00:02:21,560 --> 00:02:23,720 І я зрозумів, що я використовую. 47 00:02:23,720 --> 00:02:32,180 Штучний інтелект, ну, прям, прям, як колегу, прям, як раба тоді, напевно, як би це не звучало. 48 00:02:32,900 --> 00:02:41,220 І зараз велика кількість скандалів йде від художників про те, що штучний інтелект використовує дуже багато картинок для навчання, 49 00:02:41,400 --> 00:02:44,200 і дуже часто це можуть бути картинки цих художників. 50 00:02:44,480 --> 00:02:46,980 Тобто, ти той твітер-срач вирішив сюди перенести? 51 00:02:46,980 --> 00:02:50,780 Ні-ні-ні, я, почекай, це просто те, що я розказую. 52 00:02:51,320 --> 00:02:53,480 І етика і так далі. 53 00:02:53,480 --> 00:03:01,480 Знаєш, воно, мені здається, не дуже готове, там, навіть, законодавство, тому що, ну, ні один художник не може довести, що використовуються, знаєш, його картинки. 54 00:03:01,480 --> 00:03:04,480 Але при цьому всі кричать, що їх картинки використані. 55 00:03:04,480 --> 00:03:06,480 Можливо, так і є. 56 00:03:06,480 --> 00:03:09,480 Я тут, ну, не суддя, і це має вирішувати суддя. 57 00:03:09,480 --> 00:03:13,480 Але я, от, зрозумів, що я, от, цю штуку використовую. 58 00:03:13,480 --> 00:03:20,480 При цьому я іноді в чат GPT, от, коли я тобі розказував, що ми отувалися про цих верблюдів, ну, я реально задав йому запитання. 59 00:03:20,480 --> 00:03:22,480 І я собі сидів, от, так, подумав. 60 00:03:23,480 --> 00:03:31,480 Ну, чат GPT видає дані, але ти ж не знаєш, це реальні дані, чи це якась там, я не знаю, галюцинація. 61 00:03:31,480 --> 00:03:33,480 Чи це перевірені дані, чи не перевірені? 62 00:03:33,480 --> 00:03:36,480 Чи це галюцинація чат GPT, бо він ж не розуміє, про що він говорить. 63 00:03:36,480 --> 00:03:38,480 Йому сра в пест. 64 00:03:38,480 --> 00:03:40,480 Ну, сра ця, взагалі, що ти там питаєш. 65 00:03:40,480 --> 00:03:49,480 Але чи змінюють, чи змінюють моє життя те, що я буду знати, скільки людина, скільки акула вбиває людей в рік, чи ні. 66 00:03:49,480 --> 00:03:51,480 Чи, ну, знаєш, звідки ж дістав. 67 00:03:51,480 --> 00:03:53,480 Якщо я буду гуглити, мені... 68 00:03:53,480 --> 00:03:58,480 Видасть мільйон даних, і я якусь дані, які, там, більш-менш справжні, використаю. 69 00:03:58,480 --> 00:04:01,480 Але в цілому моє життя ніяк не зміниться. 70 00:04:01,480 --> 00:04:05,480 Тому я от бачив, як я це використовую. 71 00:04:05,480 --> 00:04:13,480 Але, от, на цьому тижні відбулося, або, може, на минулому тижні, залежить і коли ми випустимо цей подкастік, 72 00:04:13,480 --> 00:04:15,480 відбулося два івенти. 73 00:04:15,480 --> 00:04:23,480 І на одному івенті Джон Хеннесі, чи Джек Хеннесі, коротше, я, чесно кажучи, не пам'ятаю, 74 00:04:23,480 --> 00:04:29,480 це один з піонерів, вообще, технологій в світі, отримав премію Чурінга. 75 00:04:29,480 --> 00:04:31,480 Він виступав на одній конференції. 76 00:04:31,480 --> 00:04:35,480 І він казав, що, ну, рєбятки, те, як штучний інтелект розвивається, 77 00:04:35,480 --> 00:04:42,480 вроді, як кажеш, що технологічна сингулярність вот-вот скоро може й наступити. 78 00:04:42,480 --> 00:04:48,480 Так, просто, хто не знає, що таке технологічна сингулярність, це момент, коли людство створить комп'ютер, 79 00:04:48,480 --> 00:04:52,480 який зможе створити кращий комп'ютер без людей. 80 00:04:52,480 --> 00:04:53,480 Тобто, 81 00:04:53,480 --> 00:04:58,480 в принципі, той момент, коли ми створимо свою технологічну цивілізацію. 82 00:04:58,480 --> 00:05:05,480 І він казав, що раніше ми думали, що це 40-50 років, зараз ми думаємо, що це 10-20 років. 83 00:05:05,480 --> 00:05:12,480 І дійсно, я от для себе побачив, я, ну, останні чотири місяці використовую штучний інтелект. 84 00:05:12,480 --> 00:05:17,480 І він за чотири місяці отак прогресував, прям кашмар. 85 00:05:17,480 --> 00:05:21,480 Прям аж, аж, аж страшно. 86 00:05:21,480 --> 00:05:22,480 Ну, слухай, це логічно. 87 00:05:22,480 --> 00:05:24,480 Він же ж тільки чим займається, це розвивається. 88 00:05:24,480 --> 00:05:37,480 Якщо би ми з тобою не, знаєш, не ходили спати, срати, їсти, бухати, дивитися Лестофас, просто тупити, може би ми теж так швидко розвивалися? 89 00:05:37,480 --> 00:05:38,480 Ну, навряд чи. 90 00:05:38,480 --> 00:05:47,480 Ну, я розумію, але маю на увазі, що мало того, що в нього і так дані поярші, так ще й весь час на то націлено. 91 00:05:47,480 --> 00:05:49,480 Каже, що він буде розвиватися? 92 00:05:49,480 --> 00:05:50,480 Ну, просто сама швидко. 93 00:05:50,480 --> 00:06:00,480 Просто сама швидкість для мене, як для тихнаря, ну, вона вражає крізь, вона просто аж знищує. 94 00:06:00,480 --> 00:06:04,480 Слухай, я вже змирилася, що, ну, this is it. 95 00:06:04,480 --> 00:06:05,480 This is it. 96 00:06:05,480 --> 00:06:06,480 This is it. 97 00:06:06,480 --> 00:06:14,480 Я все згадую твої слова, як ти до війни розказував, що ми живемо в найкращий час і це така хуйня. 98 00:06:14,480 --> 00:06:15,480 А зараз... 99 00:06:15,480 --> 00:06:18,480 Ну, слухай, ладно люди нам пихають в коментарях. 100 00:06:18,480 --> 00:06:19,480 А зараз... 101 00:06:19,480 --> 00:06:20,480 Ще є відео. 102 00:06:20,480 --> 00:06:21,480 Я навіть знаю, де то. 103 00:06:21,480 --> 00:06:22,480 This is friendly fire. 104 00:06:22,480 --> 00:06:23,480 Я навіть знаю. 105 00:06:23,480 --> 00:06:24,480 This is friendly fire. 106 00:06:24,480 --> 00:06:25,480 Friendly fire, ще раз тобі кажу. 107 00:06:25,480 --> 00:06:34,480 Ти розумієш, я дивуюся, що ще з цього не зробили мем, як ти сидиш в ХПЗП і такий, ми живемо в найкращий час. 108 00:06:34,480 --> 00:06:37,480 Біопромінь, біопромінь, біопромінь. 109 00:06:37,480 --> 00:06:46,480 Ні, ну, чекай, я говна ще більше наговорила, але мається на увазі, що я розумію, що, ну, от-от все. 110 00:06:46,480 --> 00:06:48,480 Я вже просто починаю з цим змиритися. 111 00:06:49,480 --> 00:06:50,480 Чекаєш. 112 00:06:50,480 --> 00:06:58,480 Я не то, щоб чекаю, але мається на увазі, я не задумуюся про своїх внуків, скажімо так. 113 00:06:58,480 --> 00:06:59,480 Ну, оце... 114 00:07:00,480 --> 00:07:02,480 Я якось так думаю, блядь. 115 00:07:02,480 --> 00:07:03,480 Війна з роботами, це їх є, блядь. 116 00:07:03,480 --> 00:07:09,480 Ну, типу, всі, всі оці, от, ну, прогнози, куди не плюнь, знаєш. 117 00:07:11,480 --> 00:07:19,480 Мало того, що, ну, типу, пандемія, непонятно, чи це був прогрів до того, що вона щойно... 118 00:07:19,480 --> 00:07:21,480 Чекає, чи ні. 119 00:07:21,480 --> 00:07:30,480 Війна теж непонятно, чи це вже є третя світова, чи не третя світова, чи в що то взагалі все виглядеться, непонятно. 120 00:07:30,480 --> 00:07:36,480 Екологія теж тут же, розумієш, все валиться, рушиться, затоплюється. 121 00:07:36,480 --> 00:07:38,480 Хер знати, що там буде. 122 00:07:38,480 --> 00:07:39,480 Землетруси. 123 00:07:39,480 --> 00:07:42,480 Ну, тобто, теж нічого не радує. 124 00:07:42,480 --> 00:07:44,480 І тут ще й Skynet себе усвідомив. 125 00:07:44,480 --> 00:07:46,480 Коротше, я... 126 00:07:46,480 --> 00:07:48,480 Ха-ха-ха-ха. 127 00:07:48,480 --> 00:07:53,480 Я, знаєш, я варю пельмені, нічому собі не відмовляю. 128 00:07:53,480 --> 00:07:54,480 Ви ж. 129 00:07:54,480 --> 00:08:01,480 Лишаюся, лишаюся, а, і ще, чекай, і ще виходить Last of Us з тими грибами їбучими. 130 00:08:01,480 --> 00:08:09,480 Якби ми з тобою не робили подкаст про грибів, і я би не знала, що під землею є та довбана грибниця, то я би ще, може, трошки видихнула. 131 00:08:09,480 --> 00:08:17,480 Але я ще й зараз розумію, що звітам, і при тому, що ми з тобою, коли записували подкаст про гриби, воно ж там реклама була, бадів. 132 00:08:17,480 --> 00:08:18,480 Так. 133 00:08:18,480 --> 00:08:20,480 Там Курдіцепс був. 134 00:08:20,480 --> 00:08:22,480 Там Курдіцепс був. 135 00:08:22,480 --> 00:08:24,480 Ха-ха-ха-ха. 136 00:08:24,480 --> 00:08:26,480 Тож ми будемо першими жертвами. 137 00:08:26,480 --> 00:08:29,480 Коротше, я, я кажу, я змирилась. 138 00:08:29,480 --> 00:08:33,480 Я, шо я, даром стоїцизм читала стільки років. 139 00:08:33,480 --> 00:08:35,480 От воно, все. 140 00:08:35,480 --> 00:08:36,480 This is it. 141 00:08:36,480 --> 00:08:39,480 Хай малює нам слайди. 142 00:08:39,480 --> 00:08:41,480 Я вже, я вже, я не проти. 143 00:08:41,480 --> 00:08:43,480 Ха-ха-ха-ха. 144 00:08:43,480 --> 00:08:44,480 От. 145 00:08:44,480 --> 00:08:47,480 І тепер, щоб я тобі ембайенси ще додавав. 146 00:08:47,480 --> 00:08:49,480 Господи. 147 00:08:49,480 --> 00:08:51,480 Ніби мені бракувало. 148 00:08:53,480 --> 00:09:08,480 Коротше, Ерік Шмід на конференції розкритикував Пентагон і Сполучені Штати Америки за те, що вони занадто слабо використовують штучний інтелект в зброї. 149 00:09:08,480 --> 00:09:16,480 Він, в принципі, процитував Ейнштейна, який писав президенту Сполучених Штатів Америки, я не пам'ятаю якого, якому. 150 00:09:16,480 --> 00:09:24,480 Тому що, чувак, є нова зброя, називається ядерна, і вона змінить взагалі всі типи війн. 151 00:09:24,480 --> 00:09:28,480 І ми зараз бачимо, що ядерне зброя, дійсно, все змінило. 152 00:09:28,480 --> 00:09:34,480 Росія може робити що завгодно, а всі такі ой-ой-ой, ой-ой-ой, це от погано так робити. 153 00:09:34,480 --> 00:09:38,480 Ви, звісно, Америка не може їх признати терористичною країною. 154 00:09:38,480 --> 00:09:44,480 Але він сказав, що те саме можна зараз сказати про штучний інтелект. 155 00:09:44,480 --> 00:09:55,480 І він сказав, що штучний інтелект треба використовувати в зброї, в дронах, у всьому, тому що це буде одною з основних зброй в майбутньому. 156 00:09:55,480 --> 00:10:01,480 І це, блядь, говорить не якийсь там сенатор, не якийсь там політик. Це говорить Ерік Шмідт. 157 00:10:01,480 --> 00:10:07,480 Ерік Шмідт був CEO компанії Google. Це людина, яка шарить в технологіях. 158 00:10:07,480 --> 00:10:14,480 В нього є внутрішня компанія, яка допомагає державним органам. 159 00:10:14,480 --> 00:10:17,480 З різного роду технічними проблемами. 160 00:10:17,480 --> 00:10:25,480 І в нього є та хрініща інфлюенси, які він може використати для того, щоб цю штуку проштовхувати. 161 00:10:25,480 --> 00:10:31,480 Він так прямо каже, я приходив в Пентагон і казав, ви сосете в машин льорнінгі. 162 00:10:31,480 --> 00:10:35,480 А не треба сосати, треба машин льорнінг писати. 163 00:10:35,480 --> 00:10:42,480 І я просто так подумав, що, ну дійсно, зараз от штучний інтелект там. 164 00:10:42,480 --> 00:10:48,480 Ми там старлінки, ми використовуємо дуже багато коннективіті для того, щоб щось робити. 165 00:10:48,480 --> 00:10:53,480 Дрони, якісь танки, якісь щось управляємо, зброя. 166 00:10:53,480 --> 00:11:02,480 Літаки, от в Америці, я сьогодні почитав статистику, що в них є винищувачі, які вони 17 годин вже не літав. 167 00:11:02,480 --> 00:11:07,480 Це не багато, але все ж таки не літав під управлінням штучного інтелекту. 168 00:11:07,480 --> 00:11:11,480 І от, якщо взяти А, як ми використовуємо штучний інтелект. 169 00:11:11,480 --> 00:11:14,480 Б, як швидко він розвивається. 170 00:11:14,480 --> 00:11:19,480 І по іронії долі, чим більше ми розвиваємо штучний інтелект, тим швидше він розвивається. 171 00:11:19,480 --> 00:11:24,480 І тут Ерік Шмід зі своїми, використовуйте штучний інтелект, зброї. 172 00:11:24,480 --> 00:11:31,480 І я щось, знаєш, може я в нас футуріст, звісно, але там... 173 00:11:31,480 --> 00:11:35,480 Але Ванзі ти починаєш вірити. 174 00:11:35,480 --> 00:11:39,480 Я поки Ванзі не вірю, але про кіз я вже задумався. 175 00:11:39,480 --> 00:11:40,480 Знаєш. 176 00:11:40,480 --> 00:11:42,480 Дай сховатись. 177 00:11:42,480 --> 00:11:46,480 Немає інтернету, хуй ти мене дістанеш, штучний інтелект сраний. 178 00:11:46,480 --> 00:11:48,480 Нема в нас інтернету. 179 00:11:48,480 --> 00:11:50,480 Тому що, от давай візьмемо Україну. 180 00:11:50,480 --> 00:11:54,480 От люди на Закарпатті, я не знаю, чи в них життя помінялося. 181 00:11:56,480 --> 00:11:59,480 Я навіть не знаю, чи в них тривоги були. 182 00:11:59,480 --> 00:12:02,480 Напевно, в залежності, яке Закарпаття там. 183 00:12:02,480 --> 00:12:09,480 Я знаю, в Ужгороді, в великих містах там є якісь, звичайно, і мобілізація, і люди хвилюються. 184 00:12:09,480 --> 00:12:11,480 Ще і Венгрія там. 185 00:12:11,480 --> 00:12:14,480 Але ті, що мають з козами, я думаю, нормас. 186 00:12:14,480 --> 00:12:16,480 Ну, я так ставлю. 187 00:12:16,480 --> 00:12:19,480 Я теж думаю, що ті, хто мають з козами. 188 00:12:19,480 --> 00:12:28,480 От я впевнений, що в мого улюбленого дружбанчика з пищевого, харчового експерименту, стиль на життя не помінялося. 189 00:12:28,480 --> 00:12:29,480 Ну. 190 00:12:29,480 --> 00:12:37,480 Але я от реально думаю, може, іти цим отшельникам, це зовсім непогана ідея. 191 00:12:37,480 --> 00:12:40,480 Можна і самостійно чудове життя прожити. 192 00:12:40,480 --> 00:12:44,480 Так, так. Я тобі скажу, глобалізація виявилася дуже переоціненою. 193 00:12:44,480 --> 00:12:52,480 При цьому ми з тобою робимо подкаст, який люди слухають з допомогою технологій в багатьох точках світу. 194 00:12:52,480 --> 00:12:55,480 І така глобалізація виявилася дуже переоціненою. 195 00:12:55,480 --> 00:13:03,480 Слухай, наш подкаст, я не знаю, чи є хорошим аргументом в захист глобалізації. 196 00:13:03,480 --> 00:13:05,480 Ха-ха-ха. 197 00:13:05,480 --> 00:13:08,480 Тому давай не будемо. 198 00:13:08,480 --> 00:13:15,480 Але от ця тема зі штучним інтелектом, з тим, як він проникає. 199 00:13:15,480 --> 00:13:24,480 Слухай, ти розумієш, до цього епізоду я не боялася штучного інтелекту в воєнній справі. 200 00:13:24,480 --> 00:13:27,480 А тепер я взагалі дуже боюся. 201 00:13:27,480 --> 00:13:32,480 Я пам'ятаєш, коли я тобі розказував свою теорію конспірації, 202 00:13:32,480 --> 00:13:33,480 Знову пити прийдеться. 203 00:13:33,480 --> 00:13:37,480 Про те, що існує якийсь дуже крутий штучний інтелект, про який ми не знаємо. 204 00:13:37,480 --> 00:13:40,480 І він створив біткоін для того, щоб люди починали підписуватися. 205 00:13:40,480 --> 00:13:42,480 О, я переконана, я переконана. 206 00:13:42,480 --> 00:13:45,480 І ніхто не знає, звідки з'явився біткоін. 207 00:13:45,480 --> 00:13:47,480 Ну так, той Сатоші Хуйоші. 208 00:13:47,480 --> 00:13:48,480 Накамото. 209 00:13:48,480 --> 00:13:49,480 Я думаю, що це так. 210 00:13:49,480 --> 00:13:51,480 І я так. 211 00:13:51,480 --> 00:13:52,480 Єш? 212 00:13:52,480 --> 00:13:53,480 Єш? 213 00:13:53,480 --> 00:13:54,480 Єш? 214 00:13:54,480 --> 00:13:56,480 І ти розумієш, в чому справа? 215 00:13:56,480 --> 00:14:02,480 Він міг той штучний інтелект на біткоінах нагребти бабла. 216 00:14:02,480 --> 00:14:04,480 І зараз то бабло втратити. 217 00:14:04,480 --> 00:14:06,480 І того біток падає. 218 00:14:06,480 --> 00:14:07,480 Ого-го. 219 00:14:10,480 --> 00:14:15,480 Це вже пішов дуже, це вже наступний рівень теорії конспірації. 220 00:14:15,480 --> 00:14:17,480 Ну так що, ми з тобою не експерти чи що? 221 00:14:20,480 --> 00:14:22,480 Так що все сходиться, Діма. 222 00:14:22,480 --> 00:14:23,480 Все сходиться. 223 00:14:23,480 --> 00:14:24,480 Все просто. 224 00:14:24,480 --> 00:14:28,480 Все, як ми казали, в теоріях конспірації все логічно і все сходиться. 225 00:14:28,480 --> 00:14:30,480 І все зразу всім стає зрозуміло. 226 00:14:30,480 --> 00:14:31,480 В общем. 227 00:14:31,480 --> 00:14:32,480 Короче. 228 00:14:32,480 --> 00:14:33,480 Так. 229 00:14:33,480 --> 00:14:34,480 Штучний інтелект. 230 00:14:34,480 --> 00:14:38,480 Мені з однієї сторони трошки страшнувато, знаєш? 231 00:14:38,480 --> 00:14:41,480 А з іншої сторони трошки цікаво. 232 00:14:41,480 --> 00:14:44,480 А докуди він зайде через рік? 233 00:14:44,480 --> 00:14:45,480 Ну наскільки? 234 00:14:45,480 --> 00:14:55,480 Ну я думаю, знаєш, зараз вже, тобто, дискусії на рахунок того, чи людина за чи проти, мені вже здається. 235 00:14:55,480 --> 00:14:56,480 Ну мені не здається. 236 00:14:56,480 --> 00:14:58,480 Я знаю, що час вже давним-давно пройшов. 237 00:14:58,480 --> 00:15:01,480 Тобто все, що нам залишається, це спостерігати. 238 00:15:01,480 --> 00:15:03,480 Чим-то все закінчиться. 239 00:15:03,480 --> 00:15:04,480 От і все. 240 00:15:04,480 --> 00:15:06,480 Ну бо зараз, ну тобто, ну от зараз що? 241 00:15:06,480 --> 00:15:11,480 Наприклад, давай суспільство вирішить, що штучний інтелект небезпечний. 242 00:15:11,480 --> 00:15:12,480 І що? 243 00:15:12,480 --> 00:15:13,480 Що воно? 244 00:15:13,480 --> 00:15:14,480 Ну нічого не зробить. 245 00:15:14,480 --> 00:15:25,480 Ну саме смішне, що Білл Ґейт колись там казав, що нам треба огранічити штучний інтелект, тому що штучний інтелект може знищити людство. 246 00:15:25,480 --> 00:15:26,480 Угу. 247 00:15:26,480 --> 00:15:30,480 І тут компанія Майкрософт кладе 10 мільярдів доларів компанії Microsoft. 248 00:15:30,480 --> 00:15:36,480 10 мільярдів доларів компанію OpenAI для інтеграції чат GPT в свій пошуковик Search. 249 00:15:36,480 --> 00:15:42,480 Просто нагадаю, що Білл Ґейт, можливо, вже і не CEO компанії Microsoft, але він в Board of Directors. 250 00:15:42,480 --> 00:15:49,480 І він десь там своїм підписом інвестицію в 10 мільярдів доларів підписав. 251 00:15:49,480 --> 00:15:52,480 Ну, от так от. 252 00:15:52,480 --> 00:15:53,480 А ти що? 253 00:15:53,480 --> 00:15:54,480 Що? 254 00:15:54,480 --> 00:15:55,480 Бо він в масонах. 255 00:15:55,480 --> 00:15:56,480 Слухай. 256 00:15:56,480 --> 00:15:57,480 Ха-ха-ха. 257 00:15:57,480 --> 00:15:58,480 Якщо подивитись. 258 00:15:58,480 --> 00:15:59,480 Білл Ґейт там. 259 00:15:59,480 --> 00:16:09,480 Там було розслідування, що він володіє десь найродючими землями на планеті через підставні компанії. 260 00:16:09,480 --> 00:16:16,480 Він там володіє чотири на 90% всіх фермерських земель Сполучених Штатів Америки через підставні компанії. 261 00:16:16,480 --> 00:16:17,480 Це Білл Ґейт. 262 00:16:17,480 --> 00:16:18,480 Угу. 263 00:16:18,480 --> 00:16:21,480 І Білл Ґейт там дуже активно розказує. 264 00:16:21,480 --> 00:16:28,480 Він виступав, що в Україні найгірша політична сила. 265 00:16:28,480 --> 00:16:30,480 Найгірше руководство. 266 00:16:30,480 --> 00:16:33,480 А недавно він там щось записав. 267 00:16:33,480 --> 00:16:36,480 Але там такі землі, там так круто. 268 00:16:36,480 --> 00:16:41,480 Я думаю, ти, сука, не роззівай рот на українську землю. 269 00:16:41,480 --> 00:16:44,480 Ха-ха-ха. 270 00:16:44,480 --> 00:16:49,480 Ну що, я так розумію, в майбутньому буде штучний інтелект і колгоспи. 271 00:16:49,480 --> 00:16:52,480 Штучний інтелект і колгоспи. 272 00:16:52,480 --> 00:16:54,480 От куди ми йдемо. 273 00:16:54,480 --> 00:16:55,480 Сто процентів. 274 00:16:55,480 --> 00:16:56,480 Знаєш. 275 00:16:56,480 --> 00:17:03,480 Штучний інтелект буде вирощувати на колгоспах їжу, щоби кермити приклятих шкіряних мішків, доки вони не вимруть. 276 00:17:03,480 --> 00:17:06,480 А всі шкіряні мішки будуть амішами. 277 00:17:06,480 --> 00:17:09,480 Без світла, без штучного інтелекту. 278 00:17:09,480 --> 00:17:10,480 Тільки роботи навколо ходять. 279 00:17:10,480 --> 00:17:12,480 Ха-ха-ха. 280 00:17:12,480 --> 00:17:24,480 Слухай, ну просто, мені здається, ми створимо технологічну цивілізацію, яка зробить з нас просто якийсь зоопар хамічків, які будуть ходити і такі, о, то дивіться, то наші творці. 281 00:17:24,480 --> 00:17:30,480 Ми розуміємо, що це виглядає смішно, але, да, в життя повно іронії. 282 00:17:30,480 --> 00:17:34,480 Ну і шо, от і все. 283 00:17:34,480 --> 00:17:37,480 На цьому все. 284 00:17:37,480 --> 00:17:38,480 На цьому все. 285 00:17:38,480 --> 00:17:41,480 До зустрінемось завтра.