Всякий ИИ нужен для того, чтобы повышать производительность труда, но

ИИ внутри робота помогает создавать больше благ меньшим трудом. ИИ, спрятанный внутри компьютера или смартфона без механических приводов,
Collapse )

Большие данные и машинное обучение, лекция: источники информации, источники данных

Большие данные и машинное обучение, лекция: источники информации, источники данных


https://www.youtube.com/watch?v=9Wh8VgPv-IQ
вк: https://vk.com/video53223390_456239458

слайды: Большие данные - лекция-13 - источники данных
Курс Большие данные, машинное обучение, искусственный интеллект

Где искать данные, если у вас не учебный проект в области МЛ-с-бигдатой? (и не обязательно для бигдаты)

(краткая выжимка из другого невыложенного курса, смысл которого можно свести к "где в интернете можно чекать факты", конечно, с дополнениями и переработками в строну бигдаты и МЛ)

Collapse )

ИИ, нейросети, лекция-4: библиотека автоматического дифференцирования TensorFlow

залил на ютюб прошлогоднюю лекцию, третья из цикла про нейросети: Курс Большие данные, машинное обучение: нейрон, нейросеть, TensorFlow

ИИ, нейросети, лекция-4: библиотека автоматического дифференцирования TensorFlow

https://www.youtube.com/watch?v=Rl9CZX3R-38
вк: https://vk.com/video53223390_456239477

Курс Большие данные, машинное обучение, искусственный интеллект

Collapse )

О «несправедливом» разделе собственности бывшего СССР

В известных дискуссиях среди прочих встречается один аргумент: Советский Союз был разделен правильно, приватизация, как необходимый этап перехода от общественной собственности к частной, тоже была необходима, но вот итоги приватизации, т.е. то, каким образом были разделены блага между бывшими гражданами, оказались «несправедливы» или «нечестны». По итогам приватизации вся собственность СССР оказалась в руках плохих людей («жуликов и воров»), и поэтому мы нет. А вот если бы она оказалась в руках хороших людей, вот тогда бы мы да.

В ответ на это здесь можно, конечно, говорить, что плохие люди устроили раздел собственности только затем, чтобы она им же и досталась, потому они и плохие. Ну или спросить, как в случае со «справедливым» разделом обеспечить «справедливость» тем, кто родился позднее.

Но вот, допустим, все блага СССР, действительно, были поделены поровну между всеми гражданами (между хорошими и плохими или даже только между хорошими — берите любой вариант), они не стали продавать свои доли за бесценок, пронеся сквозь года, а вопрос о тех, кто не успел к переделу, родившись позднее, каким-то чудесным образом (не знаю, каким — может, таким, как сейчас) не стоит. Можно ли считать, что такой передел был бы справедлив?

Справедливый обмен — это обмен эквивалента на эквивалент. В процессе передела бывшие граждане почившего СССР отказывались от некоторой собственности, которой они могли владеть как граждане СССР, в обмен на это они получали некоторую собственность, которой они получили право владеть как граждане новоиспеченной РФ.

До раздела вся собственность СССР находилась во владении общества, т.е. была общая, т.е. каждый гражданин СССР владел ей всей целиком. В момент передела общее было поделено на части. Во владение экс-гражданина попала часть собственности. Часть всегда меньше целого. Отказавшись от целого, экс-гражданин согласился довольствоваться меньшим, какова бы эта часть ни была по величине.

В качестве иллюстрации проведите в голове мысленный эксперимент: вы живете в 5-тикомнатной квартире семьей из 5-ти человек. Каждый член семьи в полной мере пользуется общей жилплощадью — просторная гостиная, кухня, душевая, ванная, туалет, плюс имеет свой уютный угол, который по общему согласию закреплен лично за ним. Каждый член семьи живет в пятикомнатной квартире. Но в семье произошел коллапс, квартиру нужно делить на части. Например, продать и поделить денежный эквивалент. Есть ли у вас (или у любого другого члена бывшей семьи) вариант после этого жить в пятикомнатной квартире, получив в распоряжение её часть?
Collapse )

ИИ, нейросети, лекция-3: нейросеть по косточкам, самая простая нейронная сеть

залил на ютюб прошлогоднюю лекцию, третья из цикла про нейросети: Курс Большие данные, машинное обучение: нейрон, нейросеть, TensorFlow

ИИ, нейросети, лекция-3: нейросеть по косточкам, самая простая нейронная сеть

https://www.youtube.com/watch?v=cWxwXXKbSG4
вк: https://vk.com/video53223390_456239475

слайды: Большие данные - лекция-12 - многослойный перцептрон (многомерный градиент, обратное распространение)
Курс Большие данные, машинное обучение, искусственный интеллект

из коментов к лекции про нейросеть ШАД от Яндекса
RagazzoKZ (4 года назад): Бляха-муха, как же непонятно.... Бесит!
дима курдюков (2 года назад): Вот что пишет  преподаватель  Стэнфорда Эндрю Ын. In the previous video, we talked about the backpropagation algorithm. To a lot of people seeing it for the first time, their first impression is often that wow this is a really complicated algorithm, and there are all these different steps, and I'm not sure how they fit together. And it's kind a this black box of all these complicated steps. In case that's how you're feeling about backpropagation, that's actually okay. Backpropagation maybe unfortunately is a less mathematically clean, or less mathematically simple algorithm, compared to linear regression or logistic regression. And I've actually used backpropagation, you know, pretty successfully for many years. And even today I still don't sometimes feel like I have a very good sense of just what it's doing, or intuition about what back propagation is doing. If, for those of you that are doing the programming exercises, that will at least mechanically step you through the different steps of how to implement back prop. So you'll be able to get it to work for yourself. And what I want to do in this video is look a little bit more at the mechanical steps of backpropagation, and try to give you a little more intuition about what the mechanical steps the back prop is doing to hopefully convince you that, you know, it's at least a reasonable algorithm.
In case even after this video in case back propagation still seems very black box and kind of like a, too many complicated steps and a little bit magical to you, that's actually okay. And Even though I've used back prop for many years, sometimes this is a difficult algorithm to understand, but hopefully this video will help a little bit.

источник: https://www.coursera.org/lecture/machine-learning/backpropagation-intuition-du981

мой ответ: не ведитесь на ложную простоту аналогий с шариками и стрелочками, а вместо этого один раз посчитайте производную сложной функции — функции ошибки самой простой нейронной сети, всё будет понятно как день и никаких черных ящиков.

Collapse )

ИИ, нейросети, лекция-2: градиентный спуск с сигмоидой по косточкам, нелинейный нейрон