Category: образование

Category was added automatically. Read all entries about "образование".

Время [*], затраченное на получение рабочим квалификации,

компенсируется из времени, сэкономленного благодаря применению квалифицированного труда.

- Стоимость рабочей силы квалифицированного рабочего при этом будет, очевидно, выше, чем неквалифицированного [**].
- Присоединенная стоимость (количество труда, т.е. времени) для квалифицированного и неквалифицированного труда будет равна [***].

[*] включает любые необходимые расходы — издержки на обучение: жизненные средства студента в процессе обучения, жизненные средства преподавателей, стоимость инфраструктуры, необходимой для обучения, и т.п.
[**] речь не обязательно о зарплате, а о дополнительных издержках на получение квалификации вообще. На практике мелкие капиталисты постараются переложить их компенсацию на общество. Но у них это не обязательно получится.
[***] если, конечно, они применены в разных областях производства, для одного и того же продукта она будет усредняться.

Collapse )

Стиблиц сделал на кухне складывалку чисел на реле

на батарейках на двоичной логике. Показал коллегам. Коллеги не впечатлились: на двоичной логике понадобится дохрена релюшек.
Collapse )

ИИ, нейросети, лекция-4: библиотека автоматического дифференцирования TensorFlow

залил на ютюб прошлогоднюю лекцию, третья из цикла про нейросети: Курс Большие данные, машинное обучение: нейрон, нейросеть, TensorFlow

ИИ, нейросети, лекция-4: библиотека автоматического дифференцирования TensorFlow

https://www.youtube.com/watch?v=Rl9CZX3R-38
вк: https://vk.com/video53223390_456239477

Курс Большие данные, машинное обучение, искусственный интеллект

Collapse )

ИИ, нейросети, лекция-3: нейросеть по косточкам, самая простая нейронная сеть

залил на ютюб прошлогоднюю лекцию, третья из цикла про нейросети: Курс Большие данные, машинное обучение: нейрон, нейросеть, TensorFlow

ИИ, нейросети, лекция-3: нейросеть по косточкам, самая простая нейронная сеть

https://www.youtube.com/watch?v=cWxwXXKbSG4
вк: https://vk.com/video53223390_456239475

слайды: Большие данные - лекция-12 - многослойный перцептрон (многомерный градиент, обратное распространение)
Курс Большие данные, машинное обучение, искусственный интеллект

из коментов к лекции про нейросеть ШАД от Яндекса
RagazzoKZ (4 года назад): Бляха-муха, как же непонятно.... Бесит!
дима курдюков (2 года назад): Вот что пишет  преподаватель  Стэнфорда Эндрю Ын. In the previous video, we talked about the backpropagation algorithm. To a lot of people seeing it for the first time, their first impression is often that wow this is a really complicated algorithm, and there are all these different steps, and I'm not sure how they fit together. And it's kind a this black box of all these complicated steps. In case that's how you're feeling about backpropagation, that's actually okay. Backpropagation maybe unfortunately is a less mathematically clean, or less mathematically simple algorithm, compared to linear regression or logistic regression. And I've actually used backpropagation, you know, pretty successfully for many years. And even today I still don't sometimes feel like I have a very good sense of just what it's doing, or intuition about what back propagation is doing. If, for those of you that are doing the programming exercises, that will at least mechanically step you through the different steps of how to implement back prop. So you'll be able to get it to work for yourself. And what I want to do in this video is look a little bit more at the mechanical steps of backpropagation, and try to give you a little more intuition about what the mechanical steps the back prop is doing to hopefully convince you that, you know, it's at least a reasonable algorithm.
In case even after this video in case back propagation still seems very black box and kind of like a, too many complicated steps and a little bit magical to you, that's actually okay. And Even though I've used back prop for many years, sometimes this is a difficult algorithm to understand, but hopefully this video will help a little bit.

источник: https://www.coursera.org/lecture/machine-learning/backpropagation-intuition-du981

мой ответ: не ведитесь на ложную простоту аналогий с шариками и стрелочками, а вместо этого один раз посчитайте производную сложной функции — функции ошибки самой простой нейронной сети, всё будет понятно как день и никаких черных ящиков.

Collapse )

ИИ, нейросети, лекция-1: градиентный спуск по косточкам, адаптивный линейный нейрон

Бертран Рассел критикует Гегеля за то,

что тот выводит мир из логики (прим. ред.: диалектической логики):

Б. Рассел: Гегель полагал, что если достаточно знают о вещи, чтобы отличить ее от всех других вещей, то все ее свойства могут быть выведены посредством логики. Это была ошибка, и из этой ошибки вырастает всё внушительное здание его системы. Это иллюстрирует важную истину, а именно, что чем хуже ваша логика, тем интереснее следствия, к которым она может привести.
(цитата из интернетов, факты не чекал)

Ирония в том, что сам Рассел является одним из отцов-основателей господствующей поныне школы [нео-]позитивизма, адепты которой до сих пор не теряют надежды вывести весь мир из...
Collapse )