Category: технологии

Category was added automatically. Read all entries about "технологии".

Стиблиц сделал на кухне складывалку чисел на реле

на батарейках на двоичной логике. Показал коллегам. Коллеги не впечатлились: на двоичной логике понадобится дохрена релюшек.
Collapse )

Большие данные и машинное обучение, лекция: блеск и нищета современного ИИ, экономика ИИ

залил на ютюб прошлогоднюю лекцию: Курс Большие данные, машинное обучение: блеск и нищета современного ИИ

Большие данные и машинное обучение, лекция: блеск и нищета современного ИИ, экономика ИИ

https://www.youtube.com/watch?v=g0c-S2CcALg
вк: https://vk.com/video53223390_456239481

слайды: Большие данные - лекция-14 - итоги, вычислительная техника, ИИ, ИР, кибернетика (слайдшара)
Курс Большие данные, машинное обучение, искусственный интеллект



реальность



В этом году студентка (Мария Петрухина, ПМ) дополнительно заметила, что разрекламированный Яндексом поиск фильмов по сюжету работает через их Толоку, т.е. на распределенном кластере из человеков (пруфов не будет).

Collapse )

Всякий ИИ нужен для того, чтобы повышать производительность труда, но

ИИ внутри робота помогает создавать больше благ меньшим трудом. ИИ, спрятанный внутри компьютера или смартфона без механических приводов,
Collapse )

ИИ, нейросети, лекция-4: библиотека автоматического дифференцирования TensorFlow

залил на ютюб прошлогоднюю лекцию, третья из цикла про нейросети: Курс Большие данные, машинное обучение: нейрон, нейросеть, TensorFlow

ИИ, нейросети, лекция-4: библиотека автоматического дифференцирования TensorFlow

https://www.youtube.com/watch?v=Rl9CZX3R-38
вк: https://vk.com/video53223390_456239477

Курс Большие данные, машинное обучение, искусственный интеллект

Collapse )

ИИ, нейросети, лекция-3: нейросеть по косточкам, самая простая нейронная сеть

залил на ютюб прошлогоднюю лекцию, третья из цикла про нейросети: Курс Большие данные, машинное обучение: нейрон, нейросеть, TensorFlow

ИИ, нейросети, лекция-3: нейросеть по косточкам, самая простая нейронная сеть

https://www.youtube.com/watch?v=cWxwXXKbSG4
вк: https://vk.com/video53223390_456239475

слайды: Большие данные - лекция-12 - многослойный перцептрон (многомерный градиент, обратное распространение)
Курс Большие данные, машинное обучение, искусственный интеллект

из коментов к лекции про нейросеть ШАД от Яндекса
RagazzoKZ (4 года назад): Бляха-муха, как же непонятно.... Бесит!
дима курдюков (2 года назад): Вот что пишет  преподаватель  Стэнфорда Эндрю Ын. In the previous video, we talked about the backpropagation algorithm. To a lot of people seeing it for the first time, their first impression is often that wow this is a really complicated algorithm, and there are all these different steps, and I'm not sure how they fit together. And it's kind a this black box of all these complicated steps. In case that's how you're feeling about backpropagation, that's actually okay. Backpropagation maybe unfortunately is a less mathematically clean, or less mathematically simple algorithm, compared to linear regression or logistic regression. And I've actually used backpropagation, you know, pretty successfully for many years. And even today I still don't sometimes feel like I have a very good sense of just what it's doing, or intuition about what back propagation is doing. If, for those of you that are doing the programming exercises, that will at least mechanically step you through the different steps of how to implement back prop. So you'll be able to get it to work for yourself. And what I want to do in this video is look a little bit more at the mechanical steps of backpropagation, and try to give you a little more intuition about what the mechanical steps the back prop is doing to hopefully convince you that, you know, it's at least a reasonable algorithm.
In case even after this video in case back propagation still seems very black box and kind of like a, too many complicated steps and a little bit magical to you, that's actually okay. And Even though I've used back prop for many years, sometimes this is a difficult algorithm to understand, but hopefully this video will help a little bit.

источник: https://www.coursera.org/lecture/machine-learning/backpropagation-intuition-du981

мой ответ: не ведитесь на ложную простоту аналогий с шариками и стрелочками, а вместо этого один раз посчитайте производную сложной функции — функции ошибки самой простой нейронной сети, всё будет понятно как день и никаких черных ящиков.

Collapse )

ИИ, нейросети, лекция-2: градиентный спуск с сигмоидой по косточкам, нелинейный нейрон

ИИ, нейросети, лекция-1: градиентный спуск по косточкам, адаптивный линейный нейрон

Маркс о роботах и программистах

Но это может иметь также и тот результат, что сама рыночная стоимость благодаря изобретениям, сокращающим необходимое рабочее время, понизится и выравняется таким образом с рыночной ценой.

Страдания атлантов в эпоху нооэкономики

Фейсбук полнится стонами по случаю внезапных выходных

https://www.facebook.com/videoelektronic/posts/3912231328843418


Недоумеваю. Эффект от труда талантливых харизматичных руководителей велик — на их плечах лежит экономика. Эффект от труда полуграмотных васянов за станком ничтожен — они сидят на шее талантливых руководителей и должны быть благодарны, что их вообще пустили за станок. Откуда вообще берутся все эти истерики и рваные тельняшки по паре лишних выходных. Ведь хорошо известно, что талантливый харизматичный руководитель бизнеса, в отличие от ленивых васянов, трубящих за станками от звонка до звонка, думает о работе даже дома, и даже в выходные, и даже когда спит. Таким образом, на производстве основного экономического эффекта, производимого головами атлантов, т.е. талантливых харизматичных руководителей, это вообще никак не отразится. А что там васяны пару дней не постоят за станками или не покрутят баранку — так это статистическая погрешность, её вообще никто не заметит. Тем более их всех со дня на день заменят роботами всё равно.

фб