Category: it

Category was added automatically. Read all entries about "it".

Стиблиц сделал на кухне складывалку чисел на реле

на батарейках на двоичной логике. Показал коллегам. Коллеги не впечатлились: на двоичной логике понадобится дохрена релюшек.
Collapse )

Экономические модели автоматизации с ИТ (или за чей счет живут программисты)

Экономические модели автоматизации с использованием ИТ. Создают ли программисты стоимость? (спойлер: не создают) За чей счет они живут? Каков экономический эффект от труда программистов? (спойлер: большой) В чем смысл т.н. "цифровой экономики"? (спойлер: в сокращении непроизводственных издержек) Жизненный цикл программного продукта. Товар или не товар программный продукт? Почему социальные сети, поисковики и ютюб бесплатны для пользователей и для кого они на самом деле сервисы? и т.п.


Экономические модели автоматизации: за чей счет живут программисты?

https://www.youtube.com/watch?v=i0DgNJ6KUDQ
вк (битая версия, исправлено в версии youtube): https://vk.com/video53223390_456239544

Разбор по существу с 27-й минуты, до этого вводная подбивка для настроения и контекста, по ней не принимаю претензии.

Переработанная и дополненная финальная часть лекции Большие данные и машинное обучение, лекция: блеск и нищета современного ИИ, экономика ИИ про "экономику ИИ", только без фокуса на ИИ, а про ИТ вообще, т.к. автоматизация с ИИ - это частный случай автоматизации с ИТ, просто приспособленный для решения особого круга частных задач. Некоторые тезисы можно распространить на автоматизацию вообще (повышение производительности труда, опираясь на результаты науки и инженерных изобретений), но автоматизация с применением числодробилок оказалась настолько универсальной, всепроникающей, масштабной и принимающей такое количество разнообразных форм, что они (формы такой автоматизации) заслуживают отдельного рассмотрения.

Претендую на некоторое количество новизны до тех пор, пока не тыкнут в аналогичный разбор.

Хронологически следует за Что такое IPO, когда появилась SEC, разбор формы S-1 Фейсбука, кому принадлежит Фейсбук и т.п., тот же курс.

p.s (оффтоп): спустя несколько месяцев после записи в ленту попала рекламная ссылка на статью. Диаграммы для своей лекции я рисовал в Инкскейпе по хорошей традиции в последнюю ночь, цвета для столбиков кликал подвернувшиеся со стандартной палитры — лишь бы по контрасту отличались. Показалось интересно совпадение стиля оформления и подачи при общей тематике. Не намекаю ни на что (без тени иронии), просто люблю такие совпадения.

Collapse )

Большие данные и машинное обучение, лекция: блеск и нищета современного ИИ, экономика ИИ

залил на ютюб прошлогоднюю лекцию: Курс Большие данные, машинное обучение: блеск и нищета современного ИИ

Большие данные и машинное обучение, лекция: блеск и нищета современного ИИ, экономика ИИ

https://www.youtube.com/watch?v=g0c-S2CcALg
вк: https://vk.com/video53223390_456239481

слайды: Большие данные - лекция-14 - итоги, вычислительная техника, ИИ, ИР, кибернетика (слайдшара)
Курс Большие данные, машинное обучение, искусственный интеллект



реальность



В этом году студентка (Мария Петрухина, ПМ) дополнительно заметила, что разрекламированный Яндексом поиск фильмов по сюжету работает через их Толоку, т.е. на распределенном кластере из человеков (пруфов не будет).

Collapse )

Большие данные и машинное обучение, лекция: источники информации, источники данных

Большие данные и машинное обучение, лекция: источники информации, источники данных


https://www.youtube.com/watch?v=9Wh8VgPv-IQ
вк: https://vk.com/video53223390_456239458

слайды: Большие данные - лекция-13 - источники данных
Курс Большие данные, машинное обучение, искусственный интеллект

Где искать данные, если у вас не учебный проект в области МЛ-с-бигдатой? (и не обязательно для бигдаты)

(краткая выжимка из другого невыложенного курса, смысл которого можно свести к "где в интернете можно чекать факты", конечно, с дополнениями и переработками в строну бигдаты и МЛ)

Collapse )

ИИ, нейросети, лекция-4: библиотека автоматического дифференцирования TensorFlow

залил на ютюб прошлогоднюю лекцию, третья из цикла про нейросети: Курс Большие данные, машинное обучение: нейрон, нейросеть, TensorFlow

ИИ, нейросети, лекция-4: библиотека автоматического дифференцирования TensorFlow

https://www.youtube.com/watch?v=Rl9CZX3R-38
вк: https://vk.com/video53223390_456239477

Курс Большие данные, машинное обучение, искусственный интеллект

Collapse )

ИИ, нейросети, лекция-3: нейросеть по косточкам, самая простая нейронная сеть

залил на ютюб прошлогоднюю лекцию, третья из цикла про нейросети: Курс Большие данные, машинное обучение: нейрон, нейросеть, TensorFlow

ИИ, нейросети, лекция-3: нейросеть по косточкам, самая простая нейронная сеть

https://www.youtube.com/watch?v=cWxwXXKbSG4
вк: https://vk.com/video53223390_456239475

слайды: Большие данные - лекция-12 - многослойный перцептрон (многомерный градиент, обратное распространение)
Курс Большие данные, машинное обучение, искусственный интеллект

из коментов к лекции про нейросеть ШАД от Яндекса
RagazzoKZ (4 года назад): Бляха-муха, как же непонятно.... Бесит!
дима курдюков (2 года назад): Вот что пишет  преподаватель  Стэнфорда Эндрю Ын. In the previous video, we talked about the backpropagation algorithm. To a lot of people seeing it for the first time, their first impression is often that wow this is a really complicated algorithm, and there are all these different steps, and I'm not sure how they fit together. And it's kind a this black box of all these complicated steps. In case that's how you're feeling about backpropagation, that's actually okay. Backpropagation maybe unfortunately is a less mathematically clean, or less mathematically simple algorithm, compared to linear regression or logistic regression. And I've actually used backpropagation, you know, pretty successfully for many years. And even today I still don't sometimes feel like I have a very good sense of just what it's doing, or intuition about what back propagation is doing. If, for those of you that are doing the programming exercises, that will at least mechanically step you through the different steps of how to implement back prop. So you'll be able to get it to work for yourself. And what I want to do in this video is look a little bit more at the mechanical steps of backpropagation, and try to give you a little more intuition about what the mechanical steps the back prop is doing to hopefully convince you that, you know, it's at least a reasonable algorithm.
In case even after this video in case back propagation still seems very black box and kind of like a, too many complicated steps and a little bit magical to you, that's actually okay. And Even though I've used back prop for many years, sometimes this is a difficult algorithm to understand, but hopefully this video will help a little bit.

источник: https://www.coursera.org/lecture/machine-learning/backpropagation-intuition-du981

мой ответ: не ведитесь на ложную простоту аналогий с шариками и стрелочками, а вместо этого один раз посчитайте производную сложной функции — функции ошибки самой простой нейронной сети, всё будет понятно как день и никаких черных ящиков.

Collapse )

ИИ, нейросети, лекция-2: градиентный спуск с сигмоидой по косточкам, нелинейный нейрон

ИИ, нейросети, лекция-1: градиентный спуск по косточкам, адаптивный линейный нейрон

Бертран Рассел критикует Гегеля за то,

что тот выводит мир из логики (прим. ред.: диалектической логики):

Б. Рассел: Гегель полагал, что если достаточно знают о вещи, чтобы отличить ее от всех других вещей, то все ее свойства могут быть выведены посредством логики. Это была ошибка, и из этой ошибки вырастает всё внушительное здание его системы. Это иллюстрирует важную истину, а именно, что чем хуже ваша логика, тем интереснее следствия, к которым она может привести.
(цитата из интернетов, факты не чекал)

Ирония в том, что сам Рассел является одним из отцов-основателей господствующей поныне школы [нео-]позитивизма, адепты которой до сих пор не теряют надежды вывести весь мир из...
Collapse )