Это лекция из курса "Графические вероятностные модели", который читается на Факультете математики и компьютерных наук СПбГУ вместе с двумя другими частями курса машинного обучения -- "Основами байесовского вывода" и "Глубоким обучением". Все материалы этой и других лекций курса (слайды, доска, ноутбуки с кодом) размещены по адресу:
Подписывайтесь на мой телеграм-канал "Sineкура":
Разделы: 00:00 Постановка задачи, иерархическая кластеризация 18:20 DBSCAN и OPTICS, иллюстрации в коде 01:04:35 Кластеризация как обучение смеси 01:26:27 EM-алгоритм для кластеризации 01:59:23 Перерыв 02:18:10 EM-алгоритм в общем виде 02:46:25 Частный случай EM для обучения смесей 02:56:28 История, пример Ceppellini et al. 03:10:20 Пример: кластеризация строк