версии программы на видео могут отличаться от текущей
[Статистический подход: классификация, анализ сигналов, признаки]
https://www.youtube.com/watch?v=SgPtGOqACUM&t=3s; 1.1. "Наивный" Байес; 10:28; Демонстрация некоторых функций основного модуля программы. Решение задачи идентификации образов клавиатурного почерка 32 испытуемых на основе последовательного применения формулы гипотез Байеса. Оценка вероятностей ошибок 1-го и 2-го рода. Построение графиков ошибок (ROC-кривых)
https://www.youtube.com/watch?v=4Nqs_2psU5M&t=2s; 1.2. "Осторожный" Байес; 7:16; Настройка Байесовского классификатора. Изменение законов распределения значений признаков. Верификация образов клавиатурного почерка 32 испытуемых на основе последовательного применения модифицированной формулы гипотез Байеса. Оценка вероятностей ошибок 1-го и 2-го рода. Построение графиков ошибок (ROC-кривых). Байесовский алгоритм классификации, использованный в настоящем примере, отличается от "наивного" и был впервые описан в работе [Епифанцев Б.Н., Ложников П.С., Сулавко А.Е. Алгоритм идентификации гипотез в пространстве малоинформативных признаков на основе последовательного применения формулы Байеса // Межотраслевая информационная служба / ФГУП «ВИМИ» - Москва : 2013, № 2. С. 57-62]:http://elibrary.ru/item.asp?id=19040432
https://www.youtube.com/watch?v=MdvAGp02FsY; 1.3. Проверка закона распределения признака; 4:52; Проверка гипотезы о законе распределения значений признака на малых выборках с помощью метода хи-квадрат Пирсона с поправкой Йейтса. При больших выборках (более 200 значений) можно не использовать поправку Йейтса. Пример демонстрирует, как найти наиболее близкий закон распределения из представленных в программе
https://youtu.be/GYK7fuThoUo; 1.4. Извлечение признаков из речевых сигналов (на основе традиционных методов анализа); 15:42; Работа в модуле анализа "сырых" данных. Анализ временных рядов традиционными методами на примере речевых сигналов. Загрузка размеченных речевых образов. Извлечение признаков из речевых образов (ключевых фраз и паролей, произнесенных дикторами): грубая оценка частоты переходов через "ноль", вычисление функции автокорреляции речевого сигнала, удаление неинформативных участков сигнала, построение и нормировка по длительности мел-кепстрограмм (извлечение мел-кепстральных коэффициентов). Сохранение описаний образов в виде векторов признаков в виде xml-файла
https://youtu.be/6wJWMVlbW-s; 1.5. Оценка информативности и коррелированности признаков; 5:04; Оценка информативности признаков. Построение корреляционной матрицы признаков (оценка уровня взаимной коррелированности признаков). На примере речевых признаков дикторов
[Глубокие и широкие нейронные сети]
https://www.youtube.com/watch?v=zybJmTLLH-E&t=2s; 2.1. Конструктор нейронных сетей: классификация изображений цифр (база MNIST); 8:17; Построение многослойной нейронной сети из сверточного и полносвязных слоев для идентификации изображений (сравнение один ко многим). Обучение нейронной сети и оценка точности идентификации цифр (10 классов - от 0 до 9) на основе набора данных MNIST. Сохранение структуры нейронной сети, а также параметров обученной нейронной сети.
https://www.youtube.com/watch?v=Q686ldpxzdM&t=1s; 2.2. Конструктор нейронных сетей: анализ и классификация звуков цифр (база Jakobovski); 16:29; Загрузка и редактирование многослойной нейронной сети из полносвязных и сверточных слоев для классификации временных рядов. Загрузка набора данных звуков. Предобработка временных рядов и построение спектрограмм. Оценка вероятностей ошибок и точности при классификации цифр от 0 до 9 на основе набора данных Jakobovski.
https://youtu.be/EI4RL9CN7vE; 2.3. Извлечение признаков из речевых сигналов с помощью автокодировщиков; 20:59; Построение автокодировщика в конструкторе нейронных сетей (сверточной нейронной сети для снижения размерности входных данных или пространства признаков, состоящей из двух частей - кодировщика и декодировщика). Предобработка речевых образов - преобразование сигналов в усредненные спектры*. Обучение автокодировщика на усредненных спектрах речевых сигналов. Извлечение признаков из речевых образов с помощью кодировщика. *в представленном примере энергии спектров расположены по убыванию частоты - от высокой к низкой
https://youtu.be/UeifXThY1N4; 2.4 Классические нейросетевые преобразователи биометрия-код (classic fuzzy neuro-extractor); 10:40; Нейросетевые преобразователи биометрия-код (НПБК) базируются на широких нейронных сетях и используются для привязки криптографических ключей и паролей к биометрическому образу пользователя. Демонстрируется синтез, автоматическое обучение (по ГОСТ 52633.5) и тестирование НПБК на примере задачи верификации рукописных подписей (аутентификации подписанта по рукописным образам). В соответствии с ГОСТ 52633.5 обучение должно проводиться на выборке из 11 (или более, рекомендуется от 20) примеров образа пользователя (Свой) и 64 (или более) примеров образов, не принадлежащих пользователю (Чужие). Тестирование и обучение проводилось как в обычном режиме (без защиты нейросетевых контейнеров), так и в защищенном режиме (после обучения нейроны выстраивались в цепочку, после чего таблицы связей и весов каждого нейрона шифровались на хеше выходов всех предыдущих нейронов в цепочке). В обычном режиме у хакера появляется неявный индикатор близости кодов, генерируемых из образов Чужих, к ключу пользователя, так как стабильность кодов Чужих связана с расстоянием Хемминга этих кодов до верного ключа. В защищенном режиме исполнения данная проблема решается (связь становится незначительной)
[Ансамбли моделей]