Моделирование поведения сложных динамических систем


The Presentation inside:

Slide 0

1 Моделирование поведения сложных динамических систем Докладчик: Юданов А.А. Научный руководитель: Бордаченкова Е.А Москва, 2009


Slide 1

2 Постановка задачи Цель – создать систему генерации связного текста на естественном языке по динамически поступающей информации из некоторой системы. То есть, универсальный комментатор для определенного класса компьютерных игр: - игроки управляют агентами в игровом мире. - игровой мир – разнородный объем, содержащий агентов и другие предметы.


Slide 2

3 Структура системы Игра генерирует некоторые события Их надо оценить и прокомментировать переводчик Система генерации текста ИГРА Система комментирования


Slide 3

4 Структура системы Игра генерирует некоторые события Их надо оценить и прокомментировать Проблема: широкий класс предметных областей вынуждает использовать адаптирующийся к конкретной задаче алгоритм. переводчик Система генерации текста ИГРА Система комментирования


Slide 4

5 Структура Игра генерирует некоторые события Их надо оценить и прокомментировать Система работы с моделью Модель Решено было строить модель поведения предметной области. переводчик Система генерации текста ИГРА Система комментирования


Slide 5

6 Что такое модель поведения? Внутреннее поведение скрыто Вход Выход Наблюдаемое поведение


Slide 6

7 Что такое модель поведения? Внутреннее поведение скрыто Вход модель Выход Выход


Slide 7

8 Что такое модель поведения? Оценки качества модели Ошибка обучения – Суммированная по обучающей выборке норма невязки модели Ошибка обобщения – Норма невязки модели на каких-либо новых данных Как измеряют качество модели? Основной целью при обучении является уменьшение ошибки обобщения. Точно смоделировать систему невозможно.


Slide 8

9 Адекватно оценивать настоящее Предсказывать будущее Зачем нужна модель поведения? предсказывать следующий выход системы на основе входа и наблюдаемого поведения системы. выход моделируемой системы = выход модели


Slide 9

10 Особенности нашей задачи Входные данные системы не должны участвовать как в алгоритмах обучения, так и работы. Обязательна возможность динамического обучения без учителя. Желательно, получать в предсказательном алгоритме распределение вероятностей. Желательно иметь возможность дообучать модель по ходу работы. Чем проще и быстрее работа с моделью – тем лучше.


Slide 10

11 Особенности нашей задачи Внутреннее поведение скрыто Вход модель Выход Выход ?


Slide 11

12 Обзор некоторых моделей Нейронные сети Самоорганизующиеся карты Кохонена. Статистические модели Скрытые Марковские модели. Synapse [http://www.peltarion.com/products/synapse/] WEBSOM [http://websom.hut.fi/websom/] TreeAge Pro Healthcare [http://www.treeage.com] HTS [http://hts.sp.nitech.ac.jp/]


Slide 12

13 Нейронные сети Модель представляет из себя сеть, сплетенную из одинаковых по функциям элементам с помощью синаптических связей. Каждый элемент (нейрон) выполняет одну функцию – обрабатывая определенным образом входные сигналы x1,…,xn генерирует выходной y: y = F(x1,…,xn)


Slide 13

14 Карты Кохонена Разновидность нейронных сетей. Топология – регулярная решетка. Каждый нейрон содержит вектор весов и свои координаты на решетке. Обучение итерационное, до достижения определенной погрешности Общие сведения


Slide 14

15 Карты Кохонена Отображение набора входных векторов высокой размерности в карту кластеров меньшей размерности, причем, таким образом что близким кластерам на карте отвечают близкие друг к другу входные вектора в исходном пространстве. Задачи - Наглядное упорядочивание многопараметрической информации. - Группировка близких входных сигналов для другой нейросети.


Slide 15

16 Карты Кохонена Наглядное упорядочивание многопараметрической информации. - Выявление различий в режимах поведения системы. Задачи - Нахождение взаимосвязей в многопараметрических данных.


Slide 16

17 Карты Кохонена Карта Кохонена группирует близкие входные сигналы X, а требуемая функция Y=G(X) строится на основе применения обычной нейросети. Входной слой Слой Кохонена Другая нейросеть Задачи


Slide 17

18 Нейронные сети Моделируемая система – игра. Нейронные сети должны получать вход системы, который недоступен. Значит, простой подстановки НС в задачу не получится Можно рассматривать выход системы как вход для НС, т.е. НС читает предыдущий выход и пытается предсказать следующий. Приложение к нашей задаче


Slide 18

19 Нейронные сети Внутреннее поведение скрыто Вход Нейросеть Выход Выход ? Вход


Slide 19

20 Нейронные сети + Даже малая обучающая выборка не дает большой ошибки обобщения Неэффективная реализация на ПК. Сложный процесс проектирования топологии Плюсы и минусы


Slide 20

21 Скрытые Марковские модели Имеет набор скрытых внутренних состояний (скрытая переменная) x(t) Имеет набор наблюдаемых состояний (наблюдаемая переменная) y(t) x(t) зависит только от x(t-1) y(t) зависит только от x(t) Общие сведения


Slide 21

22 Скрытые Марковские модели На каждом шаге система может перейти в новое скрытое состояние и как-то поменять значение наблюдаемой переменной (сменить наблюдаемое состояние) Время – дискретное. Общие сведения


Slide 22

23 Скрытые Марковские модели -Имеется матрица А[NxN] -Имеется матрица В[NxM] Скрытые состояния вероятностей возникновения каждого из наблюдаемых событий на каждом из скрытых состояний. вероятностей переходов между скрытыми состояниями. N M Наблюдаемые состояния Общие сведения


Slide 23

24 Скрытые Марковские модели Наиболее вероятная скрытая последовательность погоды ['Sunny', 'Rainy', 'Rainy', 'Sunny', 'Sunny'] Вероятность наблюдения при этом - 4% Пусть Аня знает, что Ваня сначала гулял, потом ходил за покупками, потом убирался. ['walk', 'shop', 'clean‘,‘walk’,’walk’] пример


Slide 24

25 Скрытые Марковские модели Для заданной модели вычислить вероятность появления некоторой наблюдаемой последовательности. 2. Для модели и наблюдаемой последовательности определить наиболее вероятную последовательность скрытых состояний. 3. Для набора наблюдаемых последовательностей требуется скорректировать матрицы переходов некоторой модели, чтобы эти последовательности были наиболее вероятны в ней. Задачи [алгоритм вперёд-назад] [алгоритм Витерби] [алгоритм Баума-Уэлша]


Slide 25

26 Скрытые Марковские модели Внутреннее поведение скрыто Вход СММ Выход Выход ? Приложение к нашей задаче


Slide 26

27 Скрытые Марковские модели + Имитирует внутреннюю жизнь моделируемой системы. + Простые итерационные алгоритмы обучения. + Простота и быстрота работы. + Соответствие большинству наших требований + Хорошие результаты применения в схожих задачах Не учитывается время, прошедшее между сменой состояний. Зависимость вероятности перехода лишь от текущего состояний. Плюсы и минусы


Slide 27

28 Модификации Фильтр Калмана Алгоритм для работы СММ с непрерывными зашумленными наблюдаемыми состояниями. Многоуровневые СММ Строится каскад СММ, где каждый следующий уровень генерирует наблюдаемые последовательности для предыдущего. Иерархические СММ СММ, где каждое состояние может само являться ИСММ Что мы хотим, возможно, применить


Slide 28

29 End of file Вопросы? Спасибо за внимание!


×

HTML:





Ссылка: