Программирование - это просто
Advertisement
Главная arrow Биржевые роботы arrow Генетический алгоритм (экспериментальный проект) arrow Генетический алгоритм. Шаг 9. Проектирование блока обучения нейросети. Часть 2.
24.04.2024 г.
Главное меню
Главная
Интернет магазин
Программные продукты
Биржевые роботы
Искусственный интеллект
Математика и информатика
1С:Предприятие
Уроки C#
Уроки Delphi
Уроки программирования
Web-программирование
Дизайн и графика
Компьютер для блондинок
Исходники
Статьи
Платный раздел
Рассказы про компьютеры
Хитрости и секреты
Системный подход
Размышления
Наука для чайников
Друзья сайта
Excel-это не сложно
Все о финансах
.
Генетический алгоритм. Шаг 9. Проектирование блока обучения нейросети. Часть 2. Печать E-mail
Автор megabax   
19.03.2011 г.
New Page 1

Генетический алгоритм. Шаг 9. Проектирование блока обучения нейросети. Часть 2.

Все статьи по данной теме.

В прошлый раз я разработал индикатор - нейросетевая скользящая средняя и оптимизировал весовые коэффициенты. Идея прошла предварительную проверку. Теперь будет более жесткая проверка: "а не подстройка ли это все под историю?" 

Сначала оптимизируем август 2010 год:

Генетический алгоритм. Шаг 9. Проектирование блока обучения нейросети. Часть 2.

Правда, метатрейдер ничего мне не смог оптимизировать.  Ладно, попробуем за два месяца.  На этот раз полупилось. Доходность 186,5% Вот оптимизированные параметры:

  • FastExtParam1=-0.1

  • FastExtParam2=-0.5

  • FastExtParam3=-0.5

  • FastExtParam4=0.6

  • FastExtParam5=0.1

  • SlowExtParam1=-0.5

  • SlowExtParam2=-0.5

  • SlowExtParam3=-0.1

  • SlowExtParam4=0.4

  • SlowExtParam5=-0.5

  • SlowExtParam6=0.5

  • SlowExtParam7=0.2

  • SlowExtParam8=0.7

  • SlowExtParam9=-0.3

  • SlowExtParam10=-0.3

А вот те, которые были в прошлый раз (красные - изменились значительно, синие - изменились не значительно, черные - не изменились):

  • FastExtParam1=-0.1

  • FastExtParam2=-0.5 

  • FastExtParam3=0.3

  • FastExtParam4=0.7

  • FastExtParam5=-0.1

  • SlowExtParam1=0.1

  • SlowExtParam2=0.2

  • SlowExtParam3=0.1

  • SlowExtParam4=0.3

  • SlowExtParam5=0.5

  • SlowExtParam6=-0.3

  • SlowExtParam7=0.6

  • SlowExtParam8=-0.2

  • SlowExtParam9=-0.5

  • SlowExtParam10=-0.5

Теперь смотрим доходность за октябрь (43%):

Генетический алгоритм. Шаг 9. Проектирование блока обучения нейросети. Часть 2.

 Для чистоты эксперимента протестировать с неоптимизированными параметрами. Если честно, результат меня шокировал. 78,9%:

Генетический алгоритм. Шаг 9. Проектирование блока обучения нейросети. Часть 2.


Выходит, оптимизация ухудшила результат???

Может, на одном месяце и ухудшила. Но в прошлый раз, за 7 месяцев без оптимизации стратегия показывала убыток. Так что неизвестно, что будет дальше. Продолжаем эксперимент, оптимизируем сентябрь-октябрь и тестим на ноябре. Для сравнения я свел параметры в таблицу (красные - изменилось значительно, светло-синие - незначительно, не закрашенные - без изменения):  

Параметр

август-сентябрь

сентябрь-октябрь

FastExtParam1

-0,1

0

FastExtParam2

-0,5

-0,5

FastExtParam3

-0,5

-0,3

FastExtParam4

0,6

0,2

FastExtParam5

0,1

0,7

SlowExtParam1

-0,5

0,1

SlowExtParam2

-0,5

-0,1

SlowExtParam3

-0,1

0,1

SlowExtParam4

0,4

-0,3

SlowExtParam5

-0,5

0,1

SlowExtParam6

0,5

0,4

SlowExtParam7

0,2

-0,2

SlowExtParam8

0,7

0,3

SlowExtParam9

-0,3

-0,5

SlowExtParam10

-0,3

0,2

А вот что касается доходности за ноябрь... полный (цензура). Смотрите сами (-72%):

Генетический алгоритм. Шаг 9. Проектирование блока обучения нейросети. Часть 2.

А на неоптимизированных параметрах (-2%):

Генетический алгоритм. Шаг 9. Проектирование блока обучения нейросети. Часть 2.

хотя просадка была не хилая.

Но, тем не менее, эксперимент я довел до конца. Его результаты сведены в таблицу:

Период оптимизации Период тестирования Доходность на оптимизированных параметрах, % Доходность без оптимизации
Август-сентябрь 2010 г. Октябрь 2010 г. 43 78,9
Сентябрь-октябрь 2010 г. Ноябрь 2010 г. -72 -2
Октябрь-ноябрь 2010 г. Декабрь 2010 г. 284 -91,5
Ноябрь-декабрь 2010 г. Январь 2011 г. -86,5 -91,7
Декабрь 2010 г. - Январь 2011 г. Февраль 2011 г. -34 31,5

Итого сложением:

134,5 -137,8

Как видно из таблицы, от оптимизации все же есть толк: из убыточной стратегии она сделала прибыльную. Хотя, по этой системе я бы не стал торговать - слишком большие просадки. Так что идея нуждается в доработке. Но, судя по всему, я иду в правильном направлении. Буду продолжать эксперименты. 

И напоследок привожу графики для периода тестирования "Декабрь" 2010, очень уж мне любопытные показались результаты за этот месяц. 

неоптимизированная стратегия:

Генетический алгоритм. Шаг 9. Проектирование блока обучения нейросети. Часть 2.

после оптимизации:

Генетический алгоритм. Шаг 9. Проектирование блока обучения нейросети. Часть 2.

Все статьи по данной теме.


Скриншоты, помеченные знаком*, являются цитатами и иллюстрациями  программного продукта "Metatrader 4", авторское право на который принадлежит "MetaQuotes Software Corp". 


 

 

 

Последнее обновление ( 29.06.2011 г. )
 
« След.   Пред. »
 
© 2024 Программирование - это просто
Joomla! - свободное программное обеспечение, распространяемое по лицензии GNU/GPL.
Русская локализация © 2005-2008 Joom.Ru - Русский Дом Joomla!
Design by Mamboteam.com | Powered by Mambobanner.de
Я принимаю Яндекс.Деньги