Friday 16 March 2018

숨겨진 마코프 거래 전략


숨겨진 마코프 거래 전략
App Store를 통해 가져 오기 우리의 응용 프로그램 에서이 게시물을 읽으십시오!
Gaussians을 이용한 간단한 Hidden Markov 모델의 장난감 세계에서의 최적의 거래 전략.
나는 다음과 같은 최적화 문제를 풀고 싶다 : 두 상태를 가진 Hidden Markov 모델과 알려진 transition matrix를 가진 두 Gaussian의 결과 인 시계열에 대한 최적의 일반적인 거래 전략 (가장 높은 Sharpe 비율의 의미에서)은 무엇인가? 알려진 평균 및 분산 매개 변수?
거래 전략은 내재적 인 모멘텀이나 SMA 및 변동성과 같이 쉽게 관찰 가능한 기술 지표를 기반으로하는 것이 이상적입니다. 내 직감은 이러한 계산을위한 최적의 전환 확인 기간은 전환 매트릭스에 의존해야한다는 것입니다.
나는 아이디어, 문학, 코드 (이상적으로 R :-) 등등에 대해 (평소와 같이) 감사 드린다.
기술적 인 지표가 질문과 어떤 관련이 있는지 이해할 수 없습니다. 국가 확률은 모형이 알려져 있다면 수익률로부터 직접 생성 될 수있다. 기술 지표를 기반으로 휴리스틱 트레이싱 규칙을 추측 할 필요가 없습니다.
$ r_t $를 시간 $ t $의 수익으로합시다. 귀하의 모델은입니다.
즉, 상태는 마르코프이고 반환 값은 어느 평균 상태의 알려진 평균, 분산으로 정상입니다. 우리가 시간 $ t $에 서 있다고 가정 해보십시오. 먼저 $ P를 결정할 필요가 있습니다. r_0 \> = p_t $. 역방향 알고리즘 인 역방향 프로그래밍을 사용하고 대부분의 HMM 패키지에서 구현됩니다.
이제 $$ E \ = p_t \ mu_0 + (1-p_t) \ mu_1 $$ 및 $$ Var \ = p_t \ sigma_0 ^ 2 + (1-p_t) \ sigma_1 ^ 2. $$
이제 Sharpe를 최대화하기 위해 $ x $의 위치를 ​​선택해야합니다.
이것은 평균 분산 문제와 동일합니다 (최대 배율 인수까지).
$$ \ min_x \ \>, $$ 여기서 $ \ Sigma $는 $ Var \, t = 0,1 인 대각 행렬입니다. 대각선상의 T $와 $ \ bar = E \ $. 이 사실을 증명하는 것은 모순이다. 평균 분산 문제인 $ x ^ * $에 대한 해가 아닌 Sharpe가 높은 $ x $가 있다고 가정합니다. 우리는 $ \ alpha \ bar 'x = \ bar'x ^ * $가되도록 양의 상수 $ \ alpha $로 $ x $을 확장 할 수 있습니다. 동시에, 우리는 $$ \ alpha \ sqrt & lt; \ sqrt $$ 왜냐하면 $ x ^ * $는 Sharpe-optimal가 아니기 때문입니다. 양측을 squaring 제공합니다.
$ \ alpha x $가 같은 평균과 엄격하게 낮은 분산을 갖는다는 사실은 $ x ^ * $가 해답이라는 가정과 모순됩니다. 따라서 우리는 평균 분산 솔루션이 항상 Sharpe optimal임을 결론 내립니다. 보다 일반적인 문제 (예 : 제약 조건)에서이 동등성이 반드시 유지되는 것은 아닙니다. 이제 평균 분산 문제 (미분 및 0으로 설정)에 대한 해답은 $ \ frac \ Sigma ^ \ bar $입니다. 그러나 시간 $ t $에서 우리는 $ x_t $ 이외의 것을 걱정할 필요가 없습니다. 현재 예상과 관련하여 미래의 시간에 대해 $ x $를 계산하는 것이 가능하지만 실제로는 다음 반환을 관찰하고 $ x_ $를 다시 계산 한 후 앞으로 - 뒤로 알고리즘을 다시 실행하는 것이 좋습니다. 따라서 최적의 솔루션은 $ \ frac>> $에 비례하여 베팅하는 것입니다. 이것은 $$ x_t \ sqrt> = \ frac> >>이되도록 $$ \ frac>> \ frac >> $$와 같은 직관적 인 해석을합니다. 즉, $$ ie 각각의 예상 Sharpe에 비례하여 위험을 감수합니다. 시각.
거래 비용이있는 경우 미래의 평균과 차이를 고려해야하기 때문에 문제는 더 어렵지 만 효과적입니다.

숨겨진 마코프 거래 전략
다양한 시장 상황이 전략의 성과에 어떤 영향을 미치는지 아는 것은 수익에 커다란 영향을 줄 수 있습니다.
특정 전략은 변동이 심하고 고르지 않은 시장에서 잘 수행 될 것이고, 다른 전략은 강하고 부드러운 추세가 필요하거나 장기간의 수익 감소의 위험이 있습니다. 전략 거래를 시작하거나 중지해야하는시기를 파악하고 위험 및 금전 관리 기법을 조정하며 입국 및 출국 조건의 매개 변수를 설정하는 작업은 모두 시장 또는 현재 상태에 따라 다릅니다.
다른 시장 체제를 식별하고 이에 따라 전략을 변경하는 것이 시장에서의 성공과 실패의 차이를 의미 할 수 있습니다. 이 기사에서 우리는 “ 숨겨진 마르코프 모델로 알려진 기계 학습 알고리즘의 강력한 클래스를 사용하여 다른 시장 체제를 식별하는 방법을 모색 할 것입니다.
숨겨진 마르코프 모델.
마르코프 모델은 현재 상태를보고 다음 상태를 예측하는 확률 과정입니다. 간단한 예는 날씨를 보는 것입니다. Let†™ s는 우리가 3 개의 기상 조건 (일컬어 “states” 또는 “regimes”)를 가지고 있다고 말한다 : 비가 오는 것, 흐리고, 그리고 양지 바른. 오늘 비가 오면 Markov Model은 각각의 기상 조건이 발생할 확률을 찾습니다. 예를 들어, 내일 비가 내릴 확률이 높을 수도 있고, 구름이 될 확률이 약간 낮을 수도 있고 햇살을받을 확률이 낮을 수도 있습니다.
이것은 매우 간단한 과정처럼 보이지만 복잡성은 각 체제 변화의 가능성을 알지 못하고 시간이 지남에 따라 변하는 이러한 확률을 어떻게 설명 할 것인가에 달려 있습니다. 이것은 HMM (Hidden Markov Model)이 작동하는 곳입니다. 그들은 각 체제에 대한 전이 확률을 추정 할 수 있고, 현재의 상황에 기초하여 가장 가능성있는 체제를 산출한다.
거래 할 응용 프로그램은 매우 명확합니다. 기상 조건 대신에 우리는 정권을 강세, 약세 또는 횡재 시장, 높거나 낮은 변동성, 또는 우리가 전략의 성과에 큰 영향을 줄 것이라는 것을 알 수있는 요인들의 조합으로 정의 할 수 있습니다.
실제 데이터를 R로 모델링하기.
우리는 우리의 거래 전략을 최적화하는 데 사용할 수있는 이러한 요소들을 기반으로 다른 시장 체제를 찾고 있습니다. 이렇게하려면 2012 년으로 거슬러 올라가는 EUR / USD 일별 차트뿐만 아니라 we†™ ll은 depmixS4 R 라이브러리를 사용합니다.
첫째, let†™ s는 도서관을 설치하고 R에있는 우리의 자료 세트를 건설한다.
데이터 세트를로드하고 (여기에서 다운로드 할 수 있음) 시계열 객체로 변환합니다.
이제 숨겨진 마르코프 모델을 만들 차례입니다!
전이 행렬은 한 상태에서 다음 상태로 이동할 확률을 나타냅니다.
Let†™ s는 우리가 찾아낸 무슨을 본다 :
각 체제의 확률 :
우리가 볼 수있는 것은 체제 3은 변동성이 크고 규모가 큰 경향이 있고, 체제 2는 중간 변동성이 특징이며, 체제 1은 변동성이 낮음을 의미한다.
귀하의 전략에 응용 프로그램.
HMM을 거래에 적용하는 방법에는 여러 가지가 있습니다. 가장 간단한 방법은 정권과 전략 수행간에 관계가 있는지 확인하여 그에 맞게 조정하는 것입니다. 정권을 기반으로 전략의 매개 변수를 조정할 수도 있습니다. 예를 들어, 이익 규모가 크고 변동성이 큰 경우 손실을 막을 수 있습니다. 다른 정권에 대한 독특한 전략을 창출 할 수있는 옵션도 있습니다.
숨겨진 마르코프 모델은 변화하는 시장 상황에 대한 통찰력을 제공하는 강력한 도구입니다. 그들은 전략의 성능을 크게 향상시킬 수있는 광범위한 응용 프로그램을 보유하고 있습니다.
TRAIDE에서 기계 학습을 거래에 적용하는 다른 방법을 살펴보십시오!

양적 거래.
양적 투자 및 거래 아이디어, 연구 및 분석.
2012 년 3 월 3 일 토요일.
FX 예측에 적용된 숨겨진 마르코프 모델.
35 개의 댓글 :
그 점을 지적 해 주셔서 감사합니다. 실제로 오타가 원래의 프리 프린트에 있었기 때문에 복사 한 것입니다!
당신의 퀀트 능력에 의문을 품지는 않지만, 당신은 그 많은 파라미터를 가진 모델을 거래에 적용 할 수 있는지를 진지하게 제안하고 있습니까? 14 년 넘게 업계 경험을 쌓고 자신의 중반에서 회사를 운영하는 퀀트 트레이더라고합니다. 나에게이 종이는 절대 존재하지 않으며 언급 된 Sharpe 비율은 자신의 "out of sample"에서도 너무 낮다. 그런 종이를 진지하게 받아들이는 것을 정당화하는 백 테스팅.
사실, 16 개의 매개 변수는 소리가 나는만큼 많지 않습니다. 그 중 14 개는 시계열 자체를 맞추기위한 것으로, 거래 전략과는 독립적입니다. 전략 반환을 최적화하는 데 사용되는 매개 변수는 2 개뿐입니다.
아니요, 정권 전환 모델을 사용하지 않았습니다. 나는이 모델들이 샘플 밖에서 작동한다는 것을 결코 발견하지 못했다.
아니, 나는 그 종이를 보지 못했지만 그것을 나의 독서 목록에 넣을 것이다!
학문적 관점에서 말하면, 평범한 HMM 대신에 아마도 Maximum Entropy Hidden Markov Model과 같은 것이 더 잘 작동 할 것입니까?
왜 최대 엔트로피 HMM이 더 잘 작동 할 것이라고 생각합니까? 매개 변수를 추정하는 또 다른 방법 인 것 같습니다.
나는 경험적 증거가 없으며 재정적 인 예측이 정말로 나의 전문 분야가 아니다. 금융 예측을 위해 기계 학습을 사용하려는 몇 가지 시도에서 소음의 양은 시장에서 발생할 수있는 모든 추세를 휩쓸어 버리는 경향이 있다는 것을 알게되었습니다. 결과적으로 대부분의 학습자는 실제로 훈련 데이터에 과도하게 적합하기 때문에 실제로 제대로 수행하지 않는 경향이 있습니다.
나는 현재 "양적 거래"라고 불리는 귀하의 책을 읽고 있으며, 이미 프로그래밍을 마쳤으며 백 테스트를 위해 수학을 시도했습니다. 그러나 결과는 MetaTrader 전략 테스터 / 최적화와 다릅니다.
1) 최소 삭감.
Matlab의 결과가 Metatrader와 다르다고 말하면 더 구체적으로 표현할 수 있습니까? 당신은 2 개의 프로그램에있는 논리가 동일하다는 것을 확신합니까?
Sharpe 비율은 여전히 ​​어떤 프로그램에도 적용될 수 있다고 생각했습니다. 정말로 Mathlab에만 국한되어 있습니까?
Ernie Chan은 말했다.
Matlab의 결과가 Metatrader와 다르다고 말하면 더 구체적으로 표현할 수 있습니까? 당신은 2 개의 프로그램에있는 논리가 동일하다는 것을 확신합니까?
예, 데이터 준비에서 오류가 차이를 유발 한 원인 일 가능성이 큽니다. Metatrader에서 데이터는 프로그램의 일부로 설치됩니다. 그러나 Matlab은 계산기와 마찬가지로 일반적인 컴퓨팅 플랫폼입니다. Matlab에 입력 할 데이터를 준비 할 때는 매우 신중해야합니다.
안녕하세요, 여러분의 의견에 진심으로 감사드립니다. 누군가가 나를 도와 시간에 대한 그의 플러그인으로 나를 도와주고 수학 준비 시간에 아주 약간의 오류가있었습니다. 여전히 결과는 일관성이 없습니다. 그러나 놀랍게도 Sharpe Ratio는 상위 5 개 드로우 다운 패스의 거의 동일한 값입니다! 그러나 이익의 점에서, 아닙니다.
네가 벌레를 발견해서 다행이다. Matlab과 MT에서 프로그래밍 로직이 동일하다면 결과 데이터가 다를 수있는 유일한 이유는 입력 데이터가 잘못되었다는 것입니다.
양적 무역 수업을 가르치기 위해 언제 미국에 오십니까?
Technical Analyst 지의 워크샵 주최자가 결정합니다. 관심이 있으시면 trainingtechnicalanalyst. co. uk에서 뉴욕 또는 시카고 워크샵을 요청하십시오.
통화 거래 커뮤니티에 블로그 링크를 게시 하시겠습니까? 회원 여러분 께 감사드립니다.
회원에는 다음이 포함됩니다 : 통화 거래자, 통화 및 외환 거래 전문가 및 전문가.
이렇게하면 링크를 잘라내어 붙여 넣기 만하면 자동으로 다시 웹 사이트로 연결됩니다. 원한다면 기사, 뉴스 및 비디오를 추가 할 수도 있습니다.
당신이 어떤 도움이 필요하거나 당신을 위해 그것을 해주길 원한다면 나에게.
부담없이 자주 공유하십시오.
통화 거래 커뮤니티 : vorts / 통화 /
나는 우리와 함께 나누기를 바랍니다.
James Kaufman, 편집자.
나는 당신이 사용하는 특정 MATLAB 함수 (익숙한 패키지를 대신 사용함)에 익숙하지 않지만 일반적으로 말하자면 다음 측정 변수를 예측하기를 원한다면 그렇게하는 것이다. 다른 애플리케이션에서, 거래자는 상태 변수 (예를 들어, 직접 볼 수없고 따라서 "숨겨진"헤지 비율)에 더 관심이 있고, 상태 변수 예측이 포커스 일 것이다.
감사합니다 어니. 이러한 기능은 Matlab Statistics toolbox에서 제공합니다. 거기에 5 가지 기능이 있습니다.
상태 변수 예측에 대한 귀하의 의견과 관련하여 현실은 우리가 국가가 무엇이며 그 중 얼마나 많은 국가가 있어야하는지 전혀 알지 못합니다. 그래서 사람들은 단지 "Sunny, Rainy, Cloudy"와 같은 임의의 상태를 가정합니다. 즉 (RiskOn, RiskOff, RiskNeutral) 유형 시나리오.
상태 변수가 무엇인지 결정하기 위해 종종 도메인 지식이 필요합니다. 즉, 모델을 제약하기 위해 HMM 이상이 필요합니다. 좋은 예가 제 3 권의 신간 서적에 있습니다. 이 책은 공적분하는 ETF 쌍의 헤지 비율을 찾기 위해 HMM을 사용하는 방법을 보여줍니다. 이 경우 선택된 상태 변수는 전혀 임의적이지 않습니다. 또한, 이 경우 목표는 다음 측정을 예측하는 것이 아니라 선택할 수 있습니다.
전에 실제로이 신문을 읽었습니다. 사실 일부 공동 작업자와 저는 결과를 복제하여 더 많은 주식으로 확장하려고했습니다. 노력은 실패 였고, 규칙을 직접 배우는 기계 학습 기술은 거래에 적합하지 않다고 생각했습니다.
이건 재미 있네. 나는 markov 모델의 나의 버전을 구현했고 backtests는 누적 거래 기간 인 5 년 동안 매시간 거래 기간 동안 평균 66 %의 승리율을 보였다. 그런 다음이 결과에 ppmc 방법을 적용하여 평균 83 %의 승리율을 기록했습니다. 실제 거래의 관점에서 저는 7 개월 동안 거래되었으며, 두 가지 방법 모두를 사용하여 평균 승리율이 69 %입니다. 시간이 갈수록 좋아지고 변화하는 시장 상황에 맞게 적응하여 자신감을 얻습니다. 어쨌든이 일을하는 것이 가능하다고 말하는 것뿐입니다.
HMM 모델의 성공 사례를 보내 주셔서 감사합니다!
PPMC, 입자 필터 몬테 카를로를 의미합니까?
책에서 & quot; 간격으로 구매 & quot; 라이브 거래 전략.
사전 개회 세션에서 하나 이상의 악기에 대한 거래 / 견적이없는 경우 어떻게 처리합니까?
이력 데이터를 분석하면이 경우가 때로는 사실입니다. 거래 / 따옴표가 있지만 너무 오래 걸리는 경우 다른 문제가 발생합니다. 예를 들어 타임 스탬프는 오전 8시 55 분과 같습니다.
도움을 주신 데 대해 감사드립니다.
책에서 & quot; 간격으로 구매 & quot; 라이브 거래 전략.
사전 개회 세션에서 하나 이상의 악기에 대한 거래 / 견적이없는 경우 어떻게 처리합니까?
이력 데이터를 분석하면이 경우가 때로는 사실입니다. 거래 / 따옴표가 있지만 너무 오래 걸리는 경우 다른 문제가 발생합니다. 예를 들어 타임 스탬프는 오전 8시 55 분과 같습니다.
도움을 주신 데 대해 감사드립니다.
모든 intraday backtesting은 거래 대신 따옴표로 처리해야합니다.
음, 주제 / 연구가 돈을 만드는 기회와 직접 관련이있다면 어떤 종류의 유용한 피드백 / 기여도 기대하는 것이 전혀 의미가 없습니다. 바보는 공헌하고 현명하게 돈을 벌 수 있습니다.
누군가가 일하는 아이디어를 가지고 있으면 검증하기가 매우 쉽다. 돈을 벌어 라. 대안은 기여하고 멋진 이야기를 많이하는 것입니다.

QuantStart.
빠르게 성장하는 소매점 퀀텀 트레이더 커뮤니티를 지원하는 Quantcademy 개인 회원 포털에 가입하십시오. 당신은 당신의 가장 중요한 퀀트 트레이딩 질문에 대답 할 준비가되어있는 지식이 풍부하고 마음이 맞는 퀀트 트레이더 그룹을 찾을 수 있습니다.
퀀트 트레이딩에 관한 나의 eBook을 확인해보십시오. 여기서 저는 파이썬 툴로 수익성 높은 체계적인 트레이딩 전략을 만드는 법을 가르쳐드립니다.
Python 및 R을 사용하여 시계열 분석, 기계 학습 및 베이지안 통계를 사용하는 고급 거래 전략에 관한 새로운 전자 책을 살펴보십시오.
2016 년 9 월 5 일 Michael Halls-Moore
양적 거래자에 대한 일관된 도전은 정부 정책, 규제 환경 및 기타 거시 경제 효과의 변화주기로 인해 갑작스럽게 금융 시장의 빈번한 행동 수정입니다. 그러한 기간은 구어체로 "시장 정권"으로 알려져 있으며 이러한 변화를 감지하는 것은 양적 시장 참여자가 착수하는 어려운 과정 임에도 불구하고 일반적입니다.
이러한 다양한 제도는 수단, 변동 / 변동성, 순차적 상관 관계 및 공분산의 이동을 통한 자산 수익의 조정으로 이어진다. 이는 연속성에 의존하는 시계열 방법의 효과에 영향을 미친다. 특히 동적으로 변하는 상관 관계, 과도한 첨도 ( "꼬리 꼬리"), 이질 연성 (직렬 상관 관계의 클러스터링) 및 기울어 진 수익률로 이어질 수 있습니다.
이는 양적 거래 전략의 전개를 최적으로 선택하고 그 내에서 매개 변수를 최적화하기 위해 이러한 체제를 효과적으로 탐지하고 분류 할 필요성을 자극합니다. 모델링 작업은 새로운 체제가 언제 발생했는지 식별하고 전략 배치, 위험 관리 및 위치 크기 조정 기준을 적절하게 조정하려는 시도가됩니다.
정권 탐지를 수행하는 주된 방법은 Hidden Markov Model [2]로 알려진 통계적 시계열 기법을 사용하는 것입니다. 이러한 모델은 이러한 프로세스와 관련된 "잡음이 많은"간접적 인 관찰을 통해 "숨겨진"생성 프로세스에 대한 추론을 포함하므로 작업에 매우 적합합니다. 이 경우 숨겨진 또는 잠복 된 프로세스가 기본 정권 상태 인 반면 자산 반환은 이러한 상태의 영향을받는 간접적 인 소음 관측입니다.
이 기사 시리즈에서는 숨겨진 마르코프 모델 (HMM)의 수학적 이론과 정량적 거래 목적을위한 정권 탐지 문제에 어떻게 적용 할 수 있는지에 대해 설명합니다.
논의는 시스템에 대한 많은 정보뿐만 아니라 시스템의 자율 수준에 따라 달라지는 마르코프 모델 (Markov Model) [1]의 개념과 관련 분류를 소개함으로써 시작될 것이다. 이 논의는 부분적으로 관찰 가능한 정보가있는 자율적 인 프로세스로서 HMM의 아키텍처에 특히 초점을 맞출 것이다.
다른 상태 공간 모델과 칼만 필터에 대한 이전 논의와 마찬가지로, 필터링, 평활화 및 예측의 추론 개념이 요약 될 것이다. 이러한 작업을 수행하는 Forward Algorithm [6]과 Viterbi Algorithm [7]과 같은 특정 알고리즘은 알고리즘 유도보다는 HMM을 금융에 적용하는 애플리케이션에 확실하게 의존하기 때문에 제시하지 않을 것이다.
후속 기사에서 HMM은 정권을 탐지하기 위해 다양한 자산에 적용될 것입니다. 이러한 탐지 오버레이는 "리스크 관리자"를 통해 정량적 거래 전략 세트에 추가됩니다. 이것은 알고리즘 거래 성능이 정권 탐지의 유무에 따라 어떻게 변하는 지 평가하는 데 사용됩니다.
마르코프 모델.
숨겨진 마르코프 모델에 대한 논의 이전에, 마르코프 모델의 더 넓은 개념을 고려할 필요가있다. 마르코프 모델은 점프의 확률이 이전 상태 중 하나가 아닌 현재 상태에만 의존하는 상태 사이에서 무작위 변환을 포함하는 확률 적 상태 공간 모델입니다. 모델은 Markov Property를 소유하고 있으며 "기억이 없다"고합니다. 랜덤 워크 모델은 마르코프 모델의 또 다른 익숙한 예입니다.
마르코프 모델은 시스템의 자율성과 시스템에 대한 정보의 전체 또는 일부가 각 주에서 관찰 될 수 있는지에 따라 네 가지의 광범위한 모델로 분류 될 수 있습니다. Wikipedia [1]의 Markov Model 페이지는 이러한 차이점을 설명하는 유용한 매트릭스를 제공하며 여기에서 반복됩니다.
가장 단순한 모델 인 Markov Chain은 자율적이며 완전히 관찰 가능합니다. 통제 된 프로세스에서와 같이 "에이전트"의 작업으로 수정할 수 없으며 모든 정보는 모든 상태의 모델에서 사용할 수 있습니다. 마르코프 체인의 좋은 예는 계산 베이지안 추론에 많이 사용되는 마르코프 체인 몬테 카를로 (MCMC) 알고리즘입니다.
모델이 여전히 완전히 자율이지만 부분적으로 만 관찰 가능한 경우 숨겨진 마코프 모델이라고합니다. 그러한 모델에는 근원적 인 잠복 상태 (그리고 그것들 사이의 확률 전이)가 있지만 직접 관측 가능하지 않고 "관측"에 영향을 미친다. 중요한 점은 잠재 국가가 Markov Property를 소유하고있는 반면 관찰 국가는 그렇게 할 필요가 없다는 것입니다. 양적 금융 이외의 HMM의 가장 보편적 인 사용은 음성 인식 분야입니다.
일단 시스템이 에이전트에 의해 "제어"되면, 그러한 프로세스는 감독 학습과 감독되지 않는 학습과 함께 기계 학습의 세 번째 "기둥"으로 간주되는 강화 학습 (RL)의 제목 아래에옵니다. 시스템이 완전히 관찰 가능하지만 제어가 가능하다면이 모델을 Markov Decision Process (MDP)라고합니다. 관련 기술은 Markov Decision Process 모델 하에서 에이전트에 대한 행동 선택 정책을 최적화하는 데 사용되는 Q-Learning [11]로 알려져 있습니다. 2015 년 Google DeepMind는 Atari 2600 비디오 게임을 화면 버퍼에서만 재생할 수있는 최적의 에이전트를 만들기 위해 Deep Reinforcement Networks 또는 Deep Q Networks의 사용을 개척했습니다.
시스템이 통제되고 부분적으로 만 관찰 가능하다면 그러한 보강 학습 모델을 부분 관찰 Markov Decision Processes (POMDP)라고합니다. 고차원적인 POMDP를 해결하는 기술은 현재 많은 학술 연구의 주제입니다. OpenAI의 비영리 팀은 OpenAI Gym [13]이라는 새로운 RL 에이전트를 직접 테스트 할 수 있도록 이러한 문제를 조사하는 데 상당한 시간을 할애하고 오픈 소스 툴킷 또는 "gym"을 출시했습니다.
불행히도 강화 학습은 MDP 및 POMDP와 함께이 기사의 범위에 포함되지 않습니다. 그러나 그들은 특히 깊은 학습에 대한 기사 시리즈가 개발되면서 이후 기사의 주제가 될 것입니다.
이 기사에서 연속 시간 Markov 프로세스는 고려되지 않는다는 점에 유의하십시오. 양적 거래에서 시간 단위는 흔히 과거 자산 데이터의 틱이나 바를 통해 부여됩니다. 그러나 파생 상품 계약의 가격을 책정하는 것이 목표라면 확률 적 계산의 연속 시간 기계가 활용 될 것입니다.
Markov Model 수학적 규격.
이 섹션과 숨겨진 마르코프 모델 수학 스펙은 Murphy (2012) [8]의 표기법 및 모델 스펙을 자세히 따릅니다.
양적 금융에서 시계열에 대한 분석은 종종 주요 관심사입니다. 이러한 시계열은 일반적으로 $ T_1 불연속 관측치 $ X_1, \ ldots, X_T $의 연속으로 구성됩니다. Markov Chain 모델에 대한 중요한 가정은 언제든지 $ t $에서 관측 $ X $ $은 미래 상태에 대한 예측을하기 위해 필요한 모든 정보를 포착한다는 것입니다. 이 가정은 다음 사양에서 사용됩니다.
확률 론적 틀에 마르코프 연쇄를 공식화하면 관측치를 볼 확률에 대한 관절 밀도 함수를 다음과 같이 쓸 수 있습니다.
X_ \ mid X_1) \ prod ^ _ p (X_ \ mid X_1) \ p (X_1) \ p (X_1) 종료.
이것은 관찰 결과의 시퀀스를 볼 확률은 초기 관찰의 확률을 $ T-1 $ 곱한 후 이전 관찰이 발생한 경우 후속 관찰을 보는 조건부 확률로 주어진다. 이 기사에서 후자의 용어는 전이 함수로 알려져 있으며, $ p (X_t \ mid X_) $는 그 자체로 시간에 독립적입니다.
또한, 이 시리즈에서 고려한 시장 체제 모델은 작고 이산적인 수의 국가 (또는 "주")로 구성되므로, 고려중인 모델의 유형을 이산 상태 마르코프 체인이라고합니다 (DSMC).
따라서 모델이 $ t $에있을 수있는 $ K $ 별도의 가능한 상태 또는 체제가있는 경우 전환 함수는 상태 $ j $에서 상태로 전환 할 확률을 설명하는 전환 행렬로 작성할 수 있습니다 언제든지 $ t $. 수학적으로, 전이 행렬 $ A $의 원소는 다음과 같이 주어진다.
\ begin A_ = p (X_t = j \ mid X_ = i) \ end.
예를 들어 단순한 두 가지 상태의 마르코프 체인 모델을 고려하는 것이 가능합니다. 다음 다이어그램에서는 번호가 매겨진 상태를 원으로 나타내고 호는 상태에서 상태로 점프 할 확률을 나타냅니다.
2 단계 마코프 체인 모델.
확률은 각 상태, 즉 $ \ alpha + (1 - \ alpha) = 1 $의 단위로 합계됩니다. 이 시스템에 대한 전이 행렬 $ A $는 다음에 의해 주어진 $ 2 \ times 2 $ 행렬입니다.
\ begin A = \ left (\ begin 1- \ alpha & \ alpha \\ \ beta & 1- \ beta \ end \ right) \ end.
일반적인 DSMC 모델의 $ n $ 단계를 시뮬레이트하기 위해 $ n $ 단계 전이 행렬 $ A (n) $을 다음과 같이 정의 할 수 있습니다.
$ A (n) = A (m) A (n) $ 따라서 $ A (n) = A (1) ^ n $임을 쉽게 알 수있다. 즉, DSMC 모델의 $ n $ 단계는 전환 행렬을 반복적으로 곱하여 시뮬레이션 할 수 있습니다.
숨겨진 마르코프 모델.
숨겨진 마르코프 모델은 직접 관찰 할 수있는 것이 아니라 현재 상태가 "숨겨져있는"마르코프 모델입니다. 대신 직접적으로 볼 수있는 상태와 관련된 일련의 출력 관찰이 있습니다. 양적 금융에 대한 구체적인 예를 들어 국가를 숨겨진 "정권"으로 생각할 수 있습니다. 이 상태에서 시장은 행동하는 반면 관찰은 직접적으로 볼 수있는 자산 수익입니다.
마르코프 모델에서는 관측치에 관절 밀도 함수를 생성하기 만하면됩니다. 시간에 영향을받지 않는 천이 행렬을 지정하여 모델의 전체 시뮬레이션을 허용했습니다. 숨겨진 마르코프 모델의 경우, 고립 상태 집합 $ z_t \ in \ $를 생성 할 필요가있다 (정권 탐지의 목적을 위해 종종 $ K \ leq 3 $ 만 가질 필요는 있지만). 그리고 추가 확률로 관측치를 모델링한다 모델, $ p (_t \ mid z_t) $. 즉, 국가 (시장 체제)가 현재 $ z_t $와 같다고 가정하면 특정 관찰 (자산 수익률)을 보는 조건부 확률입니다.
특정 상태 및 관측 전이 확률에 따라 숨겨진 마코프 모델은 특정 상태에 머무르고 갑자기 새로운 상태로 점프하고 얼마 동안 그 상태를 유지합니다. 이것은 시장 체제에 적용하려고 할 때 그러한 모델에서 바라는 행동입니다. 체제 자체가 너무 빨리 변할 것으로 예상되지는 않는다 (규제 변화 및 기타 느린 움직이는 거시 경제 효과를 고려). 그러나 그들이 변화를하면 얼마 동안 지속될 것으로 예상됩니다.
숨겨진 마르코프 모델 수학 사양.
HMM에 대한 해당 조인트 밀도 함수는 다음과 같이 주어진다. (Murphy (2012) [8]의 표기법을 다시 사용)
첫 번째 줄에서 이것은 숨은 상태와 관측치의 전체 집합을 보는 확률은 숨은 상태에 관측 가능성을 곱한 상태를 상태에 조건부로 단순히 표시 할 확률과 같습니다. 관측치가 주에 영향을 줄 수는 없으므로 의미가 있지만 감춰진 주정부는 관측치에 간접적으로 영향을 미칩니다.
두 번째 줄은이 두 분포를 천이 함수로 나눕니다. 상태에 대한 전이 함수는 $ p (z_t \ mid z_) $에 의해 주어지며 관측치에 대한 전이 함수는 $ p (_t \ mid z_t) $에 의해 주어진다.
위의 Markov Model의 설명에서와 같이, 이 기사의 목적 상 주와 관측 천이 함수는 모두 시간에 영향을받지 않는다고 가정합니다. 이는 모델의 해당 구성 요소에 대한 Markov Model을 사용하여 $ K \ times K $ state 전이 행렬 $ A $을 이전과 동일하게 활용할 수 있음을 의미합니다.
그러나 여기에서 고려 된 적용, 즉 자산 수익률의 관측에 대한 값은 실제로 연속적입니다. 이는 관측 전이 함수의 모델 선택이 더 복잡하다는 것을 의미합니다. 일반적인 선택은 mean $ _k $ 및 covariance $ _k $가있는 조건부 다 변수 가우스 분포를 사용하는 것입니다. 이것은 다음과 같이 공식화됩니다.
즉, 상태 $ z_t $가 현재 $ k $와 같으면 모델 $ \ theta $의 매개 변수가 주어지면 관측 $ _t $를 볼 확률은 다 변수 Guassian으로 분산됩니다.
이것을 좀 더 명확하게하기 위해 다음 다이어그램은 상태 $ z_t $의 진화와 그것이 관측의 진화에 간접적으로 어떻게 기여 하는지를 보여줍니다. $ _t $ :
숨겨진 마르코프 모델의 필터링.
조인트 밀도 함수를 지정하면 모델의 활용 방법을 고려해야합니다. 일반적으로 상태 공간 모델링에는 관심 대상의 세 가지 주요 작업 인 필터링, 평활화 및 예측이 있습니다. 상태 공간 모델과 칼만 필터에 대한 이전 기사에서는이를 간단히 설명합니다. 그들은 완전을 위해 여기에 반복 될 것입니다 :
예측 - 상태의 후속 값 예측하기 필터링 - 과거 및 현재 관측으로부터 상태의 현재 값을 추정한다. 평활화 - 관측치가 주어진 상태의 과거 값을 추정한다.
필터링과 스무딩은 비슷하지만 동일하지는 않습니다. 매끄럽게하기 (Smoothing)는 현재의 지식을 토대로 과거에 어떤 일이 일어 났는지 이해하고자하는 것과 관련이 있습니다. 필터링은 현재 상태와 관련이 있습니다.
필터링, 평활화 및 예측을 위해 개발 된 알고리즘을 자세히 설명하는 것은이 기사의 범위를 벗어납니다. 이 기사 시리즈의 주요 목표는 숨겨진 마코프 모델을 정권 탐지에 적용하는 것입니다. 따라서 당면한 과제는 현재까지 이용 가능한 자산 수익을 활용하는 현재의 "시장 체제 상태"가 무엇인지 판단하는 것입니다. 따라서 이것은 필터링 문제입니다.
수학적으로 시간 $ t $에 대한 상태의 조건부 확률이 시간 t $까지 관측 대상이됩니다. 여기에는 $ p (z_t \ mid _) $를 결정하는 작업이 포함됩니다. 칼만 필터와 마찬가지로, HMM에서 필터링을 달성하기 위해 베이 즈 규칙을 재귀 적으로 적용 할 수 있습니다.
다음 단계.
시리즈의 두 번째 기사에서는 금융 자산에 대한 정권 탐지가 심도있게 논의 될 것입니다. 또한 Python 언어의 라이브러리는 역사적 자산 반환에 적용되어 정량적 거래를위한 위험 관리 도구로 궁극적으로 사용될 정권 탐지 도구를 생산합니다.
서지 정보.
Wikipedia [1], [2], [3], [4]에 소개 된 기사에서 숨겨진 마르코프 모델 (및이를 해결하는 알고리즘)을 비롯하여 마르코프 모델 (다양한 분류뿐만 아니라)의 개요를 볼 수 있습니다. , [5], [6], [7].
멀 티 (Murphy, 2012) [8]는 음성 인식 문제 및 Google PageRank 알고리즘에 대한 응용 프로그램과 함께 숨겨진 마르코프 모델에 대한 매우 상세한 교과서 수학 개요를 제공합니다. Bishop (2007) [8]은 HMM과 Forward-Backward 및 Viterbi Algorithms에 대한 Maximum Likelihood Estimate (MLE)의 유도를 포함하여 Murphy (2012)와 유사한 근거를 다루고있다. 이 논의는 선형 동적 시스템과 입자 필터로 끝난다.
참조.
양적 거래 시작하기?
QuantStart 목록을 구독해야하는 3 가지 이유 :
1. 퀀트 트레이딩 레슨.
계량 거래를 시작하는 데 도움이되는 힌트와 팁으로 가득한 무료 10 일간 코스에 즉시 액세스 할 수 있습니다!
2. 모든 최신 내용.
매주 나는 퀀트 스타트에서 모든 활동의 포장을 보내드릴 것입니다. 그래서 당신은 결코 다시 글을 놓치지 않을 것입니다.
현실감 넘치는 퀀 트레이딩 팁.

No comments:

Post a Comment