├── nlpStrategy ├── image │ └── love.jpg ├── main.py ├── readme.md ├── requirements.txt ├── s ├── static │ ├── simheittf │ │ └── simhei.ttf │ └── stopwords.txt ├── test.1.py └── test.py ├── readme.md └── svmStrategy └── svmStrategy.m /nlpStrategy/image/love.jpg: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/yutiansut/QUANTAXIS_Strategy/fda6454ce6150825f26e88d20fa295c24293ea76/nlpStrategy/image/love.jpg -------------------------------------------------------------------------------- /nlpStrategy/main.py: -------------------------------------------------------------------------------- 1 | # coding: utf-8 2 | from os import path 3 | import numpy as np 4 | import matplotlib.pyplot as plt 5 | # matplotlib.use('qt4agg') 6 | from wordcloud import WordCloud, STOPWORDS 7 | import jieba 8 | import pymongo 9 | 10 | class WordCloud_CN: 11 | ''' 12 | use package wordcloud and jieba 13 | generating wordcloud for chinese character 14 | ''' 15 | 16 | def __init__(self, stopwords_file): 17 | self.stopwords_file = stopwords_file 18 | self.text=text 19 | 20 | @property 21 | def get_stopwords(self): 22 | self.stopwords = {} 23 | f = open(self.stopwords_file, 'r') 24 | line = f.readline().rstrip() 25 | while line: 26 | self.stopwords.setdefault(line, 0) 27 | self.stopwords[line.decode('utf-8')] = 1 28 | line = f.readline().rstrip() 29 | f.close() 30 | return self.stopwords 31 | 32 | @property 33 | def seg_text(self): 34 | seg_generator = jieba.cut(self.text) 35 | self.seg_list = [ 36 | i for i in seg_generator if i not in self.get_stopwords] 37 | self.seg_list = [i for i in self.seg_list if i != u' '] 38 | self.seg_list = r' '.join(self.seg_list) 39 | return self.seg_list 40 | 41 | def show(self): 42 | # wordcloud = WordCloud(max_font_size=40, relative_scaling=.5) 43 | wordcloud = WordCloud(font_path=u'./static/simheittf/simhei.ttf', 44 | background_color="black", margin=5, width=1800, height=800) 45 | 46 | wordcloud = wordcloud.generate(self.seg_text) 47 | print wordcloud 48 | print self.seg_text 49 | plt.figure() 50 | plt.imshow(wordcloud) 51 | plt.axis("off") 52 | plt.show() 53 | 54 | if __name__ == '__main__': 55 | stopwords_file = u'./static/stopwords.txt' 56 | client = pymongo.MongoClient(host="127.0.0.1", port=27017) 57 | db = client['wsc'] 58 | coll=db['articles'] 59 | strings ="" 60 | for content in coll.find({"poster":"王维丹"}): 61 | urlx=content['content'] 62 | strings=strings+urlx 63 | text= strings 64 | generater = WordCloud_CN(stopwords_file) 65 | generater.show() 66 | 67 | -------------------------------------------------------------------------------- /nlpStrategy/readme.md: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/yutiansut/QUANTAXIS_Strategy/fda6454ce6150825f26e88d20fa295c24293ea76/nlpStrategy/readme.md -------------------------------------------------------------------------------- /nlpStrategy/requirements.txt: -------------------------------------------------------------------------------- 1 | cycler==0.10.0 2 | jieba==0.38 3 | matplotlib==1.5.3 4 | numpy==1.11.2 5 | pyparsing==2.1.10 6 | python-dateutil==2.5.3 7 | pytz==2016.7 8 | six==1.10.0 9 | wordcloud==1.2.1 -------------------------------------------------------------------------------- /nlpStrategy/s: -------------------------------------------------------------------------------- 1 | client = pymongo.MongoClient(host="127.0.0.1", port=27017) 2 | db = client['wsc'] 3 | coll=db['articles'] 4 | strings ="" 5 | for content in coll.find({"poster":"王维丹"}): 6 | urlx=content['content'] 7 | strings=strings+url 8 | text_file = strings -------------------------------------------------------------------------------- /nlpStrategy/static/simheittf/simhei.ttf: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/yutiansut/QUANTAXIS_Strategy/fda6454ce6150825f26e88d20fa295c24293ea76/nlpStrategy/static/simheittf/simhei.ttf -------------------------------------------------------------------------------- /nlpStrategy/static/stopwords.txt: -------------------------------------------------------------------------------- 1 | ! 2 | " 3 | # 4 | $ 5 | % 6 | & 7 | ' 8 | ( 9 | ) 10 | * 11 | + 12 | , 13 | - 14 | -- 15 | . 16 | .. 17 | ... 18 | ...... 19 | ................... 20 | ./ 21 | .一 22 | .数 23 | .日 24 | / 25 | // 26 | 0 27 | 1 28 | 2 29 | 3 30 | 4 31 | 5 32 | 6 33 | 7 34 | 8 35 | 9 36 | : 37 | :// 38 | :: 39 | ; 40 | < 41 | = 42 | > 43 | >> 44 | ? 45 | @ 46 | A 47 | Lex 48 | [ 49 | \ 50 | ] 51 | ^ 52 | _ 53 | ` 54 | exp 55 | sub 56 | sup 57 | | 58 | } 59 | ~ 60 | ~~~~ 61 | · 62 | × 63 | ××× 64 | Δ 65 | Ψ 66 | γ 67 | μ 68 | φ 69 | φ. 70 | В 71 | — 72 | —— 73 | ——— 74 | ‘ 75 | ’ 76 | ’‘ 77 | “ 78 | ” 79 | ”, 80 | … 81 | …… 82 | …………………………………………………③ 83 | ′∈ 84 | ′| 85 | ℃ 86 | Ⅲ 87 | ↑ 88 | → 89 | ∈[ 90 | ∪φ∈ 91 | ≈ 92 | ① 93 | ② 94 | ②c 95 | ③ 96 | ③] 97 | ④ 98 | ⑤ 99 | ⑥ 100 | ⑦ 101 | ⑧ 102 | ⑨ 103 | ⑩ 104 | ── 105 | ■ 106 | ▲ 107 |   108 | 、 109 | 。 110 | 〈 111 | 〉 112 | 《 113 | 》 114 | 》), 115 | 」 116 | 『 117 | 』 118 | 【 119 | 】 120 | 〔 121 | 〕 122 | 〕〔 123 | ㈧ 124 | 一 125 | 一. 126 | 一一 127 | 一下 128 | 一个 129 | 一些 130 | 一何 131 | 一切 132 | 一则 133 | 一则通过 134 | 一天 135 | 一定 136 | 一方面 137 | 一旦 138 | 一时 139 | 一来 140 | 一样 141 | 一次 142 | 一片 143 | 一番 144 | 一直 145 | 一致 146 | 一般 147 | 一起 148 | 一转眼 149 | 一边 150 | 一面 151 | 七 152 | 万一 153 | 三 154 | 三天两头 155 | 三番两次 156 | 三番五次 157 | 上 158 | 上下 159 | 上升 160 | 上去 161 | 上来 162 | 上述 163 | 上面 164 | 下 165 | 下列 166 | 下去 167 | 下来 168 | 下面 169 | 不 170 | 不一 171 | 不下 172 | 不久 173 | 不了 174 | 不亦乐乎 175 | 不仅 176 | 不仅...而且 177 | 不仅仅 178 | 不仅仅是 179 | 不会 180 | 不但 181 | 不但...而且 182 | 不光 183 | 不免 184 | 不再 185 | 不力 186 | 不单 187 | 不变 188 | 不只 189 | 不可 190 | 不可开交 191 | 不可抗拒 192 | 不同 193 | 不外 194 | 不外乎 195 | 不够 196 | 不大 197 | 不如 198 | 不妨 199 | 不定 200 | 不对 201 | 不少 202 | 不尽 203 | 不尽然 204 | 不巧 205 | 不已 206 | 不常 207 | 不得 208 | 不得不 209 | 不得了 210 | 不得已 211 | 不必 212 | 不怎么 213 | 不怕 214 | 不惟 215 | 不成 216 | 不拘 217 | 不择手段 218 | 不敢 219 | 不料 220 | 不断 221 | 不日 222 | 不时 223 | 不是 224 | 不曾 225 | 不止 226 | 不止一次 227 | 不比 228 | 不消 229 | 不满 230 | 不然 231 | 不然的话 232 | 不特 233 | 不独 234 | 不由得 235 | 不知不觉 236 | 不管 237 | 不管怎样 238 | 不经意 239 | 不胜 240 | 不能 241 | 不能不 242 | 不至于 243 | 不若 244 | 不要 245 | 不论 246 | 不起 247 | 不足 248 | 不过 249 | 不迭 250 | 不问 251 | 不限 252 | 与 253 | 与其 254 | 与其说 255 | 与否 256 | 与此同时 257 | 专门 258 | 且 259 | 且不说 260 | 且说 261 | 两者 262 | 严格 263 | 严重 264 | 个 265 | 个人 266 | 个别 267 | 中小 268 | 中间 269 | 丰富 270 | 串行 271 | 临 272 | 临到 273 | 为 274 | 为主 275 | 为了 276 | 为什么 277 | 为什麽 278 | 为何 279 | 为止 280 | 为此 281 | 为着 282 | 主张 283 | 主要 284 | 举凡 285 | 举行 286 | 乃 287 | 乃至 288 | 乃至于 289 | 么 290 | 之 291 | 之一 292 | 之前 293 | 之后 294 | 之後 295 | 之所以 296 | 之类 297 | 乌乎 298 | 乎 299 | 乒 300 | 乘 301 | 乘势 302 | 乘机 303 | 乘胜 304 | 乘虚 305 | 乘隙 306 | 九 307 | 也 308 | 也好 309 | 也就是说 310 | 也是 311 | 也罢 312 | 了 313 | 了解 314 | 争取 315 | 二 316 | 二来 317 | 二话不说 318 | 二话没说 319 | 于 320 | 于是 321 | 于是乎 322 | 云云 323 | 云尔 324 | 互 325 | 互相 326 | 五 327 | 些 328 | 交口 329 | 亦 330 | 产生 331 | 亲口 332 | 亲手 333 | 亲眼 334 | 亲自 335 | 亲身 336 | 人 337 | 人人 338 | 人们 339 | 人家 340 | 人民 341 | 什么 342 | 什么样 343 | 什麽 344 | 仅 345 | 仅仅 346 | 今 347 | 今后 348 | 今天 349 | 今年 350 | 今後 351 | 介于 352 | 仍 353 | 仍旧 354 | 仍然 355 | 从 356 | 从不 357 | 从严 358 | 从中 359 | 从事 360 | 从今以后 361 | 从优 362 | 从古到今 363 | 从古至今 364 | 从头 365 | 从宽 366 | 从小 367 | 从新 368 | 从无到有 369 | 从早到晚 370 | 从未 371 | 从来 372 | 从此 373 | 从此以后 374 | 从而 375 | 从轻 376 | 从速 377 | 从重 378 | 他 379 | 他人 380 | 他们 381 | 他是 382 | 他的 383 | 代替 384 | 以 385 | 以上 386 | 以下 387 | 以为 388 | 以便 389 | 以免 390 | 以前 391 | 以及 392 | 以后 393 | 以外 394 | 以後 395 | 以故 396 | 以期 397 | 以来 398 | 以至 399 | 以至于 400 | 以致 401 | 们 402 | 任 403 | 任何 404 | 任凭 405 | 任务 406 | 企图 407 | 伙同 408 | 会 409 | 伟大 410 | 传 411 | 传说 412 | 传闻 413 | 似乎 414 | 似的 415 | 但 416 | 但凡 417 | 但愿 418 | 但是 419 | 何 420 | 何乐而不为 421 | 何以 422 | 何况 423 | 何处 424 | 何妨 425 | 何尝 426 | 何必 427 | 何时 428 | 何止 429 | 何苦 430 | 何须 431 | 余外 432 | 作为 433 | 你 434 | 你们 435 | 你是 436 | 你的 437 | 使 438 | 使得 439 | 使用 440 | 例如 441 | 依 442 | 依据 443 | 依照 444 | 依靠 445 | 便 446 | 便于 447 | 促进 448 | 保持 449 | 保管 450 | 保险 451 | 俺 452 | 俺们 453 | 倍加 454 | 倍感 455 | 倒不如 456 | 倒不如说 457 | 倒是 458 | 倘 459 | 倘使 460 | 倘或 461 | 倘然 462 | 倘若 463 | 借 464 | 借以 465 | 借此 466 | 假使 467 | 假如 468 | 假若 469 | 偏偏 470 | 做到 471 | 偶尔 472 | 偶而 473 | 傥然 474 | 像 475 | 儿 476 | 允许 477 | 元/吨 478 | 充其极 479 | 充其量 480 | 充分 481 | 先不先 482 | 先后 483 | 先後 484 | 先生 485 | 光 486 | 光是 487 | 全体 488 | 全力 489 | 全年 490 | 全然 491 | 全身心 492 | 全部 493 | 全都 494 | 全面 495 | 八 496 | 八成 497 | 公然 498 | 六 499 | 兮 500 | 共 501 | 共同 502 | 共总 503 | 关于 504 | 其 505 | 其一 506 | 其中 507 | 其二 508 | 其他 509 | 其余 510 | 其后 511 | 其它 512 | 其实 513 | 其次 514 | 具体 515 | 具体地说 516 | 具体来说 517 | 具体说来 518 | 具有 519 | 兼之 520 | 内 521 | 再 522 | 再其次 523 | 再则 524 | 再有 525 | 再次 526 | 再者 527 | 再者说 528 | 再说 529 | 冒 530 | 冲 531 | 决不 532 | 决定 533 | 决非 534 | 况且 535 | 准备 536 | 凑巧 537 | 凝神 538 | 几 539 | 几乎 540 | 几度 541 | 几时 542 | 几番 543 | 几经 544 | 凡 545 | 凡是 546 | 凭 547 | 凭借 548 | 出 549 | 出于 550 | 出去 551 | 出来 552 | 出现 553 | 分别 554 | 分头 555 | 分期 556 | 分期分批 557 | 切 558 | 切不可 559 | 切切 560 | 切勿 561 | 切莫 562 | 则 563 | 则甚 564 | 刚 565 | 刚好 566 | 刚巧 567 | 刚才 568 | 初 569 | 别 570 | 别人 571 | 别处 572 | 别是 573 | 别的 574 | 别管 575 | 别说 576 | 到 577 | 到了儿 578 | 到处 579 | 到头 580 | 到头来 581 | 到底 582 | 到目前为止 583 | 前后 584 | 前此 585 | 前者 586 | 前进 587 | 前面 588 | 加上 589 | 加之 590 | 加以 591 | 加入 592 | 加强 593 | 动不动 594 | 动辄 595 | 勃然 596 | 匆匆 597 | 十分 598 | 千 599 | 千万 600 | 千万千万 601 | 半 602 | 单 603 | 单单 604 | 单纯 605 | 即 606 | 即令 607 | 即使 608 | 即便 609 | 即刻 610 | 即如 611 | 即将 612 | 即或 613 | 即是说 614 | 即若 615 | 却 616 | 却不 617 | 历 618 | 原来 619 | 去 620 | 又 621 | 又及 622 | 及 623 | 及其 624 | 及时 625 | 及至 626 | 双方 627 | 反之 628 | 反之亦然 629 | 反之则 630 | 反倒 631 | 反倒是 632 | 反应 633 | 反手 634 | 反映 635 | 反而 636 | 反过来 637 | 反过来说 638 | 取得 639 | 取道 640 | 受到 641 | 变成 642 | 古来 643 | 另 644 | 另一个 645 | 另一方面 646 | 另外 647 | 另悉 648 | 另方面 649 | 另行 650 | 只 651 | 只当 652 | 只怕 653 | 只是 654 | 只有 655 | 只消 656 | 只要 657 | 只限 658 | 叫 659 | 叫做 660 | 召开 661 | 叮咚 662 | 叮当 663 | 可 664 | 可以 665 | 可好 666 | 可是 667 | 可能 668 | 可见 669 | 各 670 | 各个 671 | 各人 672 | 各位 673 | 各地 674 | 各式 675 | 各种 676 | 各级 677 | 各自 678 | 合理 679 | 同 680 | 同一 681 | 同时 682 | 同样 683 | 后 684 | 后来 685 | 后者 686 | 后面 687 | 向 688 | 向使 689 | 向着 690 | 吓 691 | 吗 692 | 否则 693 | 吧 694 | 吧哒 695 | 吱 696 | 呀 697 | 呃 698 | 呆呆地 699 | 呐 700 | 呕 701 | 呗 702 | 呜 703 | 呜呼 704 | 呢 705 | 周围 706 | 呵 707 | 呵呵 708 | 呸 709 | 呼哧 710 | 呼啦 711 | 咋 712 | 和 713 | 咚 714 | 咦 715 | 咧 716 | 咱 717 | 咱们 718 | 咳 719 | 哇 720 | 哈 721 | 哈哈 722 | 哉 723 | 哎 724 | 哎呀 725 | 哎哟 726 | 哗 727 | 哗啦 728 | 哟 729 | 哦 730 | 哩 731 | 哪 732 | 哪个 733 | 哪些 734 | 哪儿 735 | 哪天 736 | 哪年 737 | 哪怕 738 | 哪样 739 | 哪边 740 | 哪里 741 | 哼 742 | 哼唷 743 | 唉 744 | 唯有 745 | 啊 746 | 啊呀 747 | 啊哈 748 | 啊哟 749 | 啐 750 | 啥 751 | 啦 752 | 啪达 753 | 啷当 754 | 喀 755 | 喂 756 | 喏 757 | 喔唷 758 | 喽 759 | 嗡 760 | 嗡嗡 761 | 嗬 762 | 嗯 763 | 嗳 764 | 嘎 765 | 嘎嘎 766 | 嘎登 767 | 嘘 768 | 嘛 769 | 嘻 770 | 嘿 771 | 嘿嘿 772 | 四 773 | 因 774 | 因为 775 | 因了 776 | 因此 777 | 因着 778 | 因而 779 | 固 780 | 固然 781 | 在 782 | 在下 783 | 在于 784 | 地 785 | 均 786 | 坚决 787 | 坚持 788 | 基于 789 | 基本 790 | 基本上 791 | 处在 792 | 处处 793 | 处理 794 | 复杂 795 | 多 796 | 多么 797 | 多亏 798 | 多多 799 | 多多少少 800 | 多多益善 801 | 多少 802 | 多年前 803 | 多年来 804 | 多数 805 | 多次 806 | 够瞧的 807 | 大 808 | 大不了 809 | 大举 810 | 大事 811 | 大体 812 | 大体上 813 | 大凡 814 | 大力 815 | 大多 816 | 大多数 817 | 大大 818 | 大家 819 | 大张旗鼓 820 | 大批 821 | 大抵 822 | 大概 823 | 大略 824 | 大约 825 | 大致 826 | 大都 827 | 大量 828 | 大面儿上 829 | 失去 830 | 奇 831 | 奈 832 | 奋勇 833 | 她 834 | 她们 835 | 她是 836 | 她的 837 | 好 838 | 好在 839 | 好的 840 | 好象 841 | 如 842 | 如上 843 | 如上所述 844 | 如下 845 | 如今 846 | 如何 847 | 如其 848 | 如前所述 849 | 如同 850 | 如常 851 | 如是 852 | 如期 853 | 如果 854 | 如次 855 | 如此 856 | 如此等等 857 | 如若 858 | 始而 859 | 姑且 860 | 存在 861 | 存心 862 | 孰料 863 | 孰知 864 | 宁 865 | 宁可 866 | 宁愿 867 | 宁肯 868 | 它 869 | 它们 870 | 它们的 871 | 它是 872 | 它的 873 | 安全 874 | 完全 875 | 完成 876 | 定 877 | 实现 878 | 实际 879 | 宣布 880 | 容易 881 | 密切 882 | 对 883 | 对于 884 | 对应 885 | 对待 886 | 对方 887 | 对比 888 | 将 889 | 将才 890 | 将要 891 | 将近 892 | 小 893 | 少数 894 | 尔 895 | 尔后 896 | 尔尔 897 | 尔等 898 | 尚且 899 | 尤其 900 | 就 901 | 就地 902 | 就是 903 | 就是了 904 | 就是说 905 | 就此 906 | 就算 907 | 就要 908 | 尽 909 | 尽可能 910 | 尽如人意 911 | 尽心尽力 912 | 尽心竭力 913 | 尽快 914 | 尽早 915 | 尽然 916 | 尽管 917 | 尽管如此 918 | 尽量 919 | 局外 920 | 居然 921 | 届时 922 | 属于 923 | 屡 924 | 屡屡 925 | 屡次 926 | 屡次三番 927 | 岂 928 | 岂但 929 | 岂止 930 | 岂非 931 | 川流不息 932 | 左右 933 | 巨大 934 | 巩固 935 | 差一点 936 | 差不多 937 | 己 938 | 已 939 | 已矣 940 | 已经 941 | 巴 942 | 巴巴 943 | 带 944 | 帮助 945 | 常 946 | 常常 947 | 常言说 948 | 常言说得好 949 | 常言道 950 | 平素 951 | 年复一年 952 | 并 953 | 并不 954 | 并不是 955 | 并且 956 | 并排 957 | 并无 958 | 并没 959 | 并没有 960 | 并肩 961 | 并非 962 | 广大 963 | 广泛 964 | 应当 965 | 应用 966 | 应该 967 | 庶乎 968 | 庶几 969 | 开外 970 | 开始 971 | 开展 972 | 引起 973 | 弗 974 | 弹指之间 975 | 强烈 976 | 强调 977 | 归 978 | 归根到底 979 | 归根结底 980 | 归齐 981 | 当 982 | 当下 983 | 当中 984 | 当儿 985 | 当前 986 | 当即 987 | 当口儿 988 | 当地 989 | 当场 990 | 当头 991 | 当庭 992 | 当时 993 | 当然 994 | 当真 995 | 当着 996 | 形成 997 | 彻夜 998 | 彻底 999 | 彼 1000 | 彼时 1001 | 彼此 1002 | 往 1003 | 往往 1004 | 待 1005 | 待到 1006 | 很 1007 | 很多 1008 | 很少 1009 | 後来 1010 | 後面 1011 | 得 1012 | 得了 1013 | 得出 1014 | 得到 1015 | 得天独厚 1016 | 得起 1017 | 心里 1018 | 必 1019 | 必定 1020 | 必将 1021 | 必然 1022 | 必要 1023 | 必须 1024 | 快 1025 | 快要 1026 | 忽地 1027 | 忽然 1028 | 怎 1029 | 怎么 1030 | 怎么办 1031 | 怎么样 1032 | 怎奈 1033 | 怎样 1034 | 怎麽 1035 | 怕 1036 | 急匆匆 1037 | 怪 1038 | 怪不得 1039 | 总之 1040 | 总是 1041 | 总的来看 1042 | 总的来说 1043 | 总的说来 1044 | 总结 1045 | 总而言之 1046 | 恍然 1047 | 恐怕 1048 | 恰似 1049 | 恰好 1050 | 恰如 1051 | 恰巧 1052 | 恰恰 1053 | 恰恰相反 1054 | 恰逢 1055 | 您 1056 | 您们 1057 | 您是 1058 | 惟其 1059 | 惯常 1060 | 意思 1061 | 愤然 1062 | 愿意 1063 | 慢说 1064 | 成为 1065 | 成年 1066 | 成年累月 1067 | 成心 1068 | 我 1069 | 我们 1070 | 我是 1071 | 我的 1072 | 或 1073 | 或则 1074 | 或多或少 1075 | 或是 1076 | 或曰 1077 | 或者 1078 | 或许 1079 | 战斗 1080 | 截然 1081 | 截至 1082 | 所 1083 | 所以 1084 | 所在 1085 | 所幸 1086 | 所有 1087 | 所谓 1088 | 才 1089 | 才能 1090 | 扑通 1091 | 打 1092 | 打从 1093 | 打开天窗说亮话 1094 | 扩大 1095 | 把 1096 | 抑或 1097 | 抽冷子 1098 | 拦腰 1099 | 拿 1100 | 按 1101 | 按时 1102 | 按期 1103 | 按照 1104 | 按理 1105 | 按说 1106 | 挨个 1107 | 挨家挨户 1108 | 挨次 1109 | 挨着 1110 | 挨门挨户 1111 | 挨门逐户 1112 | 换句话说 1113 | 换言之 1114 | 据 1115 | 据实 1116 | 据悉 1117 | 据我所知 1118 | 据此 1119 | 据称 1120 | 据说 1121 | 掌握 1122 | 接下来 1123 | 接着 1124 | 接著 1125 | 接连不断 1126 | 放量 1127 | 故 1128 | 故意 1129 | 故此 1130 | 故而 1131 | 敞开儿 1132 | 敢 1133 | 敢于 1134 | 敢情 1135 | 数/ 1136 | 整个 1137 | 断然 1138 | 方 1139 | 方便 1140 | 方才 1141 | 方能 1142 | 方面 1143 | 旁人 1144 | 无 1145 | 无宁 1146 | 无法 1147 | 无论 1148 | 既 1149 | 既...又 1150 | 既往 1151 | 既是 1152 | 既然 1153 | 日复一日 1154 | 日渐 1155 | 日益 1156 | 日臻 1157 | 日见 1158 | 时候 1159 | 昂然 1160 | 明显 1161 | 明确 1162 | 是 1163 | 是不是 1164 | 是以 1165 | 是否 1166 | 是的 1167 | 显然 1168 | 显著 1169 | 普通 1170 | 普遍 1171 | 暗中 1172 | 暗地里 1173 | 暗自 1174 | 更 1175 | 更为 1176 | 更加 1177 | 更进一步 1178 | 曾 1179 | 曾经 1180 | 替 1181 | 替代 1182 | 最 1183 | 最后 1184 | 最大 1185 | 最好 1186 | 最後 1187 | 最近 1188 | 最高 1189 | 有 1190 | 有些 1191 | 有关 1192 | 有利 1193 | 有力 1194 | 有及 1195 | 有所 1196 | 有效 1197 | 有时 1198 | 有点 1199 | 有的 1200 | 有的是 1201 | 有着 1202 | 有著 1203 | 望 1204 | 朝 1205 | 朝着 1206 | 末##末 1207 | 本 1208 | 本人 1209 | 本地 1210 | 本着 1211 | 本身 1212 | 权时 1213 | 来 1214 | 来不及 1215 | 来得及 1216 | 来看 1217 | 来着 1218 | 来自 1219 | 来讲 1220 | 来说 1221 | 极 1222 | 极为 1223 | 极了 1224 | 极其 1225 | 极力 1226 | 极大 1227 | 极度 1228 | 极端 1229 | 构成 1230 | 果然 1231 | 果真 1232 | 某 1233 | 某个 1234 | 某些 1235 | 某某 1236 | 根据 1237 | 根本 1238 | 格外 1239 | 梆 1240 | 概 1241 | 次第 1242 | 欢迎 1243 | 欤 1244 | 正值 1245 | 正在 1246 | 正如 1247 | 正巧 1248 | 正常 1249 | 正是 1250 | 此 1251 | 此中 1252 | 此后 1253 | 此地 1254 | 此处 1255 | 此外 1256 | 此时 1257 | 此次 1258 | 此间 1259 | 殆 1260 | 毋宁 1261 | 每 1262 | 每个 1263 | 每天 1264 | 每年 1265 | 每当 1266 | 每时每刻 1267 | 每每 1268 | 每逢 1269 | 比 1270 | 比及 1271 | 比如 1272 | 比如说 1273 | 比方 1274 | 比照 1275 | 比起 1276 | 比较 1277 | 毕竟 1278 | 毫不 1279 | 毫无 1280 | 毫无例外 1281 | 毫无保留地 1282 | 汝 1283 | 沙沙 1284 | 没 1285 | 没奈何 1286 | 没有 1287 | 沿 1288 | 沿着 1289 | 注意 1290 | 活 1291 | 深入 1292 | 清楚 1293 | 满 1294 | 满足 1295 | 漫说 1296 | 焉 1297 | 然 1298 | 然则 1299 | 然后 1300 | 然後 1301 | 然而 1302 | 照 1303 | 照着 1304 | 牢牢 1305 | 特别是 1306 | 特殊 1307 | 特点 1308 | 犹且 1309 | 犹自 1310 | 独 1311 | 独自 1312 | 猛然 1313 | 猛然间 1314 | 率尔 1315 | 率然 1316 | 现代 1317 | 现在 1318 | 理应 1319 | 理当 1320 | 理该 1321 | 瑟瑟 1322 | 甚且 1323 | 甚么 1324 | 甚或 1325 | 甚而 1326 | 甚至 1327 | 甚至于 1328 | 用 1329 | 用来 1330 | 甫 1331 | 甭 1332 | 由 1333 | 由于 1334 | 由是 1335 | 由此 1336 | 由此可见 1337 | 略 1338 | 略为 1339 | 略加 1340 | 略微 1341 | 白 1342 | 白白 1343 | 的 1344 | 的确 1345 | 的话 1346 | 皆可 1347 | 目前 1348 | 直到 1349 | 直接 1350 | 相似 1351 | 相信 1352 | 相反 1353 | 相同 1354 | 相对 1355 | 相对而言 1356 | 相应 1357 | 相当 1358 | 相等 1359 | 省得 1360 | 看 1361 | 看上去 1362 | 看出 1363 | 看到 1364 | 看来 1365 | 看样子 1366 | 看看 1367 | 看见 1368 | 看起来 1369 | 真是 1370 | 真正 1371 | 眨眼 1372 | 着 1373 | 着呢 1374 | 矣 1375 | 矣乎 1376 | 矣哉 1377 | 知道 1378 | 砰 1379 | 确定 1380 | 碰巧 1381 | 社会主义 1382 | 离 1383 | 种 1384 | 积极 1385 | 移动 1386 | 究竟 1387 | 穷年累月 1388 | 突出 1389 | 突然 1390 | 窃 1391 | 立 1392 | 立刻 1393 | 立即 1394 | 立地 1395 | 立时 1396 | 立马 1397 | 竟 1398 | 竟然 1399 | 竟而 1400 | 第 1401 | 第二 1402 | 等 1403 | 等到 1404 | 等等 1405 | 策略地 1406 | 简直 1407 | 简而言之 1408 | 简言之 1409 | 管 1410 | 类如 1411 | 粗 1412 | 精光 1413 | 紧接着 1414 | 累年 1415 | 累次 1416 | 纯 1417 | 纯粹 1418 | 纵 1419 | 纵令 1420 | 纵使 1421 | 纵然 1422 | 练习 1423 | 组成 1424 | 经 1425 | 经常 1426 | 经过 1427 | 结合 1428 | 结果 1429 | 给 1430 | 绝 1431 | 绝不 1432 | 绝对 1433 | 绝非 1434 | 绝顶 1435 | 继之 1436 | 继后 1437 | 继续 1438 | 继而 1439 | 维持 1440 | 综上所述 1441 | 缕缕 1442 | 罢了 1443 | 老 1444 | 老大 1445 | 老是 1446 | 老老实实 1447 | 考虑 1448 | 者 1449 | 而 1450 | 而且 1451 | 而况 1452 | 而又 1453 | 而后 1454 | 而外 1455 | 而已 1456 | 而是 1457 | 而言 1458 | 而论 1459 | 联系 1460 | 联袂 1461 | 背地里 1462 | 背靠背 1463 | 能 1464 | 能否 1465 | 能够 1466 | 腾 1467 | 自 1468 | 自个儿 1469 | 自从 1470 | 自各儿 1471 | 自后 1472 | 自家 1473 | 自己 1474 | 自打 1475 | 自身 1476 | 臭 1477 | 至 1478 | 至于 1479 | 至今 1480 | 至若 1481 | 致 1482 | 般的 1483 | 良好 1484 | 若 1485 | 若夫 1486 | 若是 1487 | 若果 1488 | 若非 1489 | 范围 1490 | 莫 1491 | 莫不 1492 | 莫不然 1493 | 莫如 1494 | 莫若 1495 | 莫非 1496 | 获得 1497 | 藉以 1498 | 虽 1499 | 虽则 1500 | 虽然 1501 | 虽说 1502 | 蛮 1503 | 行为 1504 | 行动 1505 | 表明 1506 | 表示 1507 | 被 1508 | 要 1509 | 要不 1510 | 要不是 1511 | 要不然 1512 | 要么 1513 | 要是 1514 | 要求 1515 | 见 1516 | 规定 1517 | 觉得 1518 | 譬喻 1519 | 譬如 1520 | 认为 1521 | 认真 1522 | 认识 1523 | 让 1524 | 许多 1525 | 论 1526 | 论说 1527 | 设使 1528 | 设或 1529 | 设若 1530 | 诚如 1531 | 诚然 1532 | 话说 1533 | 该 1534 | 该当 1535 | 说明 1536 | 说来 1537 | 说说 1538 | 请勿 1539 | 诸 1540 | 诸位 1541 | 诸如 1542 | 谁 1543 | 谁人 1544 | 谁料 1545 | 谁知 1546 | 谨 1547 | 豁然 1548 | 贼死 1549 | 赖以 1550 | 赶 1551 | 赶快 1552 | 赶早不赶晚 1553 | 起 1554 | 起先 1555 | 起初 1556 | 起头 1557 | 起来 1558 | 起见 1559 | 起首 1560 | 趁 1561 | 趁便 1562 | 趁势 1563 | 趁早 1564 | 趁机 1565 | 趁热 1566 | 趁着 1567 | 越是 1568 | 距 1569 | 跟 1570 | 路经 1571 | 转动 1572 | 转变 1573 | 转贴 1574 | 轰然 1575 | 较 1576 | 较为 1577 | 较之 1578 | 较比 1579 | 边 1580 | 达到 1581 | 达旦 1582 | 迄 1583 | 迅速 1584 | 过 1585 | 过于 1586 | 过去 1587 | 过来 1588 | 运用 1589 | 近 1590 | 近几年来 1591 | 近年来 1592 | 近来 1593 | 还 1594 | 还是 1595 | 还有 1596 | 还要 1597 | 这 1598 | 这一来 1599 | 这个 1600 | 这么 1601 | 这么些 1602 | 这么样 1603 | 这么点儿 1604 | 这些 1605 | 这会儿 1606 | 这儿 1607 | 这就是说 1608 | 这时 1609 | 这样 1610 | 这次 1611 | 这点 1612 | 这种 1613 | 这般 1614 | 这边 1615 | 这里 1616 | 这麽 1617 | 进入 1618 | 进去 1619 | 进来 1620 | 进步 1621 | 进而 1622 | 进行 1623 | 连 1624 | 连同 1625 | 连声 1626 | 连日 1627 | 连日来 1628 | 连袂 1629 | 连连 1630 | 迟早 1631 | 迫于 1632 | 适应 1633 | 适当 1634 | 适用 1635 | 逐步 1636 | 逐渐 1637 | 通常 1638 | 通过 1639 | 造成 1640 | 逢 1641 | 遇到 1642 | 遭到 1643 | 遵循 1644 | 遵照 1645 | 避免 1646 | 那 1647 | 那个 1648 | 那么 1649 | 那么些 1650 | 那么样 1651 | 那些 1652 | 那会儿 1653 | 那儿 1654 | 那时 1655 | 那末 1656 | 那样 1657 | 那般 1658 | 那边 1659 | 那里 1660 | 那麽 1661 | 部分 1662 | 都 1663 | 鄙人 1664 | 采取 1665 | 里面 1666 | 重大 1667 | 重新 1668 | 重要 1669 | 鉴于 1670 | 针对 1671 | 长期以来 1672 | 长此下去 1673 | 长线 1674 | 长话短说 1675 | 问题 1676 | 间或 1677 | 防止 1678 | 阿 1679 | 附近 1680 | 陈年 1681 | 限制 1682 | 陡然 1683 | 除 1684 | 除了 1685 | 除却 1686 | 除去 1687 | 除外 1688 | 除开 1689 | 除此 1690 | 除此之外 1691 | 除此以外 1692 | 除此而外 1693 | 除非 1694 | 随 1695 | 随后 1696 | 随时 1697 | 随着 1698 | 随著 1699 | 隔夜 1700 | 隔日 1701 | 难得 1702 | 难怪 1703 | 难说 1704 | 难道 1705 | 难道说 1706 | 集中 1707 | 零 1708 | 需要 1709 | 非但 1710 | 非常 1711 | 非徒 1712 | 非得 1713 | 非特 1714 | 非独 1715 | 靠 1716 | 顶多 1717 | 顷 1718 | 顷刻 1719 | 顷刻之间 1720 | 顷刻间 1721 | 顺 1722 | 顺着 1723 | 顿时 1724 | 颇 1725 | 风雨无阻 1726 | 饱 1727 | 首先 1728 | 马上 1729 | 高低 1730 | 高兴 1731 | 默然 1732 | 默默地 1733 | 齐 1734 | ︿ 1735 | ! 1736 | # 1737 | $ 1738 | % 1739 | & 1740 | ' 1741 | ( 1742 | ) 1743 | )÷(1- 1744 | )、 1745 | * 1746 | + 1747 | +ξ 1748 | ++ 1749 | , 1750 | ,也 1751 | - 1752 | -β 1753 | -- 1754 | -[*]- 1755 | . 1756 | / 1757 | 0 1758 | 0:2 1759 | 1 1760 | 1. 1761 | 12% 1762 | 2 1763 | 2.3% 1764 | 3 1765 | 4 1766 | 5 1767 | 5:0 1768 | 6 1769 | 7 1770 | 8 1771 | 9 1772 | : 1773 | ; 1774 | < 1775 | <± 1776 | <Δ 1777 | <λ 1778 | <φ 1779 | << 1780 | = 1781 | =″ 1782 | =☆ 1783 | =( 1784 | =- 1785 | =[ 1786 | ={ 1787 | > 1788 | >λ 1789 | ? 1790 | @ 1791 | A 1792 | LI 1793 | R.L. 1794 | ZXFITL 1795 | [ 1796 | [①①] 1797 | [①②] 1798 | [①③] 1799 | [①④] 1800 | [①⑤] 1801 | [①⑥] 1802 | [①⑦] 1803 | [①⑧] 1804 | [①⑨] 1805 | [①A] 1806 | [①B] 1807 | [①C] 1808 | [①D] 1809 | [①E] 1810 | [①] 1811 | [①a] 1812 | [①c] 1813 | [①d] 1814 | [①e] 1815 | [①f] 1816 | [①g] 1817 | [①h] 1818 | [①i] 1819 | [①o] 1820 | [② 1821 | [②①] 1822 | [②②] 1823 | [②③] 1824 | [②④ 1825 | [②⑤] 1826 | [②⑥] 1827 | [②⑦] 1828 | [②⑧] 1829 | [②⑩] 1830 | [②B] 1831 | [②G] 1832 | [②] 1833 | [②a] 1834 | [②b] 1835 | [②c] 1836 | [②d] 1837 | [②e] 1838 | [②f] 1839 | [②g] 1840 | [②h] 1841 | [②i] 1842 | [②j] 1843 | [③①] 1844 | [③⑩] 1845 | [③F] 1846 | [③] 1847 | [③a] 1848 | [③b] 1849 | [③c] 1850 | [③d] 1851 | [③e] 1852 | [③g] 1853 | [③h] 1854 | [④] 1855 | [④a] 1856 | [④b] 1857 | [④c] 1858 | [④d] 1859 | [④e] 1860 | [⑤] 1861 | [⑤]] 1862 | [⑤a] 1863 | [⑤b] 1864 | [⑤d] 1865 | [⑤e] 1866 | [⑤f] 1867 | [⑥] 1868 | [⑦] 1869 | [⑧] 1870 | [⑨] 1871 | [⑩] 1872 | [*] 1873 | [- 1874 | [] 1875 | ] 1876 | ]∧′=[ 1877 | ][ 1878 | _ 1879 | a] 1880 | b] 1881 | c] 1882 | e] 1883 | f] 1884 | ng昉 1885 | { 1886 | {- 1887 | | 1888 | } 1889 | }> 1890 | ~ 1891 | ~± 1892 | ~+ 1893 | ¥ 1894 | -------------------------------------------------------------------------------- /nlpStrategy/test.1.py: -------------------------------------------------------------------------------- 1 | from os import path 2 | from scipy.misc import imread 3 | import matplotlib.pyplot as plt 4 | import jieba 5 | import pymongo 6 | 7 | from wordcloud import WordCloud, STOPWORDS, ImageColorGenerator 8 | 9 | stopwords = {} 10 | def importStopword(filename=''): 11 | global stopwords 12 | f = open(filename, 'r', encoding='utf-8') 13 | line = f.readline().rstrip() 14 | 15 | while line: 16 | stopwords.setdefault(line, 0) 17 | stopwords[line] = 1 18 | line = f.readline().rstrip() 19 | 20 | f.close() 21 | 22 | def processChinese(text): 23 | seg_generator = jieba.cut(text) # 使用结巴分词,也可以不使用 24 | 25 | seg_list = [i for i in seg_generator if i not in stopwords] 26 | 27 | seg_list = [i for i in seg_list if i != u' '] 28 | 29 | seg_list = r' '.join(seg_list) 30 | 31 | return seg_list 32 | 33 | importStopword(filename='./static/stopwords.txt') 34 | 35 | 36 | # 获取当前文件路径 37 | # __file__ 为当前文件, 在ide中运行此行会报错,可改为 38 | # d = path.dirname('.') 39 | d = path.dirname(__file__) 40 | 41 | client = pymongo.MongoClient(host="127.0.0.1", port=27017) 42 | db = client['wsc'] 43 | coll=db['articles'] 44 | strings ="" 45 | for content in coll.find({"poster":"王维丹"}): 46 | urlx=content['content'] 47 | strings=strings+urlx 48 | text= strings 49 | #text = open(path.join(d, 'love.txt'),encoding ='utf-8').read() 50 | 51 | #如果是中文 52 | #text = processChinese(text)#中文不好分词,使用Jieba分词进行 53 | 54 | # read the mask / color image 55 | # taken from http://jirkavinse.deviantart.com/art/quot-Real-Life-quot-Alice-282261010 56 | # 设置背景图片 57 | back_coloring = imread(path.join(d, "./image/love.jpg")) 58 | 59 | wc = WordCloud( font_path='./static/simhei.ttf',#设置字体 60 | background_color="black", #背景颜色 61 | max_words=2000,# 词云显示的最大词数 62 | mask=back_coloring,#设置背景图片 63 | max_font_size=100, #字体最大值 64 | random_state=42, 65 | ) 66 | # 生成词云, 可以用generate输入全部文本(中文不好分词),也可以我们计算好词频后使用generate_from_frequencies函数 67 | wc.generate(text) 68 | # wc.generate_from_frequencies(txt_freq) 69 | # txt_freq例子为[('词a', 100),('词b', 90),('词c', 80)] 70 | # 从背景图片生成颜色值 71 | image_colors = ImageColorGenerator(back_coloring) 72 | 73 | plt.figure() 74 | # 以下代码显示图片 75 | plt.imshow(wc) 76 | plt.axis("off") 77 | plt.show() 78 | # 绘制词云 79 | 80 | # 保存图片 81 | wc.to_file(path.join(d, "名称.png")) -------------------------------------------------------------------------------- /nlpStrategy/test.py: -------------------------------------------------------------------------------- 1 | # coding: utf-8 2 | from os import path 3 | from scipy.misc import imread 4 | import matplotlib.pyplot as plt 5 | import jieba 6 | import pymongo 7 | 8 | from wordcloud import WordCloud, STOPWORDS, ImageColorGenerator 9 | 10 | stopwords = {} 11 | def importStopword(filename=''): 12 | global stopwords 13 | f = open(filename, 'r', encoding='utf-8') 14 | line = f.readline().rstrip() 15 | 16 | while line: 17 | stopwords.setdefault(line, 0) 18 | stopwords[line] = 1 19 | line = f.readline().rstrip() 20 | 21 | f.close() 22 | 23 | def processChinese(text): 24 | seg_generator = jieba.cut(text) # 25 | 26 | seg_list = [i for i in seg_generator if i not in stopwords] 27 | 28 | seg_list = [i for i in seg_list if i != u' '] 29 | 30 | seg_list = r' '.join(seg_list) 31 | 32 | return seg_list 33 | 34 | importStopword(filename='./static/stopwords.txt') 35 | 36 | 37 | d = path.dirname(__file__) 38 | 39 | client = pymongo.MongoClient(host="127.0.0.1", port=27017) 40 | db = client['wsc'] 41 | coll=db['articles'] 42 | strings ="" 43 | for content in coll.find({"poster":"王维丹"}): 44 | urlx=content['content'] 45 | strings=strings+urlx 46 | text= strings 47 | 48 | back_coloring = imread(path.join(d, "./image/love.jpg")) 49 | 50 | wc = WordCloud( font_path='./static/simhei.ttf', 51 | background_color="black", 52 | max_words=2000, 53 | mask=back_coloring, 54 | max_font_size=100, 55 | random_state=42, 56 | ) 57 | 58 | wc.generate(text) 59 | 60 | image_colors = ImageColorGenerator(back_coloring) 61 | 62 | plt.figure() 63 | 64 | plt.imshow(wc) 65 | plt.axis("off") 66 | plt.show() 67 | 68 | wc.to_file(path.join(d, "名称.png")) -------------------------------------------------------------------------------- /readme.md: -------------------------------------------------------------------------------- 1 | # QUANTAXIS-Strategy 2 | 3 | 从之前的Strategy/ 文件夹下拆出来的策略文档 4 | 5 | 6 | CTA Strategy Framework Review | 策略框架综述 7 | ===== 8 | 9 | 10 | 11 | 12 | 13 | - [QUANTAXIS-Strategy](#quantaxis-strategy) 14 | - [趋势策略](#趋势策略) 15 | - [日内趋势策略(tick级别的回测)](#日内趋势策略tick级别的回测) 16 | - [菲阿里四价策略](#菲阿里四价策略) 17 | - [参数设置](#参数设置) 18 | - [交易逻辑](#交易逻辑) 19 | - [横盘突破策略](#横盘突破策略) 20 | - [唐奇安通道策略](#唐奇安通道策略) 21 | - [R-Breaker策略](#r-breaker策略) 22 | - [参数设置](#参数设置-1) 23 | - [交易逻辑](#交易逻辑-1) 24 | - [Dual Thrust策略](#dual-thrust策略) 25 | - [参数设置](#参数设置-2) 26 | - [交易逻辑](#交易逻辑-2) 27 | - [ATR策略](#atr策略) 28 | - [参数设置](#参数设置-3) 29 | - [交易逻辑](#交易逻辑-3) 30 | - [King-keltner策略](#king-keltner策略) 31 | - [参数设置](#参数设置-4) 32 | - [交易逻辑](#交易逻辑-4) 33 | - [实证检验部分](#实证检验部分) 34 | - [不同商品期货的单边回测结果](#不同商品期货的单边回测结果) 35 | - [组合策略的相关性与回测表现](#组合策略的相关性与回测表现) 36 | - [日间交易策略](#日间交易策略) 37 | - [均线策略](#均线策略) 38 | - [MACD策略](#macd策略) 39 | - [布林带通道策略](#布林带通道策略) 40 | - [布林策略Bollinger Bandit](#布林策略bollinger-bandit) 41 | - [参数设置](#参数设置-5) 42 | - [交易逻辑](#交易逻辑-5) 43 | - [套利策略](#套利策略) 44 | - [关联套利](#关联套利) 45 | - [农产品跨品种套利](#农产品跨品种套利) 46 | - [基本金属跨品种套利](#基本金属跨品种套利) 47 | - [金融衍生品跨市跨品种套利](#金融衍生品跨市跨品种套利) 48 | - [内因套利](#内因套利) 49 | - [期现套利](#期现套利) 50 | - [同一品种的跨期套利](#同一品种的跨期套利) 51 | - [同一品种的跨市场套利](#同一品种的跨市场套利) 52 | - [产业链套利](#产业链套利) 53 | - [黑色产业链](#黑色产业链) 54 | - [钢产业 (螺纹钢,铁矿,焦炭)](#钢产业-螺纹钢铁矿焦炭) 55 | - [套利逻辑](#套利逻辑) 56 | - [策略设置](#策略设置) 57 | - [炼焦产业 (焦煤,焦炭)](#炼焦产业-焦煤焦炭) 58 | - [套利逻辑](#套利逻辑-1) 59 | - [策略设置](#策略设置-1) 60 | - [能源化工产业链](#能源化工产业链) 61 | - [甲醇制PP利润套利 (甲醇,聚丙烯)](#甲醇制pp利润套利-甲醇聚丙烯) 62 | - [套利逻辑](#套利逻辑-2) 63 | - [策略设置](#策略设置-2) 64 | - [农产品期货产业链](#农产品期货产业链) 65 | - [大豆提油套利 (大豆,豆粕,豆油)](#大豆提油套利-大豆豆粕豆油) 66 | - [套利逻辑](#套利逻辑-3) 67 | - [鸡蛋利润套利 (鸡蛋,豆粕,玉米)](#鸡蛋利润套利-鸡蛋豆粕玉米) 68 | - [套利逻辑](#套利逻辑-4) 69 | - [策略设置](#策略设置-3) 70 | - [风险控制](#风险控制) 71 | - [止损策略](#止损策略) 72 | - [技术指标](#技术指标) 73 | - [成本损失](#成本损失) 74 | - [趋势研判](#趋势研判) 75 | - [策略组合和资金曲线](#策略组合和资金曲线) 76 | - [马科维茨的均值方差分析](#马科维茨的均值方差分析) 77 | - [策略相关性以及风险收益比](#策略相关性以及风险收益比) 78 | - [机器学习的应用](#机器学习的应用) 79 | - [参数优化](#参数优化) 80 | - [群参数优化算法](#群参数优化算法) 81 | - [PSO粒子群优化算法](#pso粒子群优化算法) 82 | - [GA遗传算法](#ga遗传算法) 83 | - [蚁群算法](#蚁群算法) 84 | - [果蝇算法](#果蝇算法) 85 | - [分类器](#分类器) 86 | - [SVM支持向量机](#svm支持向量机) 87 | - [原理](#原理) 88 | - [算法](#算法) 89 | - [应用](#应用) 90 | - [分类](#分类) 91 | - [预测](#预测) 92 | - [神经网络以及深度学习](#神经网络以及深度学习) 93 | - [分类树算法C5.0以及随机森林](#分类树算法c50以及随机森林) 94 | - [聚类算法](#聚类算法) 95 | - [信号分解算法](#信号分解算法) 96 | - [小波分析](#小波分析) 97 | - [EMD算法](#emd算法) 98 | - [迁移学习和增量算法](#迁移学习和增量算法) 99 | - [增强学习Reinforcements](#增强学习reinforcements) 100 | 101 | 102 | 103 | # 趋势策略 104 | 105 | ## 日内趋势策略(tick级别的回测) 106 | 日内交易策略要求所有开仓头寸都必须在日内交易时段结束前平仓出局,这种策略下资金暴露在风险中的时间最短,能获得稳定的利润收益,但也要求所选择的投资品种在日内有着较大的波动和成交量,这种策略更多应用于豆粕,螺纹钢,橡胶等商品 107 | ### 菲阿里四价策略 108 | 菲阿里四价策略是一种通道突破方法,用过计算四个核心价格作为两条通道线的支撑,前一交易日最低价,前一交易日最高价,前一交易日收盘价和当前开盘价. 109 | 110 | #### 参数设置 111 | 上轨:上一交易日最高价 112 | 下轨:上一交易日最低价 113 | 114 | #### 交易逻辑 115 | 116 | 当价格突破上轨时,买入开仓,当价格突破下轨时,卖出开仓 117 | 118 | 这种交易策略会遇到一定程度的假突破问题,由于多空的博弈,在突破位会出现很大的阻力,有一定程度的随机回落的可能。需要进行一定的止盈止损策略进行限制 119 | 120 | ### 横盘突破策略 121 | 横盘是指价格波动幅度较小,没有明显的上涨或者下跌趋势,这时候市场的多空力量大致均衡.当出现横盘突破,及多空力量被打破的时候,表示一方动能较强,后市价格继续朝突破方向运动的趋势性更强. 122 | 123 | 当价格在过去30根K线的高低点围绕中轴上下0.5%的范围内波动时: 124 | 上轨=过去30根K线的最高价 125 | 下轨=过去30根K线的最低价 126 | 127 | 如果价格突破上下轨则表示当前价格波动较大,形成一个入场信号,也就是说: 128 | 当价格突破上轨时,买入开仓 129 | 当价格突破下轨时,卖出开仓 130 | 131 | ### 唐奇安通道策略 132 | 唐奇安的主要思想是寻找一定时间(X)内出现的最高价和最低价 133 | 上轨:过去X天内的最高点 134 | 下轨:过去X天内的最低嗲 135 | 如果价格突破上下轨则表示价格运动较为强势,释放入场信号 136 | 当价格突破上轨时,买入开仓 137 | 当价格突破下轨时,卖出开仓 138 | 139 | ### R-Breaker策略 140 | R-B是一个结合了日内趋势追踪和反转的策略,核心是通过前一交易日的最高.最低,收盘价计算出6个重要的价格指标.及突破买入价,观察卖出价,反转卖出价,反转买入价,观察买入价,突破卖出价. 141 | 142 | #### 参数设置 143 | 观察卖出价=最高价+0.35*(收盘价-最低价) 144 | 145 | 观察买入价=最低价-0.35*(最高价-收盘价) 146 | 147 | 反转卖出价=1.07/2*(最高价+最低价)-0.07*最低价 148 | 149 | 反转买入价=1.07/2*(最高价+最低价)-0.07*最高价 150 | 151 | 突破买入价=观察卖出价+0.25*(观察卖出价-观察买入价) 152 | 153 | 突破卖出价=观察买入价-0.25*(观察卖出价-观察买入价) 154 | 155 | 156 | 157 | #### 交易逻辑 158 | 1. 空仓情况下,盘中价格跌破突破卖出价,采取趋势策略,即在该点做空. 159 | 2. 空仓情况下,盘中价格超过突破买入价,采取趋势策略,即在该点做多. 160 | 3. 持多单时,当日最高价超过观察卖出价后,盘中价格回落并且跌破发转卖出价,采取反转策略,即在该点反手做空 161 | 4. 持空单时,当日最低价低于观察买入价后,盘中价格反弹并且超过反转买入价,采取反转策略,即在该点反手做多. 162 | 5. 设定止盈止损条件 163 | 6. 收盘前进行平仓 164 | 165 | ### Dual Thrust策略 166 | 在开盘价的基础上,确定一个非对称的上下轨道,利用前N日的最高,最低和收盘价格去确定一个合理的震荡区间,将上下轨到开盘价的距离设置为震荡区间的一定比例,一旦当前价格突破了这个比例,则产生入场或离场信号。 167 | 168 | #### 参数设置 169 | 记前N日的最高价的最大值为HH,前N日的最低价的最小值为LL 170 | 171 | 记前N日的收盘价的最大值为HC,前N日的收盘价的最小值为LC 172 | 173 | 震荡区间为Range 174 | 175 | Range = MAX{HH-LC,HC-LL}; 176 | 177 | BuyLine = Open + K_s×Range; 178 | 179 | SellLine = Open - K_x*Range; 180 | 181 | #### 交易逻辑 182 | 183 | 当价格突破上轨BuyLine时:买多开仓|平空反向做多 184 | 185 | 当价格突破下轨SellLine时,买空开仓|平多反向做空 186 | 187 | 188 | Dual Thrust 策略中震荡区间的选取为前 N 日的最值,使得其在一定时期内保持相对稳定,参数K_s 和K_x 用来调节多头和空头触发条件难易。当K_s 较大时,空头较容易被触发;当K_x 较大时,多头较容易被触发。参数的调节可以通过参考数据测试得到的最优参数并结合主观分析得到。 189 | 190 | ### ATR策略 191 | 192 | Average True Range 真实波动范围指标,用于衡量市场波动的程度,是显示市场变化率的指标。目前,主要用于衡量价格的波动,并不能直接反应价格走向以及趋势的稳定性,仅仅表明价格波动的程度。 193 | 194 | #### 参数设置 195 | - X1: 当前交易日的价差 PriceMax-PirceMin 196 | - X2: 前一个交易日收盘价与当前交易日的最高价的波幅 197 | - X3: 前一交易日的收盘价与当前交易日的最低价的波幅 198 | 199 | 真实波幅TR=MAX{X1,X2,X3} 200 | 201 | TR=MAX{Max(High-Low),Abs(Ref(Close,1)-High),Abs(Ref(Close,1)-Low)} 202 | 203 | ATR 是TR的N日移动平均 AR=MA(TR) 204 | 205 | 一般而言,N=14 206 | 207 | #### 交易逻辑 208 | 209 | - 日内平仓 210 | - 日内ATR突破基于当 211 | - 价格突破上轨,买入开仓 212 | - 价格跌穿下轨,卖出开仓 213 | 214 | 215 | ### King-keltner策略 216 | 217 | #### 参数设置 218 | 219 | - 中心价=MA((H+L+C)/3,40) 中心价是最高价,最低价,收盘价三者平均后的40日移动平均线 220 | 221 | - 计算真实价格区间(TrueRange),等于本日最高价-本日最低价,本日最高价-昨日收盘价,本日最低价-昨日收盘价的三者的最大值 222 | 223 | TR=MAX{Max(High-Low),Abs(Ref(Close,1)-High),Abs(Ref(Close,1)-Low)} 224 | 225 | - 计算价格上下轨(upBand,dnBand),其中multi为固定参数,可设置初始值为1 226 | 227 | 上轨=中心价+multi× MA(TR,40) 228 | 229 | 下轨=中心价-multi× MA(TR,40) 230 | 231 | - 平仓价格=中心价 232 | 233 | #### 交易逻辑 234 | 235 | - 买入开仓:今日中心价大于昨日中心价,且价格突破上轨 236 | 237 | - 卖出开仓:今日中心价小于昨日中心价,且价格突破下轨 238 | 239 | - 买入平仓:今日价格向下突破平仓价格 240 | 241 | - 卖出平仓:今日价格向上突破平仓价格 242 | 243 | ​ 244 | 245 | 246 | 其中,平仓条件既是止损条件,也是止盈条件 (移动止盈) 247 | 248 | 249 | 250 | 该策略的核心是对于multi参数和MA的天数的优化问题,风险在于,震荡时期的频繁交易会因为止损过多而导致较大回撤 251 | 252 | 253 | 254 | ### 实证检验部分 255 | 256 | #### 不同商品期货的单边回测结果 257 | 258 | #### 组合策略的相关性与回测表现 259 | 260 | 261 | ## 日间交易策略 262 | 263 | ### 均线策略 264 | 265 | 均线策略的内在思想是短期和长期趋势不同的涨跌变化对交易有不同的指导意义。均线策略中的均线体现了价格的变化,常用的均线有简单移动平均、加权移动平均、指数移动平均 266 | 267 | ### MACD策略 268 | 269 | 270 | 271 | ### 布林带通道策略 272 | 273 | ### 布林策略Bollinger Bandit 274 | 275 | #### 参数设置 276 | 277 | - 计算布林带的上下边界,等于收盘价的50日移动平均价加减1.25倍标准差 278 | 279 | - 上边界=MA(收盘价,50)+StdDev(收盘价,50)×1.25 280 | - 下边界=MA(收盘价,50)-StdDev(收盘价,50)×1.25 281 | 282 | - 计算计步器,等于当日收盘价-30日前收盘价 283 | 284 | - 如果今日未平仓,则计算天数-1,直到递减到10 285 | - 如果今日平仓,将计算天数还原到50 286 | 287 | - 计算止损价,等于收盘价的移动平均,计算天数初始值为50 288 | 289 | 止损价=MA(收盘价,计算天数) 290 | 291 | #### 交易逻辑 292 | 293 | - 买入开仓:计步器大于0,当前价格大于上边界 294 | - 卖出开仓:计步器小于0,且当前价格小于下边界 295 | - 卖出平仓:当止损价大于上边界且当前价格小于止损价 296 | - 买入平仓:当止损价小于下边界且当前价格大于止损价 297 | 298 | # 套利策略 299 | 300 | 301 | 302 | 我们并没有使用传统的跨期套利,跨品种套利和跨市场套利去对套利算法进行区分,而是使用关联套利和内因套利去区分这几种套利方法。 303 | ## 关联套利 304 | 关联套利是指套利对象之间没有必然的内因约束,但价格受共同因素所主导,但受影响的程度不同,通过两种对象对同一影响因素表现不同而建立的套利关系称之为关联套利 305 | 306 | 关联套利:套利对象之间基差的大小不对买卖力量产生负反馈作用,多数的情况下形成一个发散性的蛛网. 307 | 308 | 盈利原理:通过追逐比价(或差价)趋势的办法,将错误操作的损失通过止损控制在一定的限度之内,将正确操作的利润尽量放大,从而达到“赚多赔少”的总体目标 309 | 310 | 关联套利理论基础: 311 | 312 | 1.供需关系决定了商品的价格趋势;供需关系紧张的程度决定了价格趋势的强度. 313 | 314 | 2.价格趋势在没有受到新的力量作用时,会保持原来的方向.(牛顿第一定律) 315 | 316 | 3.基本面不会在一天之内改变.(如农产品供应的年周期性和消费的广泛性;对于工业品而言,也存在一个较长的生产周期) 317 | 318 | ### 农产品跨品种套利 319 | 320 | [替代性品种,并无内因关系,只是供求关系] 321 | 322 | 大豆与玉米、玉米与小麦之间、不同油脂类品种之间 323 | 324 | ### 基本金属跨品种套利 325 | 326 | 铜、铝、锌之间的套利 327 | ### 金融衍生品跨市跨品种套利 328 | 不同国家的股票指数套利 329 | 330 | 331 | 332 | ## 内因套利 333 | 内因套利是指当商品期货投资对象间价格关系因某种原因过分背离时,通过内在纠正力量而产生的套利行为。 334 | 335 | 内因套利:套利对象之间基差的大小负反馈于买卖力量,形成一个收敛性的蛛网. 336 | 337 | 盈利原理:谨慎选择有限波动差价(或比价)两端的极端机会,提高胜算率来保证交易的成功,即使出现意外,也可以能够通过现货处理、向后延期等办法来抑制亏损 338 | 339 | 1.存在基差收缩的机制(内因) 340 | 341 | 2.市场是有效的(特别是期货市场) 342 | 343 | 344 | 核心要点: 345 | 346 | 1 寻找导致目前价格关系过分背离的原因。 347 | 348 | 2 分析未来能够纠正价格关系恢复的内在因素。 349 | 350 | 351 | 步骤: 352 | 353 | 第一步:选择经过有效性检验的、并且有内因约束的套利对象,确定套利追踪目标。 354 | 355 | 比如:大豆期现套利;大豆,豆粕,豆油的远近合约套利;大豆与豆粕,豆油三者的压榨套利;连豆和CBOT黄大豆之间跨市套利等等. 356 | 357 | 第二步:建立上述套利对象的历史比价(差价)数据库,并每日更新。 358 | 359 | 第三步:将当前比价(差价)分别导入各套利对象的比价(差价)区间,用数理的方法鉴别出当前比价(差价)在区间中所处位置,并计算该比价(差价)在历史上所出现的概率。 360 | 361 | 第四步:通过数理分择,判定基差偏离程度和套利机会的大小. 362 | 363 | 第五步:内因佐证分析. 建立各影响因子的数据资料库,通过多因素分析方法来分析寻找导致目前价格关系过分背离的原因,分析未来能够纠正价格关系恢复的内在因素。 364 | 365 | - 进口成本 366 | - 现货走势图 367 | - 运费变化图 368 | - 升贴水变化图 369 | - 仓单变化 370 | - 压榨利润 371 | - 政策因素 372 | - 需求方面 373 | - 供给方面 374 | - 经济周期 375 | - 政治因素 376 | - 自然因素 377 | - 金融因素 378 | 379 | 第六步:按照内因套利的五大原则,对套利外部环境进行评估,再次鉴别市场的有效性以及头寸的可持续性。 380 | 381 | 第七步:进入资金管理和风险控制的实际操作阶段。 382 | 383 | ### 期现套利 384 | 385 | 期现套利(Arbitrage)是利用同一种商品在期货市场与现货市场之间的不合理的价差进行的套利行为。 386 | 387 | 两个投资组合,若其未来现金流完全相同,则现值一定相等,否则将出现套利机会:买入现值较低的投资组合,同时卖出较高的投资组合,并持有到期,必定可获得无风险利润。 388 | 389 | 同一种商品的期货合约价格与其现货价格之间存在着无套利机会的定价关系,这种关系通常称为持有成本定价。所谓持有成本,是指商品的储藏成本加上为资产融资所需支付的利息再扣掉持有资产带来的收入。 390 | 391 | ### 同一品种的跨期套利 392 | 单一农产品品种的跨期套利 393 | 394 | 同一种商品的不同交割月份的期货合约价格之间也存在着无套利机会的定价关系。当远期合约的价格超过无套利区间的上边界时,可以从事正向套利操作;而跌过无套利区间的下边界时,可以从事反向套利操作。 395 | 396 | 套利步骤: 397 | 398 | 1。通过计算无套利区间,建立套利机会每日跟踪系统。 399 | 相邻合约间跨期套利的持仓成本=间隔期内的商品仓储费用+交易交割手续费+套利期内资金占压成本(贷款利息)+增值税((交割结算价-买入价格)×税率) 400 | 401 | 402 | 2。当满足套利条件时,开始做市场有效性检验,比如,具备不具备逼仓条件,市场容量,交易群体调查等等。 403 | 404 | 3。展期条件和展期收益评估。 405 | 406 | 4。风险评估和风险预警措施制定。 407 | 408 | 5。实施操作。 409 | 410 | ### 同一品种的跨市场套利 411 | 国内外大豆进口套利 412 | 413 | >套利公式: 414 | 415 | >进口利润=国内大豆价格-进口成本价 416 | 417 | >进口成本=(CBOT期价+海岸升水+海运费)×汇率+港杂费 418 | 419 | >进口大豆关税1%,增值税13%。 420 | 421 | >港杂费100元/吨左右。 422 | 423 | 单位换算: 424 | 425 | 1蒲式耳大豆=60磅=60×0.4536公斤=27.216公斤=0.027216吨 426 | 427 | 1美分/蒲式耳=0.01美元/0.027216吨=0.36743美元/吨; 428 | ### 产业链套利 429 | #### 黑色产业链 430 | ##### 钢产业 (螺纹钢,铁矿,焦炭) 431 | 炼钢生产的成本主要是生铁,废钢,合金,电极,耐火材料,辅助材料,电能,维护检修和其他费用。中国目前主要的炼钢设备为转炉和电炉,基于冶炼原理的不同,转炉和电炉在主要的原料(生铁、废钢)配比有一定的差异,转炉工艺一般需配置10%的废钢,而电炉工艺废钢的使用量则占到80%。 432 | 433 | 结合国内钢铁企业的平均情况,炼铁工艺中影响总成本的主要因素是原料(铁矿石、焦炭)成本,而包括辅料、燃料、人工费用在内的其他费用与副产品回收进行冲抵后仅占总成本的10%左右,而炼钢工艺中因为耗电量的增加、合金的加入以及维检费用的上升使得除主要原料外的其他费用占到炼钢总成本的18%左右。炼铁、炼钢工艺中的其他费用波动不大。 434 | 435 | ###### 套利逻辑 436 | 437 | > 钢成本/吨=1.6吨铁精粉+0.5吨焦炭+生铁费+钢胚费+轧材费+其他费用 438 | 439 | > 螺纹钢期货价格=1.6×铁矿石期货价格+0.5×焦炭期货价格+其他成本 440 | 441 | 442 | 在实际的期货市场上,由于价格的波动,出现了无套利等式左右不等的情况,此时的价差及为钢厂的利润,这也是内因策略的利润核心。跟随钢厂利润,我们可以认为,当钢厂利润较高,钢厂就会进行产量的调整,提高开工率并且在原材料市场上进行大量购买,导致原材料市场的供小于求,铁矿石和焦炭价格上涨,导致钢厂的利润下降;反之,如果钢厂利润下降,钢厂会动态调整最优产量从而影响了上下游产业的价格,铁矿石和焦炭价格也会下降,同时在产品市场上,由于钢厂的供给减少,钢材的价格也会上升,恢复了钢厂的利润平衡。 443 | 444 | ![炼钢利润波动](http://p1.bpimg.com/1949/c96b104b674b30c9.png) 445 | 446 | | 期货品种 | 螺纹钢 | 铁矿石 | 焦炭 | 447 | | ------ | ----- | ------ | ------ | 448 | | 保证金 | 9% | 10% | 15% | 449 | | 合约乘数 | 10吨/手 | 100吨/手 | 100吨 | 450 | | 最小变动单位 | 1元/吨 | 0.5元/吨 | 0.5元/吨 | 451 | 452 | ###### 策略设置 453 | - 开仓条件:价差在[10日均值+标准差,10日均值+1.2×标准差],有回归趋势 454 | - 平仓条件:回归到十日均值进行平仓 455 | - 止损: 5%,止损后10日内不开仓 456 | - 换仓: 主力合约一般是1,5,9 在主力合约到来的前一个月进行换仓 457 | - 滑点: 一个最小变动价位 458 | 459 | 460 | 461 | 462 | ##### 炼焦产业 (焦煤,焦炭) 463 | 464 | 煤焦加工套利包括三种模式,分别为独立焦化企业模式、煤矿企业模式以及自有焦化厂的钢铁企业模式。煤焦加工套利的难点在于配煤炼焦工艺的确定、产成品质量及升贴水的确定、以及副产品构成及其价值的确定。一级冶炼焦的配煤比例是主焦煤占比 35%、1/3 焦煤占比 25%、气煤占比 12%、肥煤占比 18%、瘦煤占比 10%。企业为了降低炼焦的成本,一般是提高价格较低的瘦煤的比重而降低主焦煤比重,因此企业为了应对市场变化带来的成本压力会改变原料的配比,那么炼焦成本也是在变化的,配煤的比例是动态变化的,并不是固定的。 465 | 466 | ###### 套利逻辑 467 | 468 | 参考一般的炼焦工艺,平均 1.3 吨炼焦煤加工产生 1 吨焦炭和若干副产品。自焦煤期货上市以来,期货焦炭指数/焦煤指数的比价均值却高达 1.37,同时较长时间维在 1.38 以上,指数最高比价曾达到 1.45。因此,我们最终确定炼焦利润的公式为: 469 | 炼焦利润=焦炭期货价格-1.4*焦煤期货价格-其他成本 470 | 471 | 472 | 473 | 上述等式的系数是参考基本面的逻辑来确定的,与钢厂利润套利类似,等式中固定的系数与实际生产的系数存在差异,实际生产的系数也难以把握,因此通过量化的手段来确定各品种之间的关系也是一种备选方案。 474 | 475 | ![炼焦利润波动](http://p1.bpimg.com/1949/cfecf31d5c0aa617.png) 476 | 477 | | 期货合约 | 焦煤 | 焦炭 | 478 | | ------ | ------ | ------ | 479 | | 保证金 | 15% | 15% | 480 | | 合约乘数 | 60吨/手 | 100吨/手 | 481 | | 最小变动单位 | 0.5元/吨 | 0.5元/吨 | 482 | 483 | 484 | 485 | ###### 策略设置 486 | 487 | 开仓条件:价差在 10 日均值加 1 倍标准差和 1.2 倍标准差之间,且有回归趋势开仓。 488 | 平仓条件:回归到 10 日均值进行平仓。 489 | 止损:设置的止损为 2%,止损后 10 天内不开仓。 490 | 换仓:主力合约一般为 1,5,9 月份,因此我们在主力合约到期前一个多月进行主力合约的换仓。 491 | 滑点:一个最小变动价位 492 | 493 | #### 能源化工产业链 494 | 495 | ##### 甲醇制PP利润套利 (甲醇,聚丙烯) 496 | 497 | ###### 套利逻辑 498 | 499 | 甲醇既可自用又可外售的特征是甲醇制 PP 套利可行的重要原因。根据理论生产成本,3 吨甲醇另加 800 元加工费用可制得 1 吨聚丙烯。具体到期货价格的层面,在无套利机会的情况下可以得到如下等式: 500 | 聚丙烯期货价格=3*甲醇期货价格+800 501 | 502 | ![甲醇制PP利润](http://p1.bpimg.com/1949/5c64627310ac00fd.png) 503 | 504 | 505 | 506 | | 期货品种 | 甲醇 | 聚丙烯PP | 507 | | ------ | ----- | ----- | 508 | | 保证金 | 7% | 7% | 509 | | 合约乘数 | 10吨/手 | 5吨 | 510 | | 最小变动单位 | 1元/吨 | 1元/吨 | 511 | 512 | ###### 策略设置 513 | 514 | 开仓条件:价差超越 5 日均值加 1 倍标准差进行开仓。 515 | 平仓条件:回归到 5 日均值进行平仓。 516 | 止损:设置的止损为 5%,止损后 10 天内不开仓。 517 | 换仓:主力合约一般为 1,5,9 月份,因此我们在主力合约到期前一个多月进行主力合约的换仓。 518 | 滑点:一个最小变动价位。 519 | 520 | #### 农产品期货产业链 521 | 522 | ##### 大豆提油套利 (大豆,豆粕,豆油) 523 | 524 | ###### 套利逻辑 525 | 526 | 大豆提油套利的模式主要是在美豆和国内豆粕豆油间展开,具体的路径是进口美豆后在国内压榨出售。因此要关注的点是美豆成本、豆粕价格和豆油价格。美豆的成本涉及到增值税、关税、汇率、港杂费和运费等因素。计算美豆到厂成本主要公式 527 | 如下: 528 | 529 | 大船舱底完税价格=到岸价格*(1+增值税)*(1+关税)*美元兑人民币汇率 530 | 531 | 进口大豆到厂成本=大船舱底完税价格+港杂费+运费 532 | 533 | 进口大豆到厂成本即为美豆的成本。相对于煤焦钢产业链,大豆压榨的技术参数较为稳定,国内的大豆压榨工艺显示大豆压榨时油粕产出比例存在如下的关系: 534 | 535 | 100%进口大豆=19.2%豆油+78.6%豆粕+2.2.%损耗 536 | 537 | 因此,进口大豆压榨的利润公式可以根据美豆成本以及压榨的技术参数得出。 538 | 539 | 进口大豆压榨利润=豆粕价格*78.6%+豆油价格*19.2%-进口大豆到厂成本-其他费用 540 | 541 | ![Markdown](http://p1.bpimg.com/1949/7e6c02eb4beb1d17.png) 542 | 543 | 544 | 545 | 546 | 547 | ##### 鸡蛋利润套利 (鸡蛋,豆粕,玉米) 548 | 549 | ###### 套利逻辑 550 | 551 | 鸡蛋作为日常消费品,需求比较稳定。一般,每年在端午节(5 月)和中秋节(9 月)会出现两个需求小高峰,春节前后(2 月)会出现需求低谷。最近几年由于集约养殖比例增大以及鸡蛋期货上市,鸡蛋价格的季节性波动已经越来越不明显。鉴于鸡蛋需求稳定的特征,鸡蛋价格一般由产蛋成本决定。 552 | 蛋鸡养殖的主要成本包括鸡苗、饲料、水、电、人工和防疫等费用。需要注意的是,除了鸡蛋出售收入,还有鸡粪以及蛋鸡淘汰以后变卖的收入。一只蛋鸡从鸡苗到产蛋到退役,整个过程经历 17 个月。蛋鸡在生命周期内产蛋 37.5 斤,消耗饲料约 122.7 斤,鸡苗成本约 3 元,防疫费支出 3 元,水电费支出 0.5 元,鸡粪获利 3.4 元,淘汰鸡出售约 16.4 元。 553 | 据此,我们测算出: 554 | 555 | 鸡蛋盈亏平衡点=(饲料费用+鸡苗成本+防疫费+水电费-鸡粪收入-淘汰鸡收入)/37.5 556 | 557 | 上式中鸡苗成本、防疫费、水电费、鸡粪收入和淘汰鸡收入变化不大,可以使用常数替代,主要的变量是饲料价格。蛋鸡饲料的典型配方是 62%的玉米、31%的豆粕和 7%的预混料(麦麸、磷酸氢钙、石粉、食盐、其他添加剂等),预混料价格大约在 2.5 元/斤。那么,饲料价格的公式可以表示为: 558 | 559 | 一斤饲料的价格=0.62*玉米价格 + 0.31*豆粕价格+ 0.175 560 | 561 | 依据鸡蛋的盈亏平衡点计算公式和饲料价格的公式,可以得出联系期货价格的等式。 562 | 563 | 鸡蛋盈亏平衡点(元/吨) = 2.02864*玉米(元/吨) + 1.01432*豆粕(元/吨) + 437.2 564 | 565 | ![鸡蛋利润](http://p1.bpimg.com/1949/20d0d108868848bc.png) 566 | 567 | 鸡蛋的利润波动曲线回归周期仍然比较长,并且没有明显的周期性规律,总体来看,价差要经历差不多一年的时间才会恢复到 0 附近的水平。因此如果设定固定价差来进行套利,开仓次数将很有限,而且价差设置越大开仓次数越少。如果价差设置过小,则需要很长时间才会回归,并且会有很大的回撤。因此我们仍然采用之前的在均值上加减标准差的方式进行开仓,在价差恢复到均 568 | 值时进行平仓。 569 | 570 | ###### 策略设置 571 | 开仓条件:价差超越 10 日均值加 2 倍标准差进行开仓。 572 | 平仓条件:回归到 10 日均值进行平仓。 573 | 止损:设置的止损为 5%,止损后 10 天内不开仓。 574 | 换仓:主力合约一般为 1,5,9 月份,因此我们在主力合约到期前一个多月进行主力合约的换仓。 575 | 滑点:一个最小变动价位。 576 | 577 | # 风险控制 578 | ## 止损策略 579 | ### 技术指标 580 | ### 成本损失 581 | ### 趋势研判 582 | 583 | 584 | ## 策略组合和资金曲线 585 | ### 马科维茨的均值方差分析 586 | 587 | ### 策略相关性以及风险收益比 588 | 589 | # 机器学习的应用 590 | ## 参数优化 591 | ### 群参数优化算法 592 | #### PSO粒子群优化算法 593 | 通过群体中个体之间的协作和信息共享来寻找最优解. 594 | 595 | 鸟被抽象为没有质量和体积的微粒(点),并延伸到N维空间,粒子i在N维空间的位置表示为矢量Xi=(x1,x2,…,xN),飞行速度表示为矢量Vi=(v1,v2,…,vN)。每个粒子都有一个由目标函数决定的适应值(fitness value),并且知道自己到目前为止发现的最好位置(pbest)和现在的位置Xi。这个可以看作是粒子自己的飞行经验。除此之外,每个粒子还知道到目前为止整个群体中所有粒子发现的最好位置(gbest)(gbest是pbest中的最好值),这个可以看作是粒子同伴的经验。粒子就是通过自己的经验和同伴中最好的经验来决定下一步的运动。 596 | PSO初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次的迭代中,粒子通过跟踪两个“极值”(pbest,gbest)来更新自己。在找到这两个最优值后,粒子通过下面的公式来更新自己的速度和位置。 597 | 598 | 599 | $$ v_{i}=v_{i} + c_{1} * rand()*(pbest_{i} -x_{i}) +c_{2}*rand()*(gbest_{i}-x_i) (1)$$ 600 | $$x_{i}=x_{i}+v_{i} (2)$$ 601 | 602 | > 在公式(1),(2)中,i=1,2,3,...,N是此群中粒子的总数 603 | 604 | $$ v_{i} 是粒子的速度$$ 605 | 606 | $$ rand() 介于(0,1)的随机数$$ 607 | $$ x_{i}粒子的当前位置$$ 608 | $$ c_{1},c_{2} 学习因子 一般设置为2$$ 609 | $$ v_{i}的最大值为 V_{max} $$ 610 | 611 | 公式(1)的第一部分称为【记忆项】,表示上次速度大小和方向的影响;公式(1)的第二部分称为【自身认知项】,是从当前点指向粒子自身最好点的一个矢量,表示粒子的动作来源于自己经验的部分;公式(1)的第三部分称为【群体认知项】,是一个从当前点指向种群最好点的矢量,反映了粒子间的协同合作和知识共享。粒子就是通过自己的经验和同伴中最好的经验来决定下一步的运动。 612 | 613 | 以上面两个公式为基础,形成了PSO的标准形式。 614 | 615 | ​ 616 | $$v_{i}=\omega *v_{i}+c_{i}*rand()*(pbest_{i}-x_{i})+c_2×rand()*(gbest_{i}-x_{i}) (3)$$ 617 | $$ \omega 为惯性因子 值为非负$$ 618 | 619 | 公式(2)和 公式(3)被视为标准PSO算法。 620 | 621 | 标准PSO算法流程 622 | 623 | 1)初始化一群微粒(群体规模为N),包括随机位置和速度; 624 | 625 | 2)评价每个微粒的适应度; 626 | 627 | 3)对每个微粒,将其适应值与其经过的最好位置pbest作比较,如果较好,则将其作为当前的最好位置pbest; 628 | 629 | 4)对每个微粒,将其适应值与其经过的最好位置gbest作比较,如果较好,则将其作为当前的最好位置gbest; 630 | 631 | 5)根据公式(2)、(3)调整微粒速度和位置; 632 | 633 | 6)未达到结束条件则转第2)步 634 | 635 | 迭代终止条件根据具体问题一般选为最大迭代次数Gk或(和)微粒群迄今为止搜索到的最优位置满足预定最小适应阈值。 636 | 637 | 公式(2)和(3)中pbest和gbest分别表示微粒群的局部和全局最优位置。 638 | 639 | 当C1=0时,则粒子没有了认知能力,变为只有社会的模型(social-only): 640 | 641 | ​ 642 | 643 | 被称为全局PSO算法。粒子有扩展搜索空间的能力,具有较快的收敛速度,但由于缺少局部搜索,对于复杂问题比标准PSO 更易陷入局部最优。 644 | 645 | 当C2=0时,则粒子之间没有社会信息,模型变为只有认知(cognition-only)模型: 646 | 647 | ​ 648 | 649 | 被称为局部PSO算法。由于个体之间没有信息的交流,整个群体相当于多个粒子进行盲目的随机搜索,收敛速度慢,因而得到最优解的可能性小。 650 | 651 | 参数分析 652 | 参数:群体规模N,惯性因子 ,学习因子c1和c2,最大速度Vmax,最大迭代次数Gk。 653 | 654 | 群体规模N:一般取20~40,对较难或特定类别的问题可以取到100~200。 655 | 656 | 最大速度Vmax:决定当前位置与最好位置之间的区域的分辨率(或精度)。如果太快,则粒子有可能越过极小点;如果太慢,则粒子不能在局部极小点之外进行足够的探索,会陷入到局部极值区域内。这种限制可以达到防止计算溢出、决定问题空间搜索的粒度的目的。 657 | 658 | 权重因子:包括惯性因子和学习因子c1和c2。使粒子保持着运动惯性,使其具有扩展搜索空间的趋势,有能力探索新的区域。c1和c2代表将每个粒子推向pbest和gbest位置的统计加速项的权值。较低的值允许粒子在被拉回之前可以在目标区域外徘徊,较高的值导致粒子突然地冲向或越过目标区域。 659 | 660 | 参数设置: 661 | 662 | 1) 如果令c1=c2=0,粒子将一直以当前速度的飞行,直到边界。很难找到最优解。 663 | 2) 如果=0,则速度只取决于当前位置和历史最好位置,速度本身没有记忆性。假设一个粒子处在全局最好位置,它将保持静止,其他粒子则飞向它的最好位置和全局最好位置的加权中心。粒子将收缩到当前全局最好位置。在加上第一部分后,粒子有扩展搜索空间的趋势,这也使得的作用表现为针对不同的搜索问题,调整算法的全局和局部搜索能力的平衡。较大时,具有较强的全局搜索能力;较小时,具有较强的局部搜索能力。 664 | 665 | 3) 通常设c1=c2=2。Suganthan的实验表明:c1和c2为常数时可以得到较好的解,但不一定必须等于2。Clerc引入收敛因子(constriction factor) K来保证收敛性。 666 | 667 | 668 | ​ 669 | 通常取为4.1,则K=0.729.实验表明,与使用惯性权重的PSO算法相比,使用收敛因子的PSO有更快的收敛速度。其实只要恰当的选取和c1、c2,两种算法是一样的。因此使用收敛因子的PSO可以看作使用惯性权重PSO的特例。 670 | 671 | 恰当的选取算法的参数值可以改善算法的性能。 672 | ​ 673 | 674 | ```python 675 | class bird: 676 | """ 677 | speed:速度 678 | position:位置 679 | fit:适应度 680 | lbestposition:经历的最佳位置 681 | lbestfit:经历的最佳的适应度值 682 | """ 683 | def __init__(self, speed, position, fit, lBestPosition, lBestFit): 684 | self.speed = speed 685 | self.position = position 686 | self.fit = fit 687 | self.lBestFit = lBestPosition 688 | self.lBestPosition = lPestFit 689 | 690 | ``` 691 | 692 | ```python 693 | import random 694 | 695 | class PSO: 696 | """ 697 | fitFunc:适应度函数 698 | birdNum:种群规模 699 | w:惯性权重 700 | c1,c2:个体学习因子,社会学习因子 701 | solutionSpace:解空间,列表类型:[最小值,最大值] 702 | """ 703 | def __init__(self, fitFunc, birdNum, w, c1, c2, solutionSpace): 704 | self.fitFunc = fitFunc 705 | self.w = w 706 | self.c1 = c1 707 | self.c2 = c2 708 | self.birds, self.best = self.initbirds(birdNum, solutionSpace) 709 | 710 | def initbirds(self, size, solutionSpace): 711 | birds = [] 712 | for i in range(size): 713 | position = random.uniform(solutionSpace[0], solutionSpace[1]) 714 | speed = 0 715 | fit = self.fitFunc(position) 716 | birds.append(bird(speed, position, fit, position, fit)) 717 | best = birds[0] 718 | for bird in birds: 719 | if bird.fit > best.fit: 720 | best = bird 721 | return birds,best 722 | 723 | def updateBirds(self): 724 | for bird in self.birds: 725 | # 更新速度 726 | bird.speed = self.w * bird.speed + self.c1 * random.random() * (bird.lBestPosition - bird.position) + self.c2 * random.random() * (self.best.position - bird.position) 727 | # 更新位置 728 | bird.position = bird.position + bird.speed 729 | # 跟新适应度 730 | bird.fit = self.fitFunc(bird.position) 731 | # 查看是否需要更新经验最优 732 | if bird.fit > bird.lBestFit: 733 | bird.lBestFit = bird.fit 734 | bird.lBestPosition = bird.position 735 | 736 | def solve(self, maxIter): 737 | # 只考虑了最大迭代次数,如需考虑阈值,添加判断语句就好 738 | for i in range(maxIter): 739 | # 更新粒子 740 | self.updateBirds() 741 | for bird in self.birds: 742 | # 查看是否需要更新全局最优 743 | if bird.fit > self.best.fit: 744 | self.best = bird 745 | 746 | ``` 747 | #### GA遗传算法 748 | 749 | GA遗传算法: 750 | ```python 751 | 752 | from __future__ import division 753 | import numpy as np 754 | import random 755 | import math 756 | import copy 757 | import matplotlib as mpl 758 | import matplotlib.pyplot as plt 759 | import time 760 | 761 | 762 | class GA(object): 763 | def __init__(self, maxiter, sizepop, lenchrom, pc, pm, dim, lb, ub, Fobj): 764 | """ 765 | maxiter:最大迭代次数 766 | sizepop:种群数量 767 | lenchrom:染色体长度 768 | pc:交叉概率 769 | pm:变异概率 770 | dim:变量的维度 771 | lb:最小取值 772 | ub:最大取值 773 | Fobj:价值函数 774 | """ 775 | self.maxiter = maxiter 776 | self.sizepop = sizepop 777 | self.lenchrom = lenchrom 778 | self.pc = pc 779 | self.pm = pm 780 | self.dim = dim 781 | self.lb = lb 782 | self.ub = ub 783 | self.Fobj = Fobj 784 | 785 | # 初始化种群:返回一个三维数组,第一维是种子,第二维是变量维度,第三维是编码基因 786 | def Initialization(self): 787 | pop = [] 788 | for i in range(self.sizepop): 789 | temp1 = [] 790 | for j in range(self.dim): 791 | temp2 = [] 792 | for k in range(self.lenchrom): 793 | temp2.append(random.randint(0, 1)) 794 | temp1.append(temp2) 795 | pop.append(temp1) 796 | return pop 797 | 798 | # 将二进制转化为十进制 799 | def b2d(self, pop_binary): 800 | pop_decimal = [] 801 | for i in range(len(pop_binary)): 802 | temp1 = [] 803 | for j in range(self.dim): 804 | temp2 = 0 805 | for k in range(self.lenchrom): 806 | temp2 += pop_binary[i][j][k] * math.pow(2, k) 807 | temp2 = temp2 * (self.ub[j] - self.lb[j]) / (math.pow(2, self.lenchrom) - 1) + self.lb[j] 808 | temp1.append(temp2) 809 | pop_decimal.append(temp1) 810 | return pop_decimal 811 | 812 | # 轮盘赌模型选择适应值较高的种子 813 | def Roulette(self, fitness, pop): 814 | # 适应值按照大小排序 815 | sorted_index = np.argsort(fitness) 816 | sorted_fitness, sorted_pop = [], [] 817 | for index in sorted_index: 818 | sorted_fitness.append(fitness[index]) 819 | sorted_pop.append(pop[index]) 820 | 821 | # 生成适应值累加序列 822 | fitness_sum = sum(sorted_fitness) 823 | accumulation = [None for col in range(len(sorted_fitness))] 824 | accumulation[0] = sorted_fitness[0] / fitness_sum 825 | for i in range(1, len(sorted_fitness)): 826 | accumulation[i] = accumulation[i - 1] + sorted_fitness[i] / fitness_sum 827 | 828 | # 轮盘赌 829 | roulette_index = [] 830 | for j in range(len(sorted_fitness)): 831 | p = random.random() 832 | for k in range(len(accumulation)): 833 | if accumulation[k] >= p: 834 | roulette_index.append(k) 835 | break 836 | temp1, temp2 = [], [] 837 | for index in roulette_index: 838 | temp1.append(sorted_fitness[index]) 839 | temp2.append(sorted_pop[index]) 840 | newpop = [[x, y] for x, y in zip(temp1, temp2)] 841 | newpop.sort() 842 | newpop_fitness = [newpop[i][0] for i in range(len(sorted_fitness))] 843 | newpop_pop = [newpop[i][1] for i in range(len(sorted_fitness))] 844 | return newpop_fitness, newpop_pop 845 | 846 | # 交叉繁殖:针对每一个种子,随机选取另一个种子与之交叉。 847 | # 随机取种子基因上的两个位置点,然后互换两点之间的部分 848 | def Crossover(self, pop): 849 | newpop = [] 850 | for i in range(len(pop)): 851 | if random.random() < self.pc: 852 | # 选择另一个种子 853 | j = i 854 | while j == i: 855 | j = random.randint(0, len(pop) - 1) 856 | cpoint1 = random.randint(1, self.lenchrom - 1) 857 | cpoint2 = cpoint1 858 | while cpoint2 == cpoint1: 859 | cpoint2 = random.randint(1, self.lenchrom - 1) 860 | cpoint1, cpoint2 = min(cpoint1, cpoint2), max(cpoint1, cpoint2) 861 | newpop1, newpop2 = [], [] 862 | for k in range(self.dim): 863 | temp1, temp2 = [], [] 864 | temp1.extend(pop[i][k][0:cpoint1]) 865 | temp1.extend(pop[j][k][cpoint1:cpoint2]) 866 | temp1.extend(pop[i][k][cpoint2:]) 867 | temp2.extend(pop[j][k][0:cpoint1]) 868 | temp2.extend(pop[i][k][cpoint1:cpoint2]) 869 | temp2.extend(pop[j][k][cpoint2:]) 870 | newpop1.append(temp1) 871 | newpop2.append(temp2) 872 | newpop.extend([newpop1, newpop2]) 873 | return newpop 874 | 875 | # 变异:针对每一个种子的每一个维度,进行概率变异,变异基因为一位 876 | def Mutation(self, pop): 877 | newpop = copy.deepcopy(pop) 878 | for i in range(len(pop)): 879 | for j in range(self.dim): 880 | if random.random() < self.pm: 881 | mpoint = random.randint(0, self.lenchrom - 1) 882 | newpop[i][j][mpoint] = 1 - newpop[i][j][mpoint] 883 | return newpop 884 | 885 | # 绘制迭代-误差图 886 | def Ploterro(self, Convergence_curve): 887 | mpl.rcParams['font.sans-serif'] = ['Courier New'] 888 | mpl.rcParams['axes.unicode_minus'] = False 889 | fig = plt.figure(figsize=(10, 6)) 890 | x = [i for i in range(len(Convergence_curve))] 891 | plt.plot(x, Convergence_curve, 'r-', linewidth=1.5, markersize=5) 892 | plt.xlabel(u'Iter', fontsize=18) 893 | plt.ylabel(u'Best score', fontsize=18) 894 | plt.xticks(fontsize=18) 895 | plt.yticks(fontsize=18) 896 | plt.xlim(0, ) 897 | plt.grid(True) 898 | plt.show() 899 | 900 | def Run(self): 901 | pop = self.Initialization() 902 | errolist = [] 903 | for Current_iter in range(self.maxiter): 904 | print("Iter = " + str(Current_iter)) 905 | pop1 = self.Crossover(pop) 906 | pop2 = self.Mutation(pop1) 907 | pop3 = self.b2d(pop2) 908 | fitness = [] 909 | for j in range(len(pop2)): 910 | fitness.append(self.Fobj(pop3[j])) 911 | sorted_fitness, sorted_pop = self.Roulette(fitness, pop2) 912 | best_fitness = sorted_fitness[-1] 913 | best_pos = self.b2d([sorted_pop[-1]])[0] 914 | pop = sorted_pop[-1:-(self.sizepop + 1):-1] 915 | errolist.append(1 / best_fitness) 916 | if 1 / best_fitness < 0.0001: 917 | print("Best_score = " + str(round(1 / best_fitness, 4))) 918 | print("Best_pos = " + str([round(a, 4) for a in best_pos])) 919 | break 920 | return best_fitness, best_pos, errolist 921 | 922 | 923 | if __name__ == "__main__": 924 | # 价值函数,求函数最小值点 -> [1, -1, 0, 0] 925 | def Fobj(factor): 926 | cost = (factor[0] - 1) ** 2 + (factor[1] + 1) ** 2 + factor[2] ** 2 + factor[3] ** 2 927 | return 1 / cost 928 | starttime = time.time() 929 | a = GA(100, 50, 10, 0.8, 0.01, 4, [-1, -1, -1, -1], [1, 1, 1, 1], Fobj) 930 | Best_score, Best_pos, errolist = a.Run() 931 | endtime = time.time() 932 | print("Runtime = " + str(endtime - starttime)) 933 | a.Ploterro(errolist) 934 | ``` 935 | 936 | #### 蚁群算法 937 | 938 | #### 果蝇算法 939 | ## 分类器 940 | ### SVM支持向量机 941 | 942 | #### 原理 943 | 944 | 支持向量机的原理大致可以理解为特征在无穷维度的线性分类,通过核函数映射,我们不断的增加特征将其分开并进行还原。 945 | 946 | #### 算法 947 | 948 | ```python 949 | # -*- coding: utf-8 -*- 950 | """ 951 | SVC 952 | """ 953 | import matplotlib.pyplot as plt 954 | import numpy as np 955 | from sklearn import datasets, linear_model,cross_validation,svm 956 | 957 | def load_data_classfication(): 958 | ''' 959 | 加载用于分类问题的数据集 960 | 961 | :return: 一个元组,用于分类问题。元组元素依次为:训练样本集、测试样本集、训练样本集对应的标记、测试样本集对应的标记 962 | ''' 963 | iris=datasets.load_iris()# 使用 scikit-learn 自带的 iris 数据集 964 | X_train=iris.data 965 | y_train=iris.target 966 | return cross_validation.train_test_split(X_train, y_train,test_size=0.25, 967 | random_state=0,stratify=y_train) # 分层采样拆分成训练集和测试集,测试集大小为原始数据集大小的 1/4 968 | 969 | def test_SVC_linear(*data): 970 | ''' 971 | 测试 SVC 的用法。这里使用的是最简单的线性核 972 | 973 | :param data: 可变参数。它是一个元组,这里要求其元素依次为:训练样本集、测试样本集、训练样本的标记、测试样本的标记 974 | :return: None 975 | ''' 976 | X_train,X_test,y_train,y_test=data 977 | cls=svm.SVC(kernel='linear') 978 | cls.fit(X_train,y_train) 979 | print('Coefficients:%s, intercept %s'%(cls.coef_,cls.intercept_)) 980 | print('Score: %.2f' % cls.score(X_test, y_test)) 981 | def test_SVC_poly(*data): 982 | ''' 983 | 测试多项式核的 SVC 的预测性能随 degree、gamma、coef0 的影响. 984 | 985 | :param data: 可变参数。它是一个元组,这里要求其元素依次为:训练样本集、测试样本集、训练样本的标记、测试样本的标记 986 | :return: None 987 | ''' 988 | X_train,X_test,y_train,y_test=data 989 | fig=plt.figure() 990 | ### 测试 degree #### 991 | degrees=range(1,20) 992 | train_scores=[] 993 | test_scores=[] 994 | for degree in degrees: 995 | cls=svm.SVC(kernel='poly',degree=degree) 996 | cls.fit(X_train,y_train) 997 | train_scores.append(cls.score(X_train,y_train)) 998 | test_scores.append(cls.score(X_test, y_test)) 999 | ax=fig.add_subplot(1,3,1) # 一行三列 1000 | ax.plot(degrees,train_scores,label="Training score ",marker='+' ) 1001 | ax.plot(degrees,test_scores,label= " Testing score ",marker='o' ) 1002 | ax.set_title( "SVC_poly_degree ") 1003 | ax.set_xlabel("p") 1004 | ax.set_ylabel("score") 1005 | ax.set_ylim(0,1.05) 1006 | ax.legend(loc="best",framealpha=0.5) 1007 | 1008 | ### 测试 gamma ,此时 degree 固定为 3#### 1009 | gammas=range(1,20) 1010 | train_scores=[] 1011 | test_scores=[] 1012 | for gamma in gammas: 1013 | cls=svm.SVC(kernel='poly',gamma=gamma,degree=3) 1014 | cls.fit(X_train,y_train) 1015 | train_scores.append(cls.score(X_train,y_train)) 1016 | test_scores.append(cls.score(X_test, y_test)) 1017 | ax=fig.add_subplot(1,3,2) 1018 | ax.plot(gammas,train_scores,label="Training score ",marker='+' ) 1019 | ax.plot(gammas,test_scores,label= " Testing score ",marker='o' ) 1020 | ax.set_title( "SVC_poly_gamma ") 1021 | ax.set_xlabel(r"$\gamma$") 1022 | ax.set_ylabel("score") 1023 | ax.set_ylim(0,1.05) 1024 | ax.legend(loc="best",framealpha=0.5) 1025 | ### 测试 r ,此时 gamma固定为10 , degree 固定为 3###### 1026 | rs=range(0,20) 1027 | train_scores=[] 1028 | test_scores=[] 1029 | for r in rs: 1030 | cls=svm.SVC(kernel='poly',gamma=10,degree=3,coef0=r) 1031 | cls.fit(X_train,y_train) 1032 | train_scores.append(cls.score(X_train,y_train)) 1033 | test_scores.append(cls.score(X_test, y_test)) 1034 | ax=fig.add_subplot(1,3,3) 1035 | ax.plot(rs,train_scores,label="Training score ",marker='+' ) 1036 | ax.plot(rs,test_scores,label= " Testing score ",marker='o' ) 1037 | ax.set_title( "SVC_poly_r ") 1038 | ax.set_xlabel(r"r") 1039 | ax.set_ylabel("score") 1040 | ax.set_ylim(0,1.05) 1041 | ax.legend(loc="best",framealpha=0.5) 1042 | plt.show() 1043 | def test_SVC_rbf(*data): 1044 | ''' 1045 | 测试 高斯核的 SVC 的预测性能随 gamma 参数的影响 1046 | 1047 | :param data: 可变参数。它是一个元组,这里要求其元素依次为:训练样本集、测试样本集、训练样本的标记、测试样本的标记 1048 | :return: None 1049 | ''' 1050 | X_train,X_test,y_train,y_test=data 1051 | gammas=range(1,20) 1052 | train_scores=[] 1053 | test_scores=[] 1054 | for gamma in gammas: 1055 | cls=svm.SVC(kernel='rbf',gamma=gamma) 1056 | cls.fit(X_train,y_train) 1057 | train_scores.append(cls.score(X_train,y_train)) 1058 | test_scores.append(cls.score(X_test, y_test)) 1059 | fig=plt.figure() 1060 | ax=fig.add_subplot(1,1,1) 1061 | ax.plot(gammas,train_scores,label="Training score ",marker='+' ) 1062 | ax.plot(gammas,test_scores,label= " Testing score ",marker='o' ) 1063 | ax.set_title( "SVC_rbf") 1064 | ax.set_xlabel(r"$\gamma$") 1065 | ax.set_ylabel("score") 1066 | ax.set_ylim(0,1.05) 1067 | ax.legend(loc="best",framealpha=0.5) 1068 | plt.show() 1069 | def test_SVC_sigmoid(*data): 1070 | ''' 1071 | 测试 sigmoid 核的 SVC 的预测性能随 gamma、coef0 的影响. 1072 | 1073 | :param data: 可变参数。它是一个元组,这里要求其元素依次为:训练样本集、测试样本集、训练样本的标记、测试样本的标记 1074 | :return: None 1075 | ''' 1076 | X_train,X_test,y_train,y_test=data 1077 | fig=plt.figure() 1078 | 1079 | ### 测试 gamma ,固定 coef0 为 0 #### 1080 | gammas=np.logspace(-2,1) 1081 | train_scores=[] 1082 | test_scores=[] 1083 | 1084 | for gamma in gammas: 1085 | cls=svm.SVC(kernel='sigmoid',gamma=gamma,coef0=0) 1086 | cls.fit(X_train,y_train) 1087 | train_scores.append(cls.score(X_train,y_train)) 1088 | test_scores.append(cls.score(X_test, y_test)) 1089 | ax=fig.add_subplot(1,2,1) 1090 | ax.plot(gammas,train_scores,label="Training score ",marker='+' ) 1091 | ax.plot(gammas,test_scores,label= " Testing score ",marker='o' ) 1092 | ax.set_title( "SVC_sigmoid_gamma ") 1093 | ax.set_xscale("log") 1094 | ax.set_xlabel(r"$\gamma$") 1095 | ax.set_ylabel("score") 1096 | ax.set_ylim(0,1.05) 1097 | ax.legend(loc="best",framealpha=0.5) 1098 | ### 测试 r,固定 gamma 为 0.01 ###### 1099 | rs=np.linspace(0,5) 1100 | train_scores=[] 1101 | test_scores=[] 1102 | 1103 | for r in rs: 1104 | cls=svm.SVC(kernel='sigmoid',coef0=r,gamma=0.01) 1105 | cls.fit(X_train,y_train) 1106 | train_scores.append(cls.score(X_train,y_train)) 1107 | test_scores.append(cls.score(X_test, y_test)) 1108 | ax=fig.add_subplot(1,2,2) 1109 | ax.plot(rs,train_scores,label="Training score ",marker='+' ) 1110 | ax.plot(rs,test_scores,label= " Testing score ",marker='o' ) 1111 | ax.set_title( "SVC_sigmoid_r ") 1112 | ax.set_xlabel(r"r") 1113 | ax.set_ylabel("score") 1114 | ax.set_ylim(0,1.05) 1115 | ax.legend(loc="best",framealpha=0.5) 1116 | plt.show() 1117 | if __name__=="__main__": 1118 | X_train,X_test,y_train,y_test=load_data_classfication() # 生成用于分类问题的数据集 1119 | test_SVC_linear(X_train,X_test,y_train,y_test) # 调用 test_SVC_linear 1120 | # test_SVC_poly(X_train,X_test,y_train,y_test) # 调用 test_SVC_poly 1121 | # test_SVC_rbf(X_train,X_test,y_train,y_test) # 调用 test_SVC_rbf 1122 | # test_SVC_sigmoid(X_train,X_test,y_train,y_test) # test_SVC_sigmoid test_SVC_linear 1123 | ``` 1124 | 1125 | 1126 | 1127 | 1128 | 1129 | #### 应用 1130 | 1131 | ##### 分类 1132 | 1133 | 通过支持向量机,我们可以对于日内策略进行一个简单的改进DEMO: 1134 | 1135 | 在日内策略中,很重要的一个问题就是如何识别真实突破: 1136 | 1137 | 很多时候,如DualHurst策略,R-breaker策略等等,对于突破的识别仅限于价格的简单关系,并没有理论的支撑,经常会出现一些由于价格波动导致的假突破而发生错误的交易信号。 1138 | 1139 | 支持向量机可以对于小样本的多维度向量进行快速的分析和分类,由于基于非线性的高维空间分类的方法,其分类精度超过了传统的分类方法,并可以对于非线性数据有着较好的适应度。 1140 | 1141 | ![简单的支持向量机原理示意](http://p1.bpimg.com/1949/3061ab9644fb00d7.gif) 1142 | 1143 | [简单的支持向量机原理示意] 1144 | 1145 | 我们可以通过对于前N日的开高收低,量,大单持仓等进行维度建模,先进行数据分解,再进行标准化,最后进行合成信号进行分类。 1146 | 1147 | 首先对于数据进行小波或者EMD分解,找到特定的周期特征部分,然后对于其特征部分进行前向标准化,放入维度矩阵,进行样本内训练,之后进行分类。 1148 | 1149 | 1150 | 1151 | 关于迁移学习,对于不同的商品期货品种进行训练,从而达到迁移学习的效果 1152 | 1153 | ##### 预测 1154 | 1155 | ### 神经网络以及深度学习 1156 | 1157 | ### 分类树算法C5.0以及随机森林 1158 | ### 聚类算法 1159 | ## 信号分解算法 1160 | 1161 | ### 小波分析 1162 | ### EMD算法 1163 | ## 迁移学习和增量算法 1164 | ## 增强学习Reinforcements -------------------------------------------------------------------------------- /svmStrategy/svmStrategy.m: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/yutiansut/QUANTAXIS_Strategy/fda6454ce6150825f26e88d20fa295c24293ea76/svmStrategy/svmStrategy.m --------------------------------------------------------------------------------