本文目錄一覽:
- 1、如何用python代碼判斷一段範圍內股票最高點
- 2、如何用python 接入實時行情數據
- 3、Python 如何爬股票數據
- 4、如何用python計算某支股票持有90天的收益率
- 5、python的量化代碼怎麼用到股市中
- 6、如何用python 爬蟲抓取金融數據
如何用python代碼判斷一段範圍內股票最高點
Copyright © 1999-2020, CSDN.NET, All Rights Reserved



登錄

python+聚寬 統計A股市場個股在某時間段的最高價、最低價及其時間 原創
2019-10-12 09:20:50

開拖拉機的大寶 
碼齡4年
關注
使用工具pycharm + 聚寬數據源,統計A股市場個股在某時間段的最高價、最低價及其時間,並打印excel表格輸出
from jqdatasdk import *
import pandas as pd
import logging
import sys
logger = logging.getLogger(“logger”)
logger.setLevel(logging.INFO)
# 聚寬數據賬戶名和密碼設置
auth(‘username’,’password’)
#獲取A股列表,包括代號,名稱,上市退市時間等。
security = get_all_securities(types=[], date=None)
pd2 = get_all_securities([‘stock’])
# 獲取股票代號
stocks = list(get_all_securities([‘stock’]).index)
# 獲取股票名稱
stocknames = pd2[‘display_name’]
start_date = ‘2015-01-01’
end_date = ‘2018-12-31’
def get_stocks_high_low(start_date,end_date):
# 新建表,表頭列
# 為:”idx”,”stockcode”,”stockname”,”maxvalue”,”maxtime”,”lowvalue”,”lowtime”
result = pd.DataFrame(columns=[“idx”, “stockcode”, “stockname”, “maxvalue”, “maxtime”, “lowvalue”, “lowtime”])
for i in range(0,stocks.__len__()-1):
pd01 = get_price(stocks[i], start_date, end_date, frequency=’daily’,
fields=None, skip_paused=False,fq=’pre’, count=None)
result=result.append(pd.DataFrame({‘idx’:[i],’stockcode’:[stocks[i]],’stockname’:
[stocknames[i]],’maxvalue’:[pd01[‘high’].max()],’maxtime’:
[pd01[‘high’].idxmax()],’lowvalue’: [pd01[‘low’].min()], ‘lowtime’:
[pd01[‘low’].idxmin()]}),ignore_index=True)
result.to_csv(“stock_max_min.csv”,encoding = ‘utf-8’, index = True)
logger.warning(“執行完畢!
如何用python 接入實時行情數據
有專門的實時行情API接口,例如微盛的實時行情API接口,通過類似這樣的接口就可以接入了。
Python 如何爬股票數據
現在都不用爬數據拉,很多量化平台能提供數據接口的服務。像比如基礎金融數據,包括滬深A股行情數據,上市公司財務數據,場內基金數據,指數數據,期貨數據以及宏觀經濟數據;或者Alpha特色因子,技術分析指標因子,股票tick數據以及百度因子數據這些數據都可以在JQData這種數據服務中找到的。
有的供應商還能提供level2的行情數據,不過這種比較貴,幾萬塊一年吧
如何用python計算某支股票持有90天的收益率
首先你要先獲得這支股票90天的數據,可以存在一個arry中。
然後計算收益率 r = (arry[89]-arry[0])/arry[0],如果要計算任意連續90天的話只要循環就可以了。
許多人更喜歡去做短線,因為短線刺激,無法承受長線持股待漲的煎熬,可是假如不會做短線,則可能會導致虧得更快。做T的秘籍大家一定很想知道,今天就給大家講講。
我準備了好處給大家,機構精選的牛股大盤點!希望大家不要錯過–速領!今日機構牛股名單新鮮出爐!
一、股票做T是什麼意思
現在市場上,A股的交易市場模式是T+1,意思就是今天買的股票,只有明天才能賣出。
而股票做T,當天買入的股票在當天賣出,這就是股票進行T+0的交易操作,投資人在可交易的一天通過股票的漲幅和跌停有了股票差價,在股票大幅下跌時趕緊買入,漲得差不多之後再將買入的部分賣出,就是用這種方法賺錢的。
假如說,在昨天我手裡還有1000股的xx股票,市價10元/股。今天一大早發現該股居然跌到了9.5元/股,然後趁機買入了1000股。結果到了下午時,這隻股票的價格就突然間大幅上漲到一股10.5元,我就急忙地以10.5/股的價格售出1000股,然後獲取(10.5-9.5)×1000=1000元的差價,這就是做T。
但是,不是每種股票做T都合適!正常來說,那些日內振幅空間較大的股票,它們是適合去做T的,比如說,每日能有5%的振幅空間。想知道某隻股票適不適合的,點開這裡去看一下吧,專業的人員會為你估計挑選出最適合你的T股票!【免費】測一測你的股票到底好不好?
二、股票做T怎麼操作
怎麼才能夠把股票做到T?正常情況下分為兩種方式,分別為正T和倒T。
正T即先買後賣,投資手裡,手裡面賺有這款股票,在當天股票開盤的時候下跌到了最低點時,投資者買入1000股,等到股票變高的時候在高點,將這1000股徹底賣出,持有的總股票數還是跟以前一樣,T+0的效果這樣就能夠達到了,又能夠享有中間賺取的差價。
而倒T即先賣後買。投資者通過嚴密計算得出,股票存在下降風險,因此在高位點先賣出手中的一部分股票,接着等股價回落後再去買進,總量仍舊有辦法保持不變,然而,收益是會產生的。
比方投資者,他佔有該股2000股,而10元/股是當天早上的市場價,覺得持有的股票在短時間內就會有所調整,,於是賣出手中的1500股,等股票跌到一股只需要9.5元時,這隻股票差不多就已經能讓他們感到滿意了,再買入1500股,這就賺取了(10-9.5)×1500=750元的差價。
這時有人就問了,那要如何知道買入的時候正好是低點,賣出的時候正好是高點?
其實有一款買賣點捕捉神器,它能夠判斷股票的變化趨勢,絕對能讓你每次都抓住重點,點開鏈接就能立刻領取到了:【智能AI助攻】一鍵獲取買賣機會
應答時間:2021-09-23,最新業務變化以文中鏈接內展示的數據為準,請點擊查看
python的量化代碼怎麼用到股市中
2010 ~ 2017 滬深A股各行業量化分析
在開始各行業的量化分析之前,我們需要先弄清楚兩個問題:
第一,A股市場上都有哪些行業;
第二,各行業自2010年以來的營收、凈利潤增速表現如何?
第一個問題
很好回答,我們使用JQData提供的獲取行業成分股的方法,輸入get_industries(name=’sw_l1′)
得到申萬一級行業分類結果如下:它們分別是:【農林牧漁、採掘、化工、鋼鐵、有色金屬、電子、家用電器、食品飲料、紡織服裝、輕工製造、醫藥生物、公用事業、交通運輸、房地產、商業貿易、休閑服務、綜合、建築材料、建築裝飾、電器設備、國防軍工、計算機、傳媒、通信、銀行、非銀金融、汽車、機械設備】共計28個行業。
第二個問題
要知道各行業自2010年以來的營收、凈利潤增速表現,我們首先需要知道各行業在各個年度都有哪些成分股,然後加總該行業在該年度各成分股的總營收和凈利潤,就能得到整個行業在該年度的總營收和總利潤了。這部分數據JQData也為我們提供了方便的接口:通過調用get_industry_stocks(industry_code=‘行業編碼’, date=‘統計日期’),獲取申萬一級行業指定日期下的行業成分股列表,然後再調用查詢財務的數據接口:get_fundamentals(query_object=‘query_object’, statDate=year)來獲取各個成分股在對應年度的總營收和凈利潤,最後通過加總得到整個行業的總營收和總利潤。這裡為了避免非經常性損益的影響,我們對凈利潤指標最終選取的扣除非經常性損益的凈利潤數據。
我們已經獲取到想要的行業數據了。接下來,我們需要進一步分析,這些行業都有什麼樣的增長特徵。
我們發現,在28個申萬一級行業中,有18個行業自2010年以來在總營收方面保持了持續穩定的增長。它們分別是:【農林牧漁,電子,食品飲料,紡織服裝,輕工製造,醫藥生物,公用事業,交通運輸,房地產,休閑服務,建築裝飾,電氣設備,國防軍工,計算機,傳媒,通信,銀行,汽車】;其他行業在該時間範圍內出現了不同程度的負增長。
那麼,自2010年以來凈利潤保持持續增長的行業又會是哪些呢?結果是只有5個行業保持了基業長青,他們分別是醫藥生物,建築裝飾,電氣設備,銀行和汽車。(註:由於申萬行業在2014年發生過一次大的調整,建築裝飾,電氣設備,銀行和汽車實際從2014年才開始統計。)
從上面的分析結果可以看到,真正能夠保持持續穩定增長的行業並不多,如果以扣非凈利潤為標準,那麼只有醫藥生物,建築裝飾,電氣設備,銀行和汽車這五個行業可以稱之為優質行業,實際投資中,就可以只從這幾個行業中去投資。這樣做的目的是,一方面,能夠從行業大格局層面避免行業下行的風險,繞開一個可能出現負增長的的行業,從而降低投資的風險;另一方面,也大大縮短了我們的投資範圍,讓投資者能夠專註於從真正好的行業去挑選公司進行投資。
「2010-2017」投資於優質行業龍頭的收益表現
選好行業之後,下面進入選公司環節。我們知道,即便是一個好的行業也仍然存在表現不好的公司,那麼什麼是好的公司呢,本文試圖從營業收入規模和利潤規模和來考察以上五個基業長青的行業,從它們中去篩選公司作為投資標的。
3.1按營業收入規模構建的行業龍頭投資組合
首先,我們按照營業收入規模,篩選出以上5個行業【醫藥生物,建築裝飾,電氣設備,銀行和汽車】從2010年至今的行業龍頭如下表所示:
可以看到,雖然時間跨度很長,但是在這5個行業中,營收規模大的公司始終處於領先地位。它們分別是【上海醫藥,中國建築,上海電氣,工商銀行,上汽集團】。
由於各年度上市公司年報的公布截止日是4月30日,待所有上市公司年報公布後,確定行業龍頭,然後將這些行業龍頭構建成一個投資組合。那麼,持有投資組合的收益表現如何呢?為了保證投資時間的一致性,我們假設從2015年4月30號之後的第一個交易日開始投資,本金是100萬,每個標的投資權重相同,都是20%,並且忽略交易成本,那麼持有該組合至2018年4月30號的投資收益是多少呢?
我們利用JQData提供的獲取行情接口get_price(security=’股票代碼’, start_date=’開始交易日’, end_date=’投資截止日’, frequency=’daily’, fields=None, skip_paused=False, fq=’pre’),分別獲取組合中各個公司在各年度開始交易日和投資截止日(4.30之後的第一個交易日)的價格,得到最終的投資結果如下圖所示:
可以看到,除了2015.5.4-2016.5.3股災期間,該組合投資收益率和上證指數、滬深300指數有一個同步的大幅下跌外,從2016.5.3至2018年5.2,改組合連續兩年獲得了正收益,並在2016年大幅跑贏另外兩個基準指數20%以上。
聰明的讀者一定會問這樣一個問題,如果我從2018年5月2號開始,投資100萬買入這樣一個按營收規模衡量的行業龍頭組合,至2018年5月30號,收益表現會如何呢?答案是【3.04%】,而同期上證指數收益率和滬深300收益率分別是【-0.20%】和【-0.39%】,可以說表現非常之好了。具體收益如下表所示:
3.2按扣非凈利潤規模構建的行業龍頭投資組合
如果我們按照扣除非經常性損益的凈利潤來衡量,以上5個行業從2010年至今的行業龍頭又會是哪些呢,我們查出來如下表所示:
可以看到,按照扣非凈利潤來構建投資組合,醫藥生物和電氣設備兩個行業分別發生了行業龍頭的更替,如果要構建基於扣非凈利潤的投資組合,那麼我們就需要每年去調整我們的組合標的以保證組合中都是上一年度的行業龍頭。和上述投資回測方式一樣,我們從2015年5月4號買入這樣一個組合,並在之後每年4月30號之後的第一個交易日調整組合中的行業龍頭標的,最終的投資結果如下表所示:
可以看到,即使是2015.4.30-2016.5.3股災期間,該組合也跑贏上證指數和滬深300指數3%左右;而2016.5.3至2018年5.2期間更是大幅跑贏兩個基準指數高達30%以上。
同樣的,如果從2018年5月2號開始,投資100萬買入這樣一個按扣非凈利潤規模衡量的行業龍頭組合,至2018年5月30號,收益表現會如何呢?答案是【2.83%】,對比同期上證指數收益率和滬深300指數的【-0.20%】和【-0.39%】,仍然維持了非常良好的表現。具體收益如下表所示:
結論
通過以上行業分析和投資組合的歷史回測可以看到:
先選行業,再選公司,即使是從2015年股災期間開始投資,至2018年5月1號,仍然能夠獲得相對理想的收益,可以說,紅杉資本的賽道投資法則對於一般投資者還是比較靠譜的。
在構建行業龍頭投資組合時,凈利潤指標顯著優於營業收入指標,獲得的投資收益能夠更大的跑贏全市場收益率
市場是不斷波動的,如果一個投資者從股災期間開始投資,那麼即使他買入了上述優質行業的龍頭組合,在近3年也只能獲得12%左右的累計收益;而如果從2016年5月3日開始投資,那麼至2018年5月2日,2年時間就能獲得超過50%以上的收益了。所以,在投資過程中選擇時機也非常重要。
出自:JoinQuant 聚寬數據 JQData
如何用python 爬蟲抓取金融數據
獲取數據是數據分析中必不可少的一部分,而網絡爬蟲是是獲取數據的一個重要渠道之一。鑒於此,我拾起了Python這把利器,開啟了網絡爬蟲之路。
本篇使用的版本為python3.5,意在抓取證券之星上當天所有A股數據。程序主要分為三個部分:網頁源碼的獲取、所需內容的提取、所得結果的整理。
一、網頁源碼的獲取
很多人喜歡用python爬蟲的原因之一就是它容易上手。只需以下幾行代碼既可抓取大部分網頁的源碼。
import urllib.request
url=’ar.com/stock/ranklist_a_3_1_1.html’ #目標網址headers={“User-Agent”:”Mozilla/5.0 (Windows NT 10.0; WOW64)”} #偽裝瀏覽器請求報頭request=urllib.request.Request(url=url,headers=headers) #請求服務器response=urllib.request.urlopen(request) #服務器應答content=response.read().decode(‘gbk’) #以一定的編碼方式查看源碼print(content) #打印頁面源碼
雖說抓一頁的源碼容易,不過在一個網站內大量抓取網頁源碼卻經常遭到服務器攔截,頓時感覺世界充滿了惡意。於是我開始研習突破反爬蟲限制的功法。
1.偽裝流浪器報頭
很多服務器通過瀏覽器發給它的報頭來確認是否是人類用戶,所以我們可以通過模仿瀏覽器的行為構造請求報頭給服務器發送請求。服務器會識別其中的一些參數來識別你是否是人類用戶,很多網站都會識別User-Agent這個參數,所以請求頭最好帶上。有一些警覺性比較高的網站可能還會通過其他參數識別,比如通過Accept-Language來辨別你是否是人類用戶,一些有防盜鏈功能的網站還得帶上referer這個參數等等。
2.隨機生成UA
證券之星只需帶User-Agent這個參數就可以抓取頁面信息了,不過連續抓取幾頁就被服務器阻止了。於是我決定每次抓取數據時模擬不同的瀏覽器發送請求,而服務器通過User-Agent來識別不同瀏覽器,所以每次爬取頁面可以通過隨機生成不同的UA構造報頭去請求服務器,
3.減慢爬取速度
雖然模擬了不同瀏覽器爬取數據,但發現有的時間段可以爬取上百頁的數據,有時候卻只能爬取十來頁,看來服務器還會根據你的訪問的頻率來識別你是人類用戶還是網絡爬蟲。所以我每抓取一頁都讓它隨機休息幾秒,加入此句代碼後,每個時間段都能爬取大量股票數據了。
4.使用代理IP
天有不測風雲,程序在公司時順利測試成功,回寢室後發現又只能抓取幾頁就被服務器阻止了。驚慌失措的我趕緊詢問度娘,獲知服務器可以識別你的IP,並記錄此IP訪問的次數,可以使用高匿的代理IP,並在抓取的過程中不斷的更換,讓服務器無法找出誰是真兇。此功還未修成,欲知後事如何,請聽下回分解。
5.其他突破反爬蟲限制的方法
很多服務器在接受瀏覽器請求時會發送一個cookie文件給瀏覽器,然後通過cookie來跟蹤你的訪問過程,為了不讓服務器識別出你是爬蟲,建議最好帶上cookie一起去爬取數據;如果遇上要模擬登陸的網站,為了不讓自己的賬號被拉黑,可以申請大量的賬號,然後再爬入,此處涉及模擬登陸、驗證碼識別等知識,暫時不再深究…總之,對於網站主人來說,有些爬蟲確實是令人討厭的,所以會想出很多方法限制爬蟲的進入,所以我們在強行進入之後也得注意些禮儀,別把人家的網站給拖垮了。
二、所需內容的提取
獲取網頁源碼後,我們就可以從中提取我們所需要的數據了。從源碼中獲取所需信息的方法有很多,使用正則表達式就是比較經典的方法之一。我們先來看所採集網頁源碼的部分內容。
為了減少干擾,我先用正則表達式從整個頁面源碼中匹配出以上的主體部分,然後從主體部分中匹配出每隻股票的信息。代碼如下。
pattern=re.compile(‘tbody[\s\S]*/tbody’)
body=re.findall(pattern,str(content)) #匹配tbody和/tbody之間的所有代碼pattern=re.compile(‘(.*?)’)
stock_page=re.findall(pattern,body[0]) #匹配和之間的所有信息
其中compile方法為編譯匹配模式,findall方法用此匹配模式去匹配出所需信息,並以列表的方式返回。正則表達式的語法還挺多的,下面我只羅列所用到符號的含義。
語法 說明
. 匹配任意除換行符“\n”外的字符
* 匹配前一個字符0次或無限次
? 匹配前一個字符0次或一次
\s 空白字符:[空格\t\r\n\f\v]
\S 非空白字符:[^\s]
[…] 字符集,對應的位置可以是字符集中任意字符
(…) 被括起來的表達式將作為分組,裡面一般為我們所需提取的內容
正則表達式的語法挺多的,也許有大牛隻要一句正則表達式就可提取我想提取的內容。在提取股票主體部分代碼時發現有人用xpath表達式提取顯得更簡潔一些,看來頁面解析也有很長的一段路要走。
三、所得結果的整理
通過非貪婪模式(.*?)匹配和之間的所有數據,會匹配出一些空白字符出來,所以我們採用如下代碼把空白字符移除。
stock_last=stock_total[:] #stock_total:匹配出的股票數據for data in stock_total: #stock_last:整理後的股票數據
if data==”:
stock_last.remove(”)
最後,我們可以打印幾列數據看下效果,代碼如下
print(‘代碼’,’\t’,’簡稱’,’ ‘,’\t’,’最新價’,’\t’,’漲跌幅’,’\t’,’漲跌額’,’\t’,’5分鐘漲幅’)for i in range(0,len(stock_last),13): #網頁總共有13列數據
print(stock_last[i],’\t’,stock_last[i+1],’ ‘,’\t’,stock_last[i+2],’ ‘,’\t’,stock_last[i+3],’ ‘,’\t’,stock_last[i+4],’ ‘,’\t’,stock_last[i+5])
原創文章,作者:GNUY,如若轉載,請註明出處:https://www.506064.com/zh-hant/n/133540.html