导航:首页 > 千股千评 > python分析一只股票获利上亿

python分析一只股票获利上亿

发布时间:2022-09-12 17:58:58

Ⅰ 如何利用Python预测股票价格

预测股票价格没有意义。
单支股票价格,多股组合,大盘这些都可以使用神经网络来学习,02年就做过了,涨跌预测平均能达到54%到57%的准确率,但是只能定性,无法定量,因此,在扣除印花税之后无利可图。

纯粹使用股票交易数据来预测并保证总体获利不是程序能办到的,人也办不到。
目前世界上最先进的炒股机器也只能利用网络时差那微不可计的零点几秒在欧洲与美国证券间倒来倒去,那套系统研发费用数千万,硬件(主要是独立光缆)费用以亿计。

Ⅱ python处理10亿级别数据求助

还没有仔细分析你的算法。第一个感觉,如果没有一个超级计算机,还是想办法优化你的算法。

通常在python里,一个字典只有支持几万到几十万数据量的时候效率最高。字典太大并不适合这种数据类型。

列表也不是存贮效率高的一种方式,通常我们大数据量计算会使用array,最差也要使用blist。

另外range也不可以的。要用xrange。xrange通常不消耗多少内存。range会用很多内存。

你上面的文字描述也没有讲明白你的算法目标。如果你讲得清楚,可以直接帮你优化一下算法。

整型的KEY,完全可以不用字典,只需要一个索引加一个一个数组就可以解决。

总体感觉你自己把算法弄得复杂了,应该可以有更简单得多的算法。先优化算法再做程序吧。即使你用java实现这个功能,也会出现内存不足。另外你代码里可通还有语法错误。

cums1,cums2,cums3应该是一个东西,为什么要弄三份。又不需要改写。一份足够了。

Ⅲ 如何用python代码判断一段范围内股票最高点

Copyright © 1999-2020, CSDN.NET, All Rights Reserved




登录

python+聚宽 统计A股市场个股在某时间段的最高价、最低价及其时间 原创
2019-10-12 09:20:50

开拖拉机的大宝

码龄4年

关注
使用工具pycharm + 聚宽数据源,统计A股市场个股在某时间段的最高价、最低价及其时间,并打印excel表格输出

from jqdatasdk import *
import pandas as pd
import logging
import sys
logger = logging.getLogger("logger")
logger.setLevel(logging.INFO)

# 聚宽数据账户名和密码设置
auth('username','password')

#获取A股列表,包括代号,名称,上市退市时间等。
security = get_all_securities(types=[], date=None)
pd2 = get_all_securities(['stock'])

# 获取股票代号
stocks = list(get_all_securities(['stock']).index)

# 获取股票名称
stocknames = pd2['display_name']

start_date = '2015-01-01'
end_date = '2018-12-31'
def get_stocks_high_low(start_date,end_date):
# 新建表,表头列
# 为:"idx","stockcode","stockname","maxvalue","maxtime","lowvalue","lowtime"
result = pd.DataFrame(columns=["idx", "stockcode", "stockname", "maxvalue", "maxtime", "lowvalue", "lowtime"])
for i in range(0,stocks.__len__()-1):
pd01 = get_price(stocks[i], start_date, end_date, frequency='daily',
fields=None, skip_paused=False,fq='pre', count=None)
result=result.append(pd.DataFrame({'idx':[i],'stockcode':[stocks[i]],'stockname':
[stocknames[i]],'maxvalue':[pd01['high'].max()],'maxtime':
[pd01['high'].idxmax()],'lowvalue': [pd01['low'].min()], 'lowtime':
[pd01['low'].idxmin()]}),ignore_index=True)

result.to_csv("stock_max_min.csv",encoding = 'utf-8', index = True)
logger.warning("执行完毕!

Ⅳ 如何用Python和机器学习炒股赚钱

如何用Python和机器学习炒股赚钱?(图片太多未贴,可以去找原文)

我终于跑赢了标准普尔 500 指数 10 个百分点!听起来可能不是很多,但是当我们处理的是大量流动性很高的资本时,对冲基金的利润就相当可观。更激进的做法还能得到更高的回报。
这一切都始于我阅读了 Gur Huberman 的一篇题为《Contagious Speculation and a Cure for Cancer: A Non-Event that Made Stock Prices Soar》的论文。该研究描述了一件发生在 1998 年的涉及到一家上市公司 EntreMed(当时股票代码是 ENMD)的事件:
“星期天《纽约时报》上发表的一篇关于癌症治疗新药开发潜力的文章导致 EntreMed 的股价从周五收盘时的 12.063 飙升至 85,在周一收盘时接近 52。在接下来的三周,它的收盘价都在 30 以上。这股投资热情也让其它生物科技股得到了溢价。但是,这个癌症研究方面的可能突破在至少五个月前就已经被 Nature 期刊和各种流行的报纸报道过了,其中甚至包括《泰晤士报》!因此,仅仅是热情的公众关注就能引发股价的持续上涨,即便实际上并没有出现真正的新信息。”
在研究者给出的许多有见地的观察中,其中有一个总结很突出:
“(股价)运动可能会集中于有一些共同之处的股票上,但这些共同之处不一定要是经济基础。”
我就想,能不能基于通常所用的指标之外的其它指标来划分股票。我开始在数据库里面挖掘,几周之后我发现了一个,其包含了一个分数,描述了股票和元素周期表中的元素之间的“已知和隐藏关系”的强度。
我有计算基因组学的背景,这让我想起了基因和它们的细胞信号网络之间的关系是如何地不为人所知。但是,当我们分析数据时,我们又会开始看到我们之前可能无法预测的新关系和相关性。

选择出的涉及细胞可塑性、生长和分化的信号通路的基因的表达模式
和基因一样,股票也会受到一个巨型网络的影响,其中各个因素之间都有或强或弱的隐藏关系。其中一些影响和关系是可以预测的。
我的一个目标是创建长的和短的股票聚类,我称之为“篮子聚类(basket clusters)”,我可以将其用于对冲或单纯地从中获利。这需要使用一个无监督机器学习方法来创建股票的聚类,从而使这些聚类之间有或强或弱的关系。这些聚类将会翻倍作为我的公司可以交易的股票的“篮子(basket)”。
首先我下载了一个数据集:http://54.174.116.134/recommend/datasets/supercolumns-elements-08.html,这个数据集基于元素周期表中的元素和上市公司之间的关系。
然后我使用了 Python 和一些常用的机器学习工具——scikit-learn、numpy、pandas、matplotlib 和 seaborn,我开始了解我正在处理的数据集的分布形状。为此我参考了一个题为《Principal Component Analysis with KMeans visuals》的 Kaggle Kernel:https://www.kaggle.com/arthurtok/principal-component-analysis-with-kmeans-visuals
importnumpy asnp
importpandas aspd
fromsklearn.decomposition
importPCA
fromsklearn.cluster
importKMeans
importmatplotlib.pyplot asplt
importseaborn assbnp.seterr(divide= 'ignore', invalid= 'ignore')
# Quick way to test just a few column features
# stocks = pd.read_csv('supercolumns-elements-nasdaq-nyse-otcbb-general-UPDATE-2017-03-01.csv', usecols=range(1,16))
stocks = pd.read_csv( 'supercolumns-elements-nasdaq-nyse-otcbb-general-UPDATE-2017-03-01.csv')print(stocks.head())str_list = []
forcolname, colvalue instocks.iteritems():
iftype(colvalue[ 1]) == str: str_list.append(colname)
# Get to the numeric columns by inversion
num_list = stocks.columns.difference(str_list)stocks_num = stocks[num_list]print(stocks_num.head())
输出:简单看看前面 5 行:

概念特征的皮尔逊相关性(Pearson Correlation)。在这里案例中,是指来自元素周期表的矿物和元素:
stocks_num = stocks_num.fillna(value= 0, axis= 1)X = stocks_num.values
fromsklearn.preprocessing importStandardScalerX_std = StandardScaler().fit_transform(X)f, ax = plt.subplots(figsize=( 12, 10))plt.title( 'Pearson Correlation of Concept Features (Elements & Minerals)')
# Draw the heatmap using seaborn
sb.heatmap(stocks_num.astype(float).corr(),linewidths= 0.25,vmax= 1.0, square= True, cmap= "YlGnBu", linecolor= 'black', annot= True)sb.plt.show()
输出:(这个可视化例子是在前 16 个样本上运行得到的)。看到元素周期表中的元素和上市公司关联起来真的很有意思。在某种程度时,我想使用这些数据基于公司与相关元素或材料的相关性来预测其可能做出的突破。

测量“已解释方差(Explained Variance)”和主成分分析(PCA)
已解释方差=总方差-残差方差(explained variance = total variance - resial variance)。应该值得关注的 PCA 投射组件的数量可以通过已解释方差度量(Explained Variance Measure)来引导。Sebastian Raschka 的关于 PCA 的文章对此进行了很好的描述,参阅:http://sebastianraschka.com/Articles/2015_pca_in_3_steps.html
# Calculating Eigenvectors and eigenvalues of Cov matirx
mean_vec = np.mean(X_std, axis= 0)cov_mat = np.cov(X_std.T)eig_vals, eig_vecs = np.linalg.eig(cov_mat)
# Create a list of (eigenvalue, eigenvector) tuples
eig_pairs = [ (np.abs(eig_vals[i]),eig_vecs[:,i]) fori inrange(len(eig_vals))]
# Sort from high to low
eig_pairs.sort(key = lambdax: x[ 0], reverse= True)
# Calculation of Explained Variance from the eigenvaluestot = sum(eig_vals)var_exp = [(i/tot)* 100fori insorted(eig_vals, reverse= True)] cum_var_exp = np.cumsum(var_exp)
# Cumulative explained variance# Variances plot
max_cols = len(stocks.columns) - 1plt.figure(figsize=( 10, 5))plt.bar(range(max_cols), var_exp, alpha= 0.3333, align= 'center', label= 'indivial explained variance', color = 'g')plt.step(range(max_cols), cum_var_exp, where= 'mid',label= 'cumulative explained variance')plt.ylabel( 'Explained variance ratio')plt.xlabel( 'Principal components')plt.legend(loc= 'best')plt.show()
输出:

从这个图表中我们可以看到大量方差都来自于预测主成分的前 85%。这是个很高的数字,所以让我们从低端的开始,先只建模少数几个主成分。更多有关分析主成分合理数量的信息可参阅:http://setosa.io/ev/principal-component-analysis
使用 scikit-learn 的 PCA 模块,让我们设 n_components = 9。代码的第二行调用了 fit_transform 方法,其可以使用标准化的电影数据 X_std 来拟合 PCA 模型并在该数据集上应用降维(dimensionality rection)。
pca = PCA(n_components= 9)x_9d = pca.fit_transform(X_std)plt.figure(figsize = ( 9, 7))plt.scatter(x_9d[:, 0],x_9d[:, 1], c= 'goldenrod',alpha= 0.5)plt.ylim( -10, 30)plt.show()
输出:

这里我们甚至没有真正观察到聚类的些微轮廓,所以我们很可能应该继续调节 n_component 的值直到我们得到我们想要的结果。这就是数据科学与艺术(data science and art)中的“艺术”部分。
现在,我们来试试 K-均值,看看我们能不能在下一章节可视化任何明显的聚类。
K-均值聚类(K-Means Clustering)
我们将使用 PCA 投射数据来实现一个简单的 K-均值。使用 scikit-learn 的 KMeans() 调用和 fit_predict 方法,我们可以计算聚类中心并为第一和第三个 PCA 投射预测聚类索引(以便了解我们是否可以观察到任何合适的聚类)。然后我们可以定义我们自己的配色方案并绘制散点图,代码如下所示:
# Set a 3 KMeans clustering
kmeans = KMeans(n_clusters= 3)
# Compute cluster centers and predict cluster indices
X_clustered = kmeans.fit_predict(x_9d) # Define our own color map
LABEL_COLOR_MAP = { 0: 'r', 1: 'g', 2: 'b'}label_color = [LABEL_COLOR_MAP[l] forl inX_clustered]
# Plot the scatter digram
plt.figure(figsize = ( 7, 7))plt.scatter(x_9d[:, 0],x_9d[:, 2], c= label_color, alpha= 0.5)plt.show()
输出:

这个 K-均值散点图看起来更有希望,好像我们简单的聚类模型假设就是正确的一样。我们可以通过这种颜色可视化方案观察到 3 个可区分开的聚类。
当然,聚类和可视化数据集的方法还有很多,参考:https://goo.gl/kGy3ra使用 seaborn 方便的 pairplot 函数,我可以以成对的方式在数据框中自动绘制所有的特征。我们可以一个对一个地 pairplot 前面 3 个投射并可视化:
# Create a temp dataframe from our PCA projection data "x_9d"
df = pd.DataFrame(x_9d)df = df[[ 0, 1, 2]]df[ 'X_cluster'] = X_clustered
# Call Seaborn's pairplot to visualize our KMeans clustering on the PCA projected data
sb.pairplot(df, hue= 'X_cluster', palette= 'Dark2', diag_kind= 'kde', size= 1.85)sb.plt.show()
输出:

构建篮子聚类(Basket Clusters)
你应该自己决定如何微调你的聚类。这方面没有什么万灵药,具体的方法取决于你操作的环境。在这个案例中是由隐藏关系所定义的股票和金融市场。
一旦你的聚类使你满意了,你就可以设置分数阈值来控制特定的股票是否有资格进入一个聚类,然后你可以为一个给定的聚类提取股票,将它们作为篮子进行交易或使用这些篮子作为信号。你可以使用这种方法做的事情很大程度就看你自己的创造力以及你在使用深度学习变体来进行优化的水平,从而基于聚类或数据点的概念优化每个聚类的回报,比如 short interest 或 short float(公开市场中的可用股份)。
你可以注意到了这些聚类被用作篮子交易的方式一些有趣特征。有时候标准普尔和一般市场会存在差异。这可以提供本质上基于“信息套利(information arbitrage)”的套利机会。一些聚类则和谷歌搜索趋势相关。

看到聚类和材料及它们的供应链相关确实很有意思,正如这篇文章说的一样:https://www.fairphone.com/en/2017/05/04/zooming-in-10-materials-and-their-supply-chains/
我仅仅使用该数据集操作了 Cobalt(钴)、Copper(铜)、Gallium(镓)和 Graphene(石墨烯)这几个列标签,只是为了看我是否可能发现从事这一领域或受到这一领域的风险的上市公司之间是否有任何隐藏的联系。这些篮子和标准普尔的回报进行了比较。
通过使用历史价格数据(可直接在 Quantopian、Numerai、Quandl 或 Yahoo Finance 使用),然后你可以汇总价格数据来生成预计收益,其可使用 HighCharts 进行可视化:

我从该聚类中获得的回报超过了标准普尔相当一部分,这意味着你每年的收益可以比标准普尔还多 10%(标准普尔近一年来的涨幅为 16%)。我还见过更加激进的方法可以净挣超过 70%。现在我必须承认我还做了一些其它的事情,但因为我工作的本质,我必须将那些事情保持黑箱。但从我目前观察到的情况来看,至少围绕这种方法探索和包装新的量化模型可以证明是非常值得的,而其唯一的缺点是它是一种不同类型的信号,你可以将其输入其它系统的流程中。
生成卖空篮子聚类(short basket clusters)可能比生成买空篮子聚类(long basket clusters)更有利可图。这种方法值得再写一篇文章,最好是在下一个黑天鹅事件之前。
如果你使用机器学习,就可能在具有已知和隐藏关系的上市公司的寄生、共生和共情关系之上抢占先机,这是很有趣而且可以盈利的。最后,一个人的盈利能力似乎完全关乎他在生成这些类别的数据时想出特征标签(即概念(concept))的强大组合的能力。
我在这类模型上的下一次迭代应该会包含一个用于自动生成特征组合或独特列表的单独算法。也许会基于近乎实时的事件,这可能会影响那些具有只有配备了无监督学习算法的人类才能预测的隐藏关系的股票组。

Ⅳ 如何用python做回归 判断这个股票和股指间的关系

一个大项目的完成不是楼主以为的一天就能完成,通常会延续一年月乃至数年,看当时的风有多大了。所以去深究一天的盘口意义不是特别大。
大作手如果对大的基本面判断失误,筹码、发动时机控制不好,锁筹小伙伴背后捅刀子,走水出现大的老鼠仓,资金链出问题,碰到其他有钱任性的机构,老婆偷人枪杀儿子导致脑子短路等等鸡飞狗跳的事情,项目做折掉,从庄家变股东的可能性也是非常大的,以亿计的现金灰飞烟灭不过分分钟的事情。
===============================================================
A股的死穴——要赚钱必须涨,做多是唯一出路。
做庄的基本原理:比如5元的标的,在底部拿够筹码,配合风信,能做多高做多高,比如做到50块,然后就一路压低卖下来,卖到15块,乃至10块。总有人觉得够
便宜了会要的。
===============================================================
步骤1:做底仓,一般是先买到流通盘的30%。
具体做法就是在熊市末期,对着往上敲,然后亏本往下砸。卖1个,跟着会掉下来2-3个,接住。做底吸筹这个时间段有时会很长,视实际筹码的收集情况和大盘走势而定。
看下图成交量,主力第一注就是下在中间偏左点的位置,进而不断往震荡吸筹。那么大的成交量,你总不会觉得是公众交易者干出来的吧。
tip:标准底部的特征就是脉冲式放量缩量,公众交易者不参与任何震荡,切记。底部持续时间越长,筹码控制越集中,以后上涨的高度越高,即所谓的横有多长竖有多高。同时尽量挑选底部形态比较标准的标的,一年时间跨度以上的大圆弧底、复合头肩、矩形底最好。越漂亮的走势图形控盘度越高,筹码散乱的状态下往往代表着多方博弈。

Ⅵ 求:运用基本分析法,技术分析法对任意一只股票进行分析,提出投资意见,(字数1500左右)急急急!

中金黄金(600489)前三季度业绩下滑。2012年前三季度实现营业收入270.37亿元,同比增长23.13%;营业成本235.70亿元,同比增长27.87%;营业利润21.42亿元,同比下降14.33%;归属上市公司股东净利润11.78亿元,同比下降18.39%。

业绩低于预期主要是矿产金品位下降等。2012年前三季度公司业绩不如预期,归属上市公司股东净利润同比下降18.39%;盈利能力下降,前三个季度综合毛利率持续回落,第三季度降至10.85%,较二季度回落1.55个百分点。主要原因是黄金产品品味下降和副产品铜价格下跌,个别子公司三季度受自然灾害等原因,产量下降。

行业景气度保持高位,公司资源增储稳步推进。全球主权信用受到冲击,主要经济体释放流动性刺激经济增长,导致硬资产黄金价格高位运行,预计这一状况维持较长时间。公司作为中国黄金龙头企业将长期受益黄金牛市。截止2011年底,公司黄金储量570吨,上半年收购新疆金福矿业股权,增储10吨左右,子公司新疆金滩收购新疆中发股权,增储10吨左右。中国黄金集团黄金资源储量1560吨左右,国内尚有400吨资源储量。

给予公司“增持”评级。尽管公司业绩低于预期,但是行业基本面持续向好,集团公司整体上市明确,公司基本面持续向好。预计2012-2013年每股收益0.54元和0.70元,按照11月2日收盘价,对应动态市盈率分别为29.81倍和23倍,估值水平基本合理,给以“增持”的投资评级。

Ⅶ python:从现在开始赚钱,第一天要一元,以后每一天都比上一天多10%,多少天后能成为亿万富翁

这个计算不需要编程,计算器就可以了。
log100000000/log(1+0.1) = 193.2708634
进一法取整,需要194天。
第193天是 9745万元。
第194天是 1亿719万元。

Ⅷ python对股票分析有什么作用

你好,Python对于股票分析来说,用处是很大的
Python,用数据软件分析可以做股票的量化程序,因为股票量化是未来的一种趋势,能够解决人为心理波动和冲动下单等不良行为,所以学好python量化的话,那么对股票来说有很大很大帮助

Ⅸ 怎样用 Python 写一个股票自动交易的程序

Ⅹ 谁会分析股票啊请举个例子具体分析一下。(只分析一支股票)谢谢!

均线教程

为求简单易懂,先来几张图:看有没什么规律。(这些图我是随机选出来的。)

一:天业股份


一、随便找一只股票,按此技术来分析,简简单单,重要的是纪律的执行到位情况。需要多分析练习,提高执行力,就一定可以,涨的时候,拿稳最大收益,在跌的时候,在刚开始下跌的开始就离场,把亏损减到最低。循环操作。就算是一年时间,用此方法只操作一只股票,都可以赚取收益。

二、用此方法分析大盘走势,更加精准。欢迎验证。

三、此方法乃本人自创,经验证,感觉还可以,起码可以做到小亏大赚,如有兴趣,也可加本人QQ:972770432讨论,谢谢!

阅读全文

与python分析一只股票获利上亿相关的资料

热点内容
威科夫股票交易和投资方法 浏览:891
兄弟科技是不是好股票 浏览:93
增持股票受st限制吗 浏览:256
科技产业的股票有哪些 浏览:394
湖北宜化集团股票走势 浏览:118
股票软件资金账号密码忘记了怎么办 浏览:41
中国邮轮公司股票 浏览:27
比特币股票价格行情走势 浏览:633
黄金股票未来投资价值 浏览:826
股票账户禁用后多久能解开 浏览:82
中央太平洋银行股票成交量 浏览:529
长期买股票可以成为懂事吗 浏览:907
行政处罚公告对股票的影响 浏览:511
定向增发股票对净资产的影响 浏览:29
股票和债券相比的好处 浏览:849
股票四大金刚指标 浏览:140
上市公司员工股票分红 浏览:741
深科技股票的历史 浏览:134
买股票了解什么软件 浏览:810
直系亲属股票账户备案 浏览:362